Megakanäle weltweit im Vergleich
Antje Karbe Hochschulkommunikation
Eberhard Karls Universität Tübingen
Wassertransfer-Megaprojekte sollen in Zukunft Süßwasserversorgung weltweit gewährleisten – Forschende haben bestehende und geplante Kanäle erstmals erfasst und gegenüber gestellt
Es gibt immer mehr große Kanäle und Rohrleitungen, die Süßwasser aus wasserreichen Regionen dorthin transportieren, wo es als Trinkwasser oder für Industrie und Landwirtschaft benötigt wird. 34 Mega-Anlagen existieren bereits, 76 weitere sind in Planung oder werden gebaut. Doch neben den Vorteilen des Wassertransfers sind die Auswirkungen auf Mensch und Ökosysteme enorm. Christiane Zarfl, Professorin für Umweltsystemanalyse von der Universität Tübingen, hat gemeinsam mit ihrer Doktorandin Oleksandra Shumilova vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und weiteren Forschungseinrichtungen diese sogenannten Wassertransfer-Megaprojekte (WTMP) nun erstmals systematisch erfasst. Die Ergebnisse wurden kürzlich in der Fachzeitschrift Frontiers in Environmental Science veröffentlicht.
„Künstliche Flüsse“ und riesige Rohre, also gewaltige Wassertransferanlagen, sollen in Zukunft die weltweite Wasserversorgung gewährleisten, denn Klimawandel, Industrie und Landwirtschaft lassen in manchen Regionen das Wasser knapp werden. In einigen Ländern, beispielsweise in China und den USA, sind WTMP bereits heute ein wichtiger Faktor. Zum Beispiel verbindet der knapp 1500 km lange Süd-Nord-Kanal Chinas wasserreichen Süden mit dem durstigen Norden, in dem sich unter anderem die Hauptstadt Peking befindet.
„Wassertransfer-Megaprojekte können für die Menschen in den betroffenen Regionen viele Vorteile bringen“, erklärt Shumilova. „Gleichzeitig gibt es aber häufig auch negative Auswirkungen auf sozialer, wirtschaftlicher und ökologischer Ebene; vor allem in den Gebieten, denen Wasser entnommen wird.“ Wasser gehe verloren durch Verdunstung oder Lecks, Regionen versalzten, Schadstoffe und invasive Arten könnten sich besser ausbreiten. Außerdem gebe es ein höheres Konfliktpotential zwischen Ländern, die dasselbe Flusseinzugsgebiet teilten.
„Wir haben Informationen zu allen aktuell bestehenden und bis zum Jahr 2050 geplanten Wassertransfer-Megaprojekten in einer Datenbank gesammelt“, erklärt Zarfl. „Wichtige Daten waren für uns beispielsweise die Wassermenge, die transferiert wird, die zu überwindende Entfernung, die geplanten und tatsächlichen Kosten und der Zweck des Wassertransfers“. Als WTMP gelten Bauprojekte, die über 1 Milliarde US-Dollar kosten, mindestens 190 Kilometer überwinden oder mehr als 0,23 km³ Wasser pro Jahr transportieren. Wenn alle im Bau befindlichen und geplanten Großprojekte fertiggestellt sind, werden die WTMP zusammen 1910 km³ Wasser transportieren; das ist etwa die 26-fache jährliche durchschnittliche Wassermenge des Rheins. Hintereinandergelegt sind sie etwa doppelt so lang wie der Äquator, über 80.000 Kilometer. Die Gesamtkosten aller Bauvorhaben schätzen die Forscherin-nen und Forscher auf voraussichtlich 2700 Milliarden US-Dollar.
Bislang wurden allerdings weder die Parameter der WTMP noch die Auswirkungen von einer zentralen Stelle gesammelt. Diese Lücke schließt das Forschungsprojekt und schafft damit eine Voraussetzung für international vereinbarte Kriterien, die den Aufbau, die Leistungsfähigkeit und die Auswirkungen der künstlichen Flüsse auf Mensch und Umwelt vergleichbarer machen. „Bei der Planung künftiger Megaprojekte wird es somit leichter, Kosten und Umweltfolgen einzuschätzen und dem Nutzen gegenüberzustellen“, erläutert Zarfl. „In künftigen Forschungen möchten wir vor allem die Auswirkungen dieser gewaltigen Projekte untersuchen und die Risiken, die damit verbunden sind.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Christiane Zarfl
Universität Tübingen
Umweltsystemanalytik
Telefon +49 7071 29-76076
christiane.zarfl@uni-tuebingen.de
Originalpublikation:
Oleksandra Shumilova, Klement Tockner, Michele Thieme, Anna Koska, Christiane Zarfl: Global Water Transfer Megaprojects: A Potential Solution for the Water-Food-Energy Nexus? In: Frontiers in Environmental Science. https://doi.org/10.3389/fenvs.2018.00150
Quelle: idw
Arbeit mit den Elementen: Zum Internationalen Jahr des Periodensystems
Alexander Knebel Presse- und Öffentlichkeitsarbeit
Zuse-Gemeinschaft
Es ist 150 Jahre jung, wächst weiter und hat ein faszinierendes Innenleben: Das Periodensystem der Elemente wird von den Vereinten Nationen wegen seines Stellenwerts für Wissenschaft und Wirtschaft 2019 mit einem Weltjahr geehrt. Viele Forschungsinstitute der Zuse-Gemeinschaft haben eine besondere Beziehung zum Periodensystem, denn sie sind spezialisiert auf innovative Anwendungen in Chemie, Physik und Materialwissenschaften.
Unabhängig voneinander ordneten Dmitri Mendelejew (1834-1907) und wenige Monate später Lothar Meyer (1830-1895) die chemischen Elemente nach ihren Eigenschaften so, dass Prognosen über noch nicht entdeckte Elemente leichter fielen. Derzeit listet das Periodensystem 118 verschiedene Elemente, beginnend mit Wasserstoff und auf heutigen Darstellungen meist endend mit dem erst 2005 entdeckten Element 118, dem Oganesson.
Menschen-Atome zu mehr als 99 Prozent Wasserstoff, Sauerstoff, Kohlenstoff, Stickstoff
Während die Grundlagenforschung im Periodensystem auf der Suche nach immer schwereren, neuen Elementen mit extrem kurzen Halbwertszeiten ist, gewinnt die anwendungsorientierte Forschung ihren Reiz auch aus der Arbeit mit der riesigen Vielfalt der Eigenschaften, welche die Verbindung verschiedener Elemente schafft. Mehr als 99 Prozent der Atome, aus denen der Mensch besteht, sind entweder Wasserstoff, Kohlenstoff, Stickstoff oder Sauerstoff. Jedes der Elemente im verbleibenden Prozent ist aber genauso wichtig, so z.B. Kalzium für den Knochenbau, Eisen für das Blutbild, oder Magnesium für Muskelfunktion und Eiweißsynthese.
Kleine Veränderungen mit radikalen Konsequenzen
Auch bei anorganischen Stoffen führt bereits die Zugabe kleinster Mengen eines Elements zu radikalen Veränderungen der Eigenschaften. So wandelt sich das Element Silizium – eines der häufigsten Elemente auf der Erde – schon bei Zugabe eines millionsten Teils (ppm) des Elements Bor radikal und wird von einem Halbleiter zu einem Leiter. „Das liegt an den durch das Bor verursachten Änderungen in den Bindungsstrukturen der Siliziumatome in ihrem Kristallgitter“, erläutert Georg J. Schmitz von Access e.V., einem Forschungsinstitut der Zuse-Gemeinschaft, das Schwerpunkte seiner Expertise in der Herstellung, Modellierung und Analyse metallischer Legierungen hat.
Elemente in Legierungen maßgeschneidert kombinieren
Welchen wirtschaftlichen Stellenwert Legierungen besitzen, zeigt sich exemplarisch am Stahl: Allein das einschlägige europäische Register zählt rd. 2.400 Sorten von denen etwa die Hälfte in den letzten zwanzig Jahren entwickelt wurde. „Eine Faszination der Metallforschung liegt darin, die gewünschten Eigenschaften der Elemente in technischen Legierungen für einen bestimmten Anwendungsfall maßgeschneidert zu kombinieren. Neben der Zusammensetzung der Legierungen aus den verschiedenen Elementen spielt hierbei die Verfahrenstechnik wie beispielsweise Temperatur-Zeitverläufe eine ebenso große Rolle“, betont Schmitz.
Das einfachste Element mit großer Reaktionsfreude
Bei „Überdosierung“ eines Elementes kann es auch zu unerwünschten Nebenwirkungen kom¬men. Ein Beispiel hierfür ist die sogenannte Wasserstoffversprödung, bei der überschüs-siger Wasserstoff die mechanischen Eigenschaften eines Metalls negativ beeinflusst. Das Wasserstoff-Atom mit einem Proton und einem Elektron ist das einfachste und zugleich ein sehr reaktionsfreudiges Element. In Zeiten der Energiewende hat es wieder Konjunktur: Für eine Energieversorgung die sich hauptsächlich aus erneuerbaren Quellen speist, benötigt man einen speicherbaren und universell einsetzbaren Energieträger. Die Wissenschaftler am Gastechnolo¬gischen Institut (DBI) in Freiberg untersuchen nicht nur, wie sich Wasserstoff problemlos ins Erdgasnetz einspeisen lässt, sondern wollen auch die Nutzung von Wasserstoff zur Strom- und Wärmenutzung am Arbeitsplatz und in den eigenen vier Wänden voranbringen. Dazu haben sie im Verbundprojekt HYPOS für die Versorgung von Gewerbebetrieben und Mehrfamilienhäusern mit Strom und Wärme aus grünem Wasserstoff technische Lösungen entwickelt und Fragen rund um die Schnittstelle von Wasserstoff- und Erdgastransport bearbeitet.
Verbinden und Trennen
Die Trennung von Elementen ist nicht nur eine Aufgabe für die energetische Nutzung von Wasserstoff, der in der Natur praktisch nur in Verbindungen vorkommt. Auch an anderen Stellen in der Zuse-Gemeinschaft beschäftigt man sich mit dem Trennen von Elementen: Das Deutsche Textilforschungszentrum Nord West (DTNW) hat ein neuartiges, funktionelles Textil aus Polyester und Polyvinylamin entwickelt, mit dem sich Edelmetalle wie z.B. Palladium aus niedrigkonzentrierten Industriewässern gewinnen lassen. Leitet man ein edelmetallhaltiges Wasser über das Textil, wird das Metall am Textil zurückgehalten, bevor das Palladium in seiner reinen Form zurückgewonnen werden kann.
Beitrag honorieren
Textilien bestehen zumeist aus organischen Verbindungen. Die häufigste organische Verbindung ist die Zellulose als Hauptbestandteil pflanzlicher Zellwände mit den Elementen Wasserstoff, Sauerstoff und Kohlenstoff. „Die Zellulose mit ihren drei Elementen kann Inspiration für eine am Kreislaufgedanken orientierte Chemie sein, die mit der Natur arbeitet“, erklärt der Präsident der Zuse-Gemeinschaft, Dr. Ralf-Uwe Bauer. Die Entscheidung der Vereinten Nationen für Jahr des Periodensystems biete Gelegenheit, den Stellenwert von Chemie und Physik für Wirtschaft und Gesellschaft aufzuzeigen. Dr. Bauer: „Dazu leisten wir in der Zuse-Gemeinschaft mit unserer engagierten Forschung für Unternehmen und Gesellschaft schon heute technologieübergreifend einen wichtigen Beitrag, der politisch allerdings noch zu wenig gewürdigt wird.“
Anhang
PM der Zuse-Gemeinschaft: Arbeit mit den Elementen – Zum Internationalen Jahr des Periodensystems
https://idw-online.de/de/attachment70540
Quelle: idw
Wie gute Vorsätze im Job umgesetzt werden können
Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
Zum Jahreswechsel formulieren viele nicht nur private, sondern auch berufliche Vorsätze. Um diese im Arbeitsalltag umsetzen sowie zahlreiche Aufgaben im Job meistern zu können, braucht es Willenskraft. Dabei spielt es eine Rolle, wie wir unsere Fähigkeit zur Selbstkontrolle einschätzen: Wer davon ausgeht, dass Willenskraft kaum Grenzen kennt, fühlt sich nach mental anstrengenden Aufgaben weniger erschöpft und kann Selbstkontrolle erfolgreicher aufrechterhalten. Zu diesen Erkenntnissen kommt eine aktuelle Studie am Leibniz-Institut für Arbeitsforschung.
„Im kommenden Jahr nehme ich den Job lockerer und arbeite besser mit Kollegen und Kunden zusammen“ – berufliche Neujahresvorsätze gehen aktuell wohl vielen durch den Kopf. Die Beispiele verdeutlichen, dass Anforderungen, bei denen wir unsere Emotionen im Griff haben müssen, in vielen Bereichen der modernen Arbeitswelt selbstverständlich geworden sind. Vom Verkaufspersonal wird beispielsweise erwartet, dass es im Kundenkontakt stets freundlich ist. Unsere wahren Gefühle zugunsten zielorientierten Verhaltens zu unterdrücken, verlangt ein hohes Maß an Selbstkontrolle. Das strengt uns an und kann zur Erschöpfung führen.
Frühere Studien konnten zeigen, dass die Fähigkeit zur Selbstkontrolle stark abnimmt, wenn wiederholt Aufgaben erledigt werden müssen, bei denen man sich kontrollieren muss. Diese lange vorherrschende Annahme von Willenskraft als eine nur begrenzt verfügbare Ressource wird jedoch seit einigen Jahren infrage gestellt. Neuere Erkenntnisse deuten darauf hin, dass es einen Einfluss hat, welches Konzept von Willenskraft in unserem Kopf vorherrscht: Wer davon ausgeht, dass Willenskraft nicht leicht erschöpfbar ist, sondern uns unlimitiert zur Verfügung steht, schneidet bei anhaltenden mental anstrengenden Aufgaben besser ab, als Personen, die von einer nur begrenzt verfügbaren Ressource der Willenskraft ausgehen. Diese Erkenntnisse beruhten bislang auf Laborexperimenten. Forschende am Leibniz-Institut für Arbeitsforschung an der TU Dortmund (IfADo) haben nun erstmals auch für den Arbeitsalltag bestätigt, dass sich bestimmte Vorstellungen von Willenskraft auf die Leistungsfähigkeit auswirken können.
Auf die Einstellung kommt es an
Dazu haben sie eine Tagebuchstudie mit 71 Teilnehmerinnen und Teilnehmer durchgeführt, die alle regelmäßig beruflich in Kontakt mit Kunden, Patienten oder Geschäftspartnern stehen. An zehn aufeinanderfolgenden Arbeitstagen beantworteten die Probanden zweimal pro Tag online einen Fragebogen. Am Nachmittag wurde abgefragt, wie häufig die Probanden am Tag ihre Emotionen der jeweiligen Situation anpassen und somit Selbstkontrolle ausüben mussten. Zudem ging es um die Frage, wie erschöpft sie sich fühlten. Am Abend bewerteten die Studienteilnehmer erneut ihr Wohlbefinden. Vor dem Start der Befragung wurde zudem erhoben, welche Vorstellung die Probanden über Willenskraft haben. Dazu mussten sie bewerten, was sie von bestimmten Aussagen halten, wie „Nach einer mental anstrengenden Aktivität fühlt man sich angeregt für neue herausfordernde Aufgaben“.
„Probanden, die bei der Arbeit ihre Emotionen kontrollieren mussten, profitierten unmittelbar von der Vorstellung, dass Willenskraft nahezu unbegrenzt verfügbar ist. Sie fühlten sich weniger erschöpft durch die Emotionsarbeit, auch zu Hause nach einem anstrengenden Arbeitstag“, fasst IfADo-Studienautorin Anne-Kathrin Konze einen Teil der Studie zusammen, die im „European Journal of Work and Organizational Psychology“ veröffentlicht wurde.
Nicht Grenzen, sondern Möglichkeiten betonen
„Unsere Willenskraft ist möglicherweise nicht so stark begrenzt, wie wir ursprünglich vermutet haben. Gehen wir dennoch davon aus, dass unsere Fähigkeit zur Selbstkontrolle schnell aufgebraucht ist, werden wir gewohnheitsmäßig unsere eigenen Fähigkeiten unterschätzen“, so Konze weiter. Auch die Unternehmenskultur kann einen Einfluss darauf nehmen, welche Einstellung Angestellte bezüglich der Grenzen von Willenskraft haben. „In einem Unternehmen, in dem eher die Grenzen des Machbaren betont, statt Möglichkeiten herausgestellt werden, können Mitarbeiter dazu verleitet werden, an eine sehr stark begrenzte Ressource der Willenskraft zu glauben. Das kann im schlimmsten Fall dazu führen, dass einzelne Teammitglieder das Optimum ihrer Leistungsfähigkeit verfehlen“, sagt IfADo-Arbeitspsychologin Konze.
Wer sich für 2019 vornimmt, im Job disziplinierter zu sein, der profitiert bei der Umsetzung dieses Vorsatzes von der Vorstellung, dass uns Willenskraft nahezu unbegrenzt zur Verfügung steht.
Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 220 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 93 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 19.100 Personen, darunter 9.900 Wissenschaftlerinnen und Wissenschaftler.
Wissenschaftliche Ansprechpartner:
Anne-Kathrin Konze
Wissenschaftliche Mitarbeiterin
Forschungsgruppe „Flexible Verhaltenssteuerung“
E-Mail: konze@ifado.de
Pressekontakt:
Eva Mühle
Pressereferentin
Telefon: + 49 231 1084-239
E-Mail: muehle@ifado.de
Originalpublikation:
Konze, A. K., Rivkin, W., Schmidt, K. H. (2018): Can Faith Move Mountains? How Implicit Theories about Willpower Moderate the Adverse Effect of Daily Emotional Dissonance on Ego-Depletion at Work and Its Spillover to the Home-Domain. European Journal of Work and Organizational Psychology. doi: 10.1080/1359432X.2018.1560269
Weitere Informationen:
https://www.ifado.de/blog/2018/12/28/vorsaetze/
Quelle: idw
Licht für die Wurzelentwicklung
Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Die Organbildung von Pflanzen passt sich mit Hilfe einer molekularen Uhr an äußere Bedingungen an
Die Freiburger Pflanzenbiologen Dr. Stefan Kircher und Prof. Dr. Peter Schopfer vom Institut für Biologie II der Albert-Ludwigs-Universität haben gezeigt, dass der Umweltfaktor Licht die Ausgestaltung des pflanzlichen Wurzelsystems durch Neubildung von Seitenwurzeln steuert. Licht moduliert die Frequenz von periodischen Genaktivierungspulsen in der Wurzelspitze mit Hilfe eines molekularen Schwingkreises, eines so genannten Oszillatorsystems. Dabei übernimmt das Pflanzenhormon Auxin die Rolle des Zeitgebers, beeinflusst also die Frequenz der Schwingungen. Ihre Studie veröffentlichten die Forschenden im Fachjournal „Development“.
Pflanzen bilden Seitenwurzeln, die in einem regelmäßig angeordneten Muster aus ihrer Hauptwurzel hervortreten und so ein Wurzelsystem bilden, welches zur Aufnahme von Wasser und Mineralstoffen aus dem Boden dient. Es war schon lange bekannt, dass das Pflanzenhormon Auxin maßgeblich an dieser Neubildung von Wurzelorganen beteiligt ist. Kontrovers diskutiert wird jedoch der molekulare Mechanismus, der für die Häufigkeit und Anordnung der Seitenwurzeln entlang der Hauptwurzel verantwortlich ist. Kircher und Schopfer haben nun nachgewiesen, dass hierbei dem Licht eine zentrale Rolle zukommt: Licht moduliert intensitätsabhängig sowohl die periodische Anlage des frühen Genaktivierungsmusters an den Stellen späterer Seitenwurzelentwicklung als auch die weiteren Wachstumsstadien bis hin zum Austritt der Seitenwurzel aus der Hauptwurzel. Basierend auf diesen Erkenntnissen, entwickelten die Freiburger Biologen in Übereinstimmung mit Daten anderer Forschungsgruppen ein molekulares Funktionsmodell einer von Auxin gesteuerten biologischen Uhr: Je mehr Licht einstrahlt, umso mehr Auxin bildet sich, umso schneller läuft die Uhr – und so erhöht sich Häufigkeit der Anlage von Seitenwurzeln pro Zeiteinheit. Nach Ansicht der Autoren repräsentiert dieses Modell einen neuartigen Typ einer biologischen Uhr mit modulierbarer Frequenz, das auch bei Entwicklungsprozessen jenseits des Pflanzenreichs Anwendung finden könnte.
Die Forschungsarbeit ist Teil des von der Deutschen Forschungsgemeinschaft geförderten Projekts „Die Entwicklung und Lichtregulation von Seitenwurzeln in Arabidopsis-Keimlingen“.
Wissenschaftliche Ansprechpartner:
Dr. Stefan Kircher
Institut für Biologie II
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-2807
E-Mail: stefan.kircher@biologie.uni-freiburg.de
Originalpublikation:
Kircher, S. / Schopfer, P. (2018): The plant hormone auxin beats the time for oscillating light-regulated lateral root induction. In: Development 2018 145: dev169839. DOI: 10.1242/dev.169839
Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2018/licht-fuer-die-wurzelentwicklung
Quelle: idw
Neue biologische Verfahren im Trink- und Grundwassermanagement
Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Die Trinkwasserkonferenz „Neue biologische Verfahren im Trink- und Grundwassermanagement“ vom 19. Bis 21. März 2019 in Landau stellt neueste Entwicklungen und Methoden vor und will Wissenschaftler und Praktiker zusammen bringen.
Neue Anforderungen im Risikomanagement und in der Qualitätssicherung im Trink- und Grundwasserschutz verlangen neue Verfahren. In den vergangenen Jahren hat eine beeindruckende Entwicklung stattgefunden. Neue Biologische Verfahren im Trink- und Grundwassermanagement bieten mittlerweile maßgeschneiderte Einsatzmöglichkeiten für die Praxis. Die Trinkwasserkonferenz „Neue biologische Verfahren im Trink- und Grundwassermanagement“ vom 19. Bis 21. März 2019 in Landau, greift diese Herausforderungen auf und stellt die neuesten Entwicklungen und Methoden vor.
Die Tagung zeigt den aktuellen Stand der Forschung und die Möglichkeiten und Perspektiven für die Praxis auf. Sie führt Praktiker aus Trinkwasserversorgung und Wasserwirtschaft mit den Wissenschaftlern zusammen, die an den neuen, anwendungsorientierten Techniken arbeiten. Aktuell befassen sich mehrere Forschungsprojekte mit neuen biologischen Verfahren für die wasserwirtschaftliche Praxis und die Trinkwasserversorgung. Ergebnisse dieser Projekte und ihre Anwendung in der Praxis werden auf der Tagung in Landau ebenso vorgestellt, wie bereits verfügbare biologische Verfahren.
Gemeinsame Veranstalter der Trinkwasserkonferenz sind das Institut für Grundwasserökologie IGÖ GmbH, das Institut für Umweltwissenschaften der Universität Koblenz-Landau, das Institut für Grundwasserwirtschaft an der Fakultät Umweltwissenschaften der Technischen Universität Dresden und die Fachsektion Hydrogeologie e.V. in der Deutschen Geologischen Gesellschaft – Geologische Vereinigung e.V. (FH-DGGV).
Weitere Informationen zur Tagung und Anmeldung unter
https://grundwasseroekologie.de/
Wissenschaftliche Ansprechpartner:
PD Dr. Hans Jürgen Hahn
Institut für Grundwasserökologie
Tel: 06341 / 280-31590
E-Mail: hjhahn@uni-landau.de
Weitere Informationen:
https://grundwasseroekologie.de/
Quelle: idw
Empathie bei Führungskräften: Zu viel Einfühlungsvermögen schadet in Krisensituationen
Katrina Jordan Abteilung Kommunikation
Universität Passau
Empathie kann bei Vorstandsvorsitzenden zu absurden Entscheidungen führen – wie beispielsweise hohe Boni für diejenigen, die für die Krise verantwortlich sind. Das ist eine der Aussagen einer konzeptionellen Studie von Forschenden aus Passau und den USA, die in dem angesehenen Journal „Academy of Management Review“ erschienen ist.
Empathie – darunter verstehen die Autoren und die Autorin der Studie eine Persönlichkeitseigenschaft, die zunächst einmal positiv besetzt ist. Sie beschreibt unter anderem die Fähigkeit, sich in andere Menschen einfühlen zu können.
„Es handelt sich um eine Eigenschaft, die Vorstandsvorsitzende haben sollten“, erklärt Prof. Dr. Andreas König, Inhaber des Lehrstuhls für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau. „Denn Empathie hilft in vielen Situationen, insbesondere auch in Krisen. Das Problem ist, dass sie auch Schaden anrichten kann.“
Die Autoren und die Autorin nennen in der Studie unter anderem das Beispiel von Robert Benmosche, dem langjährigen Chef des US-Versicherers AIG, der in der Hochphase der Finanzkrise Boni in Millionen-Höhe an Personen auszahlte, die für die Misere verantwortlich waren. Befragt nach seinen Motiven nannte Benmosche sein Mitgefühl mit dieser Gruppe.
Die Forschenden stellen in ihrer Studie zum Einfluss von Empathie auf das Krisenmanagement von Führungskräften folgende Thesen auf:
• Je empathischer eine Führungskraft ist, umso schneller erkennt sie mögliche Warnsignale – wird aber auch Krisen sehen, wo gar keine sind. Empathischere Führungskräfte erklären häufiger falschen Alarm.
• Empathie hilft Führungskräften, in der Krise an die relevanten Informationen zu kommen, macht sie aber auch voreingenommen in der Verarbeitung dieser Informationen. Fachkräfte teilen ihr Wissen eher mit einer/m Vorgesetzten, die oder der empathisch ist. Allerdings fehlt einer solchen Person in Krisensituationen der kühle Kopf, um die Informationen nüchtern auszuwerten.
• Je empathischer eine Führungskraft ist, desto leichter fällt es ihr, Mitgefühl und Verständnis zu zeigen – das ist grundsätzlich lobenswert, oft aber nur bis zu einem gewissen Grade richtig. In der Krisenkommunikation darf eine Führungskraft im Interesse des Unternehmens und der Beschäftigten nicht voreilig zu viel Verantwortung auf sich nehmen. Sonst kann das Bild, das Stakeholder wie die Öffentlichkeit und Investoren von der Organisation haben, unberechtigterweise kippen, mit langfristigem Schaden für alle Organisationsmitglieder.
• Je empathischer eine Führungskraft ist, desto besser gelingt es ihr, das verletzte Beziehungssystem nach einer Krise zu heilen – aber desto schwerer fällt es ihr, operativen Schaden zu beseitigen. Eine empathischere Führungskraft kann besser erkennen, wann die Belegschaft bereit ist, einen Neuanfang zu wagen. Allerdings bleibt dieser Führungskraft kaum Zeit, um operative Herausforderungen und technische Detailarbeit zu meistern.
„Die Kernbotschaft unserer Studie lautet: In vielen Aspekten beeinflusst Empathie das Krisenmanagement zunächst positiv. Doch es gibt einen Punkt, an dem das Verhältnis kippt. Empathie von Vorstandsvorsitzenden und effektives Krisenmanagement stehen also in einem umgekehrt U-förmigen Zusammenhang“, erklärt der Passauer Innovationsforscher Prof. Dr. König. Die Studie ist unter dem Titel „A blessing and a curse: How CEOs‘ empathy affects their management of organizational crises“ im Academy of Management Review erschienen, einer der international bedeutendensten wissenschaftlichen Zeitschriften zu betriebswirtschaftlichen Themen.
Über die Autoren und die Autorin:
• Prof. Dr. Andreas König, Inhaber des Lehrstuhls für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau
• Dr. Lorenz Graf-Vlachy, Akademischer Rat am Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Strategisches Management, Innovation und Entrepreneurship an der Universität Passau
• Prof. Dr. Jon Bundy, Assistant Professor an der W.P. Carey School of Business der Arizona State University (USA).
• Prof. Dr. Laura Little, Associate Professor am Terry College of Business der University of Georgia (USA) und Direktorin des dortigen Instituts für Leadership Advancement.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas König
andreas.koenig@uni-passau.de
Originalpublikation:
https://journals.aom.org/doi/10.5465/amr.2017.0387 – Originalstudie „A blessing and a curse: How CEOs‘ empathy affects their management of organizational crisis“
Weitere Informationen:
https://univideo.uni-passau.de/2018/11/prof-dr-andreas-koenig-ueber-empathie-bei… – Video zur Studie
Quelle: idw
Einfach mal abschalten: Die schnelle Erholung zwischendurch
Eva Mühle Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Arbeitsforschung an der TU Dortmund
„Im Urlaub kann ich mich dann endlich erholen“ – mit diesem Gedanken trösten sich viele Arbeitnehmer, wenn es im Job zu viel wird. In Wirklichkeit sind die Wechselwirkugen zwischen Arbeitsbelastung, Erschöpfung und Erholung deutlich dynamischer: Ein anstrengender Arbeitstag bereits am selben Tag zu Erschöpfung führen und das Wohlbefinden am Feierabend beeinträchtigen. Genauso kurzfristig wie die Erschöpfung kommt, sollte auch Zeit für die Erholung eingeräumt werden: Bewusstes Abschalten zu Hause fördert die Regeneration und verhindert, dass der Arbeitstag die anschließende Freizeit beeinflusst. Das zeigt eine Tagebuch-Studie des Leibniz-Instituts für Arbeitsforschung an der TU Dortmund.
Ablenkungen im Großraumbüro ausblenden, ungeliebte Projekt-Aufgaben angehen und im Kundenkontakt stets freundlich sein: Solche Anforderungen sind selbstverständlich geworden in der modernen Arbeitswelt. Laut einer Eurofond-Erhebung geben 68 Prozent der Angestellten in der EU an, von Anfragen Dritter wie etwa Kunden abhängig zu sein. 31 Prozent müssen ihre wahren Emotionen bei der Arbeit zugunsten zielorientierten Verhaltens unterdrücken. Das strengt an und kann auf Dauer die Gesundheit und Leistungsfähigkeit beeinträchtigen.
IfADo-Arbeitspsychologinnen und Arbeitspsychologen haben nun untersucht, ob und wie sich solche Anforderungen noch am selben Tag auf das Wohlbefinden von Arbeitnehmern auswirken – und ob kurzfristig erfolgende Erholung davor schützt. Die Forschenden führten eine Online-Befragung mit insgesamt 86 berufstätigen Probandinnen und Probanden durch. An zehn aufeinanderfolgenden Arbeitstagen beantworteten diese zweimal pro Tag einen Fragebogen. Am Nachmittag wurde die gerade erlebte Arbeitsbelastung abgefragt. Am Abend bewerteten die Studienteilnehmer ihr Wohlbefinden. Zudem gaben sie an, wie gut es ihnen an diesem Abend gelang, von der Arbeit abzuschalten.
Freiräume für Erholung nach Feierabend
„Auf Grundlage der Befragung konnten wir bestätigen, dass sich ein anstrengender Arbeitstag direkt auf das Wohlbefinden nach der Arbeit auswirkt. Man bringt die Last quasi mit nach Hause“, sagt IfADo-Studienautorin Lilian Gombert. „Zuhause angekommen fühlt man sich erschöpft und antriebslos, Verabredungen werden abgesagt, die Laune sinkt.“ Dabei sind es gerade Freizeitaktivitäten, die entgegenwirken: „Wenn man am Feierabend einem Hobby nachgeht, Sport treibt oder Freunde trifft, rückt das bei der Arbeit Erlebte in den Hintergrund. Das schafft nach einem anstrengenden Arbeitstag die benötigten Freiräume für Erholung“, so Gombert weiter.
Gerade an Tagen mit hoher Belastung gilt: Nicht immer ins Schneckenhaus zurückziehen, sondern aktiv werden und bewusst von der Arbeit abschalten. Das sollte auch von Arbeitgebern gefördert werden, zum Beispiel durch vereinbarte Regeln im Umgang mit beruflichen E-Mails und Anrufen auf dem Smartphone nach Feierabend.
Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 220 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft, die 93 selbstständige Einrichtungen umfasst. Die Leibniz-Institute beschäftigen rund 19.100 Personen, darunter 9.900 Wissenschaftlerinnen und Wissenschaftler.
Wissenschaftliche Ansprechpartner:
Ansprechpartnerin:
Lilian Gombert
Wissenschaftliche Mitarbeiterin „Flexible Verhaltenssteuerung“
Telefon: + 49 231 1084-413
E-Mail: gombert@ifado.de
www.ifado.de/gesundheit
Pressekontakt:
Eva Mühle
Pressereferentin
Telefon: + 49 231 1084-239
E-Mail: muehle@ifado.de
Originalpublikation:
Gombert, L., Rivkin, W., & Schmidt, K.-H. (2018). Indirect Effects of Daily Self-Control Demands on Subjective Vitality via Ego Depletion: How Daily Psychological Detachment Pays Off. Applied Psychology: An international Review, S. 1-26. doi: 10.1111/apps.12172
Weitere Informationen:
https://www.ifado.de/blog/2018/12/06/einfach-mal-abschalten-die-schnelle-erholun…
Quelle: idw
Stadtentwicklung bei Überflutung: Wie Städte Raum für Wasser schaffen können
Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann
In Küstenstädten wird es wegen des Klimawandels immer häufiger zu Überflutungen kommen. Daher muss die Menschheit lernen, in Einklang mit dem Wasser zu leben. Es bieten sich naturnahe Lösungen an.
Die Siedlungen an den australischen Küsten sind den Einflüssen des Klimawandels stark ausgesetzt. Städte, die widerstandsfähig gegenüber den klimatischen Bedingungen sind und mit großen Wassermassen umgehen können, müssen daher in Zukunft Standard werden.
Laut der Wissenschaftlerin Elisa Palazzo Dozentin am Fachbereich Urban and Landscape Design der University of New South Wales in Sydney, zeigt die Forschung deutlich, dass das Klima immer unsteter wird. Wetterereignisse wie die Sturzflut in Sydney vor einer Woche werden öfter und extremer vorkommen, während die Zeitspanne zwischen den Vorfällen immer kürzer werden wird. Mit einem höheren Meeresspiegel und regelmäßigen Überflutungen werden Wasserlandschaften ein Teil unseres städtischen Lebens werden.
Die meisten australischen Städte befinden sich in Küstennähe oder in der Nähe von Flüssen. Ob wir es schaffen, die globale Erderwärmung bei unter 1,5°C zu halten oder nicht: die Mehrheit der australischen Bevölkerung wird bald in einer Überschwemmungszone leben.
Perspektivenwechsel: Regenwasser als Ressource, nicht als Abfall
Den Wasserkreislauf zu verstehen, ist eine Möglichkeit, eine positive Beziehung zwischen natürlichen Prozessen, Pflanzen und Menschen zu schaffen. Wir können lernen, Überschwemmungen als regeneratives Element anzusehen, das das Leben auch im städtischen Umfeld verbessern kann.
Für eine lange Zeit hat die Stadtplanung die Möglichkeiten übersehen, die das Regenwasser in städtischen Systemen bietet. Nun muss die Abkehr von dem Gedanken, Regen als zu entsorgenden Abfall anzusehen, überwunden werden. Stattdessen sollte es als nicht-erneuerbare Ressource angesehen werden, die geschützt und wiederbenutzt werden kann.
Diese Veränderung im Umgangs mit Regenwasser ist in einigen städtebaulichen Vorreiterprojekten bereits sichtbar. Städte wie New York, New Orleans und Kopenhagen beginnen nach den Überschwemmungen der vergangenen Jahre bereits mit der Umstrukturierung. Dort verändern städtebauliche Maßnahmen radikal die Art, wie Räume genutzt, erlebt und wahrgenommen werden.
Innovative Strategien verstehen Überflutungen eher als natürlichen Prozess, mit dem gearbeitet werden muss, denn als Prozess, gegen den man standhalten muss. Unstrukturierte, sanfte und auf der Natur basierende Lösungen sollen in Zukunft technisch entwickelte Maßnahmen ersetzen. Diese Projekte nutzen den Klimawandel für sich, um Vorteile für die Bewohner zu entwickeln.
Platz für Wasser schaffen
Die Idee, mit Wasser Hochwasserschutz mit natürlichen Mitteln zu betreiben, wurde schon vielfältig erforscht. Die Ergebnisse lassen sich in vier Strategien einteilen:
Schwammräume und sicheres Ablassen des Wassers: Ein Netzwerk kleiner und mittlerer Grünflächen absorbiert und speichert überschüssiges Wasser. Nahezu alle Freiflächen einer Stadt, beispielsweise Hausdächer, können Teil eines dezentralen „Off-Grid“-Systems sein.
Die Kopenhagener Kampagne zur klimabeständigen Nachbarschaft zielt darauf ab, zumindest 20 Prozent der öffentlichen Fläche als eine Art Schwamm zu nutzen, um Sturzfluten in innerstädtischen Gebieten zu reduzieren. Kontrolliertes Fluten eines Teils dieses Systems vermeidet Wasserprobleme an anderen Stellen, zum Beispiel auf Straßen. Diese „safe to fail“-Orte können zahlreiche weitere Funktionen übernehmen und den Menschen in trockenen Zeiten zur Erholung zur Verfügung gestellt werden.
Design für Variabilität: Die Prozesse des Wassers ändern sich mit der Saison. Die Gestaltung von Wohnsiedlungen sollte diese Veränderbarkeit reflektieren. Ein besseres Verständnis der Prozesse der Natur innerhalb einer Stadt führt zu neuem Design, das neben ökologischen Vorteilen auch den räumlichen Ausdruck verändert. Eine interessante Erneuerung in der Stadtplanung ist die veränderte Gestaltung, die die vormals starren Formen ersetzt. Eine Auswahl verschiedener Pflanzen und Erdsubstraten unterstützt die Variabilität in der räumlichen Gestaltung. Ein gutes Beispiel hierfür ist der Biliancourt Park in Frankreich, in dem Wasser dafür sorgt, dass die Größe der Gärten sich je nach Pegelstand immer wieder verändert.
Verschwende es nicht: Regenwasser ist eine kostbare Ressource, die genutzt werden sollte. Undurchlässiger Boden und Dachoberflächen können Regenwasser auffangen und für eine spätere Benutzung – etwa zur Bewässerung, zum Waschen oder für die Toilettenspülung – speichern. Der Prozess ist einfach und benötigt keine spezielle Technologie. Das gilt besonders für das Wasser vom Dach, denn es ist rein genug, um so, wie es aufgefangen wird, genutzt zu werden.
Lass es durchsickern: Pflastersteine lassen das Wasser in den Grund sickern und so dem Grundwasser zuführen. Durchlässige Böden erhalten den natürlichen Wasserkreislauf und erlauben einen Feuchtigkeitsaustausch zwischen der Luft und der Erde. Zudem sorgt dies für eine Abkühlung der Stadt im Sommer und zudem für eine angenehme Wohnumgebung.
Um die Anzahl der undurchlässigen Böden zu reduzieren, sollte die Anzahl der herkömmlichen Straßen und Parkplätze durch Gras oder wasserdurchlässige Untergründe ersetzt werden. Dort, wo es dennoch nötig ist, Boden zu pflastern, sollte ein Filtersystem eingebaut werden, um die Verunreinigung des Regenwassers möglichst gering zu halten.
Eine große, kollektive Anstrengung ist nötig
Die Umsetzung dieser Strategien zur Vermeidung von Überschwemmungen in privaten und öffentlichen Gebieten ist schwierig. Sie erfordert eine kollektive Anstrengung.
Forschung zu städtischer Klimaadaption zeigt, dass der Prozess dieser Umgestaltung oft ein hierarchischer Prozess ist. Programme zum Wiederaufbau nach Hochwasserschäden wurden in der Vergangenheit nur selten von den Regierungen als Möglichkeit gesehen, auf die Bedürfnisse der lokalen Kommunen einzugehen.
Es werden gemeinsame Entscheidungen zum Wassermanagement benötigt, um die Lebensbedingungen der Bewohner an das sich schnell ändernde Klima anzupassen. Neue Herausforderungen können zu Chancen werden, wenn Umweltziele mit Nachhaltigkeit und sozialer Gerechtigkeit gepaart werden.
Die Umsetzung von Maßnahmen zur Anpassung an das Hochwasser werde noch immer nur sporadisch umgesetzt. Sie beschränkt sich oft auf zentralisierte Feuchtbiotope in großen Parks und Gärten. Es wird ein kapillar-ähnliches Netzwerk benötigt, welches Städte mit hoher baulicher Dichte mit kleinen bis mittleren naturbasierten Maßnahmen durchsetzt.
Bislang gibt es keinen Beweis dafür, dass die Vorteile dieser Systeme effektiv genug sind, um massive Überflutungen zu vermeiden. Deswegen müssen diese Maßnahmen systematisch getestet und überwacht werden. Wir müssen anfangen, uns Fragen zu stellen: Was wäre, wenn jedes Hausdach eine bepflanzte Oberfläche hätte, wenn jeder Gehweg Regenwasser auffangen und speichern würde, wenn jeder Park ein Regengarten wäre?
Wir müssen dieses Wissen dringend anwenden, denn wenn wir nicht schnell lernen, wie wir mit Wasser in Städten umgehen, wird das Wasser sie in der Zukunft noch härter treffen.
Der Artikel wurde am 4. Dezember 2018 im „The Conversation“ veröffentlicht.
Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email:berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593
oder
Elisa Palazzo PhD
Senior Lecturer in Urban and Landscape Design, UNSW
Email: elisa.palazzo@unsw.edu.au
Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.
Originalpublikation:
https://theconversation.com/design-for-flooding-how-cities-can-make-room-for-wat…
Weitere Informationen:
http://https//www.ranke-heinemann.de
Quelle: idw
Regensburger Biologen heben „versteckten Schatz“
Christina Glaser Referat II/2 – Media Relations & Communications
Universität Regensburg
Schlammpackungen halten fit – zumindest scheint das für Samen von einer Reihe von Pflanzenarten zu stimmen. Denn Biologen der Universität Regensburg haben in einer Studie nachgewiesen, dass in über 100 Teichen in Bayern und Baden-Württemberg so mancher Same in den Schlammböden über 100 Jahre keimfähig bleibt – und das, obwohl einige der gefundenen Keimlinge von Pflanzenarten stammen, die an den entsprechenden Standorten als verschollen oder ausgestorben gelten.
Dass manche Pflanzen ungünstige Umweltbedingungen als Same im Boden überdauern können, weiß man schon länger. Bekannt ist das z. B. für Ackerwildkräuter und Pflanzen auf häufiger gestörten Standorten, d. h. auf Standorten mit einer veränderten Zusammensetzung der Bodenkomponenten. Ersichtlich wird diese „versteckte“ Artenvielfalt erst durch die Untersuchungen der Samenbank im Boden und wird deshalb im angloamerikanischen Sprachgebrauch als „hidden diversity“ bezeichnet. Bei einer Zusammenstellung der Pflanzen aller Lebensräume der nordwesteuropäischen Flora vor etwa 20 Jahren ging man aber davon aus, dass nur sehr wenige Arten, nämlich 14, über sehr lange Zeiträume (z.B. mehr als 100 Jahre) im Boden überleben können. Dies waren häufige Arten und/oder Ackerwildkräuter (in der Regel „Unkräuter“). Der Ökologe und Naturschutzbiologe Prof. Dr. Peter Poschlod von der Universität Regensburg untersucht bereits seit über 30 Jahren die Langlebigkeit von Samen seltener und gefährdeter Arten. In seiner jüngsten Studie zu gefährdeten Arten von Schlammböden – einem Lebensraum, in dem nach Angaben des Bundesamtes für Naturschutz 60 Prozent der Pflanzenarten als gefährdet gelten – hat er mit seinen ehemaligen Arbeitsgruppen der Universitäten Hohenheim und Marburg und seiner aktuellen Arbeitsgruppe in Regensburg im Laufe von 26 Jahren die Sedimente von 108 Fischteichen in Bayern und Baden-Württemberg untersucht. Jetzt hat er die Ergebnisse zusammen mit Dr. Sergey Rosbakh in der renommierten Fachzeitschrift Biological Conservation veröffentlicht.
Dabei zeigte sich, dass alle Teiche bis auf einen keimfähige Samen von wenigstens einer gefährdeten Art der regionalen oder nationalen Roten Listen enthielten – und dies in zum Teil erstaunlich großer Menge (bis zu fast 3.000 pro Liter Sediment). Das Ergebnis ist umso erstaunlicher, weil viele dieser gefährdeten Arten in den Untersuchungsgebieten als entweder nicht vorkommend, seit längerem verschollen oder ausgestorben gelten. Von insgesamt über 540.000 gezählten Keimlingen, die aus den Proben von jeweils sechs bis zehn Litern Sediment pro Weiher aufliefen, stammten über 300.000 Keimlinge von 49 typischen Schlammbodenarten. Von diesen 49 Arten gelten 22 aktuell regional (Bayern, Baden-Württemberg) oder national als gefährdet.
Daten der floristischen Kartierungen der jeweiligen Länder, die Rekonstruktion der Nutzungsgeschichte der Weiher sowie weitere noch nicht publizierte Ergebnisse von Sedimenten der Donau und des Rheins zeigen, dass die Samen von Pflanzen der Schlammböden nicht nur über mehrere Jahrzehnte, sondern auch über 100 Jahre unter den Bedingungen eines überstauten Sediments überleben können. Dies bedeutet, dass keimfähige Samen dieser Arten noch existieren, auch wenn diese selbst an den entsprechenden Standorten als verschollen oder ausgestorben gelten. Dieser „versteckten“ Vielfalt sollte deshalb in Zukunft noch mehr Aufmerksamkeit geschenkt werden. Denn in den Lebensräumen, in denen gefährdete Arten noch in der Samenbank im Boden vorkommen, könnte dieses Potential im Rahmen von Renaturierungsmaßnahmen genutzt werden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Peter Poschlod
Lehrstuhl für Ökologie und Naturschutzbiologie
Universität Regensburg
Tel.: 0941-943-3108
E-Mail: peter.poschlod@ur.de
Originalpublikation:
Poschlod, P. & Rosbakh, S. (2018): Mudflat species: Threatened or hidden? An extensive seed bank survey of 108 fish ponds in Southern Germany. Biological Conservation 225: 154-163. https://doi.org/10.1016/j.biocon.2018.06.024
Quelle: idw
Weiterbildung bringt oft wenig für die Karriere
Dr. Harald Wilkoszewski Informations- und Kommunikationsreferat
Wissenschaftszentrum Berlin für Sozialforschung gGmbH
Weiterbildung und lebenslanges Lernen gelten heute als Patentrezept für den beruflichen Aufstieg. Ihr Ertrag für die Karriere ist jedoch geringer als gedacht. Denn für Beförderungen, ein höheres Einkommen und größere soziale Mobilität bringen Weiterbildungsmaßnahmen meist nur dann etwas, wenn sie zu einem anerkannten beruflichen Abschluss führen. Berufsbegleitende Kurse und Lehrgänge ohne formalen Abschluss haben dagegen einen viel geringeren Effekt auf die Karriere. Das zeigt eine neue Studie von Martin Ehlert (Wissenschaftszentrum Berlin für Sozialforschung) und Christian Ebner (Karlsruher Institut für Technologie).
Jedes Jahr nimmt etwa die Hälfte der Erwerbstätigen in Deutschland an Weiterbildung teil. Mehr als 90 Prozent dieser Kurse sind sogenannte non-formale Weiterbildung: relativ kurze Kurse, die nicht zu formalen, also anerkannten, Bildungsabschlüssen führen. Dazu gehören Computer- oder Sprachkurse sowie Schulungen für neue Produkte oder Geräte. Häufig werden die Lehrgänge von Arbeitgebern finanziert und sind auf die Bedürfnisse des Betriebs ausgerichtet. Formale Weiterbildung, die zum Beispiel zum Meister oder zum Abitur an einer Abendschule führt, macht nur etwa 3 Prozent der von Erwachsenen besuchten Kurse aus.
Mit Daten aus dem Nationalen Bildungspanel (NEPS) konnten Martin Ehlert und Christian Ebner zum ersten Mal detailliert die Erträge der Teilnahme an Weiterbildung verfolgen. Für den Zeitraum von 2009 bis 2016 zeigen sie, wie sich Weiterbildung auf die Karriere auswirkt.
Das Ergebnis: Das Credo „Aufstieg durch Bildung“ muss relativiert werden. Non-formale Weiterbildung hilft in erster Linie den Beschäftigten, ihre Kenntnisse an die betrieblichen Erfordernisse anzupassen und damit beschäftigungsfähig zu bleiben. Sie sichert den Arbeitsplatz und beugt damit dem Abstieg vor. Der Aufstieg im Betrieb wie auch jede andere Form von beruflichen Wechseln wird durch die Teilnahme an diesen Kursen aber eher verhindert. „Aus Sicht der Betriebe ist das eine logische Strategie: Wenn Beschäftigte geschult werden, um ihre aktuelle Aufgabe besser zu verrichten, ergibt es keinen Sinn, sie auf andere Stellen zu setzen“, macht WZB-Forscher Martin Ehlert deutlich. Weiterbildungen sind außerdem für viele Tätigkeiten zur Normalität geworden und werden nicht mehr zur Bewertung bei Beförderungen hinzugezogen.
Für die Arbeitsmarktpolitik bedeuten diese Ergebnisse, dass Konzepte, die stark auf die individuelle Verantwortung der Beschäftigten für den Aufstieg durch Weiterbildung setzen, zu kurz greifen. Es bringt wenig, gering bezahlten Arbeitnehmerinnen und Arbeitnehmern zu raten, ihre Einkommenssituation durch mehr non-formale Kurse zu ändern – auch wenn Weiterbildung für den Erhalt der Beschäftigungsfähigkeit und das Verhindern von beruflichen Abstiegen wichtig ist. Darüber hinaus bekommen gerade die Schwächsten im Betrieb selten die Möglichkeit zur Teilnahme. Um Ungleichheit zu begrenzen und niedrig qualifizierte Beschäftigte zu fördern, müssen daher innerbetriebliche Prozesse in den Blick genommen werden. Betriebsräte und Gewerkschaften könnten beispielsweise noch stärker auf die Einrichtung einer inklusiven Weiterbildungs- und Karriereplanung am Arbeitsplatz hinwirken. Außerdem ist es wichtig, formale Abschlüsse durch Weiterbildungen zu fördern, zum Beispiel durch Teilqualifikationen, die es durch mehrere kurze Weiterbildungen ermöglichen einen formalen Ausbildungsabschluss nachzuholen.
Wissenschaftliche Ansprechpartner:
Dr. Martin Ehlert, wissenschaftlicher Mitarbeiter in der Abteilung Ausbildung und Arbeitsmarkt und Themenbereichsleiter des Promotionskollegs „Gute Arbeit“: Ansätze zur Gestaltung der Arbeitswelt von morgen.
Prof. Dr. Christian Ebner, Professur für Soziologische Berufsforschung an der Universität zu Köln und am Bundesinstitut für Berufsbildung (BIBB) in Bonn. Zur Zeit Vertretungsprofessor am Karlsruher Institut für Technologie .
Originalpublikation:
Die Studie von Christian Ebner und Martin Ehlert: „Weiterbilden und Weiterkommen? Non-formale berufliche Weiterbildung und Arbeitsmarktmobilität in Deutschland.“ ist in der Kölner Zeitschrift für Soziologie und Sozialpsychologie erschienen (Jg. 70, H. 2, S. 213-35).
Weitere Informationen:
https://wzb.eu/de/pressemitteilung/weiterbildung-bringt-oft-wenig-fuer-die-karri…
Quelle: idw
Rheinfelden wird ultraeffizient
Jörg Walz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA
Ein Gewerbegebiet ohne Abfall, Abwasser und Abluft: Genau das soll im südbadischen Rheinfelden Wirklichkeit werden. Unter der Leitung des Fraunhofer- Instituts für Produktionstechnik und Automatisierung IPA erarbeiten Wissenschaftler ein Konzept für das weltweit erste stadtnahe, ultraeffiziente Gewerbegebiet.
Es ist ein ungewöhnlicher Anblick: Wer das Werkgelände der Evonik Industries AG in Rheinfelden (Baden) verlässt, sieht gegenüber, auf der anderen Straßenseite, Mehrfamilienhäuser stehen. Linkerhand überragt ein neobarocker Kirchturm die Kantine. Industrie- und Gewerbegebiete liegen in der südbadischen Stadt in unmittelbarer Nähe zu Wohnsiedlungen. Einerseits ist das historisch bedingt: Als 1898 das Laufwasserkraftwerk in Betrieb ging, siedelte sich rasch Industrie an und es entstanden Arbeitersiedlungen. Andererseits liegt es an der geographischen Lage der Stadt: Im Norden begrenzen Ausläufer des Schwarzwaldes das Stadtwachstum und nur einige hundert Meter weiter im Süden der Hochrhein, der die Grenze zur Schweiz bildet.
»Die seitens der hier ansässigen Unternehmen und der Stadt getroffenen Maßnahmen zur Einsparung von Energie und Ressourcen sowie zur Vermeidung von Emissionen sind beeindruckend«, sagt Ivan Bogdanov vom Fraunhofer IPA, »sie sind ein sehr wichtiges Kriterium für ein stadtnahes, ultraeffizientes Industriegebiet. Wichtig sind auch die kurzen Wege zwischen Wohn- und Industriegebieten.« So gibt es bereits ein firmenübergreifendes Leitungsnetz, über das Salzsäure, Wasserstoff und Dampf ausgetauscht werden. Abwärme wird ins Netz eingespeist und dient dazu, Schulen und Wohnungen im Stadtgebiet zu beheizen.
Elf Bewerbungen, drei Finalisten, ein Sieger
Bogdanov leitet das Arbeitspaket »Stadtnahe, ultraeffiziente Industriegebiete« im Rahmen des Projekts »Ultraeffizienzfabrik – Symbiotisch-verlustfreie Produktion im urbanen Umfeld«, das das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg in der aktuellen Förderphase mit rund 1,3 Millionen Euro finanziert. Um einen geeigneten Standort für das weltweit erste stadtnahe, ultraeffiziente Industriegebiet zu finden, haben sich Bogdanov und fünf weitere Wissenschaftler von den drei Stuttgarter Fraunhofer-Instituten IPA, IAO und IGB im Frühjahr auf die Suche nach Städten, Gemeinden und Unternehmen in Baden-Württemberg gemacht, die Effizienz- und Effektivitätsmaßnahmen auf allen fünf Handlungsfeldern der Ultraeffizienzfabrik (s. Kasten) in Industriegebieten planen oder bereits umsetzen.
Dazu riefen die Forscher einen Wettbewerb aus. Bewerbungen aus elf baden-württembergischen Kommunen gingen bis Ende Juni ein, drei schafften es in die engere Wahl: der Gewerbepark Breisgau südlich von Bad Krozingen, der Industriepark Nagold Gäu und die Stadt Rheinfelden (Baden). Um die bestmögliche Wahl zu treffen, machten sich die Wissenschaftler im Sommer vor Ort ein Bild und loteten in Gesprächsrunden mit Gemeinde- und Unternehmensvertretern aus, was dort auf den fünf Handlungsfeldern der UItraeffizienzfabrik geplant und bereits umgesetzt ist.
Bis März soll das Konzept stehen
Das verdichtete Stadtbild, die Stoff- und Energiekreisläufe und die Bemühungen, Emissionen zu vermeiden sowie das Leben und Arbeiten in Rheinfelden attraktiv zu gestalten – all das bewog das Umweltministerium und die Forscher letztlich dazu, der Stadt Rheinfelden (Baden) den Zuschlag zu geben. »Als eine der führenden Wirtschaftsregionen der Welt wollen wir zeigen, wie modernste Produktionsstätten mit geschlossenen Stoff- und Energiekreisläufen die vorhandenen Ressourcen möglichst effizient nutzen können«, sagt Umweltminister Franz Untersteller. »Rheinfelden soll Vorbild dafür sein, dass man wirtschaftlichen Erfolg haben und zugleich die Lebensqualität der Menschen steigern sowie unsere Umwelt entlasten kann. Industrie und urbanes Leben sind so kein Widerspruch.«
Rheinfeldens Oberbürgermeister Klaus Eberhardt freut sich über die Auszeichnung. Die Stadtverwaltung sehe sich dadurch bestärkt in dem Bestreben, »in ständiger Kooperation mit den Unternehmen weiter an städtebaulichen Entwicklungs- und nachhaltigen Energiekonzepten zu arbeiten.«
Bis 31. März 2019 legen die Wissenschaftler um Bogdanov ein ganzheitliches Ultraeffizienzkonzept für die Industrieansiedlungen am östlichen Stadtrand und das Gewerbegebiet im Stadtteil Herten vor. Dabei arbeiten sie eng mit den ansässigen Unternehmen, der Stadtverwaltung sowie den zuständigen Fabrik- und Stadtplanern zusammen. Enthalten sind darin neben konkreten Handlungsempfehlungen auch eine detaillierte, ganzheitliche Analyse von Symbiose-Effekten zum urbanen Umfeld sowie ein Geschäftsmodell für eine Standortbetreibergesellschaft nach der Vision der Ultraeffizienzfabrik.
Die fünf Handlungsfelder der Ultraeffizienzfabrik
1. Material: ressourcenschonend wirtschaften, Stoffkreisläufe aufbauen und so
viele Reststoffe wie möglich weiterverwerten
2. Energie: regenerative Energiequellen erschließen, Abwärme speichern oder
andernorts verwenden
3. Emissionen: Abfall, Abwasser, Abluft und Lärm möglichst komplett vermeiden
4. Mensch/Personal: Arbeitswege kurz halten, flexible, kooperative Arbeitszeitmodelle
etablieren, soziale Einrichtungen in Gewerbegebiete integrieren
5. Organisation: Dienstleistungen und Einrichtungen überbetrieblich gemeinsam
nutzen, innovative Geschäftsmodelle an der Schnittstelle zum urbanen Umfeld
Wissenschaftliche Ansprechpartner:
Ivan Bogdanov
Telefon +49 711 970-1338
Ivan.Bogdanov@ipa.fraunhofer.de
Anhang
Mediendienst Dezember
https://idw-online.de/de/attachment70424
Quelle: idw
Lungenärzte warnen: Silvesterfeuerwerk belastet Gesundheit und Umwelt
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften e.V.
Berlin- Am Neujahrstag erreicht die Feinstaubbelastung in Deutschland Spitzenwerte. Die Feinstaubmenge, die durch Raketen und Böller ausgestoßen wird, macht fast einen Fünftel der jährlichen Gesamtmenge durch den Straßenverkehr aus. Die verschmutzte Luft reizt die Atemwege. Besonders stark werden dadurch kleine Kinder, Senioren und Menschen mit chronischen Erkrankungen, vor allem der Lunge und des Herzkreislaufsystems, belastet. Die Deutsche Gesellschaft für Pneumologie und Beatmungsmedizin (DGP) ruft dazu auf, den Gebrauch von Feuerwerkskörpern zu reduzieren oder ganz darauf zu verzichten.
Laut Umweltbundesamt schießen die Deutschen in jeder Silvesternacht 5.000 Tonnen Feinstaub mit Feuerwerkskörpern in die Luft. „Das sind extrem hohe Werte, die die allermeisten Städte an keinem anderen Tag im Jahr erreichen“, sagt Professor Dr. Holger Schulz vom Helmholtz Zentrum München für Gesundheit und Umwelt. Laut Gesetz darf der Tagesmittelwert für Feinstaub (PM10) an jeder Messstelle höchstens 50 Mikrogramm pro Kubikmeter Luft betragen. Am letzten Neujahrsmorgen wurde dieser Grenzwert an 32 Stationen um ein Vielfaches überschritten. Besonders hoch waren die Werte in Leipzig (1860 µg/m³), München und Nürnberg (>1000 µg/m³) (1). Wie schnell die Feinstaubbelastung nach dem Silvesterfeuerwerk abklingt, hängt vor allem von den Wetterverhältnissen ab. Bei windstillem Wetter kann die verschmutzte Luft mehrere Tage über der Region „liegen bleiben“ und sich in den unteren Schichten der Atmosphäre anreichern.
Wie sehr Feinstaub und andere Luftschadstoffe die Gesundheit belasten, ist durch viele internationale Studien gut belegt. Die DGP hat den aktuellen Kenntnisstand dazu kürzlich in einem Positionspapier veröffentlicht (2). Langfristig schadet die schmutzige Luft nicht nur der Lunge, sondern auch dem Herz-Kreislauf-System, dem Stoffwechsel und beeinträchtigt sogar die Entwicklung von Föten im Mutterleib. Kleine Kinder, Senioren und Menschen mit chronischen Erkrankungen leiden an den ersten Tagen im neuen Jahr besonders häufig unter Husten und Atembeschwerden und müssen vermehrt mit akuten Problemen ins Krankenhaus eingeliefert werden. Schutzmöglichkeiten gibt es für diese Patientengruppen kaum, da die gängigen Atemschutzmasken die gefährlichen Partikel nur unzureichend herausfiltern können. „Halten Sie sich bevorzugt in dünn besiedelten Gebieten jenseits der großen Städte auf, wo die Luft sauberer bleibt“, rät der Experte.
Privates Feuerwerk stark einzuschränken oder sogar ganz darauf zu verzichten, ist aus vielen Gründen eine gute Idee, findet DGP-Präsident Professor Dr. med. Klaus Rabe. „Raketen und Böller verursachen eine starke Schadstoffbelastung, der sich niemand entziehen kann. Zumindest aus Rücksichtnahme auf weniger gesunde Mitmenschen, sollte man den privaten Gebrauch überdenken.“ Jedes Jahr werden außerdem Tausende Menschen durch Raketen schwer verletzt – meist handelt es sich bei den Betroffenen um unbeteiligte Zuschauer, die selbst gar keine Rakete gezündet hatten. Viele von ihnen behalten bleibende Schäden an Augen, Ohren oder Händen. Nicht zuletzt hinterlassen die Knallkörper am Neujahrsmorgen auch riesige Müllerberge, die aufwändig und teuer entsorgt werden müssen. „Weniger Raketen und Böller oder gar der Verzicht auf das Feuerwerk hilft vielen Menschen und unserer Umwelt. Den Betrag einer wohltätigen Organisation zu spenden wäre ein zusätzlicher positiver Schritt ins neue Jahr“, schließt Schulz.
Quellen:
(1) Umweltbundesamt:
https://www.umweltbundesamt.de/themen/dicke-luft-jahreswechsel
(2) Atmen: Luftschadstoffe und Gesundheit, Positionspapier der Deutschen Gesellschaft für Pneumologie und Beatmungsmedizin
https://pneumologie.de/service/aktuelles/#cs-news-123
Weitere Informationen:
https://pneumologie.de/service/aktuelles/#cs-news-123
Quelle: idw
Arbeitszeiten von Frauen und Männern: Familienpolitik zieht – aber nur bei den Müttern
Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Mütter in Deutschland arbeiten heute deutlich länger als noch vor sechs Jahren- ganz besonders Mütter von Klein- und Kleinstkindern. Dabei leben Frauen und Männer weiter in unterschiedlichen Arbeitszeitrealitäten: Im Jahr 2017 war fast jede zweite Frau Teilzeit beschäftigt (46,5%), aber nur knapp jeder zehnte Mann (9,4%). Teilzeit gilt trotz der Nachteile für die Altersabsicherung inzwischen als Blaupause für die Vereinbarkeit von Familie und Beruf – wird aber vor allem von Müttern, sehr viel seltener von Vätern gewählt. Das zeigen aktuelle Untersuchungen des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE).
Mit ca. 35,2 Stunden in der Woche sind die durchschnittlichen Arbeitszeiten in Deutschland seit 2010 stabil. Die der Männer haben sich leicht verringert, während Frauen heute länger – aber vor allem Teilzeit – einem Beruf nachgehen. Der Gender Time Gap, die geschlechterbezogene Arbeitszeitlücke, hat sich damit von 9,3 Std. auf 8,7 Std. weiter reduziert. Im EU-Vergleich haben die deutschen Frauen die zweitkürzesten Arbeitszeiten – bei einer überdurchschnittlich hohen Erwerbstätigenquote. Trotzdem sind Mütter in Deutschland deutlich schlechter in den Arbeitsmarkt eingebunden als Frauen ohne Kinder. „Bei aller Familienfreundlichkeit bleiben Kinder immer noch ein Risikofaktor für die Erwerbstätigkeit und finanzielle Absicherung von Frauen!“, sagt die IAQ-Arbeitszeitexpertin Dr. Angelika Kümmerling.
„Zwar scheinen die familienpolitischen Maßnahmen wie Kita-Ausbau und Elternzeit Wirkung zu zeigen. Allerdings wird hier alleine an der „Schraube“ Frau/ Mutter gedreht, die bestehende Rollenverteilung wird kaum angegriffen“, kritisiert sie. Auf Seiten der Männer habe sich kaum etwas getan. Eine Ursache sieht Kümmerling im Ehegattensplitting, das im Widerspruch zur Familienpolitik steht. „Das ist der Hemmschuh für eine gleichberechtigte Arbeitsteilung!“
Redaktion:
Claudia Braczko, Tel. 0157/71283308, claudia.braczko@gmail.com
Wissenschaftliche Ansprechpartner:
Dr. Angelika Kümmerling, Tel. 0203/37-91825, E-Mail: angelika.kuemmerling@uni-due.de
Originalpublikation:
http://www.iaq.uni-due.de/iaq-report/2018/report2018-08.php
Quelle: idw
Neuer Klimabericht für den Ostseeraum (BACC III) in Arbeit
Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung
Gemeinsame Pressemitteilung de Helmholtz-Zentrums Geesthacht und
des Leibniz Institut für Ostseeforschung Warnemünde (IOW)
Der zweite Sachstandsbericht zum regionalen Klimawandel und seiner Auswirkungen auf den Ostseeraum von 2015 („Second Assessment of Climate Change in the Baltic Sea Region“, BACC II) wird zurzeit von Wissenschaftlern des internationalen Baltic Earth-Netzwerks aktualisiert.
Wie auch bei den ersten beiden BACC-Berichten (2008, 2015) werden Experten aus den verschiedenen Fachgebieten zum aktualisierten Report beitragen. „Wir wollen die Erkenntnisse zum Klimawandel im Ostseeraum aufarbeiten, die seit 2012, also dem Redaktionsschluss von BACC II, dazugekommen sind“, sagt Dr. Marcus Reckermann vom Internationalen Baltic Earth-Sekretariat am Helmholtz-Zentrum Geesthacht (HZG). Dabei sollen mehrere hundert Publikationen aus verschiedenen Themenbereichen wie Meteorologie, Hydrologie, Meereskunde, Biologie und Biogeochemie, ausgewertet und zusammengefasst werden. „Oft brauchen neue Erkenntnisse viele Jahre, bis sie im wissenschaftlichen ‚Wissenskanon‘ sichtbar werden. Wir wollen diesen Prozess abkürzen und neue Ergebnisse, auch solche die von früheren abweichen, einordnen und zusammenfassen“, so Dr. Reckermann.
Auch im Rahmen der Erarbeitung des neuen Klimaberichts wird es eine enge Zusammenarbeit mit HELCOM (Helsinki-Kommission zum Schutz der Meeresumwelt der Ostsee) geben, die das von Baltic Earth erarbeitete aktuelle Wissen nochmals mit Hilfe eines Expertengremiums für Laien und Entscheidungsträger als ein übersichtliches „fact sheet“ aufarbeitet. Auch bei der Erstellung dieses Infoblattes sind Baltic Earth-Wissenschaftler beratend beteiligt. „Die HELCOM möchte verstärkt den regionalen Klimawandel und die sich ergebenden Veränderungen in ihre Arbeit einbinden. Baltic Earth ist als Expertennetzwerk von Anfang an beteiligt, damit die Aussagen strengen wissenschaftlichen Ansprüchen genügen“, sagt Prof. Markus Meier vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW), der den neuen Klima-Report („BACC III“) zusammen mit einem Team internationaler Wissenschaftler aus dem gesamten Ostseeraum federführend erarbeiten wird.
Neben dem neuen Klimabericht sollen auch weitere Übersichtsberichte als „Baltic Earth Assessment Reports“ (BEAR) zu den Themenkomplexen von Baltic Earth erarbeitet werden, also zur Salzgehaltsdynamik der Ostsee, den Stoffflüssen im Einzugsgebiet, zu extreme Wetterereignissen, der Dynamik des Meeresspiegels und der Küsten, zum Verständnis des Wasser- und Energiekreislaufes, sowie dem Zusammenspiel verschiedener Faktoren bei den beobachteten Veränderungen im Ostseeraum. Zwei technische Beiträge beschäftigen sich mit dem aktuellen Stand der neuesten Klima-Beobachtungsmethoden einerseits, und der gekoppelten Klimamodellierung andererseits. Ende 2020 sollen diese vom Baltic Earth Sekretariat koordinierten und von externen Gutachtern geprüften Berichte als Sammelband vorliegen.
Wissenschaftliche Ansprechpartner:
Dr. Marcus Reckermann
Leiter des
International Baltic Earth Secretariat
am Helmholtz-Zentrum Geesthacht (HZG)
Phone +49 (0)4152 871693
marcus.reckermann@hzg.de
Prof. Dr. Markus Meier
Vorsitzender der
internationalen Baltic Earth Steuergruppe
Leibniz Institut für Ostseeforschung Warnemünde (IOW)
Phone: +49 (0)381 5197 150
markus.meier@io-warnemuende.de
Weitere Informationen:
https://www.baltic-earth.eu/
https://www.io-warnemuende.de/
https://www.hzg.de/
Quelle: idw
Wie Ballaststoffe und Darmbakterien den Herz-Kreislauf schützen
Jutta Kramm Kommunikation
Max-Delbrück-Centrum für Molekulare Medizin in der Helmholtz-Gemeinschaft
Die Fettsäure Propionsäure schützt vor den Folgen von Bluthochdruck wie Atherosklerose oder Gewebeumbau des Herzens, zeigt eine Studie an Mäusen. Darmbakterien stellen die Substanz aus natürlichen Ballaststoffen her. Sie beruhigt jene Immunzellen, die den Blutdruck in die Höhe treiben.
„Der Mensch ist, was er isst“, weiß der Volksmund. Doch unser Wohlbefinden hängt auch stark davon ab, was die bakteriellen Gäste unseres Verdauungstrakts zu sich nehmen. Denn die Darmflora hilft, Nahrung zu verwerten und stellt essentielle Mikronährstoffe her, darunter Vitamine.
Aus den Ballaststoffen in der Nahrung stellen nützliche Darmkeime unter anderem eine Fettsäure namens Propionsäure her. Sie schützt vor den schädlichen Folgen von Bluthochdruck. Weshalb das so ist, zeigt ein Berliner Forschungsteam vom Experimental and Clinical Research Center (ECRC), eine gemeinsame Einrichtung von Max-Delbrück-Centrum für Molekulare Medizin (MDC) und der Charité – Universitätsmedizin Berlin. Ihre Studie erschien vorab online im Fachjournal Circulation.
Die Forscherinnen und Forscher verfütterten Propionsäure an Mäuse mit erhöhtem Blutdruck. Die Tiere hatten anschließend weniger ausgeprägte Herzschäden oder krankhafte Vergrößerungen des Organs und waren in der Folge weniger anfällig für Herzrhythmusstörungen. Auch Gefäßschäden wie Atherosklerose gingen bei den Mäusen zurück. „Propionsäure wirkt gegen ein Spektrum an bluthochdruckbedingten Schädigungen des Herz-Kreislaufsystems“, sagt der MDC-Forscher und Arbeitsgruppenleiter Professor Dominik N. Müller. „Interessant könnte das vor allem für die Behandlung von Patienten werden, die zu wenig von dieser Fettsäure haben.“
Umweg über das Immunsystem
„Erst durch unsere Studie ist klar geworden, dass die Substanz den Umweg über das Immunsystem nimmt und so auf Herz und Gefäße einwirkt“, sagen Dr. Nicola Wilck und Hendrik Bartolomaeus vom ECRC, die gemeinsam seit fast fünf Jahren an dem Projekt arbeiten. Insbesondere jene T-Helferzellen, die entzündliche Prozesse befeuern und Bluthochdruck mitverursachen, würden so beruhigt.
Dies wirkt sich unmittelbar etwa auf die Leistungsfähigkeit des Herzens aus. So konnte das Forschungsteam bei 70 Prozent der unbehandelten Mäuse durch einen gezielten elektrischen Reiz Herzrhythmusstörungen auslösen. Durch die Behandlung mit der Fettsäure war lediglich ein Fünftel Tiere dafür anfällig. Weitere Untersuchungen mit Ultraschall, Gewebeschnitten oder Einzelzellanalysen zeigten, dass Propionsäure auch blutdruckbedingte Schäden am Herz-Kreislauf-System der Tiere verminderte und ihre Überlebensrate wesentlich steigerte.
Schalteten die Forscherinnen und Forscher jedoch einen bestimmten Subtyp der T-Zellen, die sogenannten regulatorischen T-Zellen, im Körper der Mäuse aus, verschwanden die positiven Effekte der Propionsäure. Die Immunzellen sind also für den heilsamen Effekt der Substanz unabdingbar. An einem zweiten Tiermodell aus der Forschungsgruppe von Priv.-Doz. Johannes Stegbauer vom Universitätsklinikum Düsseldorf bestätigte das Team seine Befunde.
Kurzkettige Fettsäure als Medikament
Die Ergebnisse erklären, warum eine ballaststoffreiche Diät Herz-Kreislauf-Krankheiten vorbeugt, wie sie Ernährungsgesellschaften schon seit vielen Jahren empfehlen. Vollkornprodukte und Früchte enthalten zum Beispiel Fasern aus Zellulose und Inulin. Unter anderem daraus stellen Darmbakterien nützliche Moleküle her, wie die kurzkettige Fettsäure Propionsäure, deren Rückgrat aus nur drei Kohlenstoffatomen besteht.
„Bisher war nicht geklärt, welche Fettsäure für die positiven Effekte verantwortlich ist und wie sie wirkt“, sagt Wilck. Durch die Studie ergäben sich nun neue Wege in der Therapie von Herzkreislaufkranken. „Vielleicht ist es sinnvoll, Propionsäure oder eine chemische Vorstufe direkt als Medikament zu verabreichen“ – etwa, wenn die Betroffenen selbst zu wenig davon im Blut haben.
Im Klinikalltag muss sich Propionsäure noch bewähren. Daher möchte das Forschungsteam nun menschlichen Probanden untersuchen und so seine Erkenntnisse bestätigen. Dass die Propionsäure sicher für den menschlichen Konsum ist und überdies kostengünstig herstellbar, steht bereits fest: Die Substanz wird seit Jahrhunderten benutzt, etwa als Konservierungsmittel. Sie ist als Lebensmittelzusatzstoff zugelassen. „Unter diesen günstigen Voraussetzungen schafft die Propionsäure hoffentlich schnell den Sprung vom Labor zu den Betroffenen“, sagt Wilck.
Das Experimental and Clinical Research Center (ECRC) ist eine gemeinsame Einrichtung von Max-Delbrück-Centrum für Molekulare Medizin (MDC) und der Charité – Universitätsmedizin Berlin. Hendrik Bartolomaeus, Dominik N. Müller und Nicola Wilck gehören dem Berliner Institut für Gesundheitsforschung (BIH) und dem Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) an.
The Max Delbrück Center for Molecular Medicine (MDC)
The Max Delbrück Center for Molecular Medicine in the Helmholtz Association (MDC) was founded in Berlin in 1992. It is named for the German-American physicist Max Delbrück, who was awarded the 1969 Nobel Prize in Physiology and Medicine. The MDC’s mission is to study molecular mechanisms in order to understand the origins of disease and thus be able to diagnose, prevent and fight it better and more effectively. In these efforts the MDC cooperates with the Charité – Universitätsmedizin Berlin and the Berlin Institute of Health (BIH) as well as with national partners such as the German Center for Cardiovascular Research and numerous international research institutions. More than 1,600 staff and guests from nearly 60 countries work at the MDC, just under 1,300 of them in scientific research. The MDC is funded by the German Federal Ministry of Education and Research (90 percent) and the State of Berlin (10 percent), and is a member of the Helmholtz Association of German Research Centers. www.mdc-berlin.de
Wissenschaftliche Ansprechpartner:
Prof. Dominik Müller
Leiter der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Max-Delbrück-Centrum für Molekulare Medizin
+49 30 450 540 286
dominik.mueller@mdc-berlin.de
Dr. Nicola Wilck
Wissenschaftler in der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Charité – Universitätsmedizin Berlin
+49 30 450 540 558
nicola.wilck@charite.de
Hendrik Bartolomaeus
Wissenschaftler in der Forschungsgruppe „Hypertoniebedingte Endorganschäden“
Experimental and Clinical Research Center / Max-Delbrück-Centrum für Molekulare Medizin
+49 30 450 540 558
Hendrik.Bartolomaeus@mdc-berlin.de
Originalpublikation:
Hendrik Bartolomaeus et al. (2018): „The Short-Chain Fatty Acid Propionate Protects from Hypertensive Cardiovascular Damage.“ Circulation. doi:10.1161/CIRCULATIONAHA.118.036652
Weitere Informationen:
https://www.ahajournals.org/doi/10.1161/CIRCULATIONAHA.118.036652 – Direktlink zur Publikation
https://www.mdc-berlin.de/de/news/press/wie-ballaststoffe-und-darmbakterien-den-… Online-Version dieser Mitteilung
Quelle: idw
Fuchs, du hast die Stadt erobert: Bevölkerung hilft bei der Erforschung von Stadtwildtieren
Mag.rer.nat. Georg Mair Öffentlichkeitsarbeit und Kommunikation
Veterinärmedizinische Universität Wien
Über 1100 Fuchsbeobachtungen aus der Wiener Bevölkerung analysierte ein Forschungsteam rund um die Wildtierökologin Theresa Walter im Rahmen des Citizen Science Projektes StadtWildTiere (www.stadtwildtiere.at). Gemeinsam konnten darin Forscher der Vetmeduni Vienna und der Universität für Bodenkultur Wien (BOKU) zeigen, dass Füchse bestimmte Grätzel und Umgebungen bevorzugen. Es stellte sich auch heraus, dass die Meldung von Fuchsbeobachtungen mit dem Ausbildungsgrad der Bevölkerung zusammenhing.
Urbane Lebensräume gewinnen immer mehr an Bedeutung für diverse Wildtierarten. So wurden auch Füchse in den letzten Jahren zu erfolgreichen Bewohnern von Stadtgebieten. Für Wien wurde nun erstmals im deutschsprachigen Raum eine Analyse von Fuchsbeobachtungen erstellt. Forschende der Vetmeduni Vienna und der Universität für Bodenkultur (BOKU) Wien sammelten diese zu allen Jahreszeiten über einen Zeitraum von fünf Jahren. Begegnungen mit Füchsen wurden aus allen Wiener Bezirken und zu jeder Tageszeit gemeldet.
„Unser Wissen über das Vorkommen, die Verteilung und den Zusammenhang mit der Landnutzung dieser städtischen Füchse ist jedoch marginal, da viele der bevorzugten Lebensräume auf Privatbesitz liegen und daher für Wissenschafterinnen und Wissenschafter kaum zugänglich sind“, erklärt Theresa Walter vom Forschungsinstitut für Wildtierkunde und Ökologie der Vetmeduni Vienna. Diese Informationslücke konnte nun mit Hilfe eines Citizen-Science Ansatzes, bei dem die Wiener Bevölkerung Fuchsbeobachtungen auch aus Privatgärten meldete, geschlossen werden.
Landnutzung beeinflusst Begegnungen
Städte stellen für Wildtiere ein Mosaik an Landnutzungsklassen wie etwa Parks, Gärten und Straßen dar, die sich oftmals durch ihren Anteil an Grünflächen aber auch hinsichtlich ihrer Nutzung durch Menschen stark unterscheiden. Die Analyse der Beobachtungen zeigte: in Gärten, Gebieten mit geringer Bebauungsdichte, Parks oder auf Plätzen waren die Wahrscheinlichkeiten für die Begegnung mit Füchsen wesentlich höher als in landwirtschaftlichen Gebieten, Industriegebieten oder Wäldern. „Das erscheint auf den ersten Blick widersprüchlich, da Füchse ja auch im Wald oder auf Feldern leben“ erläutert Florian Heigl vom Institut für Zoologie der BOKU Wien. „Es ist allerdings so, dass man einen Fuchs in einem Wald mit starkem Unterwuchs oder in einem Weizenfeld nicht so gut beobachten kann, wie einen Fuchs, der durch die Stadt spaziert.“ Des Weiteren werden Füchse in der Stadt von der Bevölkerung als außergewöhnlicher wahrgenommen, als Beobachtungen im Wienerwald.
Zur Beobachtung gehören immer zwei: Fuchs und Mensch
Da für Beobachtungen immer das Aufeinandertreffen von Wildtier und Mensch notwendig ist, wollten die Forschenden auch die menschliche Seite der Beobachtungen unter die Lupe nehmen. Im Rahmen der Analyse von soziodemographischen Kennzahlen der Wiener Bevölkerung zeigte sich, dass unter anderem der Ausbildungsgrad der Bevölkerung einen Einfluss auf die Meldung von Fuchsbeobachtungen hatte. Umso mehr Menschen mit höherer Ausbildung in einem Bezirk lebten, umso mehr Fuchsbeobachtungen wurden gemeldet. Dieses Ergebnis ist für viele Citizen Science Projekte relevant, vor allem wenn Forschende verstehen wollen, wie Beobachtungsdaten entstehen und welchen räumlichen Einfluss soziodemographische Faktoren auf die Verteilung der analysierten Meldungen haben.
Eine weitere Anwendungsmöglichkeit der Ergebnisse sieht Theresa Walter im städtischen Wildtiermanagement: „Es gibt auch Krankheiten, die von Wildtieren auf Haustiere oder auf den Menschen übertragen werden können. Wenn wir wissen, wo Mensch und Wildtier in der Stadt aufeinandertreffen, können punktgenau Maßnahmen getroffen werden.“
Über die Veterinärmedizinische Universität Wien
Die Veterinärmedizinische Universität Wien (Vetmeduni Vienna) ist eine der führenden veterinärmedizinischen, akademischen Bildungs- und Forschungsstätten Europas. Ihr Hauptaugenmerk gilt den Forschungsbereichen Tiergesundheit, Lebensmittelsicherheit, Tierhaltung und Tierschutz sowie den biomedizinischen Grundlagen. Die Vetmeduni Vienna beschäftigt 1.300 MitarbeiterInnen und bildet zurzeit 2.300 Studierende aus. Der Campus in Wien Floridsdorf verfügt über fünf Universitätskliniken und zahlreiche Forschungseinrichtungen. Zwei Forschungsinstitute am Wiener Wilhelminenberg sowie ein Lehr- und Forschungsgut in Niederösterreich gehören ebenfalls zur Vetmeduni Vienna. Die Vetmeduni Vienna spielt in der globalen Top-Liga mit: 2018 belegt sie den exzellenten Platz 6 im weltweiten Shanghai-Hochschulranking im Fach „Veterinary Science“. http://www.vetmeduni.ac.at
Aussender:
Mag.rer.nat. Georg Mair
Wissenschaftskommunikation / Öffentlichkeitsarbeit und Kommunikation
Veterinärmedizinische Universität Wien (Vetmeduni Vienna)
T +43 1 25077-1165
georg.mair@vetmeduni.ac.at
Wissenschaftliche Ansprechpartner:
Theresa Walter, Msc.
Forschungsinstitut für Wildtierkunde und Ökologie (FIWI)
Veterinärmedizinische Universität Wien (Vetmeduni Vienna)
T +43 1 25077-7213
theresa.walter@vetmeduni.ac.at
Originalpublikation:
Der Artikel „Fox sightings in a city are related to certain land use classes and sociodemographics: results from a citizen science project“ von Theresa Walter, Richard Zink, Gregor Laaha, Johann G. Zaller und Florian Heigl wurde in, BMc Ecology veröffentlicht.
https://bmcecol.biomedcentral.com/articles/10.1186/s12898-018-0207-7
Weitere Informationen:
https://www.vetmeduni.ac.at/de/infoservice/presseinformationen/presseinformation…
Quelle: idw
Forschungsprojekt Smarte Daten Smarte Dienste: Wohin mit den Daten in der Agrarwirtschaft?
Udo Urban DFKI Kaiserslautern
Deutsches Forschungszentrum für Künstliche Intelligenz GmbH, DFKI
Immer bessere Hardware und dazu passende Apps helfen Landwirten, Lohnunternehmern und Maschinenringen bei der Erfüllung von Dokumentationspflichten, steigern die Arbeitseffizienz, erleichtern und verbessern die Zusammenarbeit, tragen zur Ressourcenschonung bei und erhöhen die Wirtschaftlichkeit. Am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) in Kaiserslautern präsentierte ein Team aus Wissenschaftlern und Entwicklern aus der Industrie ihr Forschungsprojekt Smarte Daten Smarte Dienste (SDSD) und damit ein Gesamtkonzept für Datenmanagement in der Landwirtschaft.
Bei diesem Zwischenreview am 12. Dezember 2018 führte das Entwicklungsteam mit Hard- und Software verschiedener Hersteller erstmals das SDSD-Konzept in der praktischen Anwendung vor.
Bei fast allen Prozessen fallen heute große Datenmengen an, die teilweise höchst vertraulich sind und einen eigenen Wert darstellen. Doch wie soll der Endkunde mit dieser Datenernte umgehen? Wo und wie soll man die Daten speichern, damit sie bei Bedarf schnell verfügbar, mit Geschäftspartnern austauschbar und dennoch vor fremden Zugriffen geschützt sind? Wie kann man Maschinendaten unterschiedlicher Hersteller nutzen und Kompatibilitätsprobleme lösen? Welche Daten müssen dauerhaft gespeichert und welche können nach bestimmten Fristen gelöscht werden?
Auf diese und viele weitere Fragen gibt das Forschungsprojekt Smarte Daten, Smarte Dienste (SDSD) Antwort, das bis Mitte 2020 läuft. Das Projekt hat ein finanzielles Gesamtvolumen von rund 4 Mio. Euro und wird mit Mitteln in Höhe von rund 2 Mio. Euro vom Bundeministerium für Ernährung und Landwirtschaft (BMEL) gefördert. Die Projektträgerschaft erfolgt über die Bundesanstalt für Landwirtschaft und Ernährung im Rahmen des Programms zur Innovationsförderung. In diesem Projekt haben sich Landtechnik, Agrarelektronik und Agrarsoftware-Hersteller (AGCO, Competence Center ISOBUS, DKE-Data, Grimme, Krone, Müller-Elektronik, Same Deutz-Fahr) sowie das DFKI und die Hochschule Osnabrück zusammengetan. Dieses Team präsentiert mit SDSD eine umfassende Lösung, die genau auf die Bedürfnisse von Landwirten, Lohnunternehmern und Maschinenringen zugeschnitten ist. Voraussichtlich ab Mitte 2020 können diese Nutzer dann das neue System einsetzen und ihre Daten nicht nur verwalten, sondern vielfältig nutzen.
Das System lässt sich gut mit einem für jeden Endkunden individualisierten Hochregallager vergleichen, in dem maschinell Daten ein- und ausgelagert sowie kommissioniert werden können. Dabei geht es im Kern um Wissensmanagement für die Landwirtschaft. Wissen ist das Produkt aus Information und langjähriger Erfahrung. Die Verfügbarkeit von Wissen spielt in moderner Landwirtschaft eine immer wichtigere Rolle. SDSD ist das perfekte Werkzeug dafür. So kann mit dem SDSD System z.B. der Landwirt zukünftig aus seinen Ertragskarten der vorrangegangen Jahre Ertragspotentialkarten für seine Felder durch einen Dienst ermitteln lassen. Somit wird neues Wissen aus bestehenden Informationen generiert und über die Jahre hinweg durchgehend vergrößert.
Das System funktioniert zunächst als Speicherdienst, der dem Nutzer nicht nur die volle Kontrolle über seine Daten, z. B. dauerhafte Speicherung oder termin- und inhaltsgesteuerte Löschung, überlässt, sondern sie zusätzlich in andere Datenformate konvertieren und vor allem inhaltlich aufbereiten kann (Smarte Daten). Dieser Prozess nennt sich semantische Annotation. Die Originaldateien bleiben immer erhalten. Die Datenspeicherung erfolgt zugriffsgeschützt nach Nutzervorgaben auf gesicherten und gespiegelten Servern. Diese spezielle Art der Cloud-Speicherung ist deutlich sicherer als jede individuelle Office-Lösung.
Mit den konvertierten und durch den Annotationsdienst optimierten Smarten Daten können weitere Aufgaben (Smarte Dienste) erledigt werden, die mit unbehandelten Daten nicht zu bewältigen wären. Das kann zum Beispiel ein Dienst zur Bereinigung von GPS-Daten sein. Dieser zusätzliche vom Endkunden aktivierbare Dienst durchforstet nach Nutzervorgaben alle GPS-Daten vom Befahren der eigenen Schläge, entfernt unsinnige Ausreißer und legt die korrigierten Daten zusätzlich zu den Original-Daten im zentralen Speicher des Nutzers ab. Von da kann er sie jederzeit laden sowie neue Anwendungen damit planen und durchführen.
Ein weiteres Beispiel ist die Korrelation von Daten wie Düngereinsatz und Erträge oder Kulturen- / Sortenauswahl und Niederschlagsmengen. Alle Entscheidungen, die der Landwirt aus seinem ureigenen Wissen ableitet, kann er jetzt speichern, für neue Entscheidungen heranziehen und jederzeit festlegen, welches Wissen er mit wem teilen möchte, sei es als Gesamtpaket für die nächste Generation oder als kleines Datenpaket zur Verbesserung der Zusammenarbeit zwischen Landwirt und Lohnunternehmer oder Maschinenring. Mit jedem Wirtschaftsjahr wächst das Wissen. Die Datenbasis liegt immer zentral vor und wird als Entscheidungshilfe immer besser.
Diese Smarten Daten ermöglichen die Nutzung Smarter Dienste, wie z.B. dem oben beschriebenen GPS-Ausreißer Bereinigungsdienst oder einem Validierungstool für Auftragsdaten (Taskdata.zip nach ISO 11783). Das Datenmanagement erleichtert den Beteiligten nicht nur viele Arbeitsgänge, es schafft auch Mehrwert, weil es den bestmöglichen Nutzen aus der Verknüpfung von Daten erzeugt. Dabei lässt es dem Nutzer völlige Freiheit bei der Wahl von Agrarsoftware wie Farmmanagement-Informationssystemen (FMIS). Die Software kann wechseln, die Daten stehen immer zur Verfügung, denn nach der Nutzung wandern sie wieder in das virtuelle Hochregallager des Nutzers. Das System kann an zukünftige Datenformate angepasst werden und damit buchstäblich mit seinen Aufgaben wachsen.
Um komfortabel mit Maschinen und Agrarsoftware Lösungen verschiedener Hersteller zu kommunizieren, kann der Endkunde sein SDSD-System zukünftig an verschiedene Datenaustauschplattformen anbinden. Die individuell je Endkunde konfigurierbare Datenaustauschplattform agrirouter konnte zum Zwischenreview bereits an einen Account des SDSD-Systems angebunden werden. Die Konsortialpartner demonstrierten dies exemplarisch am Beispiel der Düngemittelausbringung auf dem Feld: Der Landwirt erstellt zunächst eine Applikationskarte mit den Grenzliniendaten seiner Felder und der jeweiligen Düngemenge. Diese Daten überträgt er via agrirouter an seine Maschinen oder die Maschinen der beauftragten Lohnunternehmen. Während der Düngemittelausbringung auf den Feldern werden die Telemetriedaten der Landmaschinen aufgezeichnet, wie etwa die ortbezogene ausgebrachte Düngermenge, den Dieselverbrauch oder die Arbeitszeiten und über den agrirouter anschließend an das SDSD-Tool geschickt. Dort werden die Daten analysiert, inhaltlich aufbereitet (strukturierte Datenbank mit formalisierten Attributen und Werten) und gespeichert.
Ansprechpartner für weitere Auskünfte:
Dr. Ansgar Bernardi
DFKI-Kaiserslautern
Trippstadter Strasse 122
67663 Kaiserslautern
Tel.: +49 (0) 631-205 75 – 1050
E-Mail: ansgar.bernardi@dfki.de
Konsortialführung:
Jan Horstmann
Maschinenfabrik Bernard Krone GmbH
Heinrich-Krone-Straße 10
48480 Spelle
Tel.: +49 (0) 5977 935 – 421
E-Mail: Jan.Horstmann@Krone.de
Weitere Fotos auf Anfrage an uk-kl@dfki.de
Weitere Informationen:
http://sdsd-projekt.de/
Quelle: idw
Die große Wäsche – Aufbereitung von Biogas mit ionischen Flüssigkeiten verbraucht weniger Energie
Bianca Stur Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Die Aufbereitung von Biogas zu Biomethan wird in rund 200 Anlagen in Deutschland praktiziert. Ingenieure aus Karlsruhe haben gemeinsam mit Praxispartnern im Projekt „BGA-IL – Biogasaufbereitung mit ionischen Flüssigkeiten“ (FKZ-Nr. 03KB104) des Förderprogramms „Energetische Biomassenutzung“ ein energieeffizientes Aufbereitungskonzept entwickelt, das sich die Vorteile ionischer Flüssigkeiten zu Nutze macht.
Die Aufbereitung von Rohbiogas ist technisch sehr aufwändig. Bevor das Gas die für das Erdgasnetz notwendige Qualität erreicht, müssen störender Schwefel und Kohlendioxid (CO2) abgetrennt werden. Gespeichert im Erdgasnetz kann das Biomethan zeit- und ortsunabhängig in verschiedenen Anwendungen zum Einsatz kommen und ist damit eine Flexibilitätsoption im erneuerbaren Energiesystem.
Die sogenannte Gaswäsche ist das derzeit am weitesten verbreitete Verfahren für die Aufbereitung von Rohbiogas. Es arbeitet u.a. auf der Basis von Wasser-Amin-Lösungen, einer Mischung, die Kohlendioxid (CO2) durch chemische Reaktion in der Lösung bindet. Das Verfahren erfordert allerdings hohe Temperaturen für die Regeneration der Waschlösungen (140 – 160 ͦC). Ein Forscherteam vom Engler-Bunte-Institut in Karlsruhe, der Ionic Liquids Technologies GmbH aus Heilbronn und der Powerfarm Bioenergie GmbH aus Tuningen hat nun erfolgreich den Einsatz von ionischen Flüssigkeiten als Waschmedien an einer Biogasanlage demonstriert. Gefördert wurde das Projekt „BGA-IL – Biogasaufbereitung mit ionischen Flüssigkeiten“ (FKZ-Nr. 03KB104) vom Bundesministerium für Wirtschaft und Energie (BMWi) im Förderprogramm „Energetische Biomassenutzung“.
Ionische Flüssigkeiten sind Salzlösungen. Sie bestehen aus geladenen Molekülen, genauer organischen Kationen (+) und/oder Anionen (-) und gehen daher nicht durch Verdampfung in die Gasphase über. Die physikalischen Eigenschaften von ionischen Flüssigkeiten lassen sich außerdem durch geschickte Kombination von Kationen und Anionen gezielt einstellen. Dies machen sich die Wissenschaftler zu Nutze:
Denn im entwickelten Waschprozess findet die Aufnahme (Absorption) von CO2 unter nahezu derselben Temperatur (60 – 80 ͦC) statt, wie die anschließende Rückgewinnung (Regeneration) der Waschflüssigkeit. Externe Wärme benötigt der Regenerationsprozess nicht mehr. Dies spart Energie und senkt die Kosten im Vergleich zu herkömmlichen Konzepten der Gasaufbereitung.
Von der Waschküche im Labor auf die reale Biogasanlage
Im Labor identifizierten die Wissenschaftler vielversprechende ionische Flüssigkeiten, die sie dann stofflich charakterisierten und umfangreichen Tests unterzogen. Neben Versuchen zur Herstellung von ionischen Flüssigkeiten wurde auch die Materialverträglichkeit der Komponenten untersucht, um einen möglichst geringen Verschleiß von Anlagenteilen wie bspw. Dichtungen zu gewährleisten. Im Laborbetrieb konnte die Machbarkeit des Konzeptes nachgewiesen werden. Die notwendigen Gasparameter wurden nach dem „Reinheitsgebot“ der Anforderungen des technischen Regelwerks der Deutschen Vereins des Gas- und Wasserfaches e. V., DVGW G260/261 erreicht. Die Laborergebnisse konnten unter realen Bedingungen in der Biogasanlage in Tuningen bestätigt werden, so dass einer Erprobung in größerem Maßstab, nach einem sogenannten Scale-Up des Verfahrens, nichts mehr im Wege steht.
„Ein hohes Einsparpotenzial bei den Kosten des untersuchten Verfahrenskonzepts sehen wir durch die Verwendung von kostengünstigeren Materialien, die sich durch die geringeren Betriebstemperaturen erst einsetzen lassen“ erläutert Felix Ortloff vom EBI in Karlsruhe die Möglichkeiten, die in der Weiterentwicklung des Verfahrens liegen. „Die Praxisergebnisse zeigen, dass auch in der Biogasaufbereitung, in der die Aufbereitungstechnologien als etabliert gelten, durch den Einsatz neuer Sorbenzien (Mittel, die der Anreicherung bzw. Abtrennung von Stoffen dienen) und neue Prozessführungen noch vieles verbessert werden kann.“
Das Verfahren eignet sich nicht nur für den Aufbereitungsprozess in Biogasanlagen, sondern kann auch in anderen Industrieprozessen zum Einsatz kommen. Die Forscher planen derzeit ein umfangreiches Demonstrationsprojekt, das mit Fördermitteln der EU finanziert werden soll. Aus dem Abgas eines Zementwerks soll das CO2 auf Basis des entwickelten Verfahrens abgeschieden werden – eine Möglichkeit, Treibhausgase zu minimieren.
Ansprechpartner Programmbegleitung:
Diana Pfeiffer – Projektkoordination
Telefon: +49 (0)341 2434-554
E-Mail: diana.pfeiffer@dbfz.de
Wissenschaftliche Ansprechpartner:
DVGW-Forschungsstelle am Engler-Bunte-Institut
Engler-Bunte-Ring 1, 76131 Karlsruhe
www.dvgw-ebi.de
Dr.-Ing. Frank Graf – Projektleiter
Telefon: +49 (0)721 608412-20
Felix Ortloff – Direkter Ansprechpartner
Telefon: +49 (0)721 608412-74
E-Mail: ortloff@dvgw-ebi.de
Originalpublikation:
Pressemitteilung: https://www.energetische-biomassenutzung.de/de/news-media/presse/news-details/ne…
Publikation:
Ortloff, F.; Roschitz, M.; Ahrens, M.; Graf, F.; Schubert, T.; Kolb, T. (2018): Characterization of functionalized ionic liquids for a new quasi-isothermal chemical biogas upgrading process. Separation and Purification Technology, 195, 413-430. doi:10.1016/j.seppur.2017.12.014
Weitere Informationen:
https://www.energetische-biomassenutzung.de/fileadmin/Steckbriefe/dokumente/03KB… (Endbericht)
Anhang
Pressemitteilung Projekt BGA-IL
https://idw-online.de/de/attachment70442
Quelle: idw
Ausweitung des Energiepflanzenanbaus ist für Natur genauso schädlich wie der Klimawandel
Sabine Wendler Senckenberg Biodiversität und Klima Forschungszentrum Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Eigentlich profitiert die Natur vom Klimaschutz, für den die Bioenergie lange als Heilsbringer galt. Um das 1,5-Grad-Ziel zu erreichen, wird aber davon ausgegangen, dass Bioenergie-Pflanzen großflächig angebaut werden müssen. Neuen Modellen zufolge werden dadurch insgesamt mehr Lebensräume von Wirbeltieren vernichtet als von einem abgeschwächten Klimawandel profitieren, berichten Forschende des Senckenberg Biodiversität und Klima Forschungszentrums, der Technischen Universität München und der Durham University diese Woche im Fachblatt „PNAS“. Der vermeintliche Vorteil eines solchen Klimaschutzes käme daher den Arten nicht zugute.
Damit die Globaltemperatur bis 2100 um nicht mehr als 1,5 Grad gegenüber dem vorindustriellen Zeitraum steigt, muss die Menge an CO2, die rund um den Globus in die Luft geblasen wird, deutlich sinken. Eine Begrenzung des Klimawandels nützt auch der Natur, denn er ist einer der Ursachen für das Artensterben. Ein aktuell verbreiteter Ansatz dazu ist es, mehr Energie aus nachwachsenden Rohstoffen wie Mais, Raps, Ölpalme und Co. statt aus fossilen Rohstoffen zu gewinnen.
Doch damit – legt man das Augenmerk auf die biologische Vielfalt – ersetzt man wohl ein Übel durch ein anderes. „Um den Klimawandel damit wirksam zu begrenzen, müssen wir bis 2100 auf circa 4,3 Prozent der globalen Landflächen Bioenergie-Pflanzen anbauen – das entspricht fast der 1,5-fachen Fläche aller EU-Länder zusammen. Damit schaden wir der biologischen Vielfalt, die in diesen Gebieten bisher zuhause ist, gravierend. Die negativen Auswirkungen des Klimawandels, die mit maximaler Bioenergie-Nutzung verhindert werden könnten, werden diese Verluste nicht wettmachen“, so Dr. Christian Hof, der die Studie am Senckenberg Biodiversität und Klima Forschungszentrum Frankfurt durchführte und jetzt an der TU München forscht.
Unter Wissenschaftlerlnnen ist Bioenergie schon länger umstritten und war bisher Gegenstand von Einzelstudien. Hof und sein Team haben erstmals global untersucht, wie Amphibien, Vögel und Säugetiere den Klima- und den Landnutzungswandel bis 2100 zu spüren bekommen. Dabei haben sie zwei Szenarien miteinander verglichen: ein Szenario mit maximaler Bioenergie-Nutzung, welches einer Begrenzung der Erwärmung um circa 1,5 Grad entspricht, und ein Szenario mit minimaler Bioenergie-Nutzung und einem Temperaturanstieg um etwa 3 Grad gegenüber dem vorindustriellen Zeitraum bis 2100.
Die Ergebnisse überraschen: „Ob sich die Temperatur bis 2100 um 1,5 oder 3 Grad erhöht: Rund 36 % der Lebensräume von Wirbeltieren sind entweder durch den Klimawandel oder die neue Landnutzung infolge des Anbaus von Bioenergie-Pflanzen massiv gefährdet. Die Auswirkungen auf die biologische Vielfalt sind also vergleichbar. Unterschiedlich ist nur, auf wessen Konto sie gehen“, erklärt Dr. Alke Voskamp vom Senckenberg Biodiversität und Klima Forschungszentrum.
Darüber hinaus gibt es Gebiete, in denen Wirbeltieren von Energiepflanzen-Plantagen der Platz streitig gemacht wird und ihnen gleichzeitig die höhere Temperatur zu schaffen machen wird. „Bei einem geringeren Temperaturanstieg bis 1,5 Grad, den wir durch die maximale Nutzung von Bioenergie erkaufen, könnten sogar größere Flächen unter dieser Doppelbelastung leiden. Unter diesem 1,5 Grad-Szenario wird insgesamt ein größerer Anteil der Verbreitungsräume von Wirbeltieren durch Klimawandel, Landnutzung oder beides beeinträchtigt“, erklärt Voskamp.
Das Abbremsen des Klimawandels durch den Einsatz von Bioenergie-Pflanzen schadet zudem wahrscheinlich deutlich mehr Wirbeltierarten mit kleinem Verbreitungsgebiet, als ein Temperaturanstieg um 3 Grad. Solche Wirbeltierarten – vor allem Amphibien – leben mehrheitlich in den Tropen und Neotropen. An diesen Orten jedoch werden Plantagen für Bioenergie-Pflanzen am meisten zunehmen.
Für Hof und sein Team lässt die Studie nur einen Schluss zu: „Der Klimawandel ist nach wie vor eine der größten Bedrohungen für die biologische Vielfalt und muss möglichst auf 1,5 Grad Temperaturerhöhung begrenzt werden. Wie unsere Studie zeigt, ist die Bioenergie und die massive Ausweitung der Anbauflächen hierfür aber der falsche Weg. Wir müssen stattdessen stärker daran arbeiten, Energie einzusparen.“
Die Studie ist Teil des vom Bundesministerium für Bildung und Forschung geförderten Projektes BioSzen1punkt5 im Programm „Förderung erweiterter und verbesserter wissenschaftlicher Grundlagen für den IPCC-Sonderbericht zu 1,5 °C globale Erwärmung (SR1.5)“.
Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.
Die Technische Universität München (TUM) ist mit rund 550 Professorinnen und Professoren, 42.000 Studierenden sowie 10.000 Mitarbeiterinnen und Mitarbeitern eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, verknüpft mit den Wirtschafts- und Sozialwissenschaften. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit dem Campus TUM Asia in Singapur sowie Verbindungsbüros in Brüssel, Kairo, Mumbai, Peking, San Francisco und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel, Carl von Linde und Rudolf Mößbauer geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands. www.tum.de
Wissenschaftliche Ansprechpartner:
Dr. Christian Hof
Technische Universität München & Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 08161 712489
Christian.hof@tum.de
Dr. Alke Voskamp
Senckenberg Biodiversität und Klima Forschungszentrum
Tel. 069 7542 1871
alke.voskamp@senckenberg.de
Originalpublikation:
Hof, Chr. et al. (2018): Bioenergy cropland expansion may offset positive effects of climate mitigation for global vertebrate diversity. PNAS, doi: 10.1073/pnas.1807745115 (scheduled for publishing on Monday 10 December 2018)
Quelle: idw
Klärschlamm: Neuartiges Verfahren ermöglicht bessere Wertstoffrückgewinnung
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Klärschlamm enthält viele wichtige Wertstoffe, die bislang nicht optimal verwertet werden. Ein neuartiges Ultraschallverfahren soll es ermöglichen, die Inhaltsstoffe des Klärschlamms besser aufzuschließen und anschließend voneinander abzutrennen. Die so zurückgewonnenen Wertstoffe lassen sich im Sinne einer nachhaltigen, umweltschonenden und wirtschaftlichen Kreislaufführung wiederverwerten. Im BMBF-Verbundprojekt »UltraSep« soll das Verfahren unter Realbedingungen auf einer Kläranlage des Wupperverbands getestet und optimiert werden.
Klärschlamm ist ein heterogenes Gemisch, das sich hauptsächlich aus Wasser, organischen Substanzen, Stickstoff- und Phosphorverbindungen zusammensetzt. Alleine in Deutschland belief sich das Aufkommen in industriellen und kommunalen Kläranlagen im Jahr 2015 auf gut 1,8 Mio t [1]. Bislang werden die Klärschlämme vor allem landwirtschaftlich verwertet oder verbrannt. Die 2017 novellierte Klärschlammverordnung richtet die Klärschlammverwertung neu aus und verlangt, dass aus den Schlämmen mittelfristig Phosphor zurückgewonnen wird.
In verschiedene Wertstofffraktionen abgetrennt
Zu diesem Ziel beitragen könnte ein neues Ultraschallverfahren der AQUATTRO GmbH, Halver, das im Verbundprojekt «UltraSep« in Kooperation mit Fraunhofer UMSICHT und der Wupperverbandsgesellschaft für integrale Wasserwirtschaft WiW erprobt und optimiert wird. Im Mittelpunkt steht eine neuartige und patentierte Ultraschall-Kavitations-Einheit. Ein spezieller Ultraschallgeber bewirkt, dass durch den ständigen Druckwechsel im Klärschlamm unzählige winzige Blasen entstehen – ein Effekt, der auch als Kavitation bezeichnet wird. Die mit einem Gemisch aus Wasserdampf und anderen Gasen gefüllten Mikrobläschen wachsen binnen Sekundenbruchteilen auf ein Vielfaches ihrer ursprünglichen Größe und implodieren schließlich. Dies führt zu verschiedenen physikalischen und chemischen Effekten, die den Klärschlamm aufschließen, der dann in Folgeschritten in verschiedene Wertstofffraktionen abgetrennt werden kann. Im Ergebnis soll das neue Verfahren cellulosereiche Fasern, ein nährstoffreiches Gel sowie eine leicht vergärbare Flüssigkeit liefern, die jeweils für weitere Nutzungen verwendet werden können. Insbesondere die Rückgewinnung von Phosphor, der seitens der EU-Kommission als kritischer Rohstoff eingestuft wird, spielt hierbei eine wichtige Rolle.
Verfahrensoptimierung
Die Projektteilnehmer wollen das neue Verfahren in einer mobilen Pilotanlage testen. Im anschließenden Einsatz auf der kommunalen Kläranlage des Wupperverbands in Hückeswagen soll daraufhin die schrittweise Überführung in den Dauerbetrieb sowie eine Verfahrensoptimierung erfolgen.
Das Verbundprojekt »Innovatives Verfahren zur stofflichen und energetischen Verwertung von Klärschlamm« (UltraSep) ist Teil der BMBF-Fördermaßnahme »KMU-innovativ: Ressourceneffizienz und Klimaschutz«, Anwendungsbereich »Nachhaltiges Wassermanagement«. Die Maßnahme gehört zum BMBF-Programm »Forschung für Nachhaltige Entwicklung« (FONA³).
[1]KLÄRSCHLAMMENTSORGUNG in der Bundesrepublik Deutschland; Herausgeber: Fachgebiete III 2.4 – Abfalltechnik, Abfalltechniktransfer und III 2. – Überwachungsverfahren, Abwasserentsorgung
Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Josef Robert, josef.robert@umsicht.fraunhofer.de, Tel.: +49 208 8598-1150
Lukas Rüller, M.Sc., lukas.rueller@umsicht.fraunhofer.de, Tel.: +49 208 8598-1161
Originalpublikation:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2018/ultra…
Quelle: idw
Neue Rückrufe von Blutdrucksenkern
Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga
Laut Information der Deutschen Apothekerzeitung darf der Wirkstoff Valsartan von Mylan Laboratories Limited, Indien, bis auf weiteres nicht zur Herstellung valsartanhaltiger Arzneimittel für die EU verwendet werden. Auch Chargen von Irbesartan Heumann 300 mg werden aktuell zurückgerufen. Auf der Pressekonferenz der Deutschen Hochdruckliga, die morgen in Berlin stattfindet, ist die Organisation von Rückrufen ein Thema, auch die Frage, wie mit den Betroffenen kommuniziert wird und welche Therapiealternativen ihnen bleiben.
• Mit Hochdruck auf Herz und Niere – wieviele Organschädigungen Bluthochdruck wirklich macht
Prof. Dr. med. Helmut Geiger, Frankfurt, Tagungspräsident des 42. Wissenschaftlichen Kongresses der Deutschen Hochdruckliga e.V. DHL®
• Rezeptierbarkeit von Fixdosis-Kombinationspräparaten: In der Praxis ein Problem!
Prof. Dr. med. Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL®
• Blutdrucksenker in Verruf – was wir aus dem „Fall“ Valsartan lernen sollten
Prof. Dr. med. Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL®
• Interventionelle Verfahren zur Blutdrucksenkung – wo stehen wir heute?
Prof. Dr. med. Joachim Weil, Lübeck, Vorstandsmitglied der Deutschen Hochdruckliga e.V. DHL® und Tagungspräsident des 42. Wissenschaftlichen Kongresses der Deutschen Hochdruckliga e.V. DHL®
Weitere Informationen:
http://www.hochdruckliga.de
Quelle: idw
PFC-belastete Gewässer effektiv sanieren
Stefanie Bergel Pressestelle
Bergische Universität Wuppertal
Leberschädigend, fortpflanzungsschädigend und potenziell krebserzeugend – per- und polyfluorierte Chemikalien, oder abgekürzt PFCs, sind giftig. Trotzdem bleiben sie für viele Branchen unersetzlich – sei es bei der Herstellung von atmungsaktiver Kleidung, „to go“-Kaffeebechern oder Feuerlösch-Schaum – und finden so ihren Weg immer wieder ins Oberflächen- oder Grundwasser. Die Frage, wie solche PFC-kontaminierten Gewässer saniert werden können, beschäftigt aktuell ein Team der Intrapore GmbH und der Bergischen Universität.
„Die Herausforderung, vor der wir stehen, ist ziemlich groß“, sagt Dr. Julian Bosch von der Intrapore GmbH. „Hauptvertreter der PFCs sind poly- und perfluorierte Alkansäuren, deren hohe Stabilität dazu führt, dass sie extrem persistent in der Umwelt und als nicht bioabbaubar gelten.“ Zudem weisen PFCs aufgrund ihrer guten Wasserlöslichkeit und ihres schlechten Adsorptionsverhaltens eine hohe Mobilität im Grundwasser auf. „Gleichzeitig nimmt die Belastung von Gewässern zu, und für viele Schadensfälle besteht aufgrund neu eingeführter gesetzlicher Grenzwerte eine Sanierungspflicht“, erklärt der Intrapore-Geschäftsführer und Geowissenschaftler. Das PFC-Problem habe also eine extrem hohe Relevanz und Dringlichkeit.
Zur Lösung des Problems schlägt das Forschungsteam einen neuen Weg ein. „Ausgehend von Entwicklungen im Bereich der Nano- und Mikropartikelbasierten Grundwasser-Reinigung werden wir ein maßgeschneidertes, funktionales Material entwerfen, herstellen und testen“, so Prof. Dr.-Ing. Jörg Rinklebe vom Lehr- und Forschungsgebiet Boden- und Grundwassermanagement der Bergischen Universität. „Ziel ist es, eine Suspension aus reaktiven Partikeln zu entwickeln, die man in belastete Grundwasserbereiche injizieren kann, wo sie die PFCs aufnimmt und unschädlich macht.“
Die Entwicklung erfordere eine Reihe von Teilinnovationen. Angefangen bei der Erstellung und Konfiguration der grundlegenden Partikel bis zur Entwicklung eines umfassenden Testprogramms zur Leistungsfähigkeit, Langzeitwirkung und Unbedenklichkeit des Materials. „Wenn wir diese Schritte allerdings erfolgreich durchlaufen, stellt das Material einen bedeutenden Durchbruch bei der Beseitigung der hochproblematischen und derzeit nicht behandelbaren PFC-Schäden dar“, betont Prof. Dr. Rinklebe.
Der Titel des Forschungsprojektes lautet „In situ Eliminierung von Per- und Polyfluorierten Verbindungen in belasteten Grundwässern unter Einsatz von Adsorptiven Komposit-Nanopartikeln auf Basis Oxidativ-Reaktiver Aktivkohle-Polysaccharid-Lipid-Ferrat-Micellen-Aggregate“. Kurz: PANORAMA. Es wird mit rund 1,2 Mio. Euro aus dem Europäischen Fonds für regionale Entwicklung (EFRE) finanziert.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Jörg Rinklebe
Lehr- und Forschungsgebiet Boden- und Grundwassermanagement
Tel.: 0202 439-4057
E-Mail: rinklebe@uni-wuppertal.de
Quelle: idw
Neue US-Richtlinie für Bluthochdruck bietet keine Vorteile für Betroffene
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Wo beginnt gefährlicher Bluthochdruck? Auf diese Frage geben Ärzteorganisationen unterschiedliche Antworten. Beispielsweise gelten Patienten in den USA früher als krank als in Deutschland. Ein Team um Prof. Karl-Heinz Ladwig von der Technischen Universität München (TUM) und dem Helmholtz Zentrum München kommt zu dem Schluss, dass eine niedrige Schwelle für eine Behandlung nicht vor tödlichen Herzerkrankungen schützt – sie könnte sich sogar negativ auf die Psyche der Betroffenen auswirken.
Seit 2017 gibt es in den Leitlinien des American College of Cardiology eine zusätzliche Kategorie für Bluthochdruck: „Stage 1 Hypertension“. Patientinnen und Patienten müssen demnach behandelt werden, wenn bei ihnen die entsprechenden Werte (130-139 mmHg / 80-89 mmHg) gmessen werden. Die European Society of Cardiology sieht bei diesen Werten noch einen „erhöht normalen Blutdruck“ und keinen zwingenden Handlungsbedarf.
„Die Idee hinter den US-Leitlinien ist, Bluthochdruck möglichst früh zu senken und durch die Diagnose einer Erkrankung Patienten zu motivieren, gesünder zu leben“, erläutert Prof. Karl-Heinz Ladwig, Forscher an der Klinik für Psychosomatische Medizin und Psychotherapie des TUM-Universitätsklinikums rechts der Isar und am Helmholtz Zentrum München.
„Motivations-Effekt“ fraglich
Anhand von Daten von knapp 12.000 Patientinnen und Patienten haben Ladwig und sein Team sich ein Bild der Situation in Deutschland verschafft. „Wir haben untersucht, wie hoch innerhalb eines Zeitraumes von zehn Jahren das Risiko für Menschen in den verschiedenen ‚Blutdruck-Kategorien‘ war, an einer Herz-Kreislauferkrankung zu sterben und welche anderen Risikofaktoren jeweils vorlagen“, sagt Seryan Atasoy, Erstautorin der Studie und Epidemiologin am Helmholtz Zentrum München und der Ludwig-Maximilians-Universität München.
In der neugeschaffenen Kategorie „Stage 1 Hypertension“ waren das Risiko an einer Herz-Kreislauferkrankung zu sterben nicht signifikant höher als bei normalem Blutdruck. „Auch der Motivations-Effekt ist fraglich“, sagt Karl-Heinz Ladwig. Bei Patientinnen und Patienten mit gefährlichem Bluthochdruck, die sowohl nach US- als auch nach europäischen Leitlinien mit Medikamenten behandelt werden sollen („Stage 2 Hypertension“), sei das Risiko, an einer Herz-Kreislauferkrankung zu sterben, deutlich erhöht. „Gleichzeitig sind Risikofaktoren wie Rauchen und Bewegungsmangel besonders ausgeprägt. Das zeigt, dass viele trotz Diagnose ihren Lebensstil nicht umstellen.“
Gefährliche Depressionen
Während Menschen mit gefährlichem Bluthochdruck grundsätzlich seltener depressiv waren als andere, lag der Wert bei einer Teilmenge deutlich höher: Bei rund der Hälfte derjenigen, die wegen des gefährlichen Bluthochdrucks Medikamente nahmen, wurden depressive Stimmungslagen festgestellt. Das war nur bei etwa einem Drittel der Nicht-Behandelten der Fall.
„Wir nehmen an, dass es sich um einen Labeling-Effekt handelt“, sagt Ladwig. „Wird man offiziell mit dem Etikett ‚krank‘ versehen, wirkt sich das auf die psychische Gesundheit aus.“ In einer früheren Studie hatten er und sein Team gezeigt, dass Depressionen einen ähnlich hohen Risikofaktor für tödliche Herz-Kreislauferkrankungen darstellen wie hohe Cholesterinwerte oder Fettleibigkeit.
Mehr Kranke durch neue Richtlinien
„Das American College of Cardiology selbst hat errechnet, dass der Anteil der Erwachsenen mit der Diagnose Bluthochdruck durch die neue Leitlinie von 32 auf 46 Prozent steigt“, sagt Karl-Heinz Ladwig. „14 Prozent werden also zusätzlich psychischem Druck ausgeliefert – ohne dass für sie eine signifikant höhere Gefahr bestehen würde, eine tödliche Herz-Kreislauferkrankung zu entwickeln und ohne, dass eine Motivationswirkung der Diagnose zu erwarten wäre.“ Eine Übernahme der US-Leitlinien in Europa wäre daher aus Ladwigs Sicht grundsätzlich falsch.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Karl-Heinz Ladwig
Technische Universität München
Klinikum rechts der Isar
Klinik für Psychosomatische Medizin und Psychotherapie
Tel. +49 89 3187 3623
ladwig@helmholtz-muenchen.de
Originalpublikation:
S. Atasoy, H. Johar, A. Peters, K.-H. Ladwig. „ Association of hypertension cut-off values with 10-year cardiovascular mortality and clinical consequences: a real-world perspective from the prospective MONICA/KORA study „. European Heart Journal (2018). DOI:10.1093/eurheartj/ehy694
Weitere Informationen:
https://www.helmholtz-muenchen.de/epi/the-institute/staff/staff/ma/7105/Prof.%20… Profil Prof. Karl-Heinz Ladwig
http://www.psychosomatik.mri.tum.de/forschung/ag-internistische-psychosomatik-un… Arbeitsgruppe an der Klinik für Psychosomatische Medizin und Psychotherapie
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/33661/ Pressmitteilung zum Risikofaktor „Depression“
Quelle: idw
Die Babyboomer gehen in Rente
Lilli Sippel Presse- und Öffentlichkeitsarbeit
Berlin-Institut für Bevölkerung und Entwicklung
Ein Drittel der Erwerbstätigen vor dem Ruhestand, Kommunen unter Druck
Leere Eigenheime, Wohlstandsgefälle, soziale Isolation: Der Renteneintritt der geburtenstarken Jahrgänge der 1950er und 1960er Jahre ab 2018 hat im schlimmsten Fall gravierende Auswirkungen auf das kommunale Leben. Im besten Fall birgt der Ruhestand der Babyboomer aber ein immenses Potenzial an politisch und gesellschaftlich Engagierten. Zu diesem Schluss kommt das Thesenpapier „Die Babyboomer gehen in Rente. Was das für die Kommunen bedeutet“ des Berlin-Instituts für Bevölkerung und Entwicklung im Auftrag der Körber-Stiftung.
»Dass die Babyboomer altern, bringt für die Kommunen in Deutschland massive Veränderungen mit sich. Ob die Babyboomer für sie zur Belastung werden, weil sie Kosten verursachen und teilweise auf Pflege angewiesen sein werden, oder ob die neuen Alten ihre Kompetenzen und Erfahrungen gewinnbringend lokal einbringen, das haben die Kommunen selbst in der Hand«, so Reiner Klingholz, Direktor des Berlin-Instituts für Bevölkerung und Entwicklung.
Um über den Übergang der Babyboomer in den Ruhestand zu beraten und Lösungen aus der internationalen Praxis zu diskutieren, bringt das Körber Demografie-Symposium am 14. und 15. November in Hamburg ein breites Fachpublikum aus Politik, Verwaltung, Wirtschaft und Gesellschaft zusammen.
Deutsche Kommunen stehen vor großen Herausforderungen:
Wer sind die Babyboomer? Wie ist ihre sozioökonomische Situation? Und was bedeutet die Veränderung ihrer Lebenssituation für deutsche Kommunen? Die Körber-Stiftung hat gemeinsam mit dem Berlin-Institut für Bevölkerung und Entwicklung sechs Thesen zu den Auswirkungen des Ruhestands der Babyboomer entwickelt:
1. Wirtschaft: Der Ruhestand der Babyboomer gefährdet den Wohlstand ihrer Heimatregionen.
2. Engagement: Die Babyboomer gestalten auch künftig das Zusammenleben in der Kommune mit – aber zu ihren Bedingungen.
3. Wohnen: Viele Eigenheimen droht der Leerstand.
4. Sozialleben: Viele Babyboomer werden ohne eine Familie altern, ihnen droht im Alter soziale Isolation.
5. Pflege: Für die kommunalen Pflegenetzwerke sind die Babyboomer eine der größten Herausforderungen.
6. Soziale Sicherung: Einigen Frauen und Migranten aus der Babyboomer-Generation droht Altersarmut.
Die alternde Bevölkerung kann also zu einer großen Aufgabe für die deutschen Kommunen werden. Allerdings gibt es sowohl in Deutschland als auch international gute Beispiele für Lösungen und Vorbilder von Menschen und Organisationen, die den Wandel annehmen und als Chance begreifen.
Angebote für Journalisten:
• Interview mit Karin Haist, Leiterin bundesweite Demografie-Projekte der Körber-Stiftung
• Interview mit Reiner Klingholz, Direktor Berlin-Institut für Bevölkerung und Entwicklung
Material zum Download:
• Thesenpapier: Die Babyboomer gehen in Rente. Was das für die Kommunen bedeutet. (https://www.berlin-institut.org/publikationen/gutachten-policy_papers/Die_Babybo…)
Kontakt:
Pressestelle Körber-Stiftung
Julian Claaßen
Telefon +49 40 80 81 92-233
claassen@koerber-stiftung.de
Die Körber-Stiftung stellt sich mit ihren operativen Projekten, in ihren Netzwerken und mit Kooperationspartnern aktuellen Herausforderungen in den Handlungsfeldern Innovation, Internationale Verständigung und Lebendige Bürgergesellschaft. 1959 von dem Unternehmer Kurt A. Körber ins Leben gerufen, ist die Stiftung heute von ihren Standorten Hamburg und Berlin aus national und international aktiv.
Das Berlin-Institut für Bevölkerung und Entwicklung ist ein unabhängiger Thinktank, der sich mit Fragen regionaler und globaler demografischer Veränderungen beschäftigt. Das Institut wurde 2000 als gemeinnützige Stiftung gegründet und hat die Aufgabe, das Bewusstsein für den demografischen Wandel zu schärfen, nachhaltige Entwicklung zu fördern, neue Ideen in die Politik einzubringen und Konzepte zur Lösung demografischer und entwicklungspolitischer Probleme zu erarbeiten.
Das Berlin-Institut erstellt Studien, Diskussions- und Hintergrundpapiere und bereitet wissenschaft-liche Informationen für den politischen Entscheidungsprozess auf. Weitere Informationen, wie auch die Möglichkeit, den kostenlosen regelmäßigen Online-Newsletter „Demos“ zu abonnieren, finden Sie unter https://www.berlin-institut.org.
Quelle: idw
Studie: Braunkohlereviere zu Energiewenderegionen transformieren
Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig
Gemeinsame Pressemitteilung der IFOK GmbH und des Instituts für ökologische Wirtschaftsforschung (IÖW)
Untersuchung im Auftrag des Bundeswirtschaftsministeriums zeigt, dass verstärkte Nutzung erneuerbarer Energien wichtigen Beitrag zu erfolgreichem Strukturwandel in deutschen Braunkohlerevieren leisten kann
Der geplante Kohleausstieg bewegt das Land und die Gemüter. Eine neue Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie zeigt, wie die deutschen Kohlereviere auch zukünftig als wichtige Player in der Energiewirtschaft in Deutschland mitspielen können. Fazit: Eine gezielte Transformation hin zu Energiewenderegionen könnte maßgeblich neue Perspektiven für Beschäftigung und Wertschöpfung im Rheinischen, Mitteldeutschen, Lausitzer und Helmstedter Revier schaffen.
Kohlekraftwerke durch Solar-Windstrom-Großkraftwerke ersetzen
Die Experten mehrerer Forschungs- und Beratungsinstitute empfehlen, die Potenziale erneuerbarer Energien in den Tagebauregionen stärker zu nutzen. Besondere Chancen bietet der verstärkte Ausbau von Solar- und Windstrom im Verbund. Diese Anlagen könnten schrittweise in den Regionen aufgebaut werden und freiwerdende Netzkapazität ersetzen, während die Kohleverstromung heruntergefahren wird. Weiterhin empfiehlt das Gutachten, Anlagen für die sogenannte Power-to-X-Technologie, also das Umwandeln von Strom etwa in Gas oder Wärme, gezielt in den Tagebauregionen anzusiedeln. „Solche Anlagen werden im zukünftigen Energiesystem eine wichtige Rolle zur Speicherung oder anderweitigen Nutzung von temporären Stromüberschüssen aus Wind oder Photovoltaik spielen“, sagt Martina Richwien vom Beratungsinstitut IFOK, das die Erarbeitung der Studie geleitet hat.
Die Potenziale der Reviere für den Strukturwandel in den Blick nehmen
„In der Debatte um den Strukturwandel werden die Potenziale der Energiewende bisher noch zu wenig gesehen“, so Bernd Hirschl vom Institut für ökologische Wirtschaftsforschung (IÖW), das in der Studie berechnet hat, in welchem Umfang Arbeitsplätze und Wertschöpfung in den Bereichen Wind- und Solarenergie neu entstehen können. „Die vorhandenen Infrastrukturen und Kompetenzen bieten sich an, die Reviere zu Energiewende-Modellregionen zu entwickeln – entsprechend ihrer jeweiligen Voraussetzungen. Wenn die Akteure vor Ort dafür zusammen mit den betroffenen Bundesländern und dem Bund an einem Strang ziehen, können nennenswerte Wertschöpfung und Beschäftigung entstehen.“
Gemeinsam vor Ort tätig werden
„Die Erschließung der Potenziale kann nur in den Regionen und gemeinsam mit den regionalen Akteuren erfolgen, die mit den Veränderungen vor Ort leben und arbeiten“, betont Martina Richwien. „So muss beispielsweise die Frage nach der Verfügbarkeit geeigneter Flächen im Dialog vor Ort beantwortet werden. Hier wird es wichtig sein, weitere Vorstellungen der Flächennutzung einzubeziehen und mögliche Unterstützer zu finden, um die insbesondere in der Lausitz erheblichen Beschäftigungspotenziale auch nutzen zu können.“
Die Experten weisen darauf hin, dass für ein Gelingen der Reviertransformation spezifische Maßnahmen erforderlich sind, bei denen die verschiedenen Ebenen zusammenarbeiten müssen. Etwa seien Sonderausschreibungen erforderlich, um die Anlagen gezielt in die Regionen zu bekommen. Damit die Reviere ökonomisch davon profitieren, sind darüber hinaus nennenswerte Beteiligungen von Kommunen, Unternehmen und Bürgern vor Ort erforderlich.
Fallstudie Lausitz: mehrere tausend Arbeitsplätze möglich
In dem Gutachten wurde für das Lausitzer Revier das regionalökonomische Potenzial einer Transformation zur Energiewenderegion abgeschätzt. Bei einem ambitionierten Ausbau von Windenergie und Photovoltaik können beispielsweise allein in diesem Bereich rund eintausend Vollzeit-Arbeitsplätze entstehen. Darin sind noch keine Effekte aus der Anlagenproduktion enthalten, in der heute bereits mehr als eintausend Menschen beschäftigt sind. Aus weiteren Bereichen der Strom-, Wärme- und Verkehrswende können darüber hinaus zahlreiche zusätzliche Arbeitsplätze entstehen – von Biogas über Solarthermie bis Power-to-Gas und in Bereichen wie ÖPNV, Car-Sharing, E-Mobilität oder autonomes Fahren.
Redaktionelle Informationen:
Über die Studie:
Projektbericht Erneuerbare Energien-Vorhaben in den Tagebauregionen im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi), 467 Seiten, Berlin.
Mitwirkung von folgenden Forschungs- und Beratungsorganisationen: ► IFOK GmbH ► Deutsche WindGuard GmbH ► Solarpraxis Engineering GmbH ► Prognos AG ► Institut für ökologische Wirtschaftsforschung GmbH (gemeinnützig) ► Becker Büttner Held PartGmbB
Pressekontakt:
IFOK GmbH
Martina Richwien
Tel.: +49 (0) 30 536077-15
martina.richwien@ifok.de
Institut für ökologische Wirtschaftsforschung (IÖW)
Richard Harnisch
Tel.: +49 (0) 30 884594-16
kommunikation@ioew.de
Bundesministerium für Wirtschaft und Energie
pressestelle@bmwi.bund.de
Tel: +49 (0) 30 18 615 -6121
IFOK ist Teil der internationalen Cadmus Group und die marktführende Kommunikations- und Strategieberatung für Beteiligung. In den Kernthemen Energie, Umwelt, Nachhaltigkeit, Digitale Transformation und Beschäftigung gestaltet und begleitet IFOK seit 1995 gesellschaftlich relevante Veränderungsprozesse mit Fach- und Methodenkompetenz. Als Experten für die Herausforderungen der modernen Gesellschaft arbeiten heute rund 120 Mitarbeiterinnen und Mitarbeiter an den Standorten in Bensheim, Berlin, Düsseldorf, München und an mehreren Standorten in den USA für Kunden aus Politik, Wirtschaft und zivilgesellschaftlichen Institutionen nach dem Ansatz „Wandel durch Beteiligung und Dialog“.
http://www.ifok.de
Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. 55 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung.
http://www.ioew.de
Weitere Informationen:
http://www.erneuerbare-energien.de/EE/Redaktion/DE/Downloads/Berichte/erneuerbar…
Quelle: idw
Warum Einkorn besser für Menschen mit Weizenunverträglichkeit sein könnte
Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Lebensmittel-Systembiologie
Moderne, aber auch ursprüngliche Weizenarten wie Einkorn, Emmer und Dinkel enthalten natürlicherweise eine Gruppe von Eiweißmolekülen, die im Verdacht steht, Symptome einer Weizenunverträglichkeit auszulösen. Eine neue Studie des Leibniz-Instituts für Lebensmittel-Systembiologie an der TU München zeigt erstmals im direkten Vergleich, dass Einkorn im Gegensatz zu Brotweizen, Hartweizen, Dinkel und Emmer keine oder deutlich geringere Mengen dieser Eiweiße enthält. Die Forschenden veröffentlichten ihre Ergebnisse nun in der Fachzeitschrift Journal of Agricultural and Food Chemistry.
Um welche Eiweißmoleküle geht es?
Bei den Eiweißmolekülen handelt es sich um alpha-Amylase-Trypsin-Inhibitoren (ATI), die insbesondere im Getreidekorn enthalten sind. Wissenschaftlichen Erkenntnissen zufolge dienen sie dazu, die Pflanzensamen vor Fraßfeinden zu schützen. Die ATI hemmen die Verdauungsenzyme (alpha-Amylase und Trypsin) von Insekten sowie Menschen und sind zudem aufgrund ihrer besonderen Molekülstruktur selbst schwer verdaulich. Wie neuere Untersuchungen darüber hinaus zeigen, stimulieren sie dosisabhängig die Freisetzung entzündungsfördernder Botenstoffe und so das angeborene Immunsystem. Medizinische Daten weisen darauf hin, dass die Enzym-Inhibitoren nicht nur Darmbeschwerden verursachen. Auch Benommenheit, Müdigkeit, Gelenk- und Muskelschmerzen, Hautveränderungen und depressive Verstimmungen gehören zu den beschriebenen Symptomen. Nicht zuletzt sind die Inhibitoren als Auslöser für Weizenallergien bekannt.
Was beeinflusst den ATI-Gehalt?
Wie hoch der Gehalt der Enzym-Inhibitoren im jeweiligen Getreide ist, ist zum einen durch das Erbgut der Pflanze und zum anderen durch Umwelteinflüsse bestimmt. Aussagekräftige Studien, die den ATI-Gehalt verschiedener Weizenarten und -sorten direkt miteinander verglichen haben, fehlten jedoch bislang.
40 Weizensorten im Vergleich
„In unserer Studie haben wir insgesamt 40 moderne und ursprüngliche Sorten miteinander verglichen. Jeweils acht Sorten pro Weizenart. Das Besondere ist, dass alle untersuchten Getreide unter den gleichen geografischen und klimatischen Bedingungen gewachsen sind“, erklärt Erstautorin Sabrina Geisslitz vom Leibniz-Institut für Lebensmittel-Systembiologie. Alle gemessenen Unterschiede seien daher hauptsächlich auf Unterschiede im Erbgut der Pflanzen zurückzuführen und hätten so einen direkten Vergleich der Weizenarten bzw. -sorten überhaupt erst möglich gemacht.
Das Wissenschaftlerteam untersuchte alle Getreide-Proben mithilfe modernster Analysetechniken. In den Dinkel- und Emmer-Proben waren mit durchschnittlich etwa vier bis sechs Milligramm ATI pro Gramm Probenmaterial sogar größere ATI-Mengen enthalten als in den Brotweizen- und Hartweizen-Proben. Dagegen ließen sich in fünf der untersuchten Einkorn-Proben gar keine bzw. in drei der Proben nur sehr geringe Mengen dieser Enzym-Inhibitoren nachweisen.
Einkorn, die bessere Wahl?
„Das Ergebnis hat uns ein wenig überrascht. Denn im Vergleich zu herkömmlichen Weizen gelten alle drei ursprünglichen Weizenarten in gleichem Maße als bekömmlicher“, sagt Katharina Scherf, die am Leibniz-Institut die Arbeitsgruppe Functional Biopolymer Chemistry leitet. „Hinsichtlich der Amylase-Trypsin-Inhibitoren, scheint jedoch Einkorn für Menschen mit Weizenunverträglichkeit die bessere Wahl zu sein“, so Scherf weiter.
Das Wissenschaftlerteam ist sich einig, dass noch sehr viel Forschungsbedarf besteht – nicht nur in medizinischer Hinsicht. So müsse man auch untersuchen, inwieweit die Auswahl der Getreidesorten oder Verarbeitungsmethoden dazu beitragen könnten, die Verträglichkeit von Getreideprodukten wie Brot zu verbessern.
Publikation:
Geisslitz S, Ludwig C, Scherf KA, Koehler P (2018) J Agric Food Chem, DOI: 10.1021/acs.jafc.8b04411.Targeted LC-MS/MS reveals similar contents of α-amylase/trypsin-inhibitors as putative triggers of non-celiac gluten sensitivity in all wheat species except einkorn
https://pubs.acs.org/doi/pdf/10.1021/acs.jafc.8b04411
Finanzierung:
Das o.g. Forschungsprojekt der Forschungsvereinigung Forschungskreis der Ernährungsindustrie e.V. wurde über die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. im Rahmen des Programms zur Förderung der Industriellen Gemeinschaftsforschung vom Bundesministerium für Wirtschaft und Energie aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
https://www.leibniz-lsb.de/fileadmin/doc/PDF/AiF_18355_N_3.pdf
Presseverantwortlich:
Dr. Gisela Olias
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Lebensmittel-Systembiologie
an der Technischen Universität München
Lise-Meitner-Str. 34
85354 Freising
Tel.: +49 8161 71-2980
E-Mail: g.olias.leibniz-lsb@tum.de
www.leibniz-lsb.de
Wissenschaftliche Ansprechpartner:
Dr. Katharina Scherf
Sektion I
Leiterin der Arbeitsgruppe Functional Biopolymer Chemistry
Leibniz-Institut für Lebensmittel-Systembiologie
an der Technischen Universität München
Lise-Meitner-Str. 34
85354 Freising
Tel.: +49 8161 71-2927
E-Mail: k.scherf.leibniz-lsb@tum.de
Kurzprofil:
https://www.leibniz-lsb.de/institut/mitarbeiterinnen/kurzprofil-dr-katharina-sch…
Originalpublikation:
Geisslitz S, Ludwig C, Scherf KA, Koehler P (2018) J Agric Food Chem, DOI: 10.1021/acs.jafc.8b04411.Targeted LC-MS/MS reveals similar contents of α-amylase/trypsin-inhibitors as putative triggers of non-celiac gluten sensitivity in all wheat species except einkorn
https://pubs.acs.org/doi/pdf/10.1021/acs.jafc.8b04411
Weitere Informationen:
https://www.leibniz-lsb.de/forschung/forschungssektionen/sektion-i/ Sektion I: Biofunktionale Systemchemie des Leibniz-Instituts für Lebensmittel-Systembiologie an der TU München
Quelle: idw
Forschungsprojekt: Abwasseraufbereitung in China soll ressourcen- und energieeffizienter werden
Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Wie Abwasser in China ressourceneffizienter aufbereitet werden kann, ist Thema eines neuen deutsch-chinesischen Forschungsvorhabens. Dabei geht es unter anderem darum, wie Phosphor aus Abwasser gewonnen werden kann und um neue Verfahren, die das Wasser energieschonender reinigen. Koordiniert wird das Projekt „PIRAT-Systems“ von Professorin Dr. Heidrun Steinmetz. Sie leitet an der TU Kaiserslautern (TUK) das Fachgebiet Ressourceneffiziente Abwasserbehandlung. Das Team um Steinmetz wird mit Projektpartnern in Deutschland erprobte Techniken für den chinesischen Markt anpassen. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Vorhaben für drei Jahre mit drei Millionen Euro.
Weltweit steht die Abwasserentsorgung vor einem Paradigmenwechsel. „Sie entwickelt sich weg von einer Entsorgungswirtschaft hin zu einer ressourcenorientieren Herangehensweise“, sagt Professorin Steinmetz von der TUK. „Zukünftig sollen Inhaltsstoffe aus Abwasser genutzt und rückgewonnen werden.“ Außerdem arbeiten Entsorger daran, mithilfe von neuen Techniken den Energieeinsatz bei der Reinigung des Wassers zu senken. „Die Herausforderung liegt darin, dabei auch noch eine bessere Reinigungsleistung zu erreichen“, fährt sie fort. Hinzu kommt, dass organische Abfallstoffe und Klärschlamm für die Produktion von Biogas Verwendung finden sollen.
In Deutschland gibt es hierzu schon eine Reihe von Verfahren. „Sie lassen sich aber nicht ohne Weiteres auf andere Länder übertragen, da die Randbedingungen wie etwa die Zusammensetzung des Abwassers und die Reinigungsanforderungen unterschiedlich sind“, erläutert die Professorin.
Im neuen Forschungsvorhaben „Energetische Prozessoptimierung und Implementierung von Ressourceneffizienten Abwassertechnologien auf kommunalen Kläranlagen“ (PIRAT-Systems) arbeitet ein interdisziplinäres Team aus Deutschland mit der Tongji University Shanghai und weiteren chinesischen Partnern daran, ausgewählte Technologien angepasst für den chinesischen Markt zu entwickeln. Beteiligt sind Planer, Anlagenbauer, Betreiber, Firmen aus der Düngemittelverarbeitung, Behörden und Forschungseinrichtungen. Darüber hinaus wird das internationale Team für zwei chinesische Kläranlagen Konzepte entwickeln, um deren Energieeffizienz zu steigern, die Ablaufqualität des Wassers zu verbessern – vor allem hinsichtlich der Nährstoffe Stickstoff und Phosphor – und Phosphor aus Abwasser zurückzugewinnen.
Das Team wird außerdem passende Maßnahmen erarbeiten, um die Neuentwicklungen im Anschluss auf andere Abwasseranlagen innerhalb und außerhalb Chinas zu übertragen. Ferner zielt das Vorhaben darauf ab, die Aufgaben einer Kläranlage zu erweitern. „Wir werden untersuchen, welche Vermarktungsmöglichkeiten sich für Recyclingprodukte bieten und wie Erdgas aufbereitet und ins Erdgasnetz eingespeist werden kann“, so Steinmetz. Dabei spiele auch die Unterstützung und Akzeptanz der Bevölkerung eine Rolle.
Insgesamt streben die Beteiligten an, geschlossene Stoffkreisläufe zu entwickeln und dabei dank der sehr guten Reinigungsleistung der Kläranlagen die strengen Grenzwerte in China einzuhalten.
Damit leistet PIRAT-Systems einen wichtiger Beitrag, um die Umweltsituation in den Bereichen Gewässerschutz, Klimaschutz und nachhaltiger Ressourcenbewirtschaftung zu verbessern.
Die Koordination des Projekts liegt bei Professorin Steinmetz. Neben der TUK sind als deutsche Partner beteiligt: Dresdener Grundwasserforschungszentrum e.V., Hochschule Emden-Leer, Hochschule Magdeburg-Stendal, Universität Hohenheim, BHU Umwelttechnik GmbH, LUG Engineering GmbH, SF-Soepenberg GmbH, Thorsis Technologies GmbH, UMTEC Silo- und Schüttgutengineering GmbH.
Das Vorhaben „Energetische Prozessoptimierung und Implementierung von Ressourceneffizienten Abwassertechnologien auf kommunalen Kläranlagen“ (PIRAT-Systems) wird vom Bundesministerium für Bildung und Forschung im Rahmenprogramm „Forschung für Nachhaltige Entwicklung – FONA, CLIENT II – Internationale Partnerschaften für nachhaltige Innovationen“ für drei Jahre gefördert. Es ist im September 2018 gestartet.
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Heidrun Steinmetz
Fachgebiet Ressourceneffiziente Abwasserbehandlung
Tel.: 0631 205-2944
E-Mail: Heidrun.steinmetz@bauing.uni-kl.de
Quelle: idw
THEMEN-SPEZIAL: Kampf gegen multiresistente Bakterien
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Die hochwirksame Waffe Antibiotikum hat für Jahrzehnte erfolgreich bakterielle Infektionen bekämpft, doch jetzt verliert sie ihre Kraft. Immer mehr Bakterien werden gegen diese Medikamente resistent und damit zu einem der größten Gesundheitsprobleme der Zukunft. Neue Behandlungsmethoden müssen dringend entwickelt werden. In diesem Themenpaket finden Sie drei aktuelle Pressemeldungen der Technischen Universität München (TUM) über das Thema „Kampf gegen multiresistente Bakterien“.
Münchner Studierendenteam entwickelt neues Herstellungsverfahren für Viren gegen Bakterien
Bakterien, die gegen bekannte Antibiotika resistent werden, nehmen zu. Ein Studierendenteam der Technischen Universität München (TUM) und der Ludwig-Maximilians-Universität (LMU) entwickelte eine neue Herstellungsmethode für Bakteriophagen, den natürlichen Feinden von Bakterien, um sie als alternative Behandlungsmethode gegen bakterielle Infektionen zu nutzen. Das Team erzielte den zweiten Platz von über 350 Teams beim renommierten internationalen iGEM-Wettbewerb.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35083/
Neue Ziele im Kampf gegen Antibiotika-Resistenzen
Immer mehr Bakterien sind resistent gegen verfügbare Antibiotika. Ein Team aus der Chemie der Technischen Universität München (TUM) zeigt nun einen neuen Weg: Sie identifizierten wichtige Enzyme im Stoffwechsel von Staphylococcen. Gelänge es, diese Enzyme gezielt auszuschalten, könnte man die Krankheitserreger aushungern.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35087/
Hohe Enterotoxinproduktion macht multiresistente Keime gefährlicher
Die Bakterienart Staphylococcus aureus kann zahlreiche Erkrankungen wie Hautinfektionen, Lungenentzündung oder Blutvergiftung verursachen. Ein Problem sind die starken Immunreaktionen, die die Bakterien auslösen. Grund hierfür sind spezifische Bakteriengifte, wie ein Team der Technischen Universität München (TUM) und der Universität Tübingen herausfand. Sie verringern die Menge an Zellen, die Immunreaktionen eigentlich bremsen können. Multiresistente Keime, die viel Enterotoxin produzieren, macht das noch gefährlicher.
Diese Meldung im Web: https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/35080/
Originalpublikation:
Hoegl et. al.: Mining the cellular inventory of pyridoxal phosphate-dependent enzymes with functionalized cofactor mimics, Nature Chemistry, Oct. 8, 2018 – DOI: 10.1038/s41557-018-0144-2
Stoll et al.: Staphylococcal Enterotoxins Dose-Dependently Modulate the Generation of Myeloid-Derived Suppressor Cells, Frontiers in Cellular and Infection Microbiology, September 13, 2018, DOI: 10.3389/fcimb.2018.00321 (Open Access)
Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/ – Das Themenpaket auf der Webseite der Technischen Universität München
Quelle: idw
Einzigartiger Wissensschatz an der BfG: 30 Jahre Weltdatenzentrum Abfluss
Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Auf den Tag genau seit 30 Jahren arbeitet an der Bundesanstalt für Gewässerkunde (BfG) das Weltdatenzentrum Abfluss (Global Runoff Data Centre, GRDC). Das Zentrum bündelt qualitätsgeprüfte Information von über 7.000 Flüssen aus 161 Ländern in einer Datenbank. Die BfG betreibt damit die umfangreichste Sammlung von Abflussdaten weltweit.
Auf den Tag genau seit 30 Jahren arbeitet an der Bundesanstalt für Gewässerkunde (BfG) das Weltdatenzentrum Abfluss (Global Runoff Data Centre, GRDC). Das Zentrum bündelt qualitätsgeprüfte Information von über 7.000 Flüssen aus 161 Ländern in einer Datenbank. Die BfG betreibt damit die umfangreichste Sammlung von Abflussdaten weltweit. Unter der Schirmherrschaft der Weltorganisation für Meteorologie (WMO) unterstützt das GRDC seit dem 14.11.1988 wasser- und klimabezogene Programme und Projekte der Vereinten Nationen, die wissenschaftliche Forschung sowie die Bewirtschaftung grenzüberschreitender Gewässer und Einzugsgebiete. Die Daten dienen auch zur Erkennung von Klimaveränderungen, der verbesserten Nutzung der weltweiten Wasserressourcen sowie der Planung von Wasserbauwerken und der Kalibrierung von Erdbeobachtungssatelliten.
Globales Wasserwissen in einer Datenbank
Welcher Anteil des Niederschlags gelangt in Bäche und Flüsse und wie viel fließt davon in welcher Zeit schließlich ins Meer? Hauptaufgabe des GRDC ist die weltweite Beschaffung, Harmonisierung, Speicherung und Bereitstellung sogenannter historischer Abflussdaten. Historische Daten sind in der Hydrologie keine „veralteten“, sondern nach der Messung von den jeweiligen nationalen Eignern geprüfte und gegebenenfalls korrigierte Werte. Das macht die Daten für Wissenschaft und anwendungsorientierte hydrologische und klimatologische Studien besonders wertvoll. Das Weltdatenzentrum verwaltet Zeitreihen von täglichen und monatlichen Abflusswerten, die an rund 10.000 Messstationen erfasst werden. Insgesamt umfasst die Datenbank Messwerte aus rund 415.000 Abflussjahren mit einer durchschnittlichen Zeitreihenlänge von 43 Jahren. Die frühesten Daten sind über 200 Jahre alt und stammen aus dem Jahr 1807.
Eine weitere Aufgabe des Datenzentrums ist die Mitarbeit bei der Weiterentwicklung internationaler Standards zum hydrologischen Datenaustausch, Datenstrukturen und Metadaten. Darüber hinaus arbeitet das dreiköpfige GRDC-Team an der Erstellung und Pflege globaler anwendungsbezogener Datenprodukte und abflussbezogener Geoinformationen. Diese können teilweise frei über die Homepage des GRDC abgerufen werden. Die Abflussdaten sind ausschließlich für wissenschaftliche Zwecke verfügbar und werden nach vorheriger Anmeldung und Authentifizierung kostenfrei bereitgestellt.
Big Data in der Wissenschaft
„Das GRDC hat sich als zuverlässiger Datenlieferant und Partner bei der Erforschung des Klimawandels und bei der Bewirtschaftung grenzüberschreitender Gewässer und Einzugsgebiete bewährt“, sagt Dr. Birgit Esser, Leiterin der BfG. Es besteht ein wachsender Bedarf nach umfangreichen und aktuelleren Datenbeständen, um die globalen, regionalen und lokalen hydrologischen und umweltbezogenen Fragestellungen zu adressieren. Dies zeigen auch die zunehmenden Anfragen des GRDC, die im Jahr 2017 im Vergleich zum Vorjahr um zehn Prozent anstiegen. „In den kommenden Jahren wird sich der Arbeitsschwerpunkt des Weltdatenzentrum Abfluss verschieben und die Rolle als Vermittler von geprüften hydrologischen Informationen noch größer werden“, sagt die BfG-Leiterin. Das GRDC wird damit auch in den kommenden Jahrzehnten einen wichtigen Beitrag zur globalen Klimaforschung und als Datenlieferant für die internationale Forschungsgemeinschaft leisten.
Weitere Informationen:
https://www.bafg.de/GRDC/EN/Home/homepage_node.html
https://www.bafg.de/GRDC/EN/01_GRDC/13_dtbse/database_node.html
Ansprechpartner für fachliche Informationen:
Ulrich Looser, Leiter des Global Runoff Data Centre (GRDC), Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5224, E-Mail: looser@bafg.de
Pressekontakt: Dr. Sebastian Kofalk (Pressesprecher), Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5330, E-Mail: kofalk@bafg.de
Die Bundesanstalt für Gewässerkunde (BfG) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI). Sie ist das wissenschaftliche Institut des Bundes für wasserbezogene Forschung, Begutachtung und Beratung insbesondere in den Bereichen Hydrologie, Gewässernutzung, Gewässerbeschaffenheit, Ökologie und Gewässerschutz. Die Arbeit der BfG erstreckt sich in erster Linie auf die schiffbaren Flüsse, Kanäle und Küstengewässer (Bundeswasserstraßen), die durch die Wasserstraßen- und Schifffahrtsverwaltung des Bundes (WSV) verwaltet werden. Als Ressortforschungseinrichtung ist die BfG Teil der deutschen Wissenschaftslandschaft.
Quelle: idw
Digitaler Stress in Deutschland
Klaus P. Prem Presse – Öffentlichkeitsarbeit – Information
Universität Augsburg
Die bislang umfangreichste repräsentative Befragung von Erwerbstätigen zur Belastung und Beanspruchung durch Arbeit mit digitalen Technologien
Augsburg/SB/KPP – 25- bis 34-Jährige sind digital gestresster als andere Altersgruppen. Das ist nicht die einzige Überraschung der mit 2.640 Teilnehmerinnen und Teilnehmern bislang größten und umfassendsten Studie zum Thema „Digitaler Stress in Deutschland“. Von Autorinnen und Autoren der Universität Augsburg unter der Leitung von Prof. Dr. Henner Gimpel und in Zusammenarbeit mit der Fraunhofer Projektgruppe Wirtschaftsinformatik erarbeitet, steht diese von der Hans-Böckler-Stiftung geförderte Studie jetzt frei zum Download zur Verfügung.
„Unsere über Branchen und Bundesländer hinweg repräsentative Studie“, erläutert der Wirtschaftsingenieur Henner Gimpel, der als Mitglied des Zentrums für Interdisziplinäre Gesundheitsforschung (ZIG) der Universität Augsburg Empfänger der Böckler-Fördermittel war, „beschäftigt sich mit der voranschreitenden Digitalisierung und dem aus ihr resultierenden veränderten Belastungs- und Beanspruchungsprofil am Arbeitsplatz. Häufig wissen die Erwerbstätigen damit nicht oder nur unzureichend umzugehen. Die Folge: Digitaler Stress.“
Zunahme gesundheitlicher Beschwerden und Verringerung der Leistungsfähigkeit
Digitaler Stress ist ein Phänomen bzw. Problem, das über alle Regionen, Branchen, Tätigkeitsarten und individuellen demographischen Faktoren hinweg feststellbar ist. Die Studie zeigt, dass übermäßiger digitaler Stress mit einer deutlichen Zunahme gesundheitlicher Beschwerden einhergeht. So leidet mehr als die Hälfte der Arbeitnehmerinnen und Arbeitnehmer, die sich einem hohen digitalen Stress ausgesetzt sehen, unter Rückenschmerzen, Kopfschmerzen und allgemeiner Müdigkeit. Nachweislich verringert übermäßiger digitaler Stress die berufliche Leistung, um zugleich mit einem starken Work-Life-Konflikt einherzugehen.
Diskrepanz zwischen Kompetenzen und Anforderungen als zentraler Stressfaktor
Interessanterweise ist der Digitalisierungsgrad des Arbeitsplatzes nicht alleine ausschlaggebend für das Ausmaß an digitalem Stress, eine zentrale Rolle spielt vielmehr das Ungleichgewicht zwischen den Fähigkeiten im Umgang mit digitalen Technologien einerseits und den Anforderungen, die diese an die Arbeitnehmer stellen, andererseits. „Umso überraschender ist unser Ergebnis, dass digitaler Stress bei den 25- bis 34-jährigen Arbeitnehmerinnen und Arbeitnehmern ausgeprägter ist als bei anderen Altersgruppen“, so Gimpel.
Bemerkenswert ist auch, dass Frauen, die an digitalisierteren Arbeitsplätzen arbeiten, sich als kompetenter fühlen als Männer, zugleich aber mehr unter digitalem Stress leiden als Männer. Geschlechterübergreifend wird die Verunsicherung im Umgang mit digitalen Technologien als der größte Stressor wahrgenommen, aber insbesondere auch die Unzuverlässigkeit der Technologien und die Überflutung mit digitalen Technologien in allen Bereichen des Lebens spielen neben weiteren Faktoren eine signifikante Rolle.
Verhaltens- und verhältnispräventive Maßnahmen
Gimpel resümiert: „Die Erkenntnisse, die wir gewinnen konnten, legen Maßnahmen nahe, die in erster Linie darauf abzielen, Fehlbeanspruchungen durch digitalen Stress zu vermeiden. Darunter fallen in erster Linie verhaltenspräventive Maßnahmen wie die Vermittlung bzw. der Erwerb von Kompetenzen sowohl im Umgang mit digitalen Technologien als auch in der Bewältigung von digitalem Stress. Unter verhältnispräventiven Gesichtspunkten geht es aber auch darum, digitale Technologien maßvoll und individuell optimiert einzusetzen, Support bereit- und sicherzustellen und beim Design der eingesetzten digitalen Technologien höchsten Wert auf deren Verlässlichkeit zu legen.“
Wissenschaftliche Ansprechpartner:
Prof. Dr. Henner Gimpel
Professur für Wirtschaftsingenieurwesen
Kernkompetenzzentrum Finanz- & Informationsmanagement
Projektgruppe Wirtschaftsinformatik des Fraunhofer FIT
Universität Augsburg, 86135 Augsburg
Telefon 0821/598-4818
henner.gimpel@fim-rc.de
Originalpublikation:
Henner Gimpel, Julia Lanzl, Tobias Manner-Romberg und Niclas Nüske: Digitaler Stress in Deutschland. Eine Befragung von Erwerbstätigen zu Belastung und Beanspruchung durch Arbeit mit digitalen Technologien (= Forschungsförderung Working Paper, Nr. 101), Düsseldorf 2018, 57 Seiten, ISSN: 2509-2359
Zum Download frei verfügbar auf:
http://www.fim-rc.de/kompetenzen/digitalisierung/
http://www.boeckler.de/64509.htm?produkt=HBS-007024&chunk=1&jahr=
Quelle: idw
Medica 2018: Mit den Füßen steuern – Computerspiel soll helfen, Thrombose vorzubeugen
Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Ein Gerinnsel in einem Blutgefäß kann dazu führen, dass die Arterie verstopft. Mediziner sprechen hier von einer Thrombose. Um ihr vorzubeugen, helfen Übungen für Beine und Füße. Oft fehlt den Betroffenen aber die Motivation. Abhilfe schafft das Computerspiel „jumpBALL“, das Kaiserslauterer Forscher mit Medizinern entwickelt haben. Das Besondere: Es wird über die Füße gesteuert. Die Forscher haben es für Smartphone und Tablet entwickelt. Das Spiel kann auch nach einem Schlaganfall oder einer Hüft- oder Knie-Operation helfen. Auf der Medizintechnik-Messe Medica in Düsseldorf vom 12. bis 15. November stellen die Forscher das Spiel am Forschungsstand (Halle 7a, Stand B06) Rheinland-Pfalz vor.
Die Thrombose ist nach Herzinfarkt und Schlaganfall die dritthäufigste Herz-Kreislauf-Erkrankung. Zur Risiko-Gruppe zählen vor allem ältere Menschen, aber auch Patienten, die wegen einer Krankheit bettlägerig sind oder eine größere Operation hinter sich haben.
Um der Thrombose vorzubeugen, helfen unter anderem gezielte Bewegungsübungen wie die Fußwippe, auch Muskelvenenpumpe genannt. „Dabei wird die Fußspitze zunächst weit nach vorne gestreckt und danach soweit wie möglich an den Körper herangezogen“, erläutert Daniel Steffen, Informatiker in der Nachwuchsgruppe wearHEALTH an der Technischen Universität Kaiserslautern (TUK). Diese Bewegung soll mit beiden Füßen möglichst oft und regelmäßig wiederholt werden. „Das ist sehr monoton und ermüdend, die Patienten sind meist wenig motiviert“, fährt Steffen fort. „Aus Studien wissen wir, dass rund 65 Prozent der Patienten solche Übungen nicht oder nur teilweise durchführen.“
Hier setzt das Computerspiel „jumpBALL“ an, das Steffen mit seinen Kolleginnen, der Psychologin Dr. Corinna Faust-Christmann und der Informatikerin Dr. Gabriele Bleser, sowie dem Mediziner Dr. Markus Muhm vom Westpfalz-Klinikum in Kaiserslautern entwickelt hat. Bei dem Spiel springt ein Wasserball über Baumstämme, auf denen sich verschiedene Gegenstände wie Münzen, Diamanten, Sterne oder Monster befinden. Springt der Ball auf einen der ersten drei Gegenstände, erhält der Spieler Bonuspunkte. Landet der Ball auf einem Monster, werden ihm Punkte abgezogen. Das Besondere: Der Spieler muss es mit den Füßen steuern. „Dabei führt er gleichzeitig die Muskelvenenpumpe durch“, sagt Steffen. In diesem Zusammenhang sprechen Experten von sogenannten Exergames. „Dabei werden Videospiele mit körperlichen Übungen verbunden“, fährt der Wissenschaftler fort.
Für das Spiel ist neben Smartphone oder Tablet nicht viel Technik notwendig: Es gibt zwei kleine drahtlose Sensoren, die mit Klettbändern auf den Füßen befestigt werden und die Bewegungen erfassen. „Mit dem linken Fuß etwa springt ein Wasserball einen Baumstamm weiter, mit dem rechten Fuß springt der Ball bis zum übernächsten Stamm“, so Steffen weiter.
In Studien hat das Team um Steffen schon untersucht, wie gut das Spiel die Motivation fördert. Dabei hat es außerdem überprüft, wie oft und wie lange die Teilnehmer die Übungen durchführen und wie gebrauchstauglich das System ist. Auch ältere Personen haben dabei mitgemacht. „Wir haben festgestellt, dass die älteren Probanden sehr gut mit jumpBALL zurechtgekommen sind und sogar mehr Spaß hatten als jüngere Studien-Teilnehmer“, sagt der Informatiker.
Das Spiel jumpBALL richtet sich vor allem an ältere Menschen beziehungsweise Patienten zur Thromboseprophylaxe. Darüber hinaus kann es während der Rehabilitation zum Einsatz kommen, beispielsweise bei Patienten nach einem Schlaganfall oder nach einer Operation an Hüfte oder Knien. Dazu müssten die Sensoren nur auf Unter- oder Oberschenkel angebracht werden. Die Technik ist aber auch interessant, um Menschen, die auf der Intensivstation liegen, zu leichten Bewegungen zu animieren. Zudem eignet sie sich für Menschen, die daran leiden, dass sich ihre Arterien verschließen, wie es zum Beispiel beim sogenannten Schaufenstersyndrom der Fall ist. Auch hier könnte das Computerspiel zur Bewegungsmotivation eingesetzt werden. Auf der Medica stellt das wearHEALTH Team das Spiel vor.
Die Kaiserslauterer Nachwuchsgruppe wearHEALTH ist ein interdisziplinäres Team aus Informatik, Mathematik, Psychologie, Kognitionswissenschaft, Bewegungswissenschaft und Regelungstechnik. Sie entwickelt digitale Techniken, die die Gesundheit präventiv oder zum Beispiel in Form von Reha-Maßnahmen verbessern sollen. Sie wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Interdisziplinärer Kompetenzaufbau im Forschungsschwerpunkt Mensch-Technik-Interaktion für den demografischen Wandel“ gefördert.
Der Auftritt der Forscher der TU Kaiserslautern auf der Messe wird von Klaus Dosch vom Referat für Technologie und Innovation organisiert. Er ist Ansprechpartner für Unternehmen und vermittelt unter anderem Kontakte zur Wissenschaft.
Kontakt: Klaus Dosch, E-Mail: dosch@rti.uni-kl.de, Tel. (auch während der Messe): 0631 205-3001
Wissenschaftliche Ansprechpartner:
Daniel Steffen
AG wearHEALTH
E-Mail: steffen@cs.uni-kl.de
Quelle: idw
Spendenprojekt: Ohne Plastik leben – aber wie!?
Mandy Schoßig Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Unsere Welt erstickt in Kunststoff: Durch den Pazifik schiebt sich ein riesiger Plastikstrudel, Meeresbewohner und Seevögel verenden an Plastikteilen, an Flussufern und Meeresstränden werden unzählige Plastikteile gefunden. Dazu kommen unsichtbare Gefahren in Form von Mikroplastik, das bereits in Nahrungsmitteln nachgewiesen wurde. Das Recycling von Kunststoffen konnte diese negativen Auswirkungen des ungehemmten Plastikgebrauchs bisher nicht lösen. Wird es Zeit, ganz auf Plastik zu verzichten?
Das aktuelle Spendenprojekt des Öko-Instituts „Ohne Plastik leben – aber wie!?“ stellt die Frage, wie sich eine konsequente Einschränkung der Kunststoffnutzung auswirkt. Ökologisch, sozial und ökonomisch. In unterschiedlichen Szenarien beleuchten die Wissenschaftlerinnen und Wissenschaftler sowohl die Folgen eines radikalen Verzichts als auch die Konsequenzen eines schrittweisen Ausstiegs. Ziel ist es dabei, Handlungsspielräume zu durchdenken und notwendige Veränderungen in unserer Lebensweise zu skizzieren.
Für das Projekt „Ohne Plastik leben – aber wie!?“ spenden (https://mitglieder.oeko.de/index.php?id=80)
Ohne Plastik leben – geht das?
Kunststoffe haben unbestritten zahlreiche Vorteile. Sie machen Kleidung knitterfrei, halten Lebensmittel frisch und machen den Alltag einfach und bequem – etwa durch Getränkeflaschen, Kaffeebecher oder Essensboxen. „Es ist kein Wunder, dass Kunststoffe aus unserem Leben nicht mehr wegzudenken scheinen – sie haben zahlreiche Vorteile“, sagt Andreas Köhler, Senior Researcher am Öko-Institut, „sie sind leicht, billig, perfekt formbar und vielseitig einsetzbar, machen Produkte für alle verfügbar und erschwinglich.“
Doch die übermäßige Nutzung von Plastik hat einen schwerwiegenden Preis für die weltweiten Ökosysteme. „Viele Menschen möchten daran gerne etwas ändern, wissen aber nicht, wie“, sagt Köhler, „sogar jene Verbraucherinnen und Verbraucher, die ökologisch verantwortungsbewusst handeln, stehen oftmals vor der Herausforderung, dass ein Verzicht auf Plastik schlicht nicht möglich scheint.“
Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts
Im Spendenprojekt 2018 widmet sich ein Expertenteam des Öko-Instituts detailliert den Möglichkeiten und Auswirkungen eines Plastikverzichts. Dabei analysieren die Wissenschaftlerinnen und Wissenschaftler die Gründe für die Kunststoffnutzung ebenso wie die Erfahrungen von Verbraucherinnen und Verbrauchern bei der Plastikvermeidung. Sie beleuchten darüber hinaus den möglichen Einsatz alternativer Materialien und diskutieren vielversprechende Lösungsstrategien mit gesellschaftlichen Gruppen. Die Ergebnisse des Projektes werden schließlich unter anderem in den „Zukunftsgeschichten über ein plastikfreies Leben“ im Blog des Öko-Instituts aufbereitet.
Zum Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts (https://mitglieder.oeko.de/index.php?id=80)
Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
Neues vom Öko-Institut auf Twitter: twitter.com/oekoinstitut
Das Öko-Institut bloggt unter: blog.oeko.de
Aktuelle Ausgabe des Onlinemagazins eco@work: www.oeko.de/e-paper
Wissenschaftliche Ansprechpartner:
Andreas Köhler
Senior Researcher im Institutsbereich
Produkte & Stoffströme
Öko-Institut e.V., Geschäftsstelle Freiburg
Telefon: +49 761 45295-283
E-Mail: a.koehler@oeko.de
Weitere Informationen:
http://Flyer zum Spendenprojekt „Ohne Plastik leben – aber wie!?“ des Öko-Instituts (https://www.oeko.de/fileadmin/oekodoc/Flyer-Spendenprojekt2018.pdf)
Anhang
PM_Spendenprojekt_Plastikfreie_Welt_Öko-Institut
https://idw-online.de/de/attachment67255
Quelle: idw
Resistente Keime: Können Rohkost und Salat ein Gesundheitsrisiko sein?
Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Wissenschaftliche Studie des Julius Kühn-Instituts (JKI) weist antibiotikaresistente Bakterien mit mehreren übertragbaren Resistenzgenen auf Frischeprodukten nach. Gemeinsame Presseinformation des JKI mit dem Bundesinstitut für Risikobewertung (BfR)
(Braunschweig/Berlin) Salate sind beliebte Lebensmittel, um sich ausgewogen und gesund zu ernähren. Für den Konsum werden sie oft bereits fertig geschnitten und in Folie verpackt zum Kauf angeboten. Von solchen Frischeprodukten ist bekannt, dass sie mit Hygiene-relevanten Keimen kontaminiert sein können. Dass darunter auch Keime sind, die Resistenzen gegen Antibiotika tragen, hat eine Arbeitsgruppe unter Federführung von Prof. Dr. Kornelia Smalla vom Julius Kühn-Institut (JKI) nachgewiesen. Die Ergebnisse sind kürzlich unter dem Titel „The transferable resistome of produce“ in der Fachzeitschrift mBio erschienen https://doi.org/10.1128/mBio.01300-18. „Diesem Befund müssen wir auf den Grund gehen“, sagte Dr. Georg Backhaus, Präsident des Julius Kühn-Instituts. Bekannt ist, dass antibiotikaresistente Bakterien in Gülle, Klärschlamm, Boden und Gewässern vorkommen. „Dieser besorgniserregende Nachweis auf Pflanzen reiht sich in ähnliche Befunde bei anderen Lebensmitteln ein“, ergänzt Prof. Dr. Dr. Andreas Hensel, Präsident des Bundesinstituts für Risikobewertung (BfR). „Was dies für das gesundheitliche Risiko von Verbraucherinnen und Verbrauchern bedeutet, wird jetzt vordringlich bewertet.“
Für die Untersuchungen erwarb die Arbeitsgruppe von Professor Smalla in deutschen Supermärkten Mix-Salate, Rucola und die Gewürzpflanze Koriander. Die Proben wurden anschließend untersucht, um die Gesamtheit der übertragbaren Antibiotika-Resistenzgene (die Forscher sprechen vom übertragbaren Resistom) in Escherichia coli, einem meist harmlosen Darmbakterium, auf diesen Lebensmitteln zu ermitteln. Die Expertinnen und Experten konzentrierten sich bei den Untersuchungen auf den Teil der Escherichia coli-Bakterien, die gegen den Wirkstoff Tetrazyklin resistent sind. Denn Tetrazyklinantibiotika werden in der Tierhaltung eingesetzt, wo sie etwa im Darm der Nutztiere die Entwicklung und Vermehrung resistenter Keime fördern können. Diese Keime, aber auch ein Teil der Antibiotika werden ausgeschieden und kommen dann über organische Dünger wie Gülle auf die Felder. Smallas Fazit: „Die Ergebnisse aus den umfangreichen Untersuchungen zeigen eindeutig, dass eine beachtliche Vielfalt von übertragbaren Plasmiden, das sind außerhalb der Chromosomen vorkommende Erbträger in Bakterien, mit Resistenzgenen in den E. coli aus Frischeprodukten gefunden wurde. Diese tragen Resistenzen gegen jeweils mehrere Antibiotikaklassen. E. coli-Bakterien mit diesen Eigenschaften waren auf allen drei geprüften Lebensmitteln zu finden.“
Kommen solche an sich harmlosen Bakterien auf pflanzlichen Lebensmitteln vor, können sie bei deren Rohverzehr in den menschlichen Darm gelangen. Einmal aufgenommen, können die Bakterien ihre Plasmide im Darm an dort vielleicht vorkommende krankmachende Bakterien
weitergeben. Man bezeichnet das als horizontalen Gentransfer. In der Natur versetzt der horizontale Gentransfer Bakterien in die Lage, sich schnell an wechselnde Umweltbedingungen anzupassen. Wird ein Patient mit Antibiotika behandelt, haben Bakterien, die solche übertragbaren Resistenzgene in ihr Erbgut aufgenommen haben, einen Vorteil und vermehren sich stärker als ihre nicht so ausgestatteten Konkurrenten. Wie häufig es angesichts der geringen Belastung mit E. coli auf Salat zu einer Übertragung von Resistenzen im menschlichen Darm kommt, ist bisher nicht bekannt. Wenig bekannt ist auch, ob und in welchem Umfang es zu Erkrankungen durch so entstandene resistente Bakterien kommt.
Die Studie des Julius Kühn-Instituts, der Universität Gießen sowie der University of Idaho zu antibiotikaresistenten Keimen auf Pflanzen ist in der Oktoberausgabe der Fachzeitschrift mBio erschienen: Blau K, Bettermann A, Jechalke S, Fornefeld E, Vanrobaeys Y, Stalder T, Top E.M, Smalla K. 2018: The transferable resistome of produce. mBio 9:e01300-18 (DOI = https://doi.org/10.1128/mBio.01300-18)
Das BfR gibt Aufgrund der Studie folgende Empfehlungen:
Generell sollten Verbraucherinnen und Verbraucher Rohkost, Blattsalate und frische Kräuter vor dem Verzehr gründlich mit Trinkwasser waschen, um das Risiko der Aufnahme von Krankheitserregern oder antibiotikaresistenten Bakterien zu minimieren.
Schwangere und Personen, deren Abwehrkräfte durch hohes Alter, Vorerkrankungen oder Medikamenteneinnahme geschwächt sind, sollten darüber hinaus zum Schutz vor lebensmittelbedingten Infektionen auf den Verzehr von vorgeschnittenen und verpackten Salaten vorsichtshalber verzichten und stattdessen Salate aus frischen und gründlich gewaschenen Zutaten kurz vor dem Verzehr selbst zubereiten.
Durch das Waschen lassen sich die auf den pflanzlichen Lebensmitteln möglicherweise vorhandenen Krankheitserreger oder antibiotikaresistenten Bakterien jedoch nicht sicher entfernen. Deshalb ist es in seltenen Einzelfällen notwendig, dass besonders immungeschwächte Personen gemäß Anweisung ihrer behandelnden Ärzte, Gemüse und frische Kräuter vor dem Verzehr ausreichend (mindestens zwei Minuten auf 70°C im Inneren des Lebensmittels) erhitzen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Kornelia Smalla
Julius Kühn-Institut, Bundesforschungsinstitut für Kulturpflanzen
Fachinstitut für Epidemiologie und Pathogendiagnostik
Messeweg 11-12, 38104 Braunschweig
Tel.: 0531 299-3814
E-Mail: kornelia.smalla@julius-kuehn.de
Originalpublikation:
Blau K, Bettermann A, Jechalke S, Fornefeld E, Vanrobaeys Y, Stalder T, Top E.M, Smalla K. 2018: The transferable resistome of produce. mBio 9:e01300-18 https://doi.org/10.1128/mBio.01300-18
Quelle: idw
Studie: Mikroplastik in Kosmetik
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Kosmetikprodukte sind eine häufig genannte Quelle für Mikroplastikemissionen. Doch was ist Mikroplastik in Kosmetik genau, welche Materialien und Funktionen übernehmen Kunststoffe in den Produkten und welche Alternativen gibt es? Diese Fragen hat Fraunhofer UMSICHT im Auftrag der Umweltorganisation NABU untersucht. Neben Kosmetikprodukten werden dabei auch Wasch-, Putz- und Reinigungsmittel (WPR) betrachtet. Die Studie schafft eine wissenschaftliche Grundlage für die öffentliche Diskussion über Mikroplastik.
Obwohl der Begriff Mikroplastik schon länger verwendet wird, war es ein wichtiger Aspekt der Studie, die genaue Definition zu kennen. »Das war nicht einfach, denn unterschiedliche Akteure benutzen verschiedene Definitionen«, sagt Co-Autorin Leandra Hamann. Einigkeit herrscht allein darüber, dass zu Mikroplastik alle Kunststoffpartikel zählen, die kleiner als 5 Millimeter sind. »Nichtsdestotrotz sehen wir auch diese Beschränkung als problematisch, da sie sich weder aus bestimmten Stoffeigenschaften noch ökotoxikologisch begründen lässt. Manche Definitionen enthalten zudem noch eine Begrenzung der unteren Größe, der Löslichkeit oder der Abbaubarkeit. Diese unterschiedlichen Definitionen können zu Missverständnissen führen und auch die Debatte um eine sinnvolle Regulierung nachteilig beeinflussen.«
Mikroplastik nur als Partikel, Polymere auch flüssig, gelöst oder gelartig
Ein bekanntes Beispiel für Mikroplastik in Kosmetik sind die sogenannten Microbeads. Diese Partikel können aus Kunststoff bestehen und werden vor allem für Peelingeffekte eingesetzt. Sie werden nach der Verwendung auf der Haut direkt abgespült und können so in die Umwelt gelangen.
Neben dem Peeling abgestorbener Hautschüppchen erfüllen Kunststoffe noch andere Funktionen in Kosmetikprodukten: Synthetische Polymere dienen der Haarfixierung, bilden Filme und Emulsionen oder regulieren die Viskosität der Kosmetikprodukte. Dafür liegen diese manchmal aber nicht immer als fester Partikel vor, sondern sind wachs- oder gelartig, gelöst oder flüssig. Gelangen die Polymere in die Umwelt, sind sie aber ggf. genauso problematisch wie das Mikroplastik.
Ob ein Polymer in Partikelform, flüssig, gelartig oder gelöst vorliegt, ist aus der heutigen Produktkennzeichnung kaum erkennbar. Jedes einzelne Polymer müsste geprüft werden. Eine Sisyphosarbeit, denn die Autoren fanden mehrere Hundert Polymere in Datenbanken für Kosmetikinhaltsstoffe.
Mengen von Mikroplastik in Kosmetik und WPR-Produkten im Vergleich
Die Einsatzmenge von partikulärem Mikroplastik in Kosmetik beläuft sich auf 922 Tonnen pro Jahr in Deutschland. Dagegen werden in WPR-Produkten nur 55 Tonnen Mikroplastik pro Jahr eingesetzt. Im Vergleich dazu wird ein Vielfaches an gelösten, gelartigen oder wachsartigen Polymeren eingesetzt. Die Mengen werden auf 23 700 Tonnen pro Jahr geschätzt. Für WPR-Produkte liegen sie ähnlich hoch. Zusammengefasst werden jährlich in Deutschland insgesamt ca. 50 000 Tonnen Kunststoffe in Kosmetik- und WPR-Produkten eingesetzt.
»In Anbetracht der hohen Eintragsmengen und der nicht abzuschätzenden Risiken für die Umwelt müssen sämtliche schwer abbaubaren, wasserlöslichen Polymere über die europäische Chemikaliengesetzgebung reguliert werden. Unser Wissen über die Wirkungen, die Polymere in der Umwelt haben, reicht nicht aus. Kunststoffemissionen sollten deshalb über die EU-Chemikaliengesetzgebung oder andere geeignete Wege reguliert werden«, so Jürgen Bertling, für die Studie verantwortlicher Wissenschaftler bei Fraunhofer UMSICHT. »Dabei sollte die lange Verweildauer in der Umwelt ein viel stärkeres Gewicht bei der Bewertung der Umweltgefährdung bekommen. Derzeit werden Polymere, einschließlich Mikroplastik, aufgrund der geringen Toxizität als kaum umweltgefährdend eingestuft«, so Bertling.
Strengere Regulierung gefordert
Die freiwillige Selbstverpflichtung zur Reduzierung von Mikroplastik in Kosmetik wird bereits umgesetzt und ist ein erster Schritt zur Reduzierung von Kunststoffen in Kosmetik. Allerdings sind Mikroplastik, das keine Peelingfunktion hat, Leave-on-Kosmetikprodukte sowie gelöste, gelartige oder wachsartige Polymere bisher von der Verpflichtung ausgenommen. Deswegen fordert NABU-Bundesgeschäftsführer Leif Miller strengere Gesetze: »Wir brauchen ein EU-Verbot von Mikroplastik in Kosmetik und Reinigungsmitteln, da Meere keine nationalstaatlichen Grenzen kennen und die Hersteller für internationale Märkte produzieren. Nur Mikroplastik als Reibkörper in Duschgel und Peeling zu verbieten, wie es manche Staaten verfolgen, greift viel zu kurz. Mikroplastik muss funktions- und produktübergreifend in Kosmetik und Reinigungsmitteln verboten werden. Das muss auch in der EU-Plastikstrategie konkretisiert werden. Die Industrie müsse schnellstmöglich auf besser abbaubare Ersatzstoffe umsteigen.«
Viele Regelungsmaßnahmen erfordern wissenschaftlich fundierte Erkenntnisse zum Gefahrenpotential zu Kunststoffen und Polymeren, um den Einsatz stärker einschränken zu können. Diese sind für Mikroplastik bisher aber noch nicht vorhanden. Dennoch liegen bereits genügend Hinweise auf Schadwirkungen vor und es ist aufgrund des weltweiten Wachstums beim Kunststoffverbrauch sehr wahrscheinlich, dass die Problematik weiter an Relevanz zunimmt, so dass es geboten scheint, bereits heute das Vorsorgeprinzip anzuwenden.
Alternativen und verbraucherfreundliche Informationen
Für Verbraucher ist es im Supermarkt oft nicht ersichtlich, welche Produkte Mikroplastik enthalten. Erste Anhaltspunkte bietet die Datenbank haut.de, in der nach Inhaltsstoffen gesucht werden kann. Allerdings ist dies aufwändig und die Erklärungen sind teilweise schwer verständlich. Deswegen fordert NABU-Konsumexpertin Katharina Istel mehr Transparenz und umweltfreundliche Alternativen: »Zertifizierte Naturkosmetik und Putzmittel mit Umweltkennzeichnungen wie dem Blauen Engel sind aus Umweltsicht die bessere Wahl, haben aber noch extrem geringe Marktanteile. Für den Massenmarkt brauchen wir transparente und verständliche Informationen zu Inhaltsstoffen und Umweltaspekten, wie zum Beispiel der Abbaubarkeit in Gewässern.«
Die nun veröffentlichte Studie bietet einen wissenschaftlichen Überblick zur Definition von Mikroplastik, Kunststoffen und Polymeren in Kosmetik- und WPR-Produkten, Einsatzmengen und Funktionen, sie liefert Alternativen und bewertet Handlungsalternativen. Vielfältige Beispiele machen sie verständlich und helfen Verbrauchern bei der Orientierung rund um das Thema Mikroplastik.
Fraunhofer UMSICHT hat die Studie »Mikroplastik und synthetische Polymere in Kosmetikprodukten sowie Wasch-, Putz- und Reinigungsmitteln« im Auftrag des Naturschutzbund Deutschland (NABU) durchgeführt.
Wissenschaftliche Ansprechpartner:
Leandra Hamann, M.Sc.
Redaktion
Telefon +49 208 8598-1524
Dipl.-Ing. Jürgen Bertling
Business Developer Geschäftsfeld Umwelt / Stellv. Abteilungsleiter Nachhaltigkeits- und Ressourcenmanagement
Telefon +49 208 8598-1168
Weitere Informationen:
https://www.umsicht.fraunhofer.de/de/presse-medien/pressemitteilungen/2018/mikro…
Pressemitteilung Mikroplastik in Kosmetik
Quelle: idw
Medica 2018: Mit der Stress-App der TU Kaiserslautern spielerisch entspannen
Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
Ob im Job oder in der Freizeit – immer mehr Menschen fühlen sich gestresst. Umso wichtiger ist es, zu lernen, sich bewusst zu entspannen, um den Stress in den Griff zu bekommen. Die App „Stress-Mentor“, die ein Kaiserslauterer Forscherteam entwickelt hat, schafft hier Abhilfe: Spielerisch können die Nutzer Entspannungsmethoden wie etwa Meditation in ihren Tagesablauf einbauen. Ein Tagebuch ermöglicht zusätzlich Auslöser von Stress besser zu erfassen. Die App wurde für Schmerzpatienten zum „Schmerz-Mentor“ weiterentwickelt. Auf der Medizintechnik-Messe Medica in Düsseldorf vom 12. bis 15. November stellen die Forscher ihr Projekt am Forschungsstand (Halle 7a, Stand B06) Rheinland-Pfalz vor.
Schlafstörungen, Erschöpfung, Rückenschmerzen – dies alles können Anzeichen für Stress sein. Laut einer aktuellen Studie der Betriebskrankenkasse pronova BKK trifft dies auf 87 Prozent der Deutschen zu. Langfristig schadet dies der Gesundheit. Zwar gibt es viele Entspannungsmethoden wie Yoga, Meditation oder Muskelentspannungsübungen, im Alltag nehmen sich die meisten dafür jedoch wenig Zeit.
Eine App, die Nutzer täglich daran erinnert, sich zu entspannen, hat Dr. Corinna Faust-Christmann von der Nachwuchsgruppe wearHEALTH an der Technischen Universität Kaiserslautern (TUK) mit ihrem Team entwickelt. „Wir bieten eine Reihe von Übungen an“, sagt die Psychologin. „Diese sind zwischen fünf und 45 Minuten lang. Sie können individuell in den Tagesablauf eingebaut werden.“ Dazu zählen etwa Meditations-, Bewegungs- und Dehnübungen. Die App „Stress-Mentor“ ist spielerisch gestaltet, um die Motivation zu erhöhen. In diesem Zusammenhang sprechen Fachleute von „Gamification“. „Wir haben ein kleines vogelähnliches Fabelwesen in unserer App, den rheinland-pfälzischen Elwetritsch. Der Nutzer muss sich um das Tier kümmern, indem er jeden Tag wenigstens eine Übung durchführt“, so Faust-Christmann weiter. „Bis zu drei Übungen täglich sind möglich.“
Außerdem enthält die App ein Tagebuch, um den Stress im eigenen Alltag besser zu beobachten. „Über Skalen kann der Nutzer schnell einschätzen, wie stressig der Tag verlaufen ist oder welche positiven Erlebnisse es gab. Diese Angaben zu erfassen, dauert rund eine Minute“, sagt die Forscherin.
Die Gesundheits-App ist nicht für den langfristigen Gebrauch gedacht. „Sie ist rund drei Monate aktiv, je nachdem wie regelmäßig sie zum Einsatz kommt“, fährt Faust-Christmann fort. „Sie soll vermitteln, bewusster mit Stress umzugehen.“ Die Übungen sollten nach der Zeit einfach in den Alltag integriert worden sein. Stress-Mentor soll Ende des nächsten Jahres kostenfrei für Android-Geräte auf den Markt kommen.
Das Programm des Kaiserslauterer Forscherteams ist aber nicht nur für die Stressbewältigung interessant, sondern auch für Schmerzpatienten. Daran arbeitet das Team um Faust-Christmann derzeit mit der Medizinerin Dr. Katja Regenspurger von der Universitätsklinik in Halle. Dazu soll die App weitere Funktionen erhalten. Wenn eine Schmerzattacke auftritt, soll sie zum Beispiel helfen, den weiteren Tagesverlauf einfacher zu planen, um etwa Hilfe zu erhalten. „Wir möchten zudem ein Tagebuch anbieten, in dem sich Schmerztage oder Parameter wie Schmerzintensität erfassen lassen“, so Faust-Christmann.
Die App „Schmerz-Mentor“ könnte zum Beispiel als Begleitung zu einer multimodalen Schmerztherapie Verwendung finden. Auf der Medica stellt das Team die Technik vor.
Die Kaiserslauterer Nachwuchsgruppe wearHEALTH ist ein interdisziplinäres Team aus Informatik, Mathematik, Psychologie, Kognitionswissenschaft, Bewegungswissenschaft und Regelungstechnik. Sie entwickelt digitale Techniken, die die Gesundheit präventiv oder zum Beispiel in Form von Reha-Maßnahmen verbessern sollen. Sie wird vom Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Interdisziplinärer Kompetenzaufbau im Forschungsschwerpunkt Mensch-Technik-Interaktion für den demografischen Wandel“ gefördert.
Wissenschaftliche Ansprechpartner:
Dr. Corinna Faust-Christmann
AG wearHEALTH
E-Mail: christmann@cs.uni-kl.de
Tel.: 0631 205 3456
Quelle: idw
Psychologie: Warum Menschen beim Küssen und Umarmen Seitenvorlieben haben
Arne Dessaul Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Bei Berührungen in sozialen Kontexten, etwa beim Küssen oder Umarmen, haben Menschen häufig eine Seitenpräferenz, neigen den Kopf zum Beispiel eher nach rechts als nach links beim Küssen. Zu den Ursachen gibt es verschiedene Theorien. In einem Übersichtsartikel in der Zeitschrift „Neuroscience und Biobehavioral Reviews“ tragen Forscherinnen und Forscher der Ruhr-Universität Bochum, der Heinrich-Heine-Universität Düsseldorf und der Victoria University of Wellington bislang existierende Daten zusammen, anhand derer sie die Theorien überprüfen. Der Artikel wurde im Oktober 2018 online veröffentlicht.
Das Team um Privatdozent Dr. Sebastian Ocklenburg und Julian Packheiser aus der Bochumer Abteilung Biopsychologie folgert, dass die beobachteten Ergebnisse nicht allein dadurch erklärt werden können, ob jemand Rechts- oder Linkshänder ist. Das spielt zwar eine Rolle, aber es kommt auch auf den emotionalen Kontext an.
Links-Verschiebung in emotionalen Situationen
„In der Bevölkerung gibt es allgemein eine Präferenz, den Kopf beim Küssen nach rechts zu neigen, eine Umarmung mit der rechten Hand zu initiieren und Babys im linken Arm zu wiegen“, schildert Julian Packheiser. Beim Küssen und Umarmen geht man davon aus, dass Menschen eine dominante Führungshand haben, mit der sie die Bewegung initiieren. Beim Wiegen, so die Theorie, wird die dominante Hand freigehalten, um damit andere Dinge tun zu können, während man das Kind hält.
„Da soziale Berührungen häufig mit einer Bewegung der Hände einhergehen, ist es naheliegend zu vermuten, dass die Händigkeit einen Einfluss auf die Seitenpräferenz hat“, sagt Sebastian Ocklenburg. In ihrem Review listen die Forscherinnen und Forscher zahlreiche Studien auf, die einen Einfluss der Händigkeit belegen. Dieser allein kann die Seitenvorlieben aber nicht erklären; auch der emotionale Kontext spielt eine Rolle.
„In emotionalen Situationen verschiebt sich die Seitenpräferenz nach links“, beschreibt Packheiser. „Und zwar unabhängig davon, ob es sich um positive oder negative Emotionen handelt.“ Für die Präferenz ist es also egal, ob zwei Personen sich umarmen, weil sie sich über ein Wiedersehen freuen oder weil die eine die andere trösten möchte.
Emotionen werden im Gehirn asymmetrisch verarbeitet
Die Links-Verschiebung in emotionalen im Vergleich zu neutralen Situationen erklären die Forscher damit, dass Emotionen vornehmlich in der rechten Hirnhälfte verarbeitet werden, welche die Bewegungen der linken Körperhälfte steuert. „Es gibt deutliche Hinweise, dass motorische und emotionale Netzwerke im Gehirn interagieren und miteinander eng verschaltet sind“, sagt Ocklenburg. Dabei sprechen nicht nur die Verhaltensdaten aus den Studien zur sozialen Berührung für die Theorie der rechtshemisphärischen Emotionsverarbeitung, sondern auch Ergebnisse aus bildgebenden und neurophysiologischen Studien.
Insgesamt ist die Asymmetrie in menschlicher sozialer Berührung laut den Autoren also am besten durch eine Kombination von motorischen Präferenzen und rechtshemisphärischer emotionaler Dominanz zu erklären.
Wissenschaftliche Ansprechpartner:
Privatdozent Dr. Sebastian Ocklenburg
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 24323
E-Mail: sebastian.ocklenburg@rub.de
Julian Packheiser
Abteilung Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 24917
E-Mail: julian.packheiser@rub.de
Originalpublikation:
Sebastian Ocklenburg, Julian Packheiser, Judith Schmitz, Noemi Rook, Onur Güntürkün, Jutta Peterburs, Gina M. Grimshaw: Hugs and kisses – the role of motor preferences and emotional lateralization for hemispheric asymmetries in human social touch, in: Neuroscience und Biobehavioral Reviews, 2018, DOI: 10.1016/j.neubiorev.2018.10.007
Quelle: idw
Wie viel Schutt liegt auf Gletschern?
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Eine Studie des Wissenschaftlers Dirk Scherler vom Deutschen GeoForschungsZentrum GFZ und zweier Kollegen aus der Schweiz zeigt, wie die Ausdehnung der Schuttflächen auf Gebirgsgletschern global und automatisiert per Satellitenüberwachung erfasst werden kann. Die Forscher nutzten für ihre Arbeit die Cloud-Computing-Plattform Google Earth Engine. Insbesondere kleinere Gletscher weisen einen hohen Anteil von Schuttbedeckung auf, der durch die globale Erwärmung mit kleiner werdenden Eisflächen vermutlich steigen wird. Zugleich haben Gebirgsgletscher eine hohe Bedeutung für darunter liegende Regionen: Schmelzwasser speist Flüsse, treibt Turbinen und bewässert Felder.
Eine sich erwärmende Erde führt dazu, dass das Volumen von Gebirgsgletschern und ihre Ausdehnung global gesehen seit Jahrzehnten abnehmen. Zeitgleich verändert sich auch die Bedeckung vieler Gletscher mit Schutt. Diese Schuttbedeckung wird bislang jedoch nur selten erfasst. Eine Studie des Wissenschaftlers Dirk Scherler vom Deutschen GeoForschungsZentrum GFZ und zweier Kollegen aus der Schweiz – einer davon bei Google angestellt – zeigt nun eine Möglichkeit, die Ausdehnung der Schuttflächen auf Gebirgsgletschern global und automatisiert per Satellitenüberwachung zu erfassen.
In ihrer Arbeit nutzten die Wissenschaftler dafür die Cloud-Computing-Plattform „Google Earth Engine“. Das ist eine Web-basierte Entwicklungsumgebung und Datenbank mit Satellitenbildern aus vierzig Jahren Fernerkundung, die für Forschende frei zugänglich ist. Die Bilder für die Studie im Fachjournal Geophysical Research Letters stammen von den Satelliten Landsat-8 und Sentinel-2 und haben eine räumliche Auflösung von 30 mal 30 bzw. 10 mal 10 Metern pro Pixel. Die Wissenschaftler glichen die Bilder aus dem Weltall mit einem elektronischen Gletscherkatalog ab, dem „Randolph Glacier Inventory“, um die Bedeckung mit Schutt zu bestimmen. Dazu haben sie ein automatisches Verfahren entwickelt, das erdumspannend Pixel-für-Pixel-Vergleiche anstellt. „Unser Ansatz erlaubt im Prinzip die rasche Kartierung von Veränderungen in der Schuttbedeckung für jeden Zeitraum, für den Satellitenbilder verfügbar sind“, sagt Dirk Scherler.
Eine manuelle Überprüfung zeigte robuste Ergebnisse. Demnach sind 4,4 Prozent der Gletscheroberfläche in Gebirgen von Schutt bedeckt (der grönländische Eisschild und die Antarktis wurden nicht in die Betrachtung aufgenommen). Die Verteilung ist dabei ungleichmäßig: Zu den Polen hin nimmt die Schuttbedeckung ab, da die Landschaft hier eher flach ist. In steilen Gebirgsregionen, wie dem Himalaja, hingegen liegt mehr Schutt auf den Gletschern. Überdies zeigte die Studie, dass der Bedeckungsanteil bei kleineren Gletschern höher ist als bei größeren. Da die Gletscher weltweit schrumpfen, wird der Anteil der Schuttbedeckung voraussichtlich zunehmen – und damit die Überwachung der Schuttbedeckung wichtiger werden.
Gebirgsgletscher haben eine große Bedeutung für Regionen, in die ihr Schmelzwasser fließt: Es dient als Trinkwasser, bewässert landwirtschaftliche Flächen oder treibt Turbinen an. Die Ergebnisse der Studie bilden nach Aussage der Autoren eine Grundlage für künftige Modellierungen der Effekte von Schuttbedeckung auf dem Eis, von der regionalen bis hin zur globalen Skala.
Originalstudie:
Scherler, D., Wulf, H., Gorelick, N. (2018): Global Assessment of Supraglacial Debris Cover Extents. Geophysical Research Letters, doi:10.1029/2018GL080158.
Kontakt:
Josef Zens (josef.zens@gfz-potsdam.de)
Wissenschaftliche Ansprechpartner:
Dirk Scherler (dirk.scherler@gfz-potsdam.de)
Originalpublikation:
Scherler, D., Wulf, H., Gorelick, N. (2018): Global Assessment of Supraglacial Debris Cover Extents. Geophysical Research Letters, doi:10.1029/2018GL080158.
Quelle: idw
Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen besonders gefährdet
Torben Brinkema Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Es geht wieder los: Die Grippe-Zeit beginnt! Insbesondere ältere Patienten sind durch Influenza-Viren gefährdet. Aber auch Schwangere, Kinder und Pflegepersonal sind besonders betroffen. Deswegen raten Experten jetzt zur gezielten Grippeschutzimpfung. „Für ältere Menschen eignen sich insbesondere die sogenannten tetravalenten Impfstoffe, die nun auch von den Krankenkassen bezahlt werden“, sagt Dr. Andreas Leischker, Impfexperte der Deutschen Gesellschaft für Geriatrie (DGG) sowie Chefarzt der Klinik für Geriatrie des Alexianer-Krankenhauses Krefeld.
Im Interview beantwortet Leischker die wichtigsten Fragen zu Influenza-Viren, aktuellen Übertragungsrisiken, den größten Gefahren und den optimalen Grippeschutz.
Herr Dr. Leischker, in der vergangenen Saison kam es zu vielen Influenza-Erkrankungen, teilweise mit schweren Verläufen. Aus Sicht eines Krankenhausarztes: Woran liegt das?
Ja, die letzte Grippesaison hat leider viele Todesopfer gefordert und viele Krankenhäuser an ihre Kapazitätsgrenzen geführt. Die Influenza war 2017/2018, verglichen mit den Jahren zuvor, heftiger im Auftreten und im Verlauf. Sowohl für Patienten, als auch für das medizinische Personal. Die Praxen und Notaufnahmen der Krankenhäuser waren voll mit Patienten, die an echter Influenza erkrankt waren. Aber auch voll mit Patienten, die durch andere Viren an Infekten der oberen Luftwege litten. Es gibt mehr als 200 Viren, die eine Erkältung verursachen können. Fast alle Infekte der oberen Atemwege und auch die meisten Erkrankungen mit dem Influenza-Virus können zum Glück ambulant behandelt werden. Diese Patienten müssen also nicht im Krankenhaus aufgenommen werden.
Wie wird dann eine Influenza-Infektion am effektivsten behandelt?
Bei jungen und gesunden Menschen, die nicht stationär aufgenommen werden müssen, reicht die Behandlung der Symptome: Ganz wichtig ist ein abschwellendes Nasenspray, damit Sekret aus den Nasennebenhöhlen und dem Mittelohr abfließen kann. Das sollte mindestens viermal täglich angewendet werden, sodass die Nasenatmung immer frei ist.
Welche zusätzlichen Maßnahmen helfen bei Erkältungssymptomen?
Zusätzlich kann man mit Wasserdampf inhalieren, um die ausgetrockneten Schleimhäute anzufeuchten: Drei Teelöffel Kochsalz in eine Schüssel geben, mit heißem Wasser aufgießen, den Kopf mit einem Handtuch abdecken, über die Schüssel halten und dann inhalieren. Am besten dreimal täglich. Bei Kopf- und Gliederschmerzen helfen nicht-steroidale Antirheumatika wie zum Beispiel Ibuprofen. Bei Halsschmerzen bringen Lutschtabletten Linderung. Diese Maßnahmen helfen übrigens auch bei den anderen 200 Erkältungsviren. Und auch wenn es banal klingt: Nicht mehr zur Arbeit gehen, bis die Symptome weg sind! Man ist dann selbst schneller wieder fit und steckt seine Kollegen bzw. Kunden nicht an.
Durch die Influenza ist es zu zahlreichen Todesfällen gekommen. Warum gilt die Grippe trotzdem als eine unangenehme, aber harmlose Erkrankung?
Das ist falsch! Die Grippe ist keine harmlose Erkrankung: Besonders bei alten Menschen und bei Menschen mit chronischen Krankheiten – wie zum Beispiel Diabetes mellitus, Chronisch Obstruktiver Lungenerkrankung, kurz COPD, oder Niereninsuffizienz – kann es zu lebensgefährlichen Komplikationen wie Lungenversagen kommen. Diese Patienten müssen stationär behandelt werden, bei Lungenversagen ist oft eine künstliche Beatmung notwendig. Wir hatten im letzten Winter hier auch viel mehr Herzinfarkte und auch Schlaganfälle zu verzeichnen.
Was haben denn Herzinfarkte mit Influenza zu tun?
Es ist bisher wenig bekannt, aber eine Influenza erhöht das Herzinfarktrisiko erheblich: Während der ersten sieben Tage einer Influenza-Erkrankung ist das Herzinfarktrisiko um das 17-fache erhöht! Und selbst einen Monat nach der Infektion ist das Risiko für einen Infarkt noch deutlich höher als bei Menschen, die nicht erkrankt sind. Schlaganfälle treten im Rahmen einer Influenza häufiger auf. Aber auch umgekehrt: Das Influenza-Risiko ist für Patienten mit kardiovaskulären Erkrankungen um 23 Prozent erhöht.
Weshalb erhöht eine Influenza-Infektion das Herzinfarktrisiko?
Hauptsächlich durch zwei Faktoren: Das Virus führt auch zu einer Entzündung in den Gefäßen. Und wenn sich in diesen sogenannte Plaque-Flecken aus Cholesterin und Kalk befinden, können diese Plaques durch die Entzündung aufplatzen und so beispielsweise ein Herzkranzgefäß verschließen. Eine Influenza mit hohem Fieber ist für den Körper außerdem zusätzlicher Stress. Die vom Körper ausgeschütteten Stresshormone wie Adrenalin und Noradrenalin erhöhen das Herzinfarktrisiko zusätzlich.
Umgekehrt gefragt: Schützt die Influenza-Impfung vor Herzinfarkten?
Ja, definitiv! Und auch vor Schlaganfällen, dies ist mittlerweile auch durch mehrere Studien belegt.
Im vergangenen Winter sind einige Krankenhäuser an die Grenzen ihrer Kapazitäten gekommen. Woran lag das?
Es gab ganz viele Patienten, die wegen Komplikationen durch eine Influenza-Infektionen auf einer Intensivstationen behandelt werden mussten, teilweise mit künstlicher Beatmung. Dadurch wurden Intensivbehandlungsplätze schnell Mangelware. Ich erinnere mich insbesondere an eine Situation, die ich im letzten Winter als Notarzt hatte: Ein Patient musste wegen einer Lungenentzündung beatmet werden, aber kein Krankenhaus in der Umgebung hatte einen Intensivbehandlungsplatz frei. Schließlich konnte ein Krankenhaus den Patienten aufnehmen, das aber über eine Stunde Fahrtzeit entfernt lag. Hinzu kam, dass viele Ärzte und Pflegefachkräfte selbst an Influenza erkrankt und dadurch arbeitsunfähig waren.
Ärzte sollten doch grundsätzlich gegen Influenza geimpft sei, oder nicht?
Ja, das sollten sie, aber die Realität sieht leider anders aus: Weniger als 30 Prozent des medizinischen Personals lässt sich gegen Influenza impfen. Dabei ist es für medizinisches Personal gleich aus drei Gründen wichtig, sich impfen zu lassen: Erstens – und das ist der wichtigste Grund – damit sie ihre häufig abwehrgeschwächten Patienten nicht anstecken. Zweitens, damit sie während einer Influenza-Epidemie arbeitsfähig bleiben und Erkrankte behandeln können. Und last, but not least, um auch sich selbst zu schützen.
Viele Menschen glauben, durch die Impfung überhaupt erst krank geworden zu sein. Was spricht für diese These?
Das hört man häufig, trifft aber nicht zu, denn bei der Influenza-Impfung handelt es sich um einen sogenannten Totimpfstoff, der nur Bruchstücke der Impfviren enthält. Eine Influenza-Totimpfung kann also niemals eine Influenza auslösen. Natürlich können als typische Nebenwirkungen Rötungen, Schmerzen und Schwellungen an der Injektionsstelle auftreten – als Folge der lokalen Antikörperbildung – und klingen innerhalb weniger Tage wieder ab. Auch leicht erhöhte Temperatur sowie leichte Kopf- und Gliederschmerzen gehören zu den typischen Nebenwirkungen einer Influenza-Impfung. Manche verwechseln das mit einer Influenza.
Und die Influenza-Impfung schützt lediglich vor Influenza, aber nicht vor den übrigen 200 Erkältungsviren. An einer Erkältung kann natürlich auch kurz jeder nach einer Grippe-Impfung erkranken – dafür ist aber nicht die Influenza-Impfung verantwortlich!
Im vergangenen Winter sind auch Menschen erkrankt, die gegen Influenza geimpft waren. Woran lag das?
Im letzten Winter waren über die Hälfte der Influenza-Infektionen durch ein Influenza-Virus vom Typ B bedingt. Der Typ B Yamgata war leider in den am häufigsten verwendeten trivalenten Impfstoffen nicht enthalten. Die Arbeitsgruppe Impfen der Deutschen Gesellschaft für Geriatrie hatte daher bereits im Herbst vergangenen Jahres den tetravalenten Impfstoff empfohlen – dieser enthält vier Impfstämme, zwei A- und zwei B-Stämme. Alle Patienten, die mit diesem Impfstoff geimpft wurden, hatten einen Schutz gegen das zirkulierende Influenza-B-Virus. Leider hat die Ständige Impfkommission am Robert-Koch-Institut die Empfehlung zur Verwendung des tetravalenten Impfstoffs erst im Januar 2018 veröffentlicht – das war deutlich zu spät.
Wie genau sehen die Empfehlungen in diesem Jahr aus – und wer übernimmt die Impfkosten?
Es sollten alle Personen nur noch mit dem tetravalenten Impfstoff behandelt werden. Das empfiehlt jetzt neben der Ständigen Impfkommission auch der Gemeinsame Bundesausschuss, der unter anderem den Leistungskatalog der gesetzlichen Krankenkassen festlegt. Für die meisten Impfwillige bedeutet dies, dass keine Kosten auf sie zukommen: Die gesetzlichen Krankenkassen übernehmen jetzt auch die Kosten für den tetravalenten Impfstoff.
Wer sollte sich denn jetzt grundsätzlich impfen lassen?
Meiner Meinung nach sollte sich jeder impfen lassen! Das ist am effektivsten, um die Ausbreitung des Virus‘ zu verhindern. Die Ständige Impfkommission empfiehlt die Impfung von Personen, die entweder ein hohes Risiko für Komplikationen, oder aber ein erhöhtes Ansteckungsrisiko haben. Das sind unter anderem alle Menschen im Alter von über 60 Jahren sowie alle Menschen mit chronischen Grunderkrankungen, wie zum Beispiel Herzkrankheiten, Diabetes mellitus, Chronisch Obstruktive Lungenerkrankung oder chronische Nierenkrankheiten. Auch Schwangere sollten sich impfen lassen, sie riskieren ansonsten Komplikationen. Medizinisches Personal sollte grundsätzlich geimpft sein – ebenso wie Personen, die alte und kranke Menschen pflegen- egal ob beruflich, ehrenamtlich oder privat. Eine junge gesunde Frau, die ihre eigene pflegebedürftige Mutter betreut, sollte sich unbedingt impfen lassen – um auch ihre Mutter vor Influenza zu schützen. Sämtliche Personen, die beruflich vom Publikumsverkehr betroffen sind, sollten sich ebenfalls direkt impfen lassen.
Es scheint kaum jemanden zu geben, der nicht zu einer betroffenen Gruppe gehört. Was sollte beim Impfen von Kindern beachtet werden?
Wenn Sie mich als Geriater fragen, sollten Eltern ihre Kinder impfen lassen. Kinder fassen alles ohne Hemmungen an – einschließlich anderer Kinder. Überall da, wo viele Kinder zusammen sind, ist das Risiko, sich an Influenza anzustecken, besonders hoch. So zum Beispiel in Kindertagesstätten und Schulen. Kinder scheiden Influenza-Viren zudem deutlich länger als Erwachsene aus, im Durchschnitt zehn Tage lang. Wenn die Großmutter dann ihr Enkelkind auf den Arm nimmt, werden die Influenza-Viren gleich über zwei Generationen übertragen. Die Impfung schützt aber natürlich auch die Kinder selbst. Ich kenne eine Familie, deren dreijähriges Kind im Januar diesen Jahres über vier Wochen wegen einer Influenza mit Lungenversagen künstlich beatmet werden musste. Das ist besonders traurig, da dieses Leid für das Kind durch eine Impfung vermeidbar gewesen wäre. Derzeit empfiehlt die Ständige Impfkommission die Influenza-Impfung leider nur für Kinder mit Risikofaktoren. Ich würde alle Kinder impfen!
Kommen wir von den Kindern zu den sogenannten Silver Agern: Es gibt fitte Senioren, die gerne in der nasskalten Zeit Kreuzfahrten in sonnige Regionen machen. Sollen die auch geimpft werden?
Auch die sollten sich unbedingt impfen lassen! Ein Kreuzfahrtschiff ist aus Sicht eines Infektionsepidemologen wie eine Kindertagesstätte für Erwachsene. Genau wie in einer Kita sind dort viele Menschen auf engem Raum zusammen – ideale Voraussetzung für Viren, um sich zu vermehren. In der Vergangenheit kam es zu mehreren Kleinepidemien auf Kreuzfahrtschiffen. Also: Die Grippeimpfung für einen Kreuzfahrer ist ein Must-have!
Aber wenn wir mal von den Routen rund um Skandinavien und dem Polarmeer absehen, führen viele Kreuzfahrten doch in warme Gefilde. Da gibt es doch derzeit keine Influenza, oder?
Doch, in den Tropen sowie in den Subtropen kommt die Influenza sogar ganzjährig vor. Und auf der Südhalbkugel tritt die Influenza auf, wenn bei uns Sommer und Herbst ist. Aktuell grassiert in Australien eine Influenza A. Die Influenza-Viren mögen es entweder trocken und kalt – wie bei uns im Winter – oder warm und feucht – das haben sie in den Tropen ganzjährig.
Welche Infektionsrisiken gibt es bei Flugreisen?
Die Belüftungsanlagen der Flugzeuge haben Filter eingebaut. Diese entfernen effektiv die Tröpfchen und damit die in ihnen enthaltenen Influenza-Viren. Innerhalb des Flugzeugs können Sie sich also nur an den rechts, links und hinter Ihnen sitzenden Mitreisenden infizieren. Und am Kabinenpersonal, wenn einer von ihnen trotz Erkrankung arbeitet. Wenn Sie beim Einchecken oder beim Umsteigen am Flughafen in einer Warteschlange stehen, haben die Influenza-Viren eine weitere Chance. Also: Auch bei Flugreisen sollten Sie gegen Influenza geimpft sein!
Welchen Nutzen haben Gesichtsmasken zum besseren Schutz?
Gesichtsmasken können helfen, wenn sie beispielsweise im Gedränge und öffentlichen Verkehrsmitteln die zwei Meter Abstand nicht einhalten können. Kontrollierte Studien gibt es zu dieser Frage nicht. Aber es lohnt ein Blick in die Geschichte: Während der Spanischen Grippe 1918 hat der Bürgermeister der Stadt New York angeordnet, dass jeder Bürger vor Betreten einer Straßenbahn eine Gesichtsmaske anlegen muss – damals waren diese noch aus Stoff. In anderen amerikanischen Großstädten und in Deutschland war das nicht der Fall. Durch das Tragen der Gesichtsmasken traten in New York vermutlich deutlich weniger Influenza-Fälle auf, als in anderen Großstädten.
Wie kann ich mich – außer durch die Impfung – vor Influenza schützen?
Influenza-Viren werden durch Schmier- und Tröpfcheninfektion übertragen. In der Regel reichen zwei Meter Abstand zu Mitmenschen, um sich nicht anzustecken. Glücklicherweise reagiert das Influenza-Virus auf Umwelteinflüsse sehr empfindlich: Es wird zum Beispiel durch Wasser und Seife abgetötet. Zur Prophylaxe reicht es daher aus, die Hände gründlich mit Wasser und Seife zu waschen. Gerade unterwegs ist allerdings nicht immer fließendes Wasser vorhanden. Ich empfehle deshalb, alkoholhaltige Gels zu verwenden. Auch auf der Augenbindehaut befinden sich Rezeptoren für das Influenza-Virus. Deshalb mit den Händen nicht in das eigene Gesicht fassen, insbesondere nicht in den Augen reiben.
Pressekontakt der DGG
Torben Brinkema
medXmedia Consulting KG
Nymphenburger Str. 19
80335 München
Tel: +49 (0)89 / 230 69 60 21
Fax: +49 (0)89 / 230 69 60 41
E-Mail: presse@dggeriatrie.de
Deutsche Gesellschaft für Geriatrie (DGG)
Die Deutsche Gesellschaft für Geriatrie (DGG) ist die wissenschaftliche Fachgesellschaft der Ärzte, die sich auf die Medizin der späten Lebensphase spezialisiert haben. Wichtige Schwerpunkte ihrer Arbeit sind neben vielen anderen Bewegungseinschränkungen und Stürze, Demenz, Inkontinenz, Depressionen und Ernährungsfragen im Alter. Häufig befassen Geriater sich auch mit Fragen der Arzneimitteltherapie von alten Menschen und den Wechselwirkungen, die verschiedene Medikamente haben. Bei der Versorgung geht es darum, den alten Menschen ganzheitlich zu betreuen und ihm dabei zu helfen, so lange wie möglich selbstständig und selbstbestimmt zu leben. Die DGG wurde 1985 gegründet und hat heute rund 1700 Mitglieder.
Weitere Informationen:
https://www.dggeriatrie.de/presse/pressemeldungen
https://www.dggeriatrie.de/presse/pressemeldungen/1542-pm-die-wichtigsten-tipps-…
Anhang
Die wichtigsten Tipps zur Grippe-Impfung: Ältere Menschen besonders gefährdet
https://idw-online.de/de/attachment67084
Quelle: idw
Beim Schnapsbrennen die Energiewende im Blick
Katharina Thehos Dezernat Kommunikation und Marketing
Hochschule Ostwestfalen-Lippe
Bei der Herstellung von Alkohol und alkoholischen Getränken wird Kohlenstoffdioxid frei. Wissenschaftler der Hochschule OWL erforschen, wie sich dieses in Erdgas umwandeln und zur Speicherung von erneuerbaren Energien nutzen lässt. Gefördert wird das Vorhaben vom Bundesministerium für Bildung und Forschung.
Mit Windrädern und Sonnenkollektoren alleine lässt sich die Energiewende nicht umsetzen – Fortschritte benötigt die Wissenschaft vor allem bei der Speicherung der Energie: „Schon heute müssen beispielsweise Windräder häufig abgeschaltet werden, weil die Stromnetze überlastet sind. Dadurch und durch Drosselungen in konventionellen Kraftwerken entstehen Ausfallzahlungen, die die Kosten bei der Stromerzeugung in die Höhe treiben“, erklärt Timo Broeker, wissenschaftlicher Mitarbeiter im Fachgebiet Getränketechnologie der Hochschule Ostwestfalen-Lippe. Er und seine Kollegen arbeiten im neu gestarteten Forschungsprojekt „bioCO2nvert“ daran, die Energiewende zu unterstützen.
Die Idee: Strom aus Wind- und Sonnenenergie wird per Elektrolyse in Wasserstoff umgewandelt. Dieser wird mit Hilfe von Kohlenstoffdioxid in Erdgas überführt. Dieses Gas kann mit bestehender Infrastruktur gespeichert werden. Kohlendioxid entsteht bei der alkoholischen Gärung – etwa bei der Herstellung von Spirituosen oder Bier, aber auch bei der Bioethanolproduktion, das dem Kraftstoff beigemischt wird. Partner im Projekt ist unter anderen die Südzucker AG. „Südzucker betreibt große Bioethanolanlagen. Die Verwertung des Kohlenstoffdioxids verbessert die Klimabilanz der Produktion – und im besten Fall auch die Bewertung des Produktes Bioethanol“, erklärt Broeker.
Auf Vorgängerprojekt aufbauen
Grundlage der aktuellen Forschung ist das Vorgängerprojekt „bioCONNECT“. Die Wissenschaftler der Hochschule OWL haben dort untersucht, wie das Kohlenstoffdioxid genutzt werden kann, das beim Bierbrauen während der Gärung entsteht. Dafür haben sie eine Anlage entwickelt, die mit Hilfe des Kohlendioxids Erdgas produziert, das zur Speicherung erneuerbarer Energien dient. Diese Anlage entwickeln die Forscher nun weiter und bauen sie in einem größeren Stil neu auf – Ziel des aktuellen Projektes ist der Nachweis der Wirtschaftlichkeit. Unter anderem soll dafür der Betrieb mit realen Daten aus der Windstromerzeugung am Computer simuliert werden.
Förderung von Bund und Industrie
Geleitet wird das Projekt „Implementierung eines bedarfsgerechten Power-to-Gas-Konzeptes in CO2-emittierende Fermentationsanlagen“ – kurz „bioCO2nvert“ – an der Hochschule OWL von Professor Jan Schneider vom Institut für Lebensmitteltechnologie.NRW (ILT.NRW) und Professor Klaus Heikrodt vom Fachbereich Maschinentechnik und Mechatronik. Es wird gefördert vom Bundesministerium für Bildung und Forschung in der Förderlinie FHprofUnt. Die Hochschule OWL erhält rund 730.000 Euro für drei Jahre. Neben der Südzucker AG sind weitere Industrieunternehmen Partner im Projekt: Auch die Firmen Viessmann, PRG Präzisions-Rührer Gesellschaft Warburg und Klärgastechnik Deutschland aus Lemgo-Lieme unterstützen die Lemgoer Arbeitsgruppe sowohl finanziell als auch in der Ausführung, sodass sich das Projektvolumen in Summe auf etwa 800.000 Euro beläuft.
Wissenschaftliche Ansprechpartner:
Kontakt: Timo Broeker, Telefon 05261 702-5948, E-Mail timo.broeker@hs-owl.de
Quelle: idw
Moore: manchmal unheimlich, aber vor allem unheimlich wichtig
Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Seit dem 20. Jahrhundert sind mehr als 90 Prozent aller Feuchtgebiete, darunter auch viele Moore, im mittel- und westeuropäischen Binnenland verschwunden. Moore wurden trocken gelegt, um sie landwirtschaftlich zu nutzen oder um Torf zu gewinnen. Heute weiß man, dass Moore die effektivsten Kohlenstoffspeicher innerhalb der Landökosysteme sind. Außerdem sind sie Hotspots der Biodiversität. Vom 21.bis 29.10.2018 fand in Dubai die „Conference of the Contracting Parties to the Ramsar Convention on Wetlands (COP13)“ statt. Forscher vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) begleiten die Renaturierung ehemaliger Moorflächen mit ihrer Expertise.
Moore zählen zu den Landschaften, um die sich viele Geschichten ranken – meist in einem furchteinflößenden Kontext. Nur wenigen ist klar, welche wichtigen Funktionen Moore erfüllen. „Moore sind manchmal ziemlich gruselig, aber vor allem ihr Verlust mit schwerwiegenden Folgen für die Umwelt sollte uns unheimlich sein“, sagt Dr. Dominik Zak. Der Wissenschaftler hat früher am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin geforscht und arbeitet nun an der Universität Aarhus in Dänemark. Obwohl Moore nur etwa drei Prozent des globalen Festlandes einnehmen, binden sie 20 bis 30 Prozent der gesamten Kohlenstoffvorräte aller Böden. Das entspricht etwa 40 bis 60 Prozent des gesamten CO2-Gehalts unserer Atmosphäre. Zudem binden Moore in den Torfen die Nährstoffe Phosphor und Stickstoff. Werden Moore trocken gelegt, sinkt der Wasserspiegel und die sonst sauerstofffreien Böden werden belüftet. „Das führt dazu, dass Nährstoffe und Treibhausgase freigesetzt werden“, erklärt Dominik Zak das Problem.
Weltweit geht jährlich immer noch etwa ein Prozent der gesamten Moorflächen verloren. In Deutschland sind bereits fast alle Moorflächen entwässert, nur noch etwa zwei Prozent der ursprünglichen Moorflächen sind in einem naturnahen Zustand. Es gibt aber auch einige Lichtblicke, so laufen europaweit vielfältige Aktivitäten zur Revitalisierung von Mooren. „Vor 43 Jahren trat die Ramsar-Konvention als Übereinkommen über den Schutz von Feuchtgebieten in Kraft. Seit dieser Zeit ist viel passiert“, so Dr. Jörg Gelbrecht, Moor-Experte des IGB. „Eine Revitalisierung ist jedoch nicht ganz einfach“, räumt Gelbrecht ein, „denn eine erfolgreiche Umsetzung von Maßnahmen hängt ganz wesentlich von einem Konsens der verschiedenen Akteure des Naturschutzes, des Gewässer- und Klimaschutzes sowie der Landnutzer ab. Außerdem müssen die verschiedenen Risiken bewertet werden“. Nach Jahrzehnten der Entwässerung sind Moorböden oft stark degradiert, haben Nährstoffe angereichert und an Oberfläche verloren. Tiefgründig entwässerte Moore benötigen deshalb oft mehrere Jahrzehnte, bis sie ihre ursprünglichen landschaftsökologischen Funktionen wieder erfüllen.
Auf den in Mitteleuropa weit verbreiteten Niedermooren entstehen bei der Wiedervernässung häufig Flachseen. Das sind neue, hoch dynamische Ökosysteme, die rasch von sehr seltenen und stark gefährdeten Vogelarten besiedelt werden. In der Anfangsphase werden aber auch oft große Mengen des Treibhausgases Methan, außerdem Phosphor sowie gelöste organische Substanz (DOM) aus den oberen Torfschichten freigesetzt, was die gewünschten Effekte zunächst konterkariert und im Extremfall auch angrenzende Gewässer belasten kann. Die IGB-Forscher entwickelten auf Grundlage umfangreicher Feld- und Laborarbeiten ein vereinfachtes Verfahren zur Risikoabschätzung einer Wiedervernässung. Dies berücksichtigt vor allem die Beeinflussung angrenzender Gewässer und die Freisetzung von Klimagasen. So kann der Oberbodenabtrag eine Möglichkeit sein, diese Risiken zu minimieren. Trotz einiger Vorteile ist er jedoch nicht als universelle Maßnahme bei der Moorrestaurierung zu empfehlen. Für die Moor-Wiedervernässungen sollten daher auch Kenntnisse zur hydrologischen Situation, zum aktuellen und zukünftigen Vorkommen moortypischer Arten und Strategien zur möglichen „nassen“ Moornutzungen vorliegen. Von größter Bedeutung ist zusätzlich eine gezielte Öffentlichkeitsarbeit, um eine breite gesellschaftliche Akzeptanz der geplanten Maßnahmen zu erreichen.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das Leibniz-IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das Leibniz-IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de/
Wissenschaftliche Ansprechpartner:
Dr. Jörg Gelbrecht
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 301
12587 Berlin
E-Mail: gelbr@igb-berlin.de
Telefon: +49 (0)30 64181 730
Dr. Dominik Zak
Aarhus University
Vejlsøvej 25
8600 Silkeborg, Denmark
E-Mail: doz@bios.au.dk
Telefon: +45 93508477
Originalpublikation:
Dominik Zak; Tobias Goldhammer; Alvaro Cabezas; Jörg Gelbrecht; Robert Gurke; Carola Wagner; Hendrik Reuter; Jürgen Augustin; Agata Klimkowska; Robert McInnes: Top soil removal reduces water pollution from phosphorus and dissolved organic matter and lowers methane emissions from rewetted peatlands. Journal of Applied Ecology. – 55(2018)1, S. 311-320
Weitere Informationen:
http://www.igb-berlin.de
Quelle: idw
Sicherer Umgang mit Druckgasbehältern
Elke Biesel Pressestelle
Deutsche Gesetzliche Unfallversicherung – DGUV
Zerknallende Druckgasbehälter können Einsatzkräfte bei der Brandbekämpfung gefährden. Die Deutsche Gesetzliche Unfallversicherugn (DGUV) hat in Zusammenarbeit mit der Bundesanstalt für Materialforschung und -prüfung (BAM) und anderen Partnern Merkblätter erarbeitet für einen sicheren Umgang mit Druckgasbehältern.
Druckgasbehälter wie Flüssiggas- oder Acetylenflaschen können Einsatzkräfte bei der Brandbekämpfung ernsthaft gefährden, denn bei zu starker Erwärmung besteht die Gefahr, dass sie „zerknallen“. Der Zerknall einer Flüssiggas- oder Acetylenflasche geht mit einer Druckwelle, einem Feuerball und Trümmerflug einher. Solche Ereignisse haben in der Vergangenheit schon häufig zu schweren oder tödlichen Verletzungen geführt. Um das Risiko im Einsatz zu minimieren, haben Fachleute unter der Leitung der Deutschen Gesetzlichen Unfallversicherung (DGUV) Einsatzhinweise erarbeitet. Sie sind in zwei überarbeiteten DGUV Informationen zusammengefasst.
Die Merkblätter geben konkrete Handlungsempfehlungen für verschiedene Brandszenarien, an denen Flüssiggas- bzw. Acetylenflaschen beteiligt sind. Teilweise stimmen die getroffenen Empfehlungen mit denen aus früheren Merkblättern überein. In anderen Fällen weichen sie deutlich von früheren Einsatzhinweisen ab. So wird beispielsweise im Merkblatt zu Acetylenflaschen im Brandeinsatz dringend davon abgeraten, durch den Brand erhitzte Acetylenflaschen zu bewegen, wie zum Beispiel diese zum Kühlen in ein Wasserbad zu transportieren. Neben praktischen Hinweisen vermitteln die Merkblätter auch Hintergrundwissen, um die Akzeptanz der getroffenen Handlungsempfehlungen zu erhöhen.
Die fachliche Grundlage der Empfehlungen bilden langjährige wissenschaftliche Untersuchungen der Bundesanstalt für Materialforschung und -prüfung (BAM). Für eine möglichst umfassende Betrachtung der Problemstellung haben neben der DGUV und der BAM auch die Gasverbände IGV (Industriegaseverband) und DVFG (Deutscher Verband Flüssiggas), verschiedene Feuerwehrunfallkassen (HFUK Nord – Hanseatische Feuerwehr Unfallkasse Nord, FUK Mitte – Feuerwehr-Unfallkasse Mitte), die Firma Linde AG, die Berliner Feuerwehr sowie die Vereinigung zur Förderung des dt. Brandschutzes – vfdb e.V. (Referat 10 „Umweltschutz“) an der Erarbeitung mitgewirkt.
Die Empfehlungen zu wärmebeaufschlagten Acetylenflaschen wurden unter Beteiligung der BAM bereits vor einigen Jahren in den „Operational guidance for the fire and rescue service“ für Feuerwehren in Großbritannien umgesetzt.
Die beiden DGUV Informationen stehen in der Publikationsdatenbank der DGUV ab sofort zur Verfügung, die gedruckten Fassungen sind voraussichtlich ab Mitte November lieferbar:
• Umgang mit ortsbeweglichen Flüssiggasflaschen im Brandeinsatz (DGUV Information 205-030)
• Umgang mit Acetylenflaschen im Brandeinsatz (DGUV Information 205-029)
Weitere Informationen:
http://publikationen.dguv.de/
https://www.bam.de/Content/DE/Paper-des-Monats/2018/2018-03-01-paper-des-monats-…
Quelle: idw
Mikroplastik in Lebensmitteln – viele ungeklärte Fragen bei Wissenschaft und Öffentlichkeit
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Verbrauchermonitor: Mehr als die Hälfte der Bevölkerung findet Mikroplastik in Lebensmitteln beunruhigend
Insgesamt schätzen 75 Prozent der Bevölkerung Lebensmittel als sicher ein. Mikroplastik in Lebensmitteln bewegt jedoch immer mehr Deutsche. Wie der aktuelle BfR-Verbrauchermonitor – eine regelmäßige Bevölkerungsumfrage des Bundesinstituts für Risikobewertung (BfR) – zeigt, wird das Thema bekannter und beunruhigt die Bevölkerung stärker als vor einem halben Jahr: Waren zuvor 45 Prozent besorgt über Mikroplastik in Lebensmitteln, sind es nun mit einem Anstieg von 11 Prozentpunkten mehr als die Hälfte der Befragten. Für das BfR ist besonders interessant, ob die öffentliche Wahrnehmung von der wissenschaftlichen Einschätzung abweicht. Aus den bisherigen Studien lässt sich nicht ableiten, wie viele Mikroplastikpartikel die Verbraucher beispielsweise durch den Verzehr von Fisch wirklich aufnehmen. Nachgewiesen wurde Mikroplastik vor allem im Magen-Darm-Trakt von Fischen, der in der Regel aber nicht verzehrt wird. „Um das tatsächliche Risiko von Mikroplastik in der Nahrungskette zu bewerten, benötigen wir verlässlichere Daten, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „Das BfR führt derzeit Studien zur Aufnahme von Mikroplastikpartikeln über den Darm und den möglichen gesundheitlichen Auswirkungen durch.“
BfR-Verbrauchermonitor 08/2018
https://www.bfr.bund.de/cm/350/bfr-verbrauchermonitor-08-2018.pdf
Fragen und Antworten zu Mikroplastik
https://www.bfr.bund.de/de/fragen_und_antworten_zu_mikroplastik-192185.html
Ob Antibiotikaresistenzen oder Mikroplastik – welche gesundheitlichen Risiken sind Verbraucherinnen und Verbrauchern bekannt und was beunruhigt sie? Als repräsentative Verbraucherbefragung liefert der BfR-Verbrauchermonitor in halbjährlichem Abstand Einsichten zu der Frage, wie die deutschsprachige Bevölkerung gesundheitliche Risiken wahrnimmt. Dafür werden etwa 1.000 Personen, die in Privathaushalten in Deutschland leben und mindestens 14 Jahre alt sind, im Auftrag des BfR telefonisch interviewt.
Nach wie vor nehmen die Befragten Rauchen, Klima- und Umweltbelastung sowie eine ungesunde oder falsche Ernährung als die größten gesundheitlichen Risiken wahr. Fragt man nach ausgewählten Themen, so führen Salmonellen, gentechnisch veränderte Lebensmittel, Antibiotikaresistenzen und Rückstände von Pflanzenschutzmitteln immer noch die Bekanntheitsskala an – gefolgt von Mikroplastik in Lebensmitteln, Aluminium in Lebensmittelverpackungen und Kohlenmonoxid. Dabei sind Antibiotikaresistenzen und Mikroplastik die Themen, die bei den meisten Befragten für Beunruhigung sorgen. Im Vergleich zur letzten Umfrage ist die Bevölkerung deutlich besorgter um Mikroplastik: Hier ist die Beunruhigung um 11 Prozentpunkte gestiegen. Auch Salmonellen findet mehr als die Hälfte besorgniserregend. Kohlenmonoxid – in diesem Jahr erstmalig abgefragt und dem Großteil der Befragten bekannt – hält im Vergleich dazu nur ein gutes Drittel für beunruhigend.
Spielzeug wird im Vergleich zur Vorgängerbefragung als genauso sicher eingeschätzt. Bei Textilien und Kosmetika ist das Sicherheitsgefühl leicht gesunken. Weiterhin vertrauen die Befragten den staatlichen Stellen in Deutschland überwiegend, dass diese die Gesundheit von Verbrauchern schützen.
Der BfR-Verbrauchermonitor widmet sich einerseits Themen, die in der Öffentlichkeit eine große Aufmerksamkeit erhalten. Andererseits analysiert er Fragen, die bisher weniger im öffentlichen Fokus stehen, aber ebenfalls relevant sind, wie beispielsweise Campylobacter und Schimmelpilzgifte in Lebensmitteln oder die neuartige Methode des „Genome Editings“ zur zielgerichteten Veränderung des Erbguts. Wie schon in der ersten Umfrage im Jahr 2018 sind diese Themen in der öffentlichen Wahrnehmung wenig sichtbar und werden daher auch nicht als besonders beunruhigend angesehen. Ebenso spielt Lebensmittelhygiene zu Hause nur eine geringe Rolle im Bewusstsein von Verbraucherinnen und Verbrauchern.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: idw
Studie untersucht Einfluss von Ernährung und Bewegung auf die Gesundheit
Mechtild Freiin v. Münchhausen Referat für Kommunikation und Marketing
Leibniz Universität Hannover
Teilnehmerinnen und Teilnehmer gesucht
Aktuelle Studie „BEGinn“: Mehr Gesundheit und Wohlbefinden durch Bewegung und Ernährung
Ernährung und Bewegung nehmen in vielfältiger Weise Einfluss auf die Gesundheit, das Wohlbefinden und die Prävention chronischer Erkrankungen. Körperliche Aktivität kann einer altersbedingten Abnahme von Muskulatur und Knochendichte entgegenwirken sowie die Funktion des Immunsystems verbessern. In welchem Umfang bisher körperlich inaktive Personen hiervon profitieren, ist bisher nicht ausreichend untersucht. Ebenso unklar ist, welchen Beitrag zusätzliche nutritive Maßnahmen leisten. Das Forschungsprojekt „BEGinn“ an der Leibniz Universität Hannover soll diese Wissenslücke schließen und sucht für die Studie Teilnehmerinnen und Teilnehmer im Alter von 50 bis 70 Jahren. Weitere Informationen zur Studie unter http://www.beg.uni-hannover.de
Unter der Leitung von Prof. Andreas Hahn aus dem Institut für Lebensmittelwissenschaft und Humanernährung und Prof. Karsten Krüger, Institut für Sportwissenschaft, werden die Auswirkungen eines Trainingsprogramms allein oder in Kombination mit einer Ernährungsumstellung sowie der Gabe von Omega-3-Fettsäuren auf immunologische, ernährungs- und sportwissenschaftliche Parameter untersucht.
Teilnehmen können Frauen und Männer im Alter von 50 bis 70 Jahren, die keinen regelmäßigen sportlichen Aktivitäten -wie beispielsweise Schwimmen oder Joggen – nachgehen. Innerhalb eines zwölfwöchigen Studienverlaufs absolvieren die Studienteilnehmerinnen und -teilnehmer zweimal pro Woche eigenständig einen Fitness-Zirkel in einem kooperierenden Fitnessstudio. Eine der Studiengruppe erhält zusätzlich eine Ernährungsberatung, eine weitere Gruppe ein Nährstoffsupplement mit Omega-3-Fettsäuren.
Bei Interesse an der Studienteilnahme wenden Sie sich bitte an Paulina Wasserfurth, Institut für Lebensmittelwissenschaft und Humanernährung, Telefon 0511 762 3733, E-Mail: wasserfurth@nutrition.uni-hannover.de
Quelle: idw
Wie die Alpen von unten aussehen
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Was wir von den Bergen der Alpen sehen können, ist noch lange nicht alles: Ähnlich wie Eisberge, deren größerer Teil unter Wasser liegt, haben die Alpen eine Wurzel, die weit in die Tiefe bis hinein in den Erdmantel reicht. Um sie zu erforschen, werten Geologinnen und Geologen der Ruhr-Universität Bochum gemeinsam mit Kollegen aus ganz Europa Erdbebenwellen aus aller Welt aus. Für das Projekt Alp Array haben sie rund 600 Seismometer im gesamten Alpenraum installiert.
Wellen breiten sich unterschiedlich schnell aus
Hintergrund der Forschung ist, dass sich Erdbebenwellen in verschiedenen Gesteinsarten unterschiedlich schnell ausbreiten. Aus ihrer Geschwindigkeit lassen sich also Rückschlüsse darauf ziehen, durch welche Art von Untergrund sie gelaufen sein müssen.
„Die kontinentale Erdkruste und damit auch die Wurzel der Berge besteht vorrangig aus Gestein geringerer Dichte, wie zum Beispiel Kalkstein, Granit, Gneis oder Sedimenten. Der darunterliegende Erdmantel besteht eher aus dichterem Gestein“, beschreibt Dr. Kasper Fischer, Leiter des Seismologischen Observatoriums der RUB, das Prinzip.
Daten werden zentral gesammelt
Nach dem Projektstart im Jahr 2015 war das dichte Netz aus Messpunkten zwei Jahre später fertig aufgebaut. Alle Daten sämtlicher Messpunkte werden an zentralen Stellen in Europa gesammelt und können jedem, der ihre Nutzung beantragt, zur Verfügung gestellt werden.
„Kleinere auswertbare Erdbeben finden fast täglich statt, größere Ereignisse natürlich wesentlich seltener“, sagt Kasper Fischer. Je nachdem, wo ein Erdbeben seinen Ursprung hat, kommen seine Wellen früher oder später in der Alpenregion an und verlaufen aus verschiedenen Richtungen durch das Messnetz.
Detaillierte Auswertung
Besonders interessant sind für die Forscher die sogenannten Raumwellen. Diese Wellen gehen kugelförmig vom Ursprung eines Bebens aus, der meist in großer Tiefe liegt, und verbreiten sich durch den Erdkörper. Im Gestein des Erdmantels breiten sie sich schneller aus als in der Erdkruste. Durch die Wurzel der Alpen laufen sie also auch langsamer als durch das umgebende Gestein. Das enge Netz des Alp Array erlaubt es, die Informationen, die in den Oberflächenwellen enthalten sind, ebenfalls detailliert auszuwerten.
Erkenntnisse zur Dynamik der Kontinentalplatten
Über die Kenntnis des Untergrunds der Alpen hinaus erhoffen sich die am Projekt beteiligten Forscherinnen und Forscher Rückschlüsse auf die Dynamik der Kontinentalplatten Afrikas und Europas, deren Kollision zur Bildung der Alpen geführt hat. „Nach der gängigen Auffassung taucht Europa unter die adriatische Platte ab“, erläutert Kasper Fischer, „aber ganz so einfach ist das nicht. Vielleicht ist es auch umgekehrt, oder an verschiedenen Stellen unterschiedlich.“ Mehr Wissen über den Untergrund in dieser Region erlaubt dann möglicherweise auch Rückschlüsse auf Strömungen im Erdmantel und die genauen Folgen der Bewegungen der Kontinente.
Initiative Alp Array
Die europäische Initiative Alp Array ist eingebunden in das Schwerpunktprogramm 2017 „4D-MB – Gebirgsbildungsprozesse in vier Dimensionen“, das die Deutsche Forschungsgemeinschaft fördert. Mehr als 50 Einrichtungen aus 18 Ländern sind zurzeit daran beteiligt.
Wissenschaftliche Ansprechpartner:
Dr. Kasper Fischer
Institut für Geologie, Mineralogie und Geophysik
Fakultät für Geowissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 27574
E-Mail: kasper.fischer@rub.de
Weitere Informationen:
http://news.rub.de/wissenschaft/2018-10-31-seismologie-wie-die-alpen-von-unten-a… ausführlicher Beitrag in Rubin
Quelle: idw
Eine Tasse Kaffee oder Tee am Tag fördert die Sportlichkeit
Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann
Zu müde oder zu energielos für sportliche Aktivitäten? Wissenschaftler der University of Queensland haben herausgefunden, dass Tee oder Kaffee helfen können, in Schwung zu kommen. Frauen, die täglich nur eine Tasse davon trinken, sind häufig aktiver als solche, die darauf verzichten.
Eine Studie der School of Human Movement and Nutrition Sciences der University of Queensland ergab, dass Frauen, die eine oder zwei Tassen Tee oder Kaffee pro Tag trinken, häufiger das empfohlene Level an moderatem bis intensivem Sport absolvieren als jene, die diese Getränke seltener konsumieren.
Dr. Tina Skinner sagt, der Koffeinkonsum durch Kaffee und Tee kann sportliche Aktivitäten von Frauen im mittleren Alter fördern, weil er Müdigkeit und Energielosigkeit reduziert.
„Sportliche Aktivität ist wichtig, um gesund alt zu werden. Müdigkeit und Energielosigkeit halten mittelalte bis alte Frauen oft davon ab, das notwendige Pensum zu schaffen“, so Dr. Skinner.
„Der Konsum von dem natürlich und reichlich in Kaffee und Tee vorkommenden Alkaloid Koffein wurde schon mit verschiedenen gesundheitlichen Nutzen in Verbindung gebracht, etwa einem reduzierten Anstrengungsgefühl bei Bewegung und einer selbstgewählten erhöhten Intensität von sportlichen Übungen“, sagt Dr. Skinner. „Koffein wird auch damit in Verbindung gebracht, das Risiko für Typ-2-Diabetes, Demenz und einige Krebsarten zu reduzieren“.
In der Studie wurden die Gewohnheiten von 7.580 Frauen untersucht, die zwischen 1946 und 1951 geboren wurden und an einer australischen Langzeitstudie zur Frauengesundheit teilnehmen. Die Teilnehmerinnen wurden gebeten, nicht nur ihren durchschnittlichen Tee- und Kaffeekonsum der letzten zwölf Monate zu dokumentieren, sondern auch ihr Bewegungs- und Sportverhalten aus der Vorwoche zu erfassen.
„Kaffee- und Teetrinkerinnen fühlen sich seltener müde und haben mehr Energie“, sagt Dr. Skinner. „Für diejenigen, die eine oder zwei Tassen Kaffee am Tag trinken, ist die Wahrscheinlichkeit 17 Prozent höher, dass sie das empfohlene Level an Bewegung erreichen. Bei denen, die ein bis zwei Tassen Tee am Tag trinken, lag der Wert bei 13 bis 26 Prozent. Sportliche Aktivität ist in jedem Abschnitt des Lebens wichtig. Besonders bei Menschen mittleren Alters sorgt sie für körperliche Funktionalität und Unabhängigkeit und hilft, das Risiko für Altersschwäche möglichst gering zu halten.“
Die Studie wurde im „International Journal of Environmental Reasearch and Public Health“ veröffentlicht.
Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Tel.: 030 209629593
Email: berlin@ranke-heinemann.de
oder
Dr Tina Skinner
+61 7 3346 8810
Email: t.skinner@uq.edu.au
Dani Nash, UQ Communications
Tel.: +61 7 3346 3035
Email: dani.nash@uq.edu.au
Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.
Weitere Informationen:
https://www.ranke-heinemann.de
Quelle: idw
Bio-Sprit aus dem Container
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Aus organischen Abfällen, die bisher nicht verwertet wurden, lässt sich Bio-Sprit gewinnen. Eine Technologie dafür haben Forscherinnen und Forscher im EU-Projekt BIOGO entwickelt.
Mehr als vier Milliarden Tonnen Rohöl werden jedes Jahr gefördert. Strom aus Wind-, Solar- und Wasserkraftwerken reicht nicht aus, um fossile Energieträger zu ersetzen. Damit lässt sich im günstigsten Fall der Energiebedarf aller Elektroautos decken und der Wasserstoff für Fahrzeuge mit Brennstoffzellen herstellen. Doch dann fehlt immer noch Benzin für die Verbrennungsmotoren, die noch Jahrzehnte in Betrieb sein werden. Eine nachhaltige Mobilität ist nur möglich, wenn es gelingt, Benzin durch alternative Treibstoffe zu ersetzen.
Eine Technologie zur Erzeugung eines solchen ökologisch unbedenklichen Bio-Sprits haben Wissenschaftlerinnen und Wissenschaftler am Fraunhofer-Institut für Mikrotechnik und Mikrosysteme IMM zusammen mit zwölf Forschungsgruppen aus sieben Ländern im EU-Projekt BIOGO entwickelt. Die Zutaten für den neuen Treibstoff kommen aus dem Wald: »Holzabfälle und Baumrinden sind europaweit in großen Mengen verfügbar, werden bisher aber kaum genutzt. Das macht sie zu einem idealen Rohstoff – man muss sie nicht extra anbauen und tritt daher auch nicht in Konkurrenz zur Nahrungsmittelproduktion«, erklärt Prof. Gunther Kolb vom Fraunhofer IMM, der das EU-Projekt koordiniert hat. Die Nutzung der Holzabfälle ist zudem klimaneutral: Verwandelt man sie in einen Treibstoff und verbrennt diesen, so wird nur Kohlendioxid freigesetzt, das die Bäume der Atmosphäre zuvor beim Wachsen entzogen haben. Es gelangen daher keine zusätzlichen Treibhausgase in die Atmosphäre. Und dann kann der Treibstoff aus Holzabfällen überall hergestellt werden, wo Bäume wachsen. Man muss ihn nicht – wie Erdöl – von der Quelle erst zur Raffinerie und zu den Tankstellen transportieren. »Ein wichtiger Baustein des BIOGO-Konzepts ist eine dezentrale Produktion«, betont Kolb. »Um dies zu realisieren, haben wir mobile Produktionseinheiten entwickelt, die sich in Containern unterbringen und dort installieren lassen, wo sie gerade gebraucht werden.«
Mobile Produktionseinheiten
Der Prototyp der neuen Anlage zur Gewinnung von Bio-Sprit steht auf dem Hof hinter dem Fraunhofer-Institut: In dem weißen Container werden Abfallprodukte der Holzindustrie in hochwertiges Benzin verwandelt. »Ziel des BIOGO-Projekts war es, eine Anlage zu entwickeln, die sich in einen 40-Fuß-Container mit den Standardmaßen 12 mal 3 mal 3 Metern unterbringen lässt, der alle Verfahrens- und Prozessschritte beinhaltet«, erläutert Kolb das Ergebnis der vierjährigen intensiven Forschungs- und Entwicklungsarbeit. »Gleichzeitig sollte das Herstellungsverfahren möglichst ökologisch und ressourcenschonend sein.«
In einer ersten Prozessstufe, die von dem italienischen Unternehmen Spike Renewables entwickelt wurde, erhitzt man die Holzreste, bis sich ein dunkles, zähflüssiges Pyrolyseöl bildet. Dieses lässt sich in der mobilen Anlage weiterverarbeiten. Die Reaktionskammern hierfür, die Mikroreaktoren, haben die Forschenden am Fraunhofer-Institut in Mainz entwickelt. Der erste Reaktor verwandelt das Pyrolyseöl unter Zufuhr von Wärme, Luft und Wasserdampf in Synthesegas. Aus dem wird im zweiten Schritt Methanol gewonnen. Entzieht man diesem den Sauerstoff, entsteht synthetisches Benzin. »Die Herausforderung lag darin, den Prozess so zu optimieren, dass am Ende ein Treibstoff herauskommt, der sich chemisch nicht von Normalbenzin unterscheidet«, berichtet Kolb.
Nanokatalysatoren sparen Ressourcen
Um die chemischen Abläufe zu beschleunigen, werden Katalysatoren benötigt. Für deren Herstellung braucht man bisher große Mengen Edelmetall und seltene Erden. Im BIOGO-Projekt haben die Wissenschaftlerinnen und Wissenschaftler der Firma Teer Coatings eine Methode entwickelt, mit der sich winzige Cluster von katalytisch aktiven Substanzen auf Oberflächen aufbringen lassen. Auf diese Weise entstehen leistungsfähige und ressourcenschonende Nanokatalysatoren.
Der letzte Schritt bei der Entwicklung der mobilen Produktionsanlage bestand darin, die gesamte Technik in einen Container zu integrieren, der alle Anforderungen an Sicherheit und Brandschutz erfüllt. Das Know-how für den Bau der Anlage steuerten Fraunhofer-Forschende und der Partner Microinnova Engineering aus Österreich bei. Die Containertechnik, EcoTrainer@, stammt von der Firma Evonik. Der Prototyp ist bereits so konzipiert, dass auch größere Reaktoren darin Platz finden. In den kommenden Jahren wollen die BIOGO-Teams die Anlage weiterentwickeln. Ziel ist es, bis zu 1000 Liter Ökotreibstoff am Tag zu produzieren.
Gibt es Benzin also schon bald nicht mehr an der Tankstelle, sondern im Wald am Container? Kolb antwortet: »Das hängt von den politischen Rahmenbedingungen ab. Bei den derzeitigen Ölpreisen ist die neue Technik nicht konkurrenzfähig. Entscheidend wird sein, ob wir in Europa wirklich von den fossilen Rohstoffen wegkommen möchten und dafür bereit sind, Ökotreibstoffe von der Steuer zu befreien oder ihre Herstellung zu subventionieren.«
Das Know-how für die Gewinnung von nachhaltigem Treibstoff ist dank BIOGO vorhanden. Da der Holz-Sprit dieselben chemischen Eigenschaften hat wie klassisches Benzin, kann man ihn zumischen oder nach und nach komplett auf den neuen Rohstoff umsteigen. Bis es so weit ist, möchten das Mainzer Forscherteam die dezentral und flexibel einsetzbaren Container auch für andere Anwendungen nutzen: Das Prinzip der Mini-Fabrik ist etwa für die chemische und die petrochemische Industrie hochinteressant. So könnten Chemieunternehmen Container nutzen, um ihre Prozesse zu flexibilisieren und schneller auf Kundenwünsche zu reagieren.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/november/bio-sprit-…
Quelle: idw
Krähen stellen Werkzeuge aus mehreren Komponenten her
Dr. Sabine Spehn Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Ornithologie
Ein internationales Team von Wissenschaftlern des Max-Planck-Instituts für Ornithologie in Seewiesen und der Universität Oxford haben herausgefunden, dass Geradschnabelkrähen mehrere, für sich alleine zu kurze Elemente kombinieren, um an einen Leckerbissen heran zu kommen – eine Fähigkeit, die bisher nur bei Menschen und Menschenaffen beobachtet wurde. Die Krähen können also neuartige Probleme schnell und flexibel lösen. Welche Vorgänge dabei im Gehirn ablaufen, ist jedoch noch unklar.
Das Verbinden mehrerer einzelner Komponenten zu einem neuen, funktionsfähigen Werkzeug wurde bisher nur bei Menschen und Affen beobachtet. Anthropologen sehen die Entstehung dieser Fähigkeit bei unseren Vorfahren als wichtigen Schritt in der Evolution des menschlichen Gehirns. Auch in der menschlichen Indiviualentwicklung treten ähnliche Fähigeiten erst spät auf. Babys beginnen ungefähr im Alter von 18 Monaten, Werkzeuge zu benutzen. Jedoch fangen sie erst im Alter von ca. fünf Jahren an, neue Werkzeuge zu erfinden, um ein bestimmtes Problem zu lösen. Das Gehirn muss sich die neuen Objekte dafür vermutlich zunächst in Gedanken vorstellen und dann die Ausführung planen. Archäologische Funde deuten darauf hin, dass Verbundwerkzeuge erst spät in der kulturellen Entwicklung des Menschen aufgetaucht sind und möglicherweise mit der Entwicklung von komplexem Bewusstsein und Sprache einhergehen.
Für geschickten Werkzeuggebrauch sind auch Geradschnabelkrähen (Corvus moneduloides) bekannt. Wissenschaftler um Auguste von Bayern vom Max-Planck-Institut für Ornithologie Seewiesen und Alex Kacelnik von der Universität Oxford wollten nun wissen, ob die Krähen auch in der Lange sind, Verbundwerkzeuge herzustellen, um an Futter außer Reichweite zu gelangen.
Dazu haben sie in ihrer Studie, die heute in der Fachzeitschrift Scientific Reports erschien, acht Geradschnabelkrähen eine Kiste präsentiert, die diese zuvor noch nie gesehen hatten. Sie enthielt einen kleinen Behälter mit einem Leckerbissen, der hinter einer durchsichtigen Tür mit einem Spalt für die Schnäbel nicht zu erreichen war. Zu Beginn der Versuchsreihe stand den Tieren ein langer Stab zur Verfügung, den sie durch den Spalt in die Kiste stecken konnten, um damit das Futter durch eine seitliche Öffnung heraus zu schieben. Alle acht Vögel schafften das ohne Schwierigkeiten. Dann platzierten die Wissenschaftler das Futter nach hinten in die Box und stellten den Krähen verschiedene längliche und hohle Elemente zur Verfügung, die diese zusammenstecken konnten. Für sich alleine waren sie aber zu kurz, um bis zum Futter zu reichen.
Am Ende des Experiments mit fünf Schwierigkeitsstufen blieb immerhin noch ein Vogel übrig, der Werkzeuge aus drei und sogar vier Einzelteilen bastelte. „Dieses Ergebnis ist bemerkenswert, denn die Geradschnabelkrähen bekamen keine Hilfe und auch kein Training, um diese Werkzeuge zu bauen, sie haben ganz alleine herausgefunden, wie sich das Problem lösen lässt“, sagt Auguste von Bayern, Erstautorin der Studie.
Die zugrundeliegende mentale Verarbeitung konnten die Forscher mit diesem Versuch jedoch nicht klären. Alex Kacelnik von der Universität Oxford sagt: „Die Ergebnisse zeigen, dass diese Tiere ausgeprägte flexible Fähigkeiten haben, mit denen sie in der Lage sind, neuartige Probleme schnell zu lösen. Eventuell simulieren sie das Problem, in dem sie mögliche Abläufe im Gehirn wieder und wieder durchspielen. Haben sie eine funktionierende Möglichkeit entdeckt, führen sie diese dann aus.“
Die Tatsache, dass Geradschnabelkrähen Verbundwerkzeuge erstellen können, bedeutet aber nicht, dass die zugrunde liegenden Prozesse im Gehirn die gleichen sein müssen, wie bei Menschen oder Menschenaffen. Für die Wissenschaftler eröffnet sich aber damit eine Möglichkeit, die gedanklichen Prozesse, die für das Erfinden und den Bau von neuen Werkzeugen nötig sind, weiter zu erforschen.
Wissenschaftliche Ansprechpartner:
Dr. Auguste von Bayern
Max-Planck-Institut für Ornithologie, Seewiesen
Email: avbayern@orn.mpg.de
Telefon: +49 178 555 333 9
Originalpublikation:
A.M.P. von Bayern, S. Danel, A.M.I. Auersperg, B. Mioduszewska, A. Kacelnik. Compound tool construction by New Caledonian crows. Scientific Reports, 24. Oktober 2018.
www.nature.com/articles/s41598-018-33458-z (frei verfügbar)
Weitere Informationen:
https://www.youtube.com/watch?v=EryZPmOxwC0
Quelle: idw
Frauen an der Spitze bringen Teams zu besseren Leistungen
Mark Fallak Presse und Kommunikation
IZA – Institut zur Zukunft der Arbeit
Arbeitsgruppen unter weiblicher Leitung erzielen bessere Prüfungsergebnisse. Trotzdem beurteilen männliche Teammitglieder die Führungsleistung von Frauen schlechter. Das sind die Ergebnisse einer Studie, die das Bonner Forschungsinstitut zur Zukunft der Arbeit (IZA) jetzt veröffentlicht hat. Grundlage war ein breit angelegtes Teamwork-Feldexperiment an einer italienischen Universität.
Das Experiment umfasste 430 Studierende, die sich freiwillig entschieden hatten, einen Teil ihrer Prüfung als Teamarbeit zu absolvieren. Die Zusammensetzung der Dreierteams und die Führungsrolle wurden ausgelost. So konnten die Forscher den Effekt unterschiedlicher Geschlechterkonstellationen in einem realen Arbeitsumfeld messen. Bislang waren Teamwork-Experimente meist nur unter Laborbedingungen durchgeführt worden.
Die Teamleitungen hatten die Aufgabe, gemeinsame Arbeitstreffen zu organisieren und die Vorbereitung auf die Abschlussprüfung zu koordinieren. Bei gutem Abschneiden ihres Teams wurden sie für ihren Mehraufwand mit Extrapunkten belohnt.
Trotz gleichem Zeiteinsatz erzielten die frauengeführten Teams signifikant bessere Abschlussnoten. Ausschlaggebend waren die individuellen Leistungen der Teammitglieder. Insbesondere Frauen liefen unter weiblicher Führung zu besserer Form auf. Dieser Effekt war den Teamleiterinnen gar nicht bewusst – sie beurteilten ihre eigene Führungsleistung nicht besser als männliche Teamleiter.
Die Teamleiterinnen selbst erbrachten hingegen schwächere Prüfungsleistungen als weibliche Teammitglieder. Die Forscher vermuten, dass Frauen mehr Zeit zum Wohle der Gruppe investierten, etwa durch betreuende und koordinierende Tätigkeiten, auch wenn dabei ihr eigenes Lernpensum zu kurz kam. Dafür spricht auch, dass Teamleiterinnen ihre Aufgabe als besonders zeitintensiv empfanden und das Engagement der anderen Teammitglieder kritischer beurteilten als Männer.
Die Teilnehmerbefragung im Anschluss an das Experiment ergab außerdem, dass die weiblichen Teamleitungen von männlichen Teammitgliedern tendenziell schlechter bewertet wurden. „Männer scheinen immer noch Vorbehalte gegen weibliche Führung zu haben, obwohl – oder vielleicht gerade weil – diese sich als besonders effektiv erweisen kann“, sagt IZA-Fellow Vincenzo Scoppa von der Universität Kalabrien, der die Studie gemeinsam mit Maria De Paola (ebenfalls Universität Kalabrien und IZA) sowie Francesca Gioia von der Universität Mailand verfasst hat.
Den Autoren zufolge profitierten frauengeführte Teams im untersuchten Beispiel vom uneigennützigen Engagement der Teamleiterinnen sowie deren Organisations- und Motivationstalent. Diese „typisch weiblichen“ Eigenschaften gewännen in modernen, von Kooperation geprägten Arbeitsumgebungen zunehmend an Bedeutung. In anderen Kontexten könnten jedoch auch „typisch männliche“ Führungseigenschaften wie Selbstbewusstsein und Durchsetzungsvermögen durchaus vorteilhaft sein, heißt es in der Studie.
Download des IZA-Forschungspapiers (nur in englischer Sprache verfügbar):
Maria De Paola, Francesca Gioia, Vincenzo Scoppa:
„Teamwork, Leadership and Gender“
IZA Discussion Paper No. 11861
http://ftp.iza.org/dp11861.pdf
Pressekontakt:
Mark Fallak
Head of Communications, IZA
E-Mail: fallak@iza.org
Tel.: (0228) 3894-223
Quelle: idw
Hohe Akzeptanz für Seilbahnen in Innenstädten
Michael Brauns Pressestelle
Universität der Bundeswehr München
Wie können Städte den weiter steigenden Verkehr besser in den Griff bekommen?
Das Transportmittel der Zukunft für Innenstädte könnte die Seilbahn sein. Metropolen wie Ankara, La Paz oder Portland nutzen sie bereits als Verkehrsmittel. In München steht dies auch zur Diskussion. Leise, umweltfreundlich und billiger als die U-Bahn.
Der Verkehrsexperte Prof. Klaus Bogenberger von der Universität der Bundeswehr München untersuchte mit seinem Team die Akzeptanz von urbanen Seilbahnen bei den Einwohnern im Großraum München.
Die Umfrage wurde vom 02.05.2018 bis 15.06.2018 online durchgeführt. Insgesamt haben mehr als 700 Personen an der Umfrage teilgenommen, von denen 70% angegeben haben, in München zu wohnen oder zu arbeiten. Zwischen 9 und 86 Jahren waren alle Altersgruppen vertreten. Das Durchschnittsalter der Teilnehmer liegt bei 40,7 Jahren.
Eine große Mehrheit von 87% gab an urbane Seilbahnen nutzen zu wollen. 7,3% der Befragten gaben an, im Allgemeinen nicht dazu bereit zu sein den öffentlichen Nahverkehr zu nutzen. Zudem gaben weitere 5,7% an, im Allgemeinen nicht bereit zu sein eine urbane Seilbahn zu nutzen.
Als Hauptgründe für die Ablehnung einer Seilbahn wurden die Zerstörung des Stadtbilds sowie Angst (Höhenangst und Platzangst) genannt. Den übrigen Teilnehmern wurden verschiedene Szenarien vorgestellt, in denen sie sich zwischen zwei Routenvorschlägen entscheiden müssten: Eine mit Seilbahn und eine ohne. Die Szenarien unterschieden sich neben den Transportmodi auch in Fahrtzeit und in Anzahl der Umstiege.
Lieber Seilbahn als Bus
Im Augenblick wird der Streckenabschnitt zwischen Oberwiesenfeld und Studentenstadt von verschiedenen Bussen bedient. Im direkten Vergleich zwischen einer Strecke mit dem Bus oder mit einer Seilbahn haben 85 % der Teilnehmer angegeben, dass sie bei gleicher Reisezeit eine Seilbahnfahrt einer Busfahrt vorziehen würden. Selbst wenn der Bus bis zu sechs Minuten schneller ist als die Seilbahn, würden die Teilnehmer mit einer Wahrscheinlichkeit von 50 % die Seilbahn bevorzugen.
Knapp ein Drittel (32,7%) der Teilnehmer gaben an, dass sie sogar einen zusätzlichen Umstieg (von Seilbahn auf Tram oder U-Bahn) in Kauf nehmen würden, um eine Busfahrt bei gleicher Reisedauer zu vermeiden.
Wenn durch die Seilbahnfahrt ein Umstieg vermieden werden kann (z.B. von U-Bahn zu U-Bahn, oder von Tram zu U-Bahn) würden bei gleicher Reisezeit 90,8% die Seilbahn bevorzugen. Bei einer Zeitdifferenz bis knapp 8 Minuten ist die Wahrscheinlichkeit, dass ein Fahrgast die Seilbahn nutzt gleich der Wahrscheinlichkeit, dass er eine Alternativroute wählt, bei der er von U-Bahn zu U-Bahn wechseln muss.
Universität der Bundeswehr München
Michael Brauns
Pressesprecher
Werner Heisenberg Weg 39
85577 Neubiberg
Tel.: 089/6004-2004
Fax: 089/6004-2009
Quelle: idw
Blutdruckgeräte im Test – oder: wer prüft eigentlich was?
Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga
Die Stiftung Warentest hat heute die Ergebnisse des neuen Tests von Blutdruckmessgeräten veröffentlicht. Von den getesteten Geräten wurde nur ein Gerät für gut befunden. Die Messgenauigkeit der geprüften Geräte wurde maximal mit befriedigend eingestuft. Die Deutsche Hochdruckliga verwendet ein anderes Verfahren zur Bewertung der Qualität von Blutdruckmessgeräten. Beide Verfahren sind nicht vergleichbar. Dennoch begrüßt die Hochdruckliga die Veröffentlichung der Stiftung Warentest. „Dadurch wird die Blutdruckmessung in den Fokus der öffentlichen Wahrnehmung gerückt.“
Die Stiftung Warentest ist die bekannteste gemeinnützige Verbraucherorganisation in Deutschland. Sie testet und vergleicht verschiedene Produkte und hat sich damit deutschlandweit einen Namen gemacht. Heute wurden die Ergebnisse eines neuen Tests von Blutdruckmessgeräten zur Selbstmessung veröffentlicht [1] – die Testsieger sind jedoch nicht deckungsgleich mit den Geräten, die das Prüfsiegel der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention erhalten haben [2]. Was viele nicht wissen: Die Deutsche Hochdruckliga prüft auf Antrag der Gerätehersteller Blutdruckmessgeräte und verleiht ein Prüfsiegel für deren Messgenauigkeit. Die Tests finden durch unabhängige Prüfinstitute statt, welche dem Auftraggeber nicht benannt werden. Das Prüfinstitut muss bei seiner Validierung detaillierte Vorgaben bei der Prüfungsvorbereitung, Prüfungsdurchführung und Prüfungsauswertung beachten [3].
Wie lässt sich nun das Prüfsiegel der Deutschen Hochdruckliga mit dem Test der Stiftung Warentest vergleichen? Ganz einfach, gar nicht: Beide Organisationen testen anders und letztlich auch etwas Anderes. Die Deutsche Hochdruckliga testet einzig und allein die Messgenauigkeit, die Stiftung Warentest bewertet aber zusätzlich auch die Handhabung und Störanfälligkeit. Die Handhabung fließt sogar mit 30% in das Gesamtergebnis ein. Dazu zählen die Verständlichkeit der Gebrauchsanleitung, Anzeigen und Bedienelemente und die Batterie-/ bzw. Akkulaufzeit. Zur Störanfälligkeit gehört beispielsweise ein Falltest aus Tischhöhe. Es wird geschaut, ob das Gerät nach zwölf Stürzen aus Tischhöhe noch korrekt misst.
„All das steht nicht im Fokus unserer Testung, zumal viele dieser Dinge auch subjektiv sind. Der eine Anwender findet die eine Bedienoberfläche nutzerfreundlich, der andere präferiert eine andere. Für den anderen ist ein Messwertspeicher für zwei Personen wichtig. Der andere trägt die Werte sofort nach der Messung graphisch in sein Blutdrucktagebuch ein. Warum in einen Test einfließen muss, wie viel Schaden das Gerät nimmt, wenn es vom Tisch fällt, ist schwer nachzuvollziehen, solange vom Gesetzgeber keine Vorgaben hierzu kommen.“, erklärt Professor Bernhard Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention „Für uns Mediziner ist die Messgenauigkeit das wichtigste Kriterium. Bei näherer Betrachtung liegen die von der Stiftung Warentest geprüften Oberarmgeräte bei der Messgenauigkeit gar nicht so weit auseinander. Das deckt sich mit unseren eigenen Untersuchungen. Wir verzichten daher bewusst auf eine Benotung der von uns validierten Geräte. Das macht keinen Sinn. Geräte die bei uns nicht gelistet sind, wurden entweder nicht validiert bzw. wurden nicht erfolgreich validiert [4].
Die Hochdruckliga kritisiert auch, dass diese „weichen Kriterien“ vom „harten Kriterium“ der Messgenauigkeit ablenken. Ein Gerät, das nicht ganz so genau misst, aber evtl. einen Sturz vom Tisch gut übersteht und vom Tester als sehr bedienfreundlich eingestuft wird, könnte im Gesamtergebnis noch relativ zufriedenstellend abschneiden. Umgekehrt ist es möglich, dass messgenaue Geräte wegen einer schlechteren Beurteilung der Handhabung und Störanfälligkeit ebenfalls nur im Mittelfeld landen.
„Das ist am Ende auch der Grund, warum beide Tests nicht miteinander vergleichbar sind. Stellt man beide Tests gegenüber, so ist es, als vergleiche man Äpfel mit Birnen – beide Prüfverfahren haben unterschiedliche Kriterien“, so Professor Bernd Sanner, Wuppertal, Mitglied des Vorstands der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention und Sprecher der Sektion Hochdruckdiagnostik. Es kommt aber noch etwas dazu: Auch wenn man Äpfel mit Äpfeln vergleicht und nur die Messgenauigkeit beider Tests betrachtet, erkennt man Unterschiede bei der Erhebung. Aus Sicht der Deutschen Hochdruckliga sind mindestens 96 Personen erforderlich, um ein hinreichend sicheres Urteil abzugeben [5]. Von der Stiftung Warentest wurden die Geräte an lediglich 32 Probanden getestet, also deutlich weniger. Je grösser die Anzahl der Probanden, desto aussagekräftiger ist das Ergebnis. Statistiker sprechen auch vom Gesetz der großen Zahlen. Aus Sicht der Hochdruckliga wird auch der Patientensimulator abgelehnt. Es macht keinen Sinn, die Beschaffenheit der menschlichen Gefäße sowie das Pump- und Druckverhalten des Herzens künstlich nachzubilden. Die Messgenauigkeit von Blutdruckmessgeräten sollte unter realen Bedingungen an einer ausreichend großen Probandenzahl validiert werden.
„Dennoch sind wir froh, dass die Stiftung Warentest die Testung von Blutdruckgeräten durchführt. Die z.T. etwas unterschiedlichen Einstufungen einiger Geräte lassen sich im Großen und Ganzen mit den unterschiedlichen Messkriterien erklären, die angelegt wurden. Jeder Verbraucher muss für sich entscheiden, welche Prüfkriterien für ihn von Bedeutung sind. Wir sehen uns auch nicht im Prüfwettbewerb mit der Stiftung Warentest, sondern freuen uns darüber, dass sie auch Blutdruckmessgeräte testet. Denn dadurch wird die Blutdruckmessung in den Fokus der öffentlichen Wahrnehmung gelenkt. Das bei weitem größte Problem ist schließlich, dass auch heute noch zu wenig Menschen ihre Blutdruckwerte kennen und selbst Menschen mit zu hohen Werten nicht regelmäßig unter standardisierten Bedingungen ihren Blutdruck messen“, erklärt Professor Krämer.
Um vergleichbare Messwerte zu erhalten, ist die regelmäßige Messung mit der passenden Manschettengröße nach fünf minütiger Pause wichtig. Nur so lassen sich die individuellen Messwerte auch mit den Normwerten vergleichen. Bei der Selbstmessung sollte der obere (systolische) Wert nicht über 135 mm Hg liegen bzw. der untere (diastolische) Wert nicht unter 85 mm Hg. Morgens sollte vor der etwaigen Einnahme von blutdrucksenkenden Medikamenten gemessen werden. Der Messarm sollte nicht durch Kleidung oder Schmuck abgeschnürt sein. Zur Messung sollte man neben einem Tisch auf einem Stuhl sitzen und beide Beine auf den Boden stellen. Der Oberarm liegt bei der Oberarmmessung entspannt auf dem Tisch auf bzw. alternativ wird der Arm mit dem Handgelenksgerät entspannt auf Herzhöhe gehalten. Das geht am besten, wenn ein Kissen untergelegt wird. Dreißig Minuten vor der Messung sollten körperliche Aktivitäten vermieden werden. Während der Messung sollte man sich nicht bewegen und auch nicht sprechen. Wichtig ist auch, zweimal im Minutenabstand zu messen und den zweiten (meist niedrigeren) Wert aufzuschreiben. Bei unregelmäßigen Herzschlägen wird empfohlen, dreimal im Minutenabstand zu messen und den Durchschnitt zu notieren [6].
Wissenschaftliche Ansprechpartner:
Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629
Originalpublikation:
[4] The German Hypertension League (Deutsche Hochdruckliga) Quality Seal Protocol for blood pressure-measuring devices: 15-year experience and results from 105 devices for home blood pressure control.
Tholl, Ulrich; Lüders, Stephan; Bramlage, Peter; Dechend, Ralf; Eckert, Siegfried; Mengden, Thomas; Nürnberger, Jens; Sanner, Bernd; Anlauf, Manfred.
Blood Pressure Monitoring: August 2016 – Volume 21 – Issue 4 – p 197-205.
doi: 10.1097/MBP.0000000000000186
Weitere Informationen:
http://[1] https://www.test.de/shop/test-hefte/test_11_2018/
http://[2] https://www.hochdruckliga.de/messgeraete-mit-pruefsiegel.html
http://[3] https://www.hochdruckliga.de/tl_files/content/dhl/downloads/DHL-Anforderungen-Pr…
http://[5] https://www.hochdruckliga.de/tl_files/content/dhl/downloads/DHL-XXXXX-16-Pru%cc%…
http://[6] www.blutdruckmessen-aber-richtig.de
Quelle: idw
Erwerbstätige im Rentenalter arbeiten nur zum Teil des Geldes wegen
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Als Grund für eine Erwerbstätigkeit im Rentenalter geben Befragte einer repräsentativen Studie überwiegend soziale und persönliche Motive an: Jeweils rund 90 Prozent der erwerbstätigen Rentner haben Spaß bei der Arbeit, brauchen den Kontakt zu anderen Menschen oder wünschen sich weiterhin eine Aufgabe. Mehr als die Hälfte der Befragten nennt allerdings auch finanzielle Gründe für die Erwerbsarbeit. Das gilt insbesondere für Frauen, die nach eigenen Angaben häufiger als Männer auf einen Hinzuverdienst zur Altersrente angewiesen sind. Das geht aus einer aktuellen Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.
In Deutschland ist weit mehr als ein Viertel aller Rentnerinnen und Rentner in den ersten drei Jahren nach Übergang in eine Altersrente erwerbstätig: Bei den Frauen beträgt der Anteil 31 Prozent, bei den Männern 28 Prozent.
Eine Beschäftigung bis zum Renteneintritt steigert die Wahrscheinlichkeit, auch nach dem Übergang in die Altersrente erwerbstätig zu sein. Bei den bis zuletzt erwerbstätigen Frauen ist diese Wahrscheinlichkeit fast doppelt so hoch wie bei den vormals nicht erwerbstätigen Frauen (41 Prozent gegenüber 26 Prozent). Bei den Männern liegen die entsprechenden Anteile bei 31 bzw. 24 Prozent.
Eine gute finanzielle Lage nach dem Renteneintritt geht bei Frauen wie bei Männern mit einer höheren Erwerbstätigenquote im Rentenalter einher. Während 29 Prozent der befragten Rentnerinnen bzw. 26 Prozent der befragten Rentner mit einem Einkommen unter 1.000 Euro erwerbstätig sind, erhöhen sich die Werte bei einem Einkommen von 2.500 Euro und mehr auf 58 bzw. 59 Prozent. Das zusätzlich erwirtschaftete Erwerbseinkommen ist bei den ermittelten Einkommensgrenzen von 1.000 bzw. 2.500 Euro nicht enthalten.
Unter den nicht erwerbstätigen Rentenbeziehern würden 13 Prozent aller Frauen und 20 Prozent der Männer gerne eine Erwerbsarbeit aufnehmen. „Politik und Betriebe sollten mit flexiblen Regelungen günstige Rahmenbedingungen schaffen, damit Erwerbswünsche im Rentenalter besser realisiert werden können“, heißt es in der Studie. So könnte beispielsweise in Tarifverträgen generell auf die Festlegung einer automatischen Beendigung des Arbeitsverhältnisses mit Erreichen der Regelaltersgrenze verzichtet werden.
Die IAB-Studie beruht auf den Angaben von rund 1.000 Personen im Alter von 58 bis 69 Jahren.
Weitere Informationen:
http://doku.iab.de/kurzber/2018/kb2418.pdf
Quelle: idw
Biologisch abbaubares Plastik
Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
Forschungsprojekt der TH Nürnberg generiert eine Alternative für herkömmliche Kunststoffe
Kunststoffe sind aus dem alltäglichen Leben nicht mehr wegzudenken. Die Auswirkungen sind jedoch fatal, wenn sie in die Kreisläufe der Umwelt gelangen. Prof. Dr. Stephanie Stu-te von der Fakultät Verfahrenstechnik der TH Nürnberg forscht an biobasiert hergestellten Kunststoffen, die biologisch abbaubar sind. In ihrem Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Polybuttersäure“ entwickelt sie ein kontinuierli-ches und damit wirtschaftlicheres Herstellungsverfahren für den Bio-Kunststoff Polybuttersäure. Die Staedtler-Stiftung fördert das Projekt mit 40.000 Euro.
Kunststoffe finden sich in allen Lebensbereichen. Für die Herstellung verbraucht die Industrie wertvolle Ressourcen wie Erdöl. Besonders problematisch ist die Verwendung von Kunststoffen für Verpackungen mit einmaliger Nutzung. Der Plastikmüll landet oft in der Umwelt. Ein Resultat daraus ist die größte Müllinsel im Pazifik, die 80.000 Tonnen Plastik umfasst und mit 1,6 Millionen Quadratkilometern mehr als viermal so groß wie Deutschland ist. Das Folgenschwere daran ist, das beispielsweise PET-Flaschen rund 450 Jahre brauchen, bis sie im Wasser zerfallen und als Mikroplastik auf den Meeresgrund sinken.
Die Bundesregierung zählt in ihrer „Hightech-Strategie 2020 für Deutschland. Ideen. Innovation. Wachstum.“ die Biotechnologie zu den Schlüsseltechnologien für eine zukunftsfähige deutsche Wirtschaft. Vor diesem Hintergrund forscht Prof. Dr. Stephanie Stute von der Fakultät Verfahrenstechnik an der TH Nürnberg an biobasiert hergestellten Kunststoffen, die biologisch abbaubar sind. In ihrem Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Poly-buttersäure“ entwickelt sie ein kontinuierliches und damit wirtschaftlicheres Herstellungsverfahren für den Bio-Kunststoff Polybuttersäure (PHB). „Die Polybuttersäure ist ein farbloser Polyester und gilt als vielversprechendster Ersatz für petrochemische Polymere. Bisher sind die Herstellungskos-ten für diesen Bio-Kunststoff sehr hoch, weshalb die Industrie ihn noch nicht im großen Maßstab einsetzt“, so Prof. Dr. Stephanie Stute. Das derzeitige Herstellungsverfahren von Polybuttersäure durch Bakterien kann hinsichtlich der Produktivität noch deutlich verbessert werden.
Viele Bakterien-Arten lagern PHB als Speicherstoff in ihren Zellen ein. Um den Stoffwechselprozess der Bakterien bei der PHB-Synthese im großen Maßstab nutzen zu können, ist es erforder-lich, für die Anzucht der benötigten Bakterienzellen und für die nachfolgende PHB-Produktion un-terschiedliche Prozessbedingungen technisch zu realisieren. „Eine rasche Zellteilung und das da-mit verbundene mikrobiologische Wachstum sind nur bei einer optimalen Versorgung der Bakteri-enzellen mit Nährstoffen und Sauerstoff möglich. Für die Einlagerung von Polybuttersäure benöti-gen die Bakterien allerdings Mangelbedingungen“, erklärt Prof. Dr. Stephanie Stute. Der neue An-satz basiert auf zwei hintereinandergeschalteten Bioreaktoren, die kontinuierlich unter Zulauf von Nährstoffen betrieben werden. In der ersten Stufe herrschen optimale Wachstumsbedingungen. In der zweiten Stufe wird gezielt ein Nährstoffmangel eingestellt, so dass die Einlagerung von PHB in den Bakterien beginnt und durch den Zulauf ausgewählter Nährstoffe verstärkt wird. Die Bakterien bilden so große Mengen des Produkts. Am Auslauf des zweiten Bioreaktors trennt das Team von Prof. Dr. Stephanie Stute die Bakterienzellen vom Nährmedium ab und bereitet das Produkt PHB aus den Bakterienzellen auf. Das Bakterium C. necator lagert beispielsweise PHB von bis zu 80 Prozent der Biotrockenmasse ein und bietet damit das Potenzial zur Massenproduktion. Die Kos-ten für die benötigten Rohstoffe können einen Großteil der Gesamtkosten betragen, so dass die Nutzung von kostengünstigen industriellen Restströmen von großem Interesse ist. Pro Tonne her-gestelltem Biodiesel entstehen etwa 100 kg Rohglycerin, das die Industrie in Deutschland häufig nur gegen niedriges Entgelt verkaufen kann oder sogar kostenpflichtig entsorgen muss. Das Roh-glycerin steht daher in ausreichender Menge zur Verfügung, und hat das Potenzial die Produkti-onskosten des Bio-Kunststoffs erheblich zu reduzieren. Prof. Dr. Stephanie Stute generiert auf der Basis dieses Reststoffs ein wirtschaftliches Herstellungsverfahren für PHB, um dadurch biobasier-te und biologisch abbaubare Kunststoffe zu produzieren. Das Projekt „Biobasierte Herstellung des biologisch abbaubaren Bio-Kunststoffes Polybuttersäure“ wird mit 40.000 Euro von der Staedtler-Stiftung gefördert und markiert den Startpunkt der Forschungsarbeiten im Fachgebiet Bioverfah-renstechnik an der TH Nürnberg – ein Beitrag zu einer nachhaltigen und wissensbasierten Wirtschaftsform.
Quelle: idw
Von Antitranspirantien mit Aluminium bis Zahnpasta mit Zinksalzen: 50 Jahre Kosmetik-Kommission
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Externe, ehrenamtliche Sachverständige beraten das BfR zu wissenschaftlichen Fragen hinsichtlich der Inhaltsstoffe von kosmetischen Mitteln
Anlässlich des 50-jährigen Bestehens der Kosmetik-Kommission hat das Bundesinstitut für Risikobewertung (BfR) am 16. Oktober 2018 das Symposium „50 Jahre Kosmetik-Kommission: Wissenschaft im Dienste des Verbraucherschutzes“ veranstaltet. Auf ihrer Jubiläumssitzung befassten sich die Expertinnen und Experten mit wissenschaftlichen Fragen zur allergischen Reaktion der Haut auf kleinmolekulare Substanzen, wie sie in kosmetischen Mitteln enthalten sein können, mit hormonell wirksamen Substanzen in Sonnenschutzmitteln sowie mit Methoden zur Bestimmung des Lichtschutzfaktors von Sonnenschutzmitteln. „Die Themenauswahl zeigt, wie breit die Kommission fachlich aufgestellt und zusammengesetzt ist“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. Die Beratungsergebnisse und Empfehlungen der Kommission spiegeln den neuesten Wissensstand auf dem Gebiet der kosmetischen Mittel wider. „Ich freue mich, dass wir diesen exzellenten Sachverstand nun schon seit 50 Jahren nutzen können“, so Hensel weiter. 1968 tagte die Kommission für kosmetische Erzeugnisse – wie sie damals hieß – zum ersten Mal beim damaligen Bundesgesundheitsamt.
Aufgabe der Kommission ist es, sich mit aktuellen Fragen zu möglichen gesundheitlichen Risiken kosmetischer Mittel sowie der Regulation und Fortschreibung der EU-Kosmetik-Verordnung und ihrer Anlagen zu befassen. Auch im Krisenfall soll das Expertinnen- und Expertennetzwerk dem BfR wissenschaftlich beratend zur Seite stehen.
In diesem Jahr hat sich die Kosmetikkommission beispielsweise mit der Wirkung von Sonnenschutzmitteln befasst. Sie sind wegen ihrer schützenden Wirkung vor Hautkrebs wichtige Produkte. Es wurde diskutiert, ob der Zusatz von Entzündungshemmern wie Bisabolol die experimentelle Bestimmung des Lichtschutzfaktors verfälscht, weil diese Stoffe die Hautrötung nach Sonneneinstrahlung verzögern. Die Beratung ergab, dass diese Annahme unbegründet war.
In der Kosmetikkommission wurde auch beraten, ob zinkhaltige Mundhygiene-Produkte wie Mundwasser und Zahnpasta bei ihrer Verwendung zu einer zu hohen Zinkaufnahme führen könnte. Aus Sicht der daraufhin erfolgten Risikobewertung des BfR kann die regelmäßige und längerfristige Verwendung von zinkhaltigem Mundwasser für Erwachsene gesundheitlich bedenklich sein, wenn darin das gesetzliche Zinkkonzentrations-Maximum ausgeschöpft wird. Das BfR hat daraufhin empfohlen, die zugelassenen Höchstkonzentrationen von Zink in Mundwasser zu verringern und dass Zahnpasta, die gezielt für Kinder ausgelobt wird, zinkfrei sein sollte bzw. Produkte für Erwachsene entsprechend gekennzeichnet werden.
Allergien sind wegen des oft langen Hautkontaktes von Kosmetika auch nach 50 Jahren Kommissionsarbeit noch ein wichtiges Thema der Kommission. So hat sie sich z. B. gegen die Verwendung des Begriffs „hypoallergen“ in Kosmetikwerbung ausgesprochen, da dieser teilweise mit „löst keine Allergien aus“ gleichgesetzt wird, obwohl der Begriff tatsächlich nur beinhaltet, dass bei weniger Menschen Allergien auftreten.
Die Kommission hat das BfR auch zum Thema Aluminium in Antitranspirantien beraten und einen wichtigen Beitrag zu der Thematik geleistet. In seiner anschließenden Risikobewertung kam das BfR zu dem Ergebnis, dass die regelmäßige Benutzung eines aluminiumhaltigen Antitranspirants über Jahrzehnte hinweg möglicherweise zu einer Erhöhung der Aluminiumbelastung des Körpers führt, die zu einem späteren Zeitpunkt zu gesundheitlichen Beeinträchtigungen beitragen kann. Zur Abschätzung der Langzeitfolgen chronischer Aluminiumexpositionen fehlen dem BfR derzeit noch weitere wissenschaftliche Daten, um eine abschließende Risikobewertung durchführen zu können. Verbraucherinnen und Verbraucher können die Aluminiumaufnahme durch Antitranspirantien vor allem senken, indem diese nicht unmittelbar nach der Rasur bzw. bei geschädigter Achselhaut verwendet werden. Es kann auch ein Deodorant ohne Aluminiumsalze verwendet werden.
Die Geschäftsführung der Kosmetik-Kommission hat das BfR inne. Die Kommission besteht aus 16 berufenen Wissenschaftlerinnen und Wissenschaftlern aus Universitäten, den Länderbehörden, der Industrie und anderen Bereichen sowie aus benannten Sachverständigen, die bei Bedarf für spezifische und fachübergreifende Fragestellungen hinzugezogen werden können. Sie tagt turnusmäßig zwei Mal im Jahr. Mit dem Scientific Committee on Consumer Safety (SCCS), dem wissenschaftlichen Expertengremium, welches die EU-Kommission zu Fragen der Sicherheit von Verbraucherprodukten berät, besteht seit langen Jahren ein enger wissenschaftlicher Austausch. Alle Kommissionsprotokolle werden auf der BfR-Internetseite veröffentlicht. Die Risikobewertungen des BfR werden aber allein von eigenen Beschäftigten des Instituts erarbeitet. Kommissionsempfehlungen haben für das BfR allein beratenden Charakter.
Die Kosmetikkommission ist eine von 15 BfR-Kommissionen. Jede BfR-Kommission beruft für vier Jahre über ein offenes Ausschreibungs- und Bewerbungsverfahren ihre Mitglieder, die sich durch wissenschaftliche Expertise auf ihrem jeweiligen Fachgebiet auszeichnen. Die Kommissionsmitglieder sind hinsichtlich ihrer Kommissionsarbeit zur Unparteilichkeit verpflichtet. Um eventuellen Interessenkonflikten zu einzelnen Sitzungsthemen vorzubeugen, werden diese transparent abgefragt und in jedem Protokoll offengelegt.
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: idw
Arbeitszeit: Beginnt der Job im Zug?
Melanie Hahn Presse & Öffentlichkeitsarbeit
Hochschule Fresenius
Viele Arbeitnehmer pendeln täglich zur Arbeit oder gehen auf Dienstreisen. Unklar ist häufig, ob diese Wege bereits zur vergütungspflichtigen Arbeitszeit zählen. In einem aktuellen Rechtsstreit hatte ein Arbeitnehmer geklagt: Er wurde von seinem Arbeitgeber auf eine Baustelle in den Nordosten Chinas geschickt, wofür er die volle Reisezeit als Überstunden ausbezahlt haben wollte. Das Bundesarbeitsgericht gab ihm heute im Grundsatz Recht: Der Arbeitgeber muss für die erforderliche Reisezeit zahlen. Was Arbeitnehmer im Einzelfall tatsächlich als Arbeitszeiten anrechnen können, erläutert Prof. Dr. Michael Fuhlrott, Arbeitsrechtler und Professor an der Hochschule Fresenius.
„Grundsätzlich ist zwischen der „vergütungsrechtlichen“ und der „arbeitszeitrechtlichen“ Arbeitszeit des Arbeitsschutzrechts zu unterscheiden werden“, erklärt Prof. Dr. Fuhlrott. Ersteres betreffe die Frage, für welche Zeiten der Arbeitnehmer entlohnt wird. Hier bestehe Gestaltungsspielräume für den Arbeitgeber. Letzteres beziehe sich auf die Frage, wie lange der Arbeitnehmer arbeiten darf und wann er zwingend Pausen machen oder Ruhezeiten einlegen muss. Insoweit – aus Gründen des Arbeitnehmerschutzes – habe der Arbeitgeber hinsichtlich der Arbeitszeitregelung kaum Gestaltungsspielraum. „Für „Vollarbeit“ ist der Arbeitnehmer natürlich zu vergüten und diese zählt auch als arbeitsschutzrechtliche Arbeitszeit“, so Fuhlrott. „Bei anderen Tätigkeiten, die nur mittelbar mit der eigentlichen Arbeitsleistung zusammenhängen, wie etwa Reisezeiten, Umkleidezeiten oder Rufbereitschaft können allerdings abweichende Regelungen getroffen werden“.
Kriterium: Beanspruchung des Arbeitnehmers durch die Tätigkeit?
Gerade bei Reisezeiten komme es darauf an, inwieweit der Arbeitnehmer durch die Tätigkeit beansprucht wird. „Führt der Arbeitnehmer selbst einen PKW, kann er nicht abschalten. Diese Zeit ist dann auch als Arbeitszeit zu vergüten. Nimmt der Arbeitnehmer hingegen für die Anreise die Bahn und kann während der Fahrt ein privates Buch lesen oder einen Kaffee im Bordbistro trinken, so ist die Beanspruchung des Arbeitnehmers gering. Diese Zeit zählt für Ruhepausen und Höchstarbeitszeitgrenzen nicht mit. Der Arbeitgeber kann hier mit dem Arbeitnehmer Regelungen treffen, wonach diese Zeit nicht zu vergüten ist. Üblich sind auch Pauschalierungsabsprachen, wonach Tage mit kompletter Reisetätigkeit etwa pauschal mit acht Arbeitsstunden berechnet werden“, erläutert der Arbeitsrechtler. Entscheidend sei hier aber auch der Einzelfall – basierend auf der Frage, was der Arbeitnehmer während der Reise macht: „Liest der Arbeitnehmer etwa eine Akte in der Bahn zur Vorbereitung auf einen späteren Termin, handelt es sich klar um Arbeitszeit“, so Fuhlrott.
Aktueller Fall des BAG: Erforderliche Reisezeit ist zu vergüten
Die Richter des Bundesarbeitsgerichts gaben dem klagenden Arbeitnehmer heute im Grundsatz Recht: Entsendet ein Arbeitgeber einen Arbeitnehmer vorübergehend ins Ausland, erfolgen die Reisen zur auswärtigen Arbeitsstelle und von dort zurück ausschließlich im Interesse des Arbeitgebers, so das BAG (PM Nr. 51/2018 / BAG, Urt. v. 17.10.2018, Az.: 5 AZR 553/17). Erforderlich sei aber nur die Zeit, die für einen Flug in der Economy-Klasse anfalle. Da der Arbeitnehmer einen Business-Klasse Flug gebucht hatte, der einen Zwischenstopp aufwies und damit länger andauerte, muss das Landesarbeitsgericht den Sachverhalt weiter aufklären und sodann erneut entscheiden.
Der Weg zur Arbeitsstätte ist grundsätzlich Privatsache
Wie der Arbeitnehmer hingegen täglich zu seinem Büro gelange, sei seine Privatsache. Diese Fahrtzeit werde nicht vergütet – der Arbeitnehmer dürfe entsprechend auch frei wählen, wo er wohnt, führt Fuhlrott weiter aus. „Für Arbeitnehmer, die auf wechselnden Arbeitsstätten, etwa Baustellen eingesetzt werden, gelten hingegen andere Vorgaben. Hier beginnt die Arbeitszeit oftmals mit dem Erreichen des Betriebsgeländes, von dem aus der Weg zur aktuellen Arbeitsstätte angetreten wird“, so der Jurist.
Der Autor Prof. Dr. Michael Fuhlrott ist Professor für Arbeitsrecht an der Hochschule Fresenius sowie Fachanwalt für Arbeitsrecht und Partner bei der Kanzlei FHM – Fuhlrott Hiéramente & von der Meden Partnerschaft von Rechtsanwälten mbB in Hamburg.
Weitere Informationen:
http://www.hs-fresenius.de
Quelle: idw
Kinder sollten Wasser trinken!
Giulia Roggenkamp Pressestelle
Stiftung Kindergesundheit
Stiftung Kindergesundheit rät dringend zur Einschränkung des Konsums von zuckerhaltigen Limos, Colas und Energydrinks, um die Fettsucht-Welle zu stoppen
Marco ist ein durchschnittlicher deutscher Teenager. Er trinkt durchschnittlich einen knappen halben Liter Cola am Tag. Auch seine Freunde im Alter zwischen 11 und 13 Jahren trinken jeden Tag durchschnittlich 0,45 Liter Cola, Limo oder ein anderes zuckerhaltiges Getränk. Das bedeutet durchschnittlich 1.260 Kalorien pro Woche. Klingt eigentlich nicht nach besonders viel, ist es aber: Würde Marco statt Cola einfach nur Wasser trinken, wäre er schon nach 2,8 Wochen ein ganzes Pfund schlanker. Mit diesem fiktiven Beispiel macht die Stiftung Kindergesundheit auf die dickmachende Wirkung von zuckerhaltigen Getränken aufmerksam.
„Eine kürzlich publizierte Analyse von elf internationalen Studien kommt zu dem Ergebnis, dass ein regelmäßiger Konsum zuckerhaltiger Getränke für etwa ein Fünftel des Risikos der Fettleibigkeit im Kindes- und Jugendalter verantwortlich ist“, sagt Kinder- und Jugendarzt Prof. Dr. Berthold Koletzko, Ernährungsexperte der Universitäts-Kinderklinik München und Vorsitzender der Stiftung Kindergesundheit. „Auch Studien aus den USA folgern, dass dort rund 20 Prozent der Gewichtszunahmen der Bevölkerung allein auf das Konto zuckerhaltiger Getränke geht“.
Die Häufigkeit von Übergewicht und krankhafter Fettleibigkeit (Adipositas) hat in den letzten vier Jahrzehnten weltweit und auch in Deutschland alarmierend zugenommen. Die aktuellen Zahlen der bundesweiten Gesundheitsstudie KiGGS lassen keinen Durchbruch erkennen: Auch aktuell leidet fast jedes sechste Kind in Deutschland zwischen drei und 17 Jahren (15,3 Prozent der Mädchen und 15,6 Prozent der Jungen) unter Übergewicht. 5,9 Prozent (5,5 Prozent der Mädchen und 6,3 Prozent der Jungen) sind bereits krankhaft fettleibig. „Die Hoffnung vieler Eltern, dass sich das Problem mit dem Babyspeck im Laufe der Pubertät auswächst und dass auch aus einem pummeligen Backfisch später eine gertenschlanke junge Frau wird, ist leider trügerisch“, betont Professor Koletzko. „Aus dicken Kindern werden in aller Regel dicke Erwachsene.“
Weniger Einkommen, mehr Übergewicht
Besonders groß ist die Gefahr von Übergewicht für Kinder und Jugendliche aus bildungsfernen Familien, hebt Professor Koletzko hervor. Nach den aktuellen Zahlen der KiGGS-Studie sind Mädchen aus sozioökonomisch benachteiligten Familien im Vergleich zu Mädchen mit einem hohen sozioökonomischen Status 4,05-fach häufiger adipös. Bei Jungen aus benachteiligten Familien ist das Risiko sogar 4,4-fach höher (11,4 gegenüber 2,6 Prozent) als in Familien mit hohem Bildungsgrad und Einkommen.
Die Stiftung Kindergesundheit hat bereits zum wiederholten Male auf die dickmachende Wirkung von gezuckerten Getränken hingewiesen. Sie empfiehlt: Kinder sollten schon von klein auf lernen, Wasser zu trinken. Limonade, Cola-Getränke, gesüßte Tees oder Eistees, zuckerhaltige Fruchtsäfte, Fruchtnektare oder Fruchtsaftschorle sollten die Ausnahme bleiben und nicht die Regel. In Kindertagesstätten und Schulen sollten keine zuckerhaltigen Getränke angeboten werden.
Was spricht für eine Zuckerabgabe?
Die Stiftung spricht sich auch für die Einführung einer Abgabe auf gezuckerte Getränke aus. Ihre Begründung:
o Der höhere Preis würde den Konsum und dadurch das Risiko für Fettsucht, Fettleber und Karies in der Bevölkerung vermindern.
o Der Staat könnte die zusätzlichen Steuereinnahmen in die Förderung der öffentlichen Gesundheit investieren.
o Der Bevölkerung würde klar gemacht werden, dass gezuckerte Getränke nicht zur gesunden Ernährung gehören.
o Die Hersteller erhielten einen starken Anreiz, ihre Produkte mit weniger Zucker zu süßen und gesünderen Alternativen anzubieten.
Ein gutes Beispiel bietet Mexiko: Dort wurde bereits vor vier Jahren eine Steuer von einem Peso pro Liter gezuckerter Getränke eingeführt. Professor Koletzko: „In diesem Land mit besonders häufigem Auftreten von Adipositas bei Kindern und Erwachsenen führte die Steuer zu einer Abnahme des Verkaufs gezuckerter Getränke um 6,3 Prozent, während der Absatz von abgepacktem Wasser um 16,2 Prozent stieg. Die stärksten Effekte wurden in Haushalten mit niedrigem und mittlerem Einkommen erzielt, die auch die höchste Häufigkeit von Fettsüchtigkeit aufweisen“.
Viele andere Länder folgten bereits dem Beispiel Mexikos. So werden gezuckerte Getränke bereits in Brunei, Katalonien, Portugal, Saudi-Arabien, Thailand, den Vereinigten Arabischen Emiraten und in fünf Städten der USA besteuert. In diesem Jahr wird die Steuer auch in Estland, Großbritannien, Irland, Südafrika und der Stadt Seattle (USA) eingeführt.
Dass die Besteuerung der Süßgetränke tatsächlich positive Auswirkungen auf die Gesundheit von Kindern und Jugendlichen haben kann, beweist das Beispiel Großbritanniens, berichtet die Stiftung Kindergesundheit. Dort müssen Hersteller und Importeure seit April 2018 für zuckergesüßte Getränke Abgaben leisten. Für Getränke mit mehr als fünf bis maximal acht Prozent Zucker werden pro Liter 18 britische Pence und für Getränke mit mehr als acht Prozent Zucker 24 Pence veranschlagt. Wissenschaftler errechneten, dass durch diese Maßnahmen und den verminderten Zuckerkonsum mit Getränken in Großbritannien 144.000 weniger fettsüchtige Kinder und Erwachsene, 19.000 weniger auftretende Fälle von Diabetes Typ 2 und 270.000 weniger durch Karies geschädigte Gebisse pro Jahr erreicht werden können, mit entsprechend enorm hohen unmittelbaren Kosteneinsparungen im Gesundheitswesen.
Weniger Zucker? Es geht doch!
Der Zuckerkonsum der Briten ging aber schon kurz nach der Ankündigung einer Besteuerung deutlich zurück. Wie das? Um von der günstigeren Steuerstufe zu profitieren, haben viele Hersteller haben den Zuckeranteil ihrer Produkte so reduziert, dass für sie nur eine geringere oder gar keine Besteuerung gilt. So hat beispielsweise Coca-Cola in Großbritannien den Zuckergehalt von Fanta von 6,9 auf 4,6 Gramm pro 100 ml und von Sprite von 6,6 Gramm auf 3,3 Gramm gesenkt. Auch Supermarktketten haben den Zuckergehalt vieler Eigenmarken unter die Fünf-Gramm-Grenze gesenkt.
In Deutschland dagegen beträgt der durchschnittliche Zuckergehalt der zuckergesüßten Getränke nach aktuellen Erhebungen von Foodwatch 7,3 Prozent. Das sind nach wie vor etwa sechs Zuckerwürfel je 250 ml Glas.
„Übergewicht wird sowohl durch Essen und Trinken als auch durch das Bewegungsverhalten beeinflusst. In der Praxis allerdings ist der relative Anteil der Bewegung daran deutlich geringer als die Bedeutung der Ernährung“, führt Professor Berthold Koletzko aus. Der Münchner Ernährungsexperte verdeutlicht das am fiktiven Beispiel von Carlo, der im Durchschnitt täglich 450 ml zuckerhaltige Getränke zu sich nimmt. „Wenn er diese Menge gezuckerter Getränke durch von Wasser ersetzen würde, könnte Carlo in fünfeinhalb Wochen ein Kilogramm Gewicht einsparen. Dagegen müsste er 19 Wochen lang jede Woche eine Stunde zusätzlich Fußball spielen, um sein Gewicht um ein Kilogramm zu reduzieren. Für die gleiche Gewichtsänderung müsste er 33 Wochen lang eine Stunde zusätzlich Schwimmen oder fast 40 Wochen lang zusätzlich Fahrrad fahren“.
Wasser marsch – auch in der Schule!
Dass die Förderung des Wassertrinkens auch in Deutschland funktioniert, bewies die Trinkfit-Studie bei über 3.000 Grundschülern in Nordrhein-Westfalen. Die an der Studie beteiligten Kinder bekamen eigene Trinkflaschen und konnten sich an einem Trinkwasserspender jederzeit mit gesprudeltem oder stillem Trinkwasser versorgen, während die Abgabe zuckerhaltiger Getränke in der Schule unterbunden wurde. Den Kindern der Kontrollschulen wurden Flasche, Wasserspender und Unterrichtsmaterialien erst am Ende des Schuljahres zur Verfügung gestellt. Die Studie ergab: Wenn Kinder in der Schule regelmäßig und ausreichend Wasser trinken, reduziert sich ihr Risiko, übergewichtig zu werden. Insgesamt war bei den Kindern, die an der Aktion teilnahmen, das Risiko des Übergewichts um 31 Prozent geringer, als bei denen, die nicht beteiligt waren.
Eine Sonderabgabe auf zuckerhaltige Getränke, wie sie in Großbritannien, Mexiko und vielen anderen Ländern schon existiert, könnte auch in Deutschland die gesündere Getränkeauswahl erleichtern, betont die Stiftung Kindergesundheit. Professor Dr. Berthold Koletzko: „Wir hoffen sehr auf die Bereitschaft der Politik zu konsequenten Maßnahmen, denn die Lasten des heute bestehenden kindlichen Übergewichts für Krankheitsfolgen und eingeschränkte Lebenschancen sind enorm hoch. Allein die Gesundheitskosten für die heute in Deutschland übergewichtigen Kinder und Jugendlichen belaufen sich auf 1,8 Milliarden Euro. Es ist also höchste Zeit zum Handeln“.
Unabhängige und wissenschaftlich basierte Berichterstattung braucht Förderer:
Fördern auch Sie die Gesundheit unserer Kinder durch Ihre Spende, die in voller
Höhe den Projekten der Stiftung Kindergesundheit zugute kommt.
Mit einem Beitritt zum Freundeskreis der Stiftung Kindergesundheit können Sie die Arbeit der
Stiftung regelmäßig fördern.
Mehr Informationen hierzu finden Sie unter: www.kindergesundheit.de
Spendenkonto: HypoVereinsbank München
IBAN: DE41 7002 0270 0052 0555 20
SWIFT (BIC): HYVEDEMMXXX
Quelle: idw
Multiresistente Keime aus Abwasser filtern – korrigierte Version
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
700 bis 800 Tonnen Antibiotika pro Jahr wurden 2014 laut dem Bundesamt für Verbraucherschutz und Lebensmittelsicherheit in Deutschland allein in der Humanmedizin eingesetzt, in der Veterinärmedizin wurden 2017 rund 730 Tonnen an Tierärzte abgegeben. Durch den hohen Einsatz von Antibiotika bilden aber immer mehr Bakterien Multiresistenzen, die eine medizinische Therapie bei einer Erkrankung erschweren. Über Abwässer gelangen die resistenten Erreger in die Umwelt und letztendlich zurück zum Menschen. Forschende des KIT untersuchen im Verbundprojekt HyReKA die Verbreitung der Bakterien und bewerten Maßnahmen wie die Ultrafiltration, um sie effektiv aus dem aufbereiteten Abwasser zu entfernen.
Multiresistente Bakterien haben als Überlebensstrategie gelernt, sich der Wirkung verschiedener Antibiotika zu entziehen – sie haben Abwehrmechanismen gebildet. Nicht alle sind für den Menschen gefährlich, doch können sie ihre Resistenzgene auch an krankmachende Erreger weitergeben. So gibt es immer mehr widerstandsfähige Keime in der Umwelt. „Wenn sich die Bakterien verbreiten, kommt der Mensch auch immer häufiger mit ihnen in Kontakt. Gehen wir nicht gegen die Verbreitung vor, gibt es am Ende immer weniger Antibiotika oder sogar keine Wirkstoffe, mit denen wir eine Erkrankung dieser Bakterien bekämpfen können“, sagt Professor Thomas Schwartz vom Institut für Funktionelle Grenzflächen (IFG) des KIT.
Der Mikrobiologe und sein Team untersuchen in Gewässern das Vorkommen und die Verbreitung klinisch relevanter Antibiotikaresistenzen und Bakterien, die vor allem für Menschen mit geschwächtem Immunsystem, Kleinkinder und alte Menschen eine Gefahr darstellen können. „Resistente Bakterien gelangen über das Abwasser von Kliniken und Pflegeheimen, häuslichen Bereichen, Schlachthöfen und Landwirtschaft in Kläranlagen. Hier konnten wir die Bakterien nicht nur in den Zuläufen, sondern auch in den Abläufen nachweisen“, so Schwartz. Die derzeitige Abwasseraufbereitung filtere also nur einen Teil der Bakterien heraus, der Rest werde mit dem aufbereiteten Wasser in Flüsse und Bäche geleitet.
Deshalb testen und bewerten die Wissenschaftlerinnen und Wissenschaftler verschiedene Methoden für Kläranlagen, um gerade diese kritischen Erreger aus dem Wasser zu entfernen: eine Ultrafiltrationsanlage, eine Ozon- sowie eine UV-Behandlung, eine Kombination aus beiden und eine Aktivkohlebehandlung. „Bei der Ultrafiltration, bei der das Wasser durch extrem feine Membranstränge fließt, gelingt es uns, die antibiotikaresistenten Bakterien so weit zu reduzieren, dass wir sie kaum mehr nachweisen können. Mit der Ozonbehandlung – auch in Kombination mit UV-Strahlen – ist eine geringere, aber auch vielversprechende Reduktion der Keime möglich. Bei der Aktivkohle konnten wir keine effektive Veränderung, das heißt keine Reduktion, feststellen“, zeigt der Mikrobiologe die bisherigen Ergebnisse auf.
Innerhalb HyReKA wollen die Wissenschaftler die Ultrafiltrationsanlage serienreif machen und die Ozon- und UV-Behandlung weiter optimieren, um die Reduktionsleistung zu steigern. Die Forscherinnen und Forscher des KIT erstellen außerdem ein Bewertungskonzept für die einzelnen Verfahren, sodass die Untersuchungsparameter auch auf andere Maßnahmen zur Abwasserbehandlung anwendbar sind. „So könnten wir Kliniken, Pflegeheime oder auch landwirtschaftliche Bereiche, die ebenfalls aufgrund des hohen Einsatzes von Antibiotika ein hohes Risiko für resistente Bakterien vermuten lassen, mit diesen Techniken ausstatten, um auch die Belastungssituationen an kommunalen Kläranlagen zu reduzieren“, blickt Schwartz in die Zukunft.
HyReKA
HyReKA steht kurz für „Biologische beziehungsweise hygienisch-medizinische Relevanz und Kontrolle Antibiotika-resistenter Krankheitserreger in klinischen, landwirtschaftlichen und kommunalen Abwässern und deren Bedeutung in Rohwässern“. Der Forschungsverbund will einen aktiven Beitrag zum umweltbezogenen Gesundheitsschutz der Bevölkerung leisten. Zu seinen Zielen gehört, den Eintrag antibiotikaresistenter Bakterien und Antibiotikarückstände in die Umwelt zu untersuchen, deren Verbreitungswege, Risikopotenziale und Übertragungsrisiken abzuschätzen, technische Verfahren der Abwasseraufbereitung an Kläranlagen zu entwickeln und Handlungsempfehlungen zu formulieren. Der Verbund setzt sich aus Forschern verschiedener Fachrichtungen wie Medizin, Biologie, Geografie, Ingenieurwesen, Agrarwissenschaft, Lebensmitteltechnologie und Ernährungswissenschaft sowie Partnern aus kommunalen Wasserwirtschaftsbetrieben und der Industrie zusammen.
Zu den Forschungspartnern des Verbundprojektes HyReKA zählen neben dem KIT das Universitätsklinikum Bonn, die Universität Bonn, die Technische Universität Dresden, die RWTH Aachen, das Umweltbundesamt (UBA), das Technologiezentrum Wasser in Karlsruhe (TZW) und kommunale Partner, wie der Erftverband Bergheim, der Oldenburgisch-Ostfriesische Wasserverband (OOWV), der Zweckverband Klärwerk Steinhäule und der Industriepartner XYLEM Services GmbH.
Korrekturhinweis:
In der am 16. Oktober 2018 versandten Version dieser Presseinformation wurden leider veraltete Zahlen zum Anitbiotikagebrauch in Deutschland genannt. Wir bitten dies zu entschuldigen.
Im aktuellsten Bericht „GERMAP 2015: Antibiotika-Resistenz und -Verbrauch“ (Herausgegeben von Bundesamt für Verbraucherschutz und Lebensmittelsicherheit und Paul-Ehrlich-Gesellschaft für Chemotherapie e.V. im Jahre 2016) wird angegeben, dass im Jahre 2014 1238 Tonnen Antibiotika an Tierärzte abgegeben wurden. „Die Gesamtmenge der im humanmedizinischen Bereich in Deutschland eingesetzten Antibiotika dürfte ca. 700-800 Tonnen pro Jahr betragen“, so der Bericht. Mehr dazu unter: https://www.bvl.bund.de/DE/05_Tierarzneimittel/05_Fachmeldungen/2016/2016_09_29_…
In seiner Pressemeldung vom 23.Juli 2018 gibt das Bundesamt für Verbraucherschutz und Lebensmittelsicherheit an, dass die Menge der in der Tiermedizin abgegebenen Antibiotika in Deutschland im Jahr 2017 auf 733 Tonnen gesunken ist. Mehr dazu unter: https://www.bvl.bund.de/DE/08_PresseInfothek/01_FuerJournalisten_Presse/01_Press…
Weiterer Pressekontakt:
Sandra Wiebe, SEK-Gesamtkommunikation, Tel.: +49 721 608-21172, E-Mail: sandra.wiebe@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Multiresistente Keime aus Abwasser filtern
https://idw-online.de/de/attachment66949
Quelle: idw
Test zeigt Erfolgsaussichten von Heuschnupfen-Therapien
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Eine spezifische Immuntherapie kann den Alltag für Allergiker deutlich angenehmer machen und langfristig vor Asthma schützen. Was dabei genau geschieht, ist jedoch unklar. Ein Team der Technischen Universität München (TUM) und des Helmholtz Zentrums München hat die Prozesse im Körper während einer dreijährigen spezifischen Immuntherapie untersucht. Die Forscherinnen und Forscher fanden dabei Hinweise darauf, warum die Allergieimpfung so viel Zeit benötigt und wie sich die Erfolgsaussichten schon früh bestimmen lassen.
Bei einer spezifischen Immuntherapie, früher Hyposensibilisierung genannt, geben Ärztinnen und Ärzte Injektionen mit den Substanzen, auf die der Körper allergisch reagiert, zumeist Pollen- oder Milbenextrakte. In der ersten Phase der Therapie erhöhen sie die Dosis nach und nach. Ist eine sogenannte Erhaltungsdosis erreicht, werden über einen längeren Zeitraum – in der Regel drei Jahre – Spritzen mit dieser Dosis gegeben. Wenn alles gut geht, sind die allergischen Reaktionen nach dieser Behandlung dauerhaft schwächer.
Bis heute ist unklar, was genau bei diesen Therapien im Körper geschieht. Ein Team um PD Dr. Adam Chaker, Leiter der Allergieambulanz an der Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde des TUM-Universitätsklinikums rechts der Isar und Prof. Carsten Schmidt-Weber, Leiter des Zentrum für Allergie und Umwelt (ZAUM) von TUM und Helmholtz Zentrum München, haben jetzt erstmals während einer Immuntherapie über drei Jahre das komplexe Wechselspiel verschiedener Zelltypen und Substanzen des menschlichen Immunsystems beobachtet.
Viele verschiedene Abwehrzellen beteiligt
Bislang hat sich die Allergie-Forschung besonders auf die Rolle verschiedener Typen sogenannter T-Zellen konzentriert. Pro-allergische T-Zellen (Th2- und auch Th17-Zellen), so das stark vereinfachte Modell, verstärken allergische Reaktionen im Körper, wenn sie auf bestimmte Substanzen treffen. Regulatorische T-Zellen (T-Regs) dagegen hemmen die allergische Reaktion gegen ein Allergen.
„Unsere Daten zeigen, dass die Vorgänge bei einer Immuntherapie komplexer sind als bislang angenommen“, sagt Adam Chaker. „Es sind Zelltypen beteiligt, die bislang in diesem Zusammenhang kaum beachtet wurden. Wir sind insbesondere überzeugt, dass regulatorische B-Zellen eine deutlich wichtigere Rolle spielen als bisher gedacht.“
Test zeigt: Zweite Therapiephase ist kein Roulette-Spiel
„In der zweiten Phase der Behandlung entscheidet sich das Abwehrsystem des Körpers, ob ein Allergen weiterhin massiv bekämpft wird und daher zu Heuschnupfen, Asthma oder anderen allergischen Erkrankungen führt oder ob der Körper lernt, dass Allergen zu tolerieren“, erläutert Adam Chaker. Dabei ändere sich das Verhältnis von pro-allergischen T-Zellen, T-Regs und regulatorischen B-Zellen laufend – in der Studie war, auch abhängig vom Pollenflug und anderen Faktoren, mal ein Zelltyp stärker vertreten, mal ein anderer. Erst nach drei Jahren pendelte sich das Verhältnis ein.
Ein Roulette-Spiel mit zufälligem Ausgang ist diese Phase jedoch nicht. Bei den Patientinnen und Patienten, die die Therapie regulär beendeten, gab es Übereinstimmungen, die schon früh Voraussagen über den Therapie-Erfolg ermöglichten. Wenn direkt nach der ersten Behandlungsphase, also dem Abschluss der Einleitungsphase, besonders viele regulatorische B-Zellen und wenige TH-17-Zellen messbar waren, wurden nach drei Jahren deutlich weniger Allergiesymptome festgestellt.
Argumente fürs Durchhalten
„Wir haben diesen Test patentieren lassen“, sagt Adam Chaker. „Wenn er Serienreife erreicht, könnten wir Patientinnen und Patienten eine aufwendige Behandlung mit geringen Erfolgsaussichten ersparen. Bei einem positiven Ergebnis liefert so ein Test dagegen gute Argumente, eine dreijährige Therapie durchzuziehen. Bislang brechen viele Menschen früher ab.“
Ein besseres Verständnis der molekularen Mechanismen kann zudem die Grundlage für effektivere Therapien sein. Dafür sei es jedoch wichtig, die Ergebnisse der aktuellen Studie in weiteren Untersuchungen zu bestätigen und mehr über die Wirkungsmechanismen herauszufinden, sagt Adam Chaker.
Wissenschaftliche Ansprechpartner:
PD Dr. Adam M. Chaker
Technische Universität München
Klinikum rechts der Isar
Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde und
Zentrum für Allergie und Umwelt (ZAUM)
Tel: +49 89 4140 2370
adam.chaker@tum.de
Originalpublikation:
U.M. Zissler, C.A. Jakwerth, F.M. Guerth, L. Pechtold, J.A. Aguilar-Pimentel, K. Dietz, K. Suttner, G. Piontek, B. Haller, Z. Hajdu, M. Schiemann, C.B. Schmidt-Weber, A.M. Chaker. „Early IL-10 producing B-cells and coinciding Th/Tr17 shifts during three year grass-pollen AIT“. EBioMedicine (2018) DOI: https://doi.org/10.1016/j.ebiom.2018.09.016 (Open Access)
Weitere Informationen:
https://www.zaum-online.de Zentrum Allergie und Umwelt (ZAUM)
http://www.hno.mri.tum.de/ Klinik und Poliklinik für Hals-, Nasen- und Ohrenheilkunde
Quelle: idw
Hochwasserrisiko kann deutlich gesenkt werden
Katrin Keller Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth
Forschungsergebnisse der Jade Hochschule dienen dem Schutz der Küstenregion vor Überschwemmung
Oldenburg.Emden. Die Auswirkungen des Klimawandels auf den Wasserhaushalt an der ostfriesischen norddeutschen Küste und mögliche Anpassungen für das Entwässerungssystem, haben Wissenschaftler_innen der Jade Hochschule und der Universität Oldenburg jetzt untersucht. „Vor dem Hintergrund des globalen Wandels steht die Binnenentwässerung vor einer immensen Herausforderung“, sagt Projektleiter Dr. Helge Bormann von der Jade Hochschule. „Die bestehende Entwässerungsinfrastruktur wird zukünftig nicht mehr ausreichen.“ Durch die mit regionalen Partnern erarbeiteten Maßnahmen könne das Hochwasserrisiko jedoch bis Ende des Jahrhunderts deutlich gesenkt werden. Die Ergebnisse des Forschungsprojektes „Klimaoptimiertes Entwässerungsmanagement im Verbandsgebiet Emden“ (KLEVER) wurden gestern im Beisein des niedersächsischen Umweltministers Olaf Lies im Siel- und Schöpfwerk Knock präsentiert.
Kapazität des Entwässerungssystems ist Mitte des Jahrhunderts ausgeschöpft
Basierend auf Klimamodellen vom Potsdam-Institut für Klimafolgenforschung berechneten Dr. Helge Bormann und seine wissenschaftliche Mitarbeiterin Jenny Kebschull von der Jade Hochschule mögliche Veränderungen des Wasserhaushalts. Einflüsse, die sich in Zukunft auf das Entwässerungssystem in der Region auswirken, sind die höheren Winterniederschläge, die Versiegelung von Grünflächen und der Anstieg des Meeresspiegels.
Höhere Niederschläge in den Wintermonaten
Die Simulationsergebnisse zeigen, dass der Klimawandel einen deutlichen Anstieg des Abflussaufkommens in den Wintermonaten bewirken wird. „Niederschläge, die heute noch als Extremereignisse eingestuft werden, werden zukünftig häufiger auftreten“, erklärt Bormann. In den Wintermonaten Dezember, Januar und Februar werde das zu entwässernde Wasservolumen enorm ansteigen: Bis zum Ende des 21. Jahrhunderts können es sogar 25 Prozent sein. Dies entspräche dem halben Volumen der Thülsfelder Talsperre, das im Winter zusätzlich gepumpt oder gesielt werden müsste. Im Gebiet des Ersten Entwässerungsverbandes Emden gibt es zwei Haupt Siel- und Schöpfwerke, die das Wasser ins Meer leiten. Die Kapazität dieser Werke sei jedoch schon jetzt ausgeschöpft.
Zunehmende Flächenversiegelung
Die Analyse zeigt auch, dass eine zunehmende Flächenversiegelung – Bebauung, die verhindert, dass der Niederschlag im Boden versickern kann – die Entwässerungsherausforderung noch verstärken wird. „Im Verbandsgebiet werden pro Jahr aktuell rund 63 Hektar versiegelt – das sind etwa 126 Fußballfelder Grünflächen, die durch Gebäude, Parkplätze, Verkehrswege und weitere Bauwerke zugebaut werden“, erklärt Kebschull. Wenn die Versiegelung mit der aktuellen Rate weiter voranschreitet, würde der Entwässerungsbedarf bis Mitte des Jahrhunderts in den Wintermonaten um weitere zwei Prozent und bis Ende des Jahrhunderts insgesamt um vier Prozent ansteigen.
Anstieg des Meeresspiegels
Neben der Flächenversiegelung sei auch der Anstieg des Meeresspiegels ein Problem. „Bisher werden die Siele bei Ebbe geöffnet, so dass das Wasser ohne den kostenintensiven Betrieb der Pumpen abfließen kann“, erklärt die Wissenschaftlerin. „Wenn der Meeresspiegel wie in den Klimaszenarien beschrieben ansteigt, wird der Wasserstand zur Ebbe seltener niedrig genug sein um die Siele zu benutzen.“ In dem Fall ist der Entwässerungsverband auf seine Pumpen angewiesen. „Der Energieaufwand hierfür ist enorm“, sagt Kebschull. Laut Modellergebnissen wäre der Abfluss des Wassers über die Siele Ende des Jahrhunderts nicht mehr möglich: „Die Anzahl der Stunden, in denen das Sielen möglich ist, wird sich bis 2045 halbieren. Im Jahr 2070 wird der Sielzeitraum nur noch ein Viertel des jetzigen betragen, bevor das Sielen Ende des Jahrhunderts nur im besten Fall noch als Entwässerungsmöglichkeit genutzt werden kann“, erklärt die Expertin.
Maßnahmen um das Hochwasserrisiko zu senken
Die bestehende Entwässerungsinfrastruktur wird zukünftig nicht mehr ausreichen. Im Rahmen des KLEVER-Akteursforums wurde in Zusammenarbeit mit den Kooperationspartnern eine Reihe von Maßnahmenvorschlägen erarbeitet, wie der Herausforderung entgegengetreten werden kann. Diese umfassen vor allem technische Maßnahmen wie die Erweiterung der Pumpkapazitäten der Schöpfwerke. Auch die Speicherkapazitäten in bestehenden Gewässern auszubauen wäre denkbar, sowie die Möglichkeit zusätzliche Retentionsräume zu schaffen.
„Bei vollständiger Umsetzung aller vorgeschlagenen Maßnahmen könnte das Hochwasserrisiko bis Ende des Jahrhunderts deutlich gesenkt werden.“, sagt Bormann. Ein Restrisiko werde aber bestehen bleiben. Für den Umgang damit müssten zukünftig geeignete Risikomanagementkonzepte entwickelt werden.
Kooperationen
Die Hochschulen führten das vom Bundesministerium für Umwelt, Naturschutz und nukleare Sicherheit (BMU) geförderte Projekt in Zusammenarbeit mit dem Ersten Entwässerungsverband Emden (I.EVE) und weiteren Partnern aus der Region durch.
Wissenschaftliche Ansprechpartner:
Dr. Helge Bormann, helge.bormann@jade-hs.de, 0441 7708 – 3775
Quelle: idw
Umweltingenieurinnen und -ingenieure entwickeln neuartiges Sanitärsystem
Marvin Hamann Universitätskommunikation
Bauhaus-Universität Weimar
Im Rahmen des Verbundprojektes »AWAS« konzipiert die Bauhaus-Universität Weimar in Zusammenarbeit mit Partnern aus der Industrie ein innovatives System zur Trennung häuslicher Abwässer. Das vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 130.000 Euro geförderte zweijährige Vorhaben läuft bis August 2020.
Ziel der Projektpartner ist es, Grauwasser aus Badezimmer und Küche sowie Schwarzwasser aus der Toilette separat zu erfassen, zu transportieren und wiederzuverwerten. Auf dieser Basis werden Rohstoffe gezielt zurückgewonnen, um damit einerseits Ressourcen zu schonen und andererseits die Entsorgungskosten zu senken. Das Besondere daran: Das technische System zur Teilstromerfassung soll mit minimalen baulichen Eingriffen auch in Bestandsgebäuden eingebaut werden können.
»In der Abfallwirtschaft hat sich das Prinzip der getrennten Erfassung von sortenreinen Abfällen bereits erfolgreich durchgesetzt«, erläutert Projektleiter Prof. Dr.-Ing. Jörg Londong von der Bauhaus-Universität Weimar. »Vergleichbare Überlegungen werden in der Siedlungswasserwirtschaft jedoch sehr zögerlich angestellt, da solche neuartigen, kreislauforientierten Sanitärsysteme in bestehenden Siedlungen bislang nur bedingt umgesetzt werden können«, fährt Prof. Londong fort.
Abwasserbehandlung ohne große Eingriffe in Gebäudesubstanz
Hier setzt das Forschungsvorhaben »Entwicklung einer Abwasserweiche und getrennten Abwassersammlung als Vorstufe einer effizienten Wasserwiederverwendung und Energiegewinnung (AWAS)« an. Das technische System, welches das Projektteam zur teilstromspezifischen Erfassung der häuslichen Abwässer entwickelt, besteht im Kern aus einer Abwasserweiche auf Hausbasis und wird ergänzt durch die anschließende getrennte Sammlung von Grau- und Schwarzwasser in einem Zwei-Kammer-Abwasserschacht.
Die Abwasserweiche soll nah am Ort des Abwasseranfalls eingesetzt werden. An den Eintragsstellen, z.B. Toilette, Waschmaschine, Geschirrspülmaschine etc., wird entsprechende Sensorik die Trennung der Abwässer anhand des Zeitpunkts ihrer Einleitung ermöglichen. In einer Vakuumleitung werden die Abwasserteilströme zeitlich getrennt aus dem Zwei-Kammer-Schacht abgeleitet. Durch den separaten Transport können die Nährstoffe aus dem hochkonzentrierten Abwasser rückgewonnen und wiederverwertet sowie zur Energieerzeugung genutzt werden. So eröffnet das Projekt »AWAS« neue Möglichkeiten der Abwasserbewirtschaftung, ohne in die bestehende Bausubstanz der Gebäude eingreifen zu müssen.
Das Verbundprojekt ist Teil der BMBF-Fördermaßnahme »KMU-innovativ: Ressourceneffizienz und Klimaschutz«. Die Maßnahme gehört zum BMBF-Programm »Forschung für Nachhaltige Entwicklung (FONA³)«.
»Entwicklung einer Abwasserweiche und getrennten Abwassersammlung als Vorstufe einer effizienten Wasserwiederverwendung und Energiegewinnung«
Projektförderung:
Bundesministerium für Bildung und Forschung (BMBF); Fördermaßnahme: KMU-innovativ: Ressourceneffizienz und Klimaschutz, Anwendungsbereich: Nachhaltiges Wassermanagement
Projektlaufzeit:
September 2018 – August 2020
Projektpartner:
Bauhaus-Universität Weimar, Professur Siedlungswasserwirtschaft (https://www.uni-weimar.de/de/bauingenieurwesen/professuren/siedlungswasserwirtsc…)
Kubra GmbH (https://www.kubra-gmbh.de/)
MFPA Weimar (https://www.mfpa.de/)
Synantik GmbH – Industrielle Mess- und Regelungstechnik (http://www.synantik.de/)
VAB VakuumanlagenBau GmbH (www.vabgmbh.de)
Abwasserzweckverband „Nordkreis Weimar“ (assoziiert) (https://www.azv-nordkreis-weimar.de/wop/)
QUNDIS GmbH (assoziiert) (https://qundis.de/)
Wissenschaftliche Ansprechpartner:
Für Rückfragen steht Ihnen gerne Prof. Dr.-Ing. Jörg Londong, Fakultät Bauingenieurwesen der Bauhaus-Universität Weimar, unter +493643/58 46 15 oder joerg.londong@uni-weimar.de zur Verfügung.
Quelle: idw
Positive Erinnerung an eigene Macht lässt Frauen schneller in den Wettbewerb eintreten
Anneliese Odenthal Presse und Kommunikation
Universität zu Köln
Positive Erinnerung an eigene Macht lässt Frauen schneller in den Wettbewerb eintreten
Frauen treten schneller in einen Wettbewerb ein, wenn sie sich an Situationen erinnern, in der sie Kontrolle über andere Menschen hatten / Wirtschaftswissenschaftler verwenden Methode des „Primings“ um den Gender Gap bei Karriere und Bezahlung zu schließen
Männer haben im Vergleich zu Frauen eine größere Bereitschaft sich in einen Wettbewerb zu begeben, was wahrscheinlich zu den Unterschieden in Gehältern und Karriereentwicklungen zwischen Männern und Frauen beiträgt. Der Wirtschaftswissenschaftler Professor Dr. Matthias Sutter vom Department of Economics der Uni Köln zeigt in einer neuen Arbeit, dass eine einfache und praktisch kostenlose Methode die Einkommens- und Karrierekluft zwischen Männern und Frauen schließen kann. Der Artikel „Closing the gender gap in competitiveness through priming“ ist in der aktuellen Ausgabe von Nature Communications erschienen.
Sutter und seine Kollegen Loukas Balafoutas und Helena Fornwagner von der Universität Innsbruck benutzten dafür die Methode des sogenannten „primings with power“, der Bahnung von Reizen durch Erinnerungen an Machtsituationen, bei den Probanden. Unter Priming verstehen die Psychologen die Beeinflussung eines Reizes durch einen gezielten vorhergehenden Reiz, zum Beispiel Erinnerungen. Im Ergebnis der Versuche wurde das Gefühl der weiblichen Probanden gefördert, sich bei der Ausübung von Macht wohlzufühlen. Damit schlossen sie in ihrer Wettbewerbsbereitschaft zu den Männern auf.
Um einen kognitiven Vorgang in einem Menschen auf diese Weise zu beeinflussen, muss er zum Beispiel durch eine Erinnerung an ein vorhergehendes positives oder negatives Ereignis in eine reizverändernde „Stimmung“ versetzt werden. Dadurch kann sich seine Reaktion auf eine folgende Situation verändern. Im Falle des Wettbewerbsverhaltens von Männern und Frauen setzten die Wissenschaftler einen positiven Reiz im Bereich der Macht über Mitmenschen. Die Probanden sollten sich Situationen aus ihrem Leben vorstellen, in der sie entweder in einer neutralen Machtposition waren, einer Position, in der sie von anderen beherrscht wurden und in einer Position, in der sie Kontrolle über andere Individuen hatten. Danach konnten die männlichen und weiblichen Probanden entscheiden, ob sie sich in einem einfachen Wettbewerb, dem Addieren von Zahlen in einer kurzen Zeit, engagieren oder nicht.
Waren die Probanden nicht „geprimet“ (neutral) oder durch eine Erfahrung beeinflusst waren, in der sie beherrscht worden waren, schlugen Männer deutlich öfter den Weg des Wettbewerbs ein als Frauen. „Der Unterschied zwischen Geschlechtern verschwand, wenn die Probanden durch eine Erinnerung an eine Situation vorbereitet wurden, in der sie Kontrolle über andere hatten“, so Sutter. „Diese Erinnerungen beeinflussten das Verhalten der weiblichen Probanden so sehr, dass sie genauso oft wie ihre männlichen Konkurrenten in einen Wettbewerb eintraten. Interessanterweise hat sich die Wettbewerbsbereitschaft von Männern sogar reduziert in dieser Situation, wodurch der Geschlechterunterschied verschwand.“
Firmen und ihre Personalabteilungen könnten in Zukunft von solchen Techniken profitieren, da sie den besten Kandidaten/die beste Kandidatin für eine Aufgabe möchten, ungeachtet des Geschlechts, wobei die Kandidaten/innen sich in einer Wettbewerbssituation wohl fühlen müssen.
Presse und Kommunikation:
Robert Hahn
+49 221 470-2396
r.hahn@verw.uni-koeln.de
Internet:
https://socialsciences.nature.com/users/181362-loukas-balafoutas/posts/39985-the…
Wissenschaftliche Ansprechpartner:
Professor Dr. Matthias Sutter
E-Mail: matthias.sutter@coll.mpg.de
Tel.: 0043 660 710 8525
Originalpublikation:
Zur Publikation:
https://rdcu.be/9AVt
Quelle: idw
Lachen ist die beste Medizin – wie Humor hilft, Stress am Arbeitsplatz abzubauen
Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann
Humor ist, wenn man trotzdem lacht. Das gilt auch am Arbeitsplatz in Situationen, in denen vielen vielleicht nicht zum Lachen zumute ist. Wissenschaftler der Australian National University haben herausgefunden, dass schon ein wenig Humor am Arbeitsplatz helfen kann, besser mit Aggression und stressigen Situationen umzugehen.
Dr. David Cheng vom ANU College of Business and Economics sagt, dass aggressives Verhalten und Mobbing im Job weit verbreitete Probleme sind, die sich auf die mentale Gesundheit der Opfer auswirken. Das kann auch teuer für den Arbeitgeber werden.
Seine Forschungsergebnisse zeigen, dass Humor den negativen Einfluss von aggressivem Verhalten gegenüber anderen Angestellten reduzieren kann. „Während das Vermeiden von unangebrachtem Verhalten am Arbeitsplatz, wie etwa Aggressivität, natürlich die beste Lösung ist, zeigt unsere Studie, dass ein Lachen in stressigen Situationen helfen kann“, so Dr. Cheng.
Für die Studie wurden die Teilnehmer zunächst einer Simulation ausgesetzt, in der sie von einem Kollegen aggressiv angeschrien wurden. Anschließend wurde ihnen entweder ein lustiges oder ein nicht lustiges Video vorgespielt.
„Das Experiment zeigt, dass witzige Stimuli für Menschen, die aggressivem Verhalten ausgesetzt sind, hilfreich sein können“, erklärt Dr. Cheng. „Humor verbessert das psychische Wohlergehen des Opfers, indem er ihm ein neues Gefühl der Stärke verleiht. Die Teilnehmer fühlten sich handlungsfähiger und hatten das Gefühl, dass die Menschen ihnen eher zuhören würden. Das ist wichtig, denn durch Aggressivität am Arbeitsplatz, beispielsweise durch Anschreien, fühlt sich der Angegriffene herabgewürdigt. Humor kann diesem Gefühl offensichtlich entgegenwirken und neue Kraft verleihen.“
Die Studie ist Teil eines größeren Forschungsprojekts, das den Einfluss von Lachen am Arbeitsplatz untersucht. Eine andere Studie von Dr. Cheng zeigt, dass Humor auch die Produktivität anheben kann.
In dieser Studie aus dem Jahr 2015 mussten die Teilnehmer langweilige, sich wiederholende Aufgaben ausführen (einfache mathematische Fragen beantworten). Nach einer bestimmten Zeit machten die Probanden eine zehnminütige Pause. Einer Gruppe sah sich währenddessen lustige Videos an.
„Nach der Pause sagten wir den Leuen, dass sie zu jederzeit aufhören können zu arbeiten. Dann haben wir gemessen, wie lange sie weitergemacht haben und wie gut sie sich dabei angestellt haben“, sagt Dr. Cheng. „Die Gruppe, die die lustigen Videos gesehen hat, machte doppelt so lange und auf dem gleichen Qualitätslevel weiter.“
Die Forschungsergebnisse wurden in dem Paper „Laughter Is (Powerful) Medicine: the Effects of Humor Exposure on the Well-being of Victims of Aggression“ in der wissenschaftlichen Zeitschrift „Business and Psychology“ veröffentlicht.
Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593
oder:
Aaron Walker
Tel.: +61 2 6125 7979
Email: media@anu.edu.au
Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.
Weitere Informationen:
https://www.ranke-heinemann.de
Quelle: idw
Das Gewicht der Liebe: Wer zusammenzieht, nimmt zu
Kerstin Skork Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Paare leben in der Regel gesünder und länger als Singles. Jedoch wiegen sie im Durchschnitt auch mehr als Alleinlebende. Unklar war bisher, wie sich Veränderungen von Beziehungen auf das Körpergewicht auswirken und wann Paare am meisten zunehmen. Um das herauszufinden, haben Wissenschaftler*innen des Max-Planck-Instituts für Bildungsforschung, der Universität Mannheim, der Universität Leipzig und des Deutschen Instituts für Wirtschaftsforschung Daten von 20.000 Menschen über einen Zeitraum von 16 Jahren ausgewertet. Die Ergebnisse wurden im Journal Health Psychology veröffentlicht.
Paare haben ein höheres Körpergewicht als Singles – ganz gleich, ob mit oder ohne Trauschein. Anders als bisher oft vermutet, ist es aber weniger die Eheschließung, als vielmehr das erste Zusammenziehen, dass zu einer Gewichtszunahme führt. So nehmen Paare nach dem Zusammenziehen etwa doppelt so viel zu, wie Paare in den ersten vier Ehejahren. Dieser Effekt bleibt bestehen, auch wenn man wichtige Einflüsse wie Alter, Kinderkriegen, Sport, Rauchen, Gesundheitszustand oder Stress herausrechnet. „Das heißt, dass diese Gewichtszunahme vor allem mit der Beziehungsveränderung zusammenhängt. Denn eine Änderung des Beziehungsstatus bedeutet oft auch eine Änderung der alltäglichen Essgewohnheiten – zum Beispiel gemeinsames Frühstücken, das allein vielleicht nicht stattgefunden hätte oder bescheidener ausgefallen wäre. In Gesellschaft isst man in der Regel mehr und nimmt somit mehr Kalorien zu sich“, sagt Ralph Hertwig, Ko-Autor der Studie und Direktor am Max-Planck-Institut für Bildungsforschung.
Trennen sich Paare, so sinkt der Body-Mass-Index (BMI), der das Körpergewicht eines Menschen in Relation zu seiner Körpergröße setzt, bei Frauen und Männern hingegen wieder weitestgehend auf den Wert vor dem Zusammenziehen. Das entspricht der Vorhersage der sogenannten Heiratsmarkthypothese, wonach Menschen auf Partnersuche sich um ein niedrigeres Körpergewicht bemühen, da dies mit mehr Attraktivität verbunden wird. Interessanterweise nehmen beide Geschlechter aber bei Scheidungen, die auf Trennungen folgen, am meisten zu. Eine mögliche Erklärung dazu ist, dass viele Menschen – vor allem Männer – bei der Scheidung wieder in einer neuen Beziehung sind.
„Mit Blick auf die Gewichtszunahme sind Zusammenziehen und Scheidung wichtige Zeitfenster für Prävention. Bisher wurden soziale Einflüsse – zu denen auch Beziehungsveränderungen zählen – in der Entstehung von Übergewicht kaum beachtet. Stattdessen wurden vor allem individuelle Faktoren wie Wissen oder Willensstärke diskutiert. Dabei zeigen unsere Ergebnisse, dass ein unverheirateter Mann, der vor dem Zusammenziehen leicht übergewichtig ist, im Durchschnitt etwa 7,5 Kilogramm zunimmt, nachdem er je mindestens vier Jahren ohne Trauschein zusammengelebt hat, verheiratet, getrennt und geschieden war. Dadurch erhöht er sein allgemeines Sterblichkeitsrisiko um bis zu 13 Prozent“, sagt Jutta Mata, Professorin für Gesundheitspsychologie an der Universität Mannheim und assoziierte Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung.
Mit dieser Studie wurden erstmals die Langzeiteffekte von Veränderungen im Beziehungsstatus auf den BMI untersucht. Dafür verglichen die Wissenschaftler*innen Daten von 20.950 Einzelpersonen zwischen 19 und 100 Jahren in Deutschland über einen Zeitraum von insgesamt 16 Jahren. Die Daten stammen aus der Längsschnittstudie des „Sozio-oekonomischen Panels“ (SOEP), mit der das Deutsche Institut für Wirtschaftsforschung repräsentative Daten über die Bevölkerung in Deutschland erhebt. In Interviews wurden die demographischen Daten, wie Alter, Geschlecht, Familienstand, aber auch Größe und Gewicht abgefragt. Zusätzlich wurde nach wichtigen Lebensereignissen, wie Geburt oder Veränderungen im Berufsleben, wahrgenommenem Stress, dem subjektiven Gesundheitsempfinden und dem Verhalten mit Blick auf Ernährung, Sport und Rauchen gefragt.
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., einer der führenden Organisationen für Grundlagenforschung in Europa.
Originalpublikation:
Mata, J., Richter, D., Schneider, T., & Hertwig, R. (2018). How cohabitation, marriage, separation, and divorce influence BMI: A prospective panel study. Health Psychology, 37(10), 948-958. dx.doi.org/10.1037/hea0000654
Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2018/10/das-gewicht-der-liebe-wer-zusam…
Quelle: idw
Methan als umweltfreundlicher Kraftstoff für LKW, Busse und andere Nutzfahrzeuge
Dipl.-Volkswirt Thomas Jung Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
„Deutschland wird die für 2020 gesetzten CO2-Ziele deutlich verfehlen“ – so der aktuelle Klimaschutzbericht der Bundesregierung. Schnell wirksame Maßnahmen zur Reduktion der CO2- wie auch der Schadstoffemission des Verkehrs sind gefragt. Dies stellt gerade Busunternehmen und Speditionen vor Herausforderungen. Eine Lösung bieten alternative Kraftstoffe wie Erdgas, das hauptsächlich aus Methan besteht. Bei seiner Nutzung fallen weniger CO2, Stickoxide und Feinstaub an. Methan als Kraftstoff steht am Mittwoch, den 17. Oktober, 9:30 Uhr, Gebäude 42, Hörsaal 110, im Fokus einer Tagung an der TU Kaiserslautern. Experten diskutieren dabei über seinen Einsatz in Nutzfahrzeugen und seine Rolle bei der klimaneutralen Energieversorgung.
Damit Busse, LKW, Transporter und andere Nutzfahrzeuge künftig weiter in Städten fahren können, braucht es neue Antriebstechniken und Kraftstoffe. „Methan ist ein solches Beispiel“, sagt Professor Dr. Michael Günthner von der TU Kaiserslautern (TUK). „Es ist in Sachen Umweltfreundlichkeit, aber auch aufgrund der guten Verfügbarkeit und vergleichsweise einfachen Handhabung attraktiv.“ Zum einen fallen deutlich weniger Feinstaub und Stickoxide an als beim Einsatz von Dieselkraftstoff, aber auch die Kohlenstoffdioxid-Emission ist bis zu 30 Prozent geringer – und das bereits bei Verwendung von Erdgas aus fossiler Gewinnung. Zudem lässt sich Methan sowohl mit biologischen Verfahren als auch mit großtechnischen chemischen Syntheseprozessen klimaneutral herstellen. „Synthetische Kraftstoffe wie unter Verwendung von Ökostrom hergestelltes Methan könnten in Zukunft eine weitgehend klimaneutrale Energieversorgung für den Verkehrsbereich ermöglichen“, so der Professor weiter.
Auf dem Markt gibt es außerdem bereits entsprechende Gasantriebe, die komprimiertes oder verflüssigtes Erdgas (Compressed Natural Gas, CNG, oder Liquefied Natural Gas, LNG) verwenden. Im Unterschied zum vorwiegend im Pkw-Bereich als Alternativkraftstoff eingesetzten „Autogas“ (LPG) besteht LNG wie auch CNG zum Großteil aus Methan. „Durch den Einsatz von verflüssigtem Erdgas kann auch die Reichweite deutlich erhöht werden“, fährt Professor Günthner fort. Dies macht LNG insbesondere für Langstrecken zum Beispiel im Speditionsverkehr interessant. „Bislang fehlt für LNG allerdings ein flächendeckendes Tankstellen-Netz“, so Günthner. Auch für komprimiertes Erdgas müsse die Infrastruktur weiter zügig ausgebaut werden.
Bei der Tagung „Methan als Kraftstoff für Nutzfahrzeuge“ beleuchten Experten aus Wissenschaft und Wirtschaft, welche Chancen Methan als Kraftstoff bietet. Dabei geht es gleichermaßen um Fragen der technischen Weiterentwicklung wie um Aspekte der Wirtschaftlichkeit von Gasantrieben. Auch zeigen die Referenten auf, wie der Kraftstoff in der Zukunft hergestellt und verteilt werden könnte, und welche Rolle synthetische Kraftstoffe in zukünftigen, sektorübergreifenden Energieszenarien spielen. Hierbei geht es insbesondere darum, wie bei einer Umsetzung der Energiewende mit weitgehender Umstellung auf regenerative Energieträger die Versorgungssicherheit durch eine energetische „Vernetzung“ der verschiedenen Sektoren – Energieerzeugung/Kraftwerke, Verkehr, Industrie, Haushalte und Landwirtschaft – sichergestellt werden kann („Sektorkopplung“). Entwickler berichten zudem über konkrete Einsatzmöglichkeiten gasförmiger Kraftstoffe in verschiedenen Anwendungsbereichen von Nutzfahrzeugen und zeigen die Vorteile auf. Darüber hinaus stehen für Interessierte Probefahrten mit erdgasbetriebenen Nutzfahrzeugen (CNG/LNG) auf dem Programm.
Organisiert wird die Veranstaltung von Professor Dr. Michael Günthner, Dr. Thorsten Fuchs und Dr. Jörg Neugärtner vom Lehrstuhl für Antriebe in der Fahrzeugtechnik (LAF) in Kooperation mit der IVECO Süd-West Nutzfahrzeuge GmbH. Die Tagung wird darüber hinaus unterstützt von „We move it“, einer Initiative des rheinland-pfälzischen Ministeriums für Wirtschaft, Verkehr, Landwirtschaft und Weinbau.
Weitere Informationen zur Veranstaltung unter https://laf.mv.uni-kl.de/lehrstuhl-fuer-antriebe-in-der-fahrzeugtechnik/news/met…
Fragen beantwortet:
Prof. Dr. Michael Günthner
Lehrstuhl für Antriebe in der Fahrzeugtechnik
E-Mail: guenthner@mv.uni-kl.de
Tel.: 0631/205-5796
Quelle: idw
Tarifrunde 2019: Für rund 7,3 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Service des WSI-Tarifarchivs
Tarifrunde 2019: Für rund 7,3 Millionen Beschäftigte werden neue Vergütungstarifverträge verhandelt – Die Kündigungstermine
Die Tarifrunde 2018 geht in die Schlussphase: In einigen Bereichen wird in den verbleibenden Wochen und Monaten des Jahres noch verhandelt. Dazu gehören zum Beispiel die Deutsche Bahn AG, wo die Verhandlungen morgen beginnen, oder das Bewachungsgewerbe. Zugleich laufen bereits in vielen Branchen die Vorbereitungen für die Tarifrunde 2019. Insgesamt verhandeln die DGB-Gewerkschaften im nächsten Jahr für rund 7,3 Millionen Beschäftigte neue Vergütungstarifverträge.
Wann in welchem Bereich verhandelt wird, zeigt der tarifliche Kündigungsterminkalender, den das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) der Hans-Böckler-Stiftung jetzt vorlegt. Einige ausgewählte Beispiele (in Klammern: Beschäftigtenzahlen):
Dezember 2018:
Öffentlicher Dienst Länder (Inklusive Berlin und Hessen) (935.700)*
Januar 2019:
Bankgewerbe (o. Genossenschaftsbanken) (217.900)
Textilindustrie (46.200)
Februar:
Bekleidungsindustrie Westdeutschland (30.200)
Papier erzeugende Industrie (39.000)
Private Energieversorgung Baden-Württemberg (37.000)
März:
Einzelhandel Hessen, Saarland, Baden-Württemberg (498.000)
Groß- und Außenhandel Bayern (180.800)
April:
Einzelhandel Schleswig-Holstein, Hamburg, Niedersachsen, Bremen, Nordrhein-Westfalen, Rheinland-Pfalz, Bayern (1.392.100)
Groß- und Außenhandel Schleswig-Holstein, Hamburg, Niedersachsen, Hessen, Rheinland-Rheinhessen, Pfalz, Saarland, Berlin, Mecklenburg-Vorpommern, Brandenburg, Sachsen-Anhalt (411.200)
Mai:
Kfz-Gewerbe Schleswig-Holstein, Hamburg, Niedersachsen, Nordrhein-Westfalen, Pfalz, Saarland, Baden-Württemberg, Bayern, Mecklenburg-Vorpommern (281.500)
Juni:
Wohnungs- und Immobilienwirtschaft (64.000)
Juli:
Kunststoff verarbeitende Industrie Baden-Württemberg (59.200)
August:
Versicherungsgewerbe (170.500)
Privates Verkehrsgewerbe Schleswig-Holstein (23.500)
September:
Holz- und Kunststoff verarbeitende Industrie Niedersachsen/Bremen, Westfalen-Lippe, Hessen, Rheinland-Pfalz, Baden-Württemberg, Bayern, Sachsen-Anhalt, Thüringen, Sachsen (180.600)
Kfz-Gewerbe Rheinland-Rheinhessen (12.400)
Oktober:
Chemische Industrie Nordrhein, Hessen, Rheinland-Pfalz (268.000)
November:
Chemische Industrie Schleswig-Holstein, Hamburg, Niedersachsen, Bremen, Westfalen, Baden-Württemberg, Bayern, Berlin-West (284.800)
Privates Verkehrsgewerbe Hessen, Rheinland-Pfalz (90.800)
Dezember:
Zeitarbeit (BAP und iGZ), 980.000)
Systemgastronomie (100.000)
Chemische Industrie, Saarland, Ost (46.300)
*Die Tarifverträge bei den Ländern beeinflussen darüber hinaus die Einkommensentwicklung von etwa 2,1 Mio. Beamten und Versorgungsempfängern.
In einigen Branchen wird im kommenden Jahr nicht verhandelt, weil die Verträge bis ins Jahr 2020 gelten. Dies gilt z. B. für die Metall- und Elektroindustrie, Bund und Gemeinden des öffentlichen Dienstes oder das Bauhauptgewerbe. Der ausführliche Überblick in der PDF-Version dieser Pressemitteilung informiert über die Kündigungstermine in zahlreichen weiteren Branchen bis Ende des Jahres 2020. In der Tabelle ist auch ausgewiesen, wie viele Beschäftigte in den jeweiligen Tarifbereichen tätig sind.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Thorsten Schulten
Leiter WSI-Tarifarchiv
Tel.: 0211 / 77 78-239
E-Mail: Thorsten-Schulten@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211 / 77 78-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
Die Pressemitteilung mit Kündigungsterminkalender bis Ende 2020 (pdf): https://www.boeckler.de/pdf/pm_ta_2018_10_10.pdf
Quelle: idw
„Wer (alkoholfreies) Bier trinkt, lebt hundert Jahre“
Dr. Susanne Langer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
FAU-Forscher untersuchen gesunde Inhaltsstoffe im Bier
Bierinhaltsstoffe als Mittel gegen Entzündungen und Fettleibigkeit? Forscher um Prof. Dr. Claus Hellerbrand, Institut für Biochemie der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU), haben für ihr Forschungsprojekt, das Bierinhaltsstoffe hinsichtlich ihrer entzündungshemmenden Wirkung untersucht, den Forschungspreis der European Foundation for Alcohol Research und der European Brewery Convention über 60.000 Euro erhalten.
„Wer Bier trinkt, lebt hundert Jahre“, so lautet ein italienisches Sprichwort, in dem vielleicht mehr Wahrheit steckt, als erwartet. Bier enthält die Stoffe Xanthohumol und Iso-Alphasäuren. Laut Studien der Arbeitsgruppe von Prof. Hellerbrand hemmt Xanthohumol die durch Übergewicht und Fehlernährung hervorgerufene Leberverfettung und verhindert, dass die Leber vernarbt. Zudem tötet es Leberkrebszellen ab und verhindert bei Überernährung die Gewichtszunahme. Auch die Iso-Alphasäuren haben eine positive Wirkung auf die Gesundheit. Sie hemmen Leberschäden und beeinflussen den Fett- und Zuckerstoffwechsel positiv.
In neuen Forschungsarbeiten fanden die Wissenschaftler gemeinsam mit der Arbeitsgruppe von Prof. Dr. Ina Bergheim, Universität Wien, außerdem heraus, dass die beiden Substanzen biologische Prozesse besonders in der Kombination günstig beeinflussen. Zusammen hemmen sie beispielsweise Entzündungsprozesse noch effektiver. Bereits sehr niedrige Konzentrationen bremsen deutlich die Produktion von Entzündungsfaktoren in Leber- und Blutzellen. Ob auch noch weitere Krankheitsmechanismen wie Diabetes oder Krebs durch die Kombination der beiden Substanzen effektiver bekämpft werden können, soll in dem nun geförderten Forschungsprojekt untersucht werden. Ferner sollen die Mechanismen, die dieser guten kombinatorischen Wirkung zugrunde liegen, entschlüsselt werden.
Hopfen – Gelbes Gold
Xanthohumol gehört zu den Pflanzenpolyphenolen – den aromatischen Verbindungen, die für Farbe und Geschmack der Pflanzen sorgen. Der Stoff ist ausschließlich im Hopfen zu finden und für den gelben Farbton der Hopfenblüten verantwortlich. Hopfen spielt eine wichtige Rolle beim Brauen von Bier, bei dem Xanthohumol jedoch in großen Teilen abgebaut wird. Im Bier selbst liegt nur ein geringer Anteil des Stoffes vor. Ein weiterer Inhaltsstoff des Hopfens sind die Bittersäuren, die den typischen Biergeschmack hervorrufen. Eine Gruppe von ihnen sind die alpha-Säuren, die durch die Erhitzung beim Brauprozess in Iso-Alphasäuren umgewandelt werden.
Minuspunkt: Alkohol
Die derzeit einzige Art, wie Xanthohumol und Iso-Alphasäuren vom Menschen aufgenommen werden, ist über den Genuss von Bier, wenn auch hier in relativ geringer Konzentration. Bier ist jedoch keine Medizin. Der Grund: der Alkoholgehalt. „Es ist jedoch denkbar, dass durch den Konsum von alkoholfreiem Bier oder anderen hopfenhaltigen Nahrungsmitteln und Getränken wie Hopfenlimonade oder Hopfentee eine positive Wirkung zu erzielen ist. Gerade zur Behandlung oder Prävention von Leberschädigung durch Fettleibigkeit scheinen Xanthohumol und Iso-Alphasäuren sehr vielversprechend“, erläutert Hellerbrand.
Wissenschaftliche Ansprechpartner:
Weitere Informationen:
Prof. Dr. Claus Hellerbrand
Tel.: 09131/85-24191 (Sekretariat)
claus.hellerbrand@fau.de
Quelle: idw
Biogas-Fachgespräch: Was können Enzyme, Mühlen und Co. wirklich für den Biogasprozess leisten?
Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Steigende Substratpreise und geänderte förderpolitische Ziele erfordern ein Umdenken und Reagieren von Biogasanlagenbetreibern. Optimierungen von prozesstechnischen Abläufen sowie der Einsatz alternativer Substrate sind meist die Folge. Neben technischen Optimierungen der Anlagen spielen auch Verfahren zum Substrataufschluss eine entscheidende Rolle. Das Leipziger Biogas-Fachgespräch am 28. November setzt sich vor diesem Hintergrund mit der Frage auseinander, welchen Einfluss Enzyme, Mühlen und Co. auf den Biogasprozess haben. Anmeldungen zur Veranstaltung sind unter der Adresse www.leipziger-fachgespraeche.de möglich.
Der Aufschluss schwer abbaubarer Substratbestandteile kann die Beschleunigung und ggf. Erhöhung des Substratabbaus im Biogasprozess bewirken sowie Schwimm- und Sinkschichten vermeiden oder verringern. Viele Möglichkeiten des Substrataufschlusses sind bereits am Markt verfügbar, der Nachweis der Wirkung erfolgt jedoch meistens nur unzureichend. Im Rahmen des Leipziger Biogas-Fachgespräches am 28. November sollen die vorhandenen Verfahren, Effekte und Möglichkeiten der Bewertung aufgezeigt und diskutiert werden, was Enzyme, Mühlen und Co. zum Biogasprozess beitragen können.
Zu Beginn der Veranstaltung wird Josephine Hofmann vom Deutschen Biomasseforschungszentrum die Möglichkeiten des Substrataufschlusses bei der Desintegration darstellen. Dr. Liane Müller (DBFZ) erläutert anschließend, wie der Effekt des Substrataufschlusses am Beispiel des Einsatzes von Enzymen bewertet werden kann. Burkhard Heidler (NAWARO BioEnergie) referiert in seinem Erfahrungsbericht zum Einsatz von Desintegrationsverfahren im Biogasanlagenbetrieb und Michael Korn (Biokraft Burgioß GmbH & Co. KG) stellt dar, wie sich Enzyme für vielfältige Substrate in Biogasanlagen einsetzen lassen. Abschließend bietet sich Raum für eine Zusammenfassung und Diskussion der Ergebnisse. Die Veranstaltung wird moderiert von Herrn Tino Barchmann vom DBFZ.
Der Termin noch einmal zusammengefasst:
Termin: 28. November 2018, 11:30 bis 16:30 Uhr
Ort: Deutsches Biomasseforschungszentrum, Torgauer Str. 116, 04347 Leipzig
Anmeldung: bis zum 22. November 2018 unter www.leipziger-fachgespraeche.de
Kosten: Die Teilnahmegebühr beträgt 20,- Euro. Dies beinhaltet Pausengetränke sowie -verpflegung und ist umsatzsteuerbefreit (§4 Abs. 22a UStG)
Hinweis: Im Vorfeld der Veranstaltung besteht die Möglichkeit, im Rahmen einer Führung die Forschungsbiogasanlage des DBFZ zu besichtigen. Bitte melden Sie sich hierfür explizit an.
Ziel der Veranstaltungsreihe „Leipziger Biogas-Fachgespräche“
Das Leipziger Biogas-Fachgespräch ist ein Forum, in dem die Chancen, aber auch die Grenzen der Energiegewinnung aus Biogas analysiert und diskutiert werden. Darüber hinaus geht es um aktuelle Themen aus der landwirtschaftlichen und kommunalen Biogaserzeugung und -nutzung. Primär kommen Referenten aus der Region und externe Referenten zu besonders interessanten Fragestellungen zu Wort. Ziel ist es, ein Branchennetzwerk zu etablieren, mit dem der Informationsfluss nachhaltig verbessert werden kann. Hierdurch soll ein merklicher Beitrag zu einer optimierten Produktion und Nutzung von Biogas als regenerativem Energieträger in Sachsen und den angrenzenden Bundesländern geleistet werden.
Veranstalter der Leipziger Biogas-Fachgespräche ist das Deutsche Biomasseforschungszentrum (DBFZ), unterstützt vom Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) sowie dem Helmholtz-Zentrum für Umweltforschung (UFZ) und dem Umweltinstitut Leipzig e.V.
Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.
Wissenschaftliche Ansprechpartner:
Tino Barchmann
Tel.: +49 (0)341 2434-375
E-Mail: tino.barchmann@dbfz.de
Pressekontakt:
Paul Trainer
Tel.: +49 (0)341 2434-437
E-Mail: paul.trainer@dbfz.de
Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/leipziger-biogas-fachgespraec…
http://www.leipziger-fachgespraeche.de
Quelle: idw
Grippe – Gefahr unter Kontrolle?
Susanne Thiele Presse und Kommunikation
Helmholtz-Zentrum für Infektionsforschung
Auftakt der HZI-Vortragsreihe „KrankheitsErregend“ mit aktuellen Antworten aus der Grippeforschung
Jetzt beginnt die alljährliche Grippesaison, und mit ihr stellen sich wieder die Fragen: Wie kann ich mich schützen? Soll ich mich impfen lassen? Was geschieht, wenn ich schwer krank werde? Die Grippewelle des vergangenen Winters war eine der schwersten seit langem. Wie die Bedrohung durch die Grippe sogar die Geschichte veränderte und wie sie aktuell erforscht wird, darüber informiert das Helmholtz-Zentrum für Infektionsforschung (HZI) in Braunschweig am 20. Oktober 2018 zum Auftakt der Vortragsreihe „KrankheitsErregend“, die es bereits zum siebten Mal ausrichtet.
Besonders verheerend wirkte 1918 – am Ende des ersten Weltkriegs – die sogenannte Spanische Grippe, die fast 50 Millionen Todesopfer forderte. Hatte diese Epidemie einen Einfluss auf den Verlauf des Krieges, und stehen wir – genau 100 Jahre später – der nächsten schweren Grippewelle noch immer so hilflos gegenüber wie im frühen 20. Jahrhundert? Seitdem traten immer wieder schwerste Influenza-Epidemien auf, zuletzt im Winter 2017/18. Informationen hierzu präsentiert der Wissenschaftliche Geschäftsführer des Helmholtz-Zentrums für Infektionsforschung, Prof. Dirk Heinz, am 20. Oktober 2018 ab 11 Uhr bei der ersten Veranstaltung der diesjährigen Vortragsreihe. Prof. Klaus Schughart, Leiter der Abteilung „Infektionsgenetik“ am HZI, zeigt im zweiten Vortrag, welchen Herausforderungen sich die moderne Grippeforschung heute stellt. Denn: Die Infektionsforschung ist die beste Vorbereitung auf die nächste mögliche Pandemie.
Die Vortragsreihe:
Bei der diesjährigen Ausgabe der Vortragsreihe „KrankheitsErregend“ werden ganz verschiedene Aspekte der Grippe beleuchtet: Am HZI informieren Experten an drei Samstagvormittagen darüber, was Sie tun können, um gesund zu bleiben, und wie genau die neuesten Medikamente im Krankheitsfall wirken. Ebenso stehen die Entwicklung und Wirkweise von Impfstoffen und der aktuelle Stand der Grippeforschung im Fokus. Am 27. Oktober 2018 geht es um Impfstoffe und Impfforschung und am 3. November 2018 um die vielfältigen Möglichkeiten, wie Sie sich vor einer Ansteckung schützen können und welche Therapiemöglichkeiten im Krankheitsfall zur Verfügung stehen.
Die Veranstaltungen beginnen jeweils um 11:00 Uhr im Forum des HZI in der Inhoffenstraße 7, 38124 Braunschweig. Der Eintritt ist frei, eine Voranmeldung ist nicht nötig. Im Anschluss bietet eine moderierte Diskussion Gelegenheit für Zuschauerfragen. Bei Interesse vermitteln wir gern Interviews mit den Referenten.
Nähere Informationen und den Programmflyer finden Sie unter http://www.helmholtz-hzi.de/krankheitserregend/epidemie/. Rückfragen beantwortet gern die Pressestelle des HZI (Telefon: 0531/6181-1404, E-Mail: veranstaltungen@helmholtz-hzi.de).
Diese Pressemitteilung finden Sie auch auf unserer Homepage unter dem Link https://www.helmholtz-hzi.de/de/aktuelles/news/ansicht/article/complete/grippe_g…
Das Helmholtz-Zentrum für Infektionsforschung:
Am Helmholtz-Zentrum für Infektionsforschung (HZI) untersuchen Wissenschaftler die Mechanismen von Infektionen und ihrer Abwehr. Was Bakterien oder Viren zu Krankheitserregern macht: Das zu verstehen soll den Schlüssel zur Entwicklung neuer Medikamente und Impfstoffe liefern. Das HZI ist Mitglied im Deutschen Zentrum für Infektionsforschung (DZIF). http://www.helmholtz-hzi.de
Ihre Ansprechpartnerinnen:
Susanne Thiele, Pressesprecherin
susanne.thiele@helmholtz-hzi.de
Christine Bentz, Veranstaltungsmanagement
christine.bentz@helmholtz-hzi.de
Helmholtz-Zentrum für Infektionsforschung GmbH
Presse und Kommunikation
Inhoffenstraße 7
D-38124 Braunschweig
Tel.: 0531 6181-1400; -1166
Quelle: idw
Gutachten zur Behandlung biologisch abbaubarer Kunststoffe
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Auch biologisch abbaubare Kunststoffmaterialien können in der Umwelt mehrere Monate und teilweise sogar einige Jahre beständig sein. Dies ist das Fazit eines Gutachtens, das vom Umweltbundesamt publiziert wurde. Das sechsköpfige Autorenteam bestand zur Hälfte aus Expertinnen und Experten von Fraunhofer UMSICHT. Das Gutachten ist kostenfrei als pdf zugänglich.
In Deutschland und in Europa besteht ein kleiner, jedoch stetig wachsender Markt für biologisch abbaubare Kunststoffe. Die Produkte aus den betreffenden Materialien werden in der Landwirtschaft und im Gartenbau sowie als Sammelbeutel für Bioabfälle eingesetzt. Zusätzlich ist ein wachsender Einsatz im Verpackungs- und Bedarfsgegenständesektor zu beobachten. Der Einsatz biologisch abbaubarer Kunststoffe in Produkten und besonders der Umgang mit biologisch abbaubaren Kunststoffabfällen werden jedoch kontrovers diskutiert. So wird die biologische Abbaubarkeit als Chance im Kampf gegen die langfristige Vermüllung der Umwelt, aber auch als Risiko für eine Verschärfung der Litteringproblematik und für einen potenziell verstärkten Eintrag in die Umwelt betrachtet.
Gutachten zum Abbau von Kunststoffen
Vor diesem Hintergrund hat das Umweltbundesamt ein Gutachten in Auftrag gegeben, in welchem Materialien, Produkte und Standards der biologischen Abbaubarkeit beschrieben und die Verwertung betreffender Abfälle in fünf Mitgliedsstaaten der EU vergleichend dargestellt wurden. Zudem erfolgte eine Auswertung wissenschaftlicher Veröffentlichungen, welche sich mit dem Abbau von abbaubaren Kunststoffen in terrestrischen, aquatischen und marinen Ökosystemen beschäftigen. Das Fazit ist, dass auch biologisch abbaubare Materialien in der Umwelt mehrere Monate und teilweise sogar einige Jahre beständig sein können. (Quelle: Umweltbundesamt)
Quelle: idw
Entwarnung für Elektroautos: Keine Störung von implantierten Schrittmachern und Defis
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Die aktuell eingesetzten Elektroautos führen nicht zu elektromagnetischen Wechselwirkungen und in der Folge nicht zu Störungen von implantierten Herzschrittmachern oder Defibrillatoren. Zu diesem Ergebnis kam ein Forscherteam vom Deutschen Herzzentrum München in einer Studie, die bei den Deutschen Herztagen in Berlin präsentiert wurde.
Berlin, Freitag 12. Oktober 2018 – Entwarnung für herzkranke Lenker von Elektroautos, die einen implantierten Herzschrittmacher oder Defibrillator tragen: Die aktuell eingesetzten Elektroautos führen nicht zu elektromagnetischen Wechselwirkungen und in der Folge nicht zu Störungen solcher Implantate mit potenziell gefährlichen Auswirkungen auf die Gesundheit. Zu diesem Ergebnis kam ein Forscherteam vom Deutschen Herzzentrum München, nachdem es 108 Schrittmacher- und ICD-Patienten untersucht hatte. Die aktuelle Arbeit wurde bei den Deutschen Herztagen in Berlin präsentiert.
Die Studienteilnehmer wurden dem elektromagnetischen Feld von vier gebräuchlichen Elektroautos (Nissan Leaf, Tesla Model S, BMW i3, VW eUp) ausgesetzt. Schrittmacher- oder ICD-Fehlfunktionen während des Fahrens oder des Aufladens der Elektroautos wurde durch EKG-Überwachung und Device-Abfragen untersucht. Studien-Erstautor Dr. Amir Brkic: „Es wurden keine Geräte-Fehlfunktionen oder Umprogrammierungen beobachtet. Das elektromagnetische Feld im Fahrzeuginneren war mit 2.0 bis 3.6 Mikrotesla klein, das heißt die Fahrgastzellen sind gut abgeschirmt.“
Die Patienten wurden im Rahmen einer Routine-Geräte-Kontrolle in die Studie eingeschlossen. Die Untersuchung auf potenzielle Interferenzquellen erfolgte auf einem Rollenprüfstand für Autos unter standardisierten Bedingungen in Kooperation mit Wissenschaftlern für Fahrzeugtechnik. Die Patienten fuhren im Rahmen des Tests die Fahrzeuge unter Lastwechseln und beschleunigten auch über 100km/h.
Die größten elektromagnetischen Felder (EMF) wurden während des Ladevorgangs identifiziert (bis 116 Mikrotesla ). Dr. Brkic: „Der Ladevorgang stellt die potenziell gefährlichere EMF-Exposition dar und sollte in Hinblick auf die Schnellladetechnik weiter untersucht werden.“
Elektroautos werden immer häufiger als öffentliches oder privates Verkehrsmittel eingesetzt und stellen eine potenzielle Interferenzquelle (EMI) für Schrittmacher- oder Defibrillatorträger dar. Die mögliche Beeinträchtigung von Patienten mit implantierten Schrittmachern bzw. Defibrillatoren reicht von einer unnötigen Nutzungseinschränkung bis zur lebensbedrohlichen Fehlfunktion des implantierten Geräts.
Quelle: A. Brkic et al.: Störbeeinflussungen von implantierten Schrittmachern und Defibrillatoren durch Elektroautos nicht nachweisbar: eine cross-sectional, in-vivo Studie; Clin Res Cardiol 107, Suppl 3, October 2018
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine gemeinnützige wissenschaftlich medizinische Fachgesellschaft mit mehr als 10.500 Mitgliedern. Sie ist die älteste und größte kardiologische Gesellschaft in Europa. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen die Aus-, Weiter- und Fortbildung ihrer Mitglieder und die Erstellung von Leitlinien. Weitere Informationen unter www.dgk.org
Weitere Informationen:
http://www.dgk.org/presse
http://www.kardiologie.org
Quelle: idw
Kinder, Job und Rente: Wie und mit wem wir unsere Zeit verbringen
Silvia Leek Öffentlichkeitsarbeit und Pressestelle
Max-Planck-Institut für demografische Forschung
Wovon es abhängt, ob getrennte Väter regelmäßigen Kontakt zu ihrem Kind halten und wie sich eine Wirtschaftskrise auf die Lebensarbeitszeit auswirkt, lesen Sie in der neuen Ausgabe von „Demografische Forschung Aus Erster Hand“.
1. Wie lang ist ein Arbeitsleben?
Ökonomische Krise hat die erwartete Lebensarbeitszeit in Spanien stark schrumpfen lassen
In Zeiten des demografischen Wandels wird häufig über ein späteres Renteneintrittsalter diskutiert. Doch unsere Arbeitslebenszeit hängt auch stark davon ab, wie kontinuierlich wir arbeiten. In Spanien etwa sank die erwartete Arbeitslebenszeit während der Wirtschaftskrise drastisch, wie eine Studie des Max-Planck-Instituts für demografische Forschung zeigt.
2. Das Recht zur Sorge
Getrennt lebende Väter, die das Sorgerecht haben, sehen ihr Kind häufiger
Wenn Eltern sich trennen, leben die Kinder in den allermeisten Fällen im Haushalt der Mutter. Ob und wie der Vater dann den Kontakt zu ihnen hält, hängt sehr stark vom Sorgerecht, aber auch vom Bildungsniveau, dem Erwerbsstatus und der Lebensform des Vaters ab. Das zeigt eine neue Studie des Rostocker Zentrums zur Erforschung des Demografischen Wandels.
3. Die dritte Phase
Enkelkinder betreuen oder weiter arbeiten? Studie untersucht die Aktivitätsmuster von Rentnern
Wer das Rentenalter erreicht, steht vor vielen Entscheidungen: Möchte ich noch weiter erwerbstätig sein, mich um die Enkel oder kranke Familienangehörige kümmern, engagiere ich mich ehrenamtlich, oder genieße ich die hinzugewonnene Zeit einfach für mich selbst? Welche Aktivitätsmuster es bei den 60- bis 70-Jährigen gibt, untersucht eine neue Studie des Bundesinstituts für Bevölkerungsforschung in Wiesbaden.
Kontakt:
Silvia Leek
Max-Planck-Institut für demografische Forschung
Konrad-Zuse-Str.1
18057 Rostock, Deutschland
Telefon: +49 (381) 2081-0
Telefax: +49 (381) 2081-443
E-Mail: redaktion@demografische-forschung.org
Herausgeber:
Das Magazin ist eine gemeinsame Publikation des Max-Planck-Instituts für demografische Forschung, des Rostocker Zentrums zur Erforschung des Demografischen Wandels, des Bundesinstituts für Bevölkerungsforschung, des Vienna Institute of Demography / Austrian Academy of Sciences und des Wittgenstein Centre for Demography and Global Human Capital.
http://www.demogr.mpg.de – Max-Planck-Institut für demografische Forschung
http://www.oeaw.ac.at – Österreichische Akademie der Wissenschaften
http://www.rostockerzentrum.de – Rostocker Zentrum zur Erforschung des Demografischen Wandels
http://www.bib-demografie.de – Bundesinstitut für Bevölkerungsforschung
Originalpublikation:
https://www.demografische-forschung.org/
Anhang
Demografische Forschung Aus Erster Hand Nr. 3 2018
https://idw-online.de/de/attachment66843
Quelle: idw
Deutsche Wassertechnologien für indische Städte
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Verschmutzte Flüsse und Seen, fehlende Abwasserkanäle und Kläranlagen – Indiens schnell wachsende Städte kommen beim Ausbau der kommunalen Infrastruktur kaum nach. Am größten ist der Bedarf an angepassten Lösungen für die kommunale Abwasserreinigung und die Überwachung der Wasserqualität. Dies zeigen erste Ergebnisse des Projekts »Smart Water Future India«, das vom Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB koordiniert wird. Als Basis für eine langfristige Zusammenarbeit soll ein Water Innovation Hub dienen. Deutsche Firmen sind willkommen, sich an dieser deutsch-indischen Plattform zu beteiligen.
»Smart Water Future India« heißt das vom Bundesumweltministerium (BMU) geförderte Projekt, in dem intelligente und nachhaltige Wassermanagementstrategien für die südindische Stadt Coimbatore entwickelt werden. Damit es nicht bei Konzepten und Strategien bleibt, sondern diese auch in die Praxis umgesetzt werden, wird im Rahmen des Projekts ein sogenannter »Water Innovation Hub« aufgebaut. In diesem Netzwerk arbeiten deutsche und indische Firmen eng mit Nichtregierungsorganisationen und Stadtverwaltung zusammen, um auch langfristig die dringend benötigten Lösungen für ein bedarfsgerechtes Wassermanagement bereitzustellen. Das Angebot reicht dabei von der Identifizierung von Maßnahmen über die Suche nach geeigneten Finanzierungsmitteln und Industriepartnern bis zur Koordinierung von Pilotprojekten und Demonstration von Prototypen.
Zugang zum indischen Markt durch Water Innovation Hub
»Deutsche Unternehmen aus der Wasserbranche zeigen großes Interesse am dynamisch wachsenden indischen Markt, haben jedoch oft Schwierigkeiten, ihre Produkte hier abzusetzen«, berichtet Philip Okito, geschäftsführender Gesellschafter der trAIDe GmbH und im Projekt für die Einbindung der Unternehmen zuständig. Angesichts der Herausforderungen in ganz Indien kann der geplante Water Innovation Hub deutschen Firmen das Tor zum indischen Markt der Wasser- und Abwasserwirtschaft öffnen.
Ende November will das Team um Projektleiter Dr. Marius Mohr, Wasserexperte am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, mit indischen Partnern einen ersten Fahrplan aufstellen, bevor im Februar 2019 der Strategieplan für das Wassermanagement der Stadt und das finale Konzept für den Water Innovation Hub vorgestellt werden. Interessierte deutsche Firmen sind daher aufgerufen, bereits im Vorfeld Kontakt zum Projektteam aufzunehmen.
Stadtanalyse und Stakeholder-Workshop identifizieren zwei Handlungsfelder
»In Coimbatore besteht – wie in vielen anderen indischen Städten – dringender Handlungsbedarf, da sind sich alle Stakeholder vor Ort einig«, berichtet Mohr vom Dialog mit lokalen Interessensgruppen am 26. Juli. Auf der Grundlage einer umfassenden Stadtanalyse und mit der Leitfrage, wie deutsche Wasserexperten zur Verbesserung der wasserwirtschaftlichen Situation in Coimbatore beitragen können, identifizierte das Projetteam dabei zwei konkrete Themenfelder, die von lokalen Akteuren aus Verwaltung, Wirtschaft und Wissenschaft als besonders wichtig eingeschätzt wurden. Sie können zugleich erste Ansatzpunkte für eine langfristige Zusammenarbeit zwischen Deutschland und Indien liefern: Ein integriertes semi-zentrales kommunales Wassermanagement, das auch die Sektoren Energie und Ernährung berücksichtigt, sowie Technologien, um die Wasserqualität von gereinigtem Industrieabwasser, Oberflächengewässern und Grundwasser zu überwachen sowie die Ergebnisse zu visualisieren.
Kommunales Wassermanagement: Semi-zentral und integriert
Wie in anderen schnell wachsenden indischen Städten fehlen auch in Coimbatore Abwasserkanalisation und Kläranlagen: Nicht einmal 40 Prozent des städtischen Abwassers wird zentral gesammelt; vielmehr wird der Großteil der Abwässer unkontrolliert in Flüsse und Seen eingeleitet. Doch wie können gangbare Lösungen aussehen? Da die Bevölkerung der Stadt nach wie vor wächst und mit ihr der Verkehr auf Coimbatores Straßen, ist es kommunalpolitisch problematisch, Hauptverkehrsadern und weitere stark frequentierte Straßen aufzureißen, um Kanäle für die steigende Abwasserfracht zu legen.
Einen sinnvollen Lösungsansatz liefern semi-zentrale Konzepte, in denen die Abwässer von Quartieren, die etwa 5.000 bis 50.000 Einwohner umfassen, gesammelt und gereinigt werden. Der Vorteil: Die Leitungsquerschnitte für die benötigten Abwasserkanäle sind geringer, Hauptverkehrsstraßen können ausgeklammert werden, viele kleinere Abwasserreinigungsanlagen sind einfacher, schneller und kostengünstiger zu realisieren als eine große Zentralkläranlage. »Darüber hinaus erlauben modulare semi-zentrale Systeme, gleichzeitig mit dem Abwasser organische Abfälle zu behandeln und aufbereitetes Wasser wiederzuverwenden, beispielsweise zur Bewässerung von Grünanlagen oder Straßenreinigung«, weiß Mohr.
System zur Überwachung der Wasserqualität
Die Renaturierung von Flüssen und Seen, in die jahrelang ungeklärtes Abwasser eingeleitet wurde, ist oberstes Gebot und wurde im Rahmen der Förderung im »100 Smart Cities«-Programm der indischen Zentralregierung beschlossen. Noch fehlt es jedoch an der Infrastruktur, die Ergebnisse der Renaturierungsmaßnahmen zu analysieren und zu dokumentieren. Und wie wird sichergestellt, dass Stadtteile oder Unternehmen nicht doch unbehandeltes Abwasser einleiten?
»Die Stakeholder waren sich auch hier schnell einig, dass ein Überwachungssystem für die Wasserqualität installiert werden muss, um Erfolge bei der Wasseraufbereitung – aber auch Verstöße – verfolgen zu können«, berichtet Mohr. Für ein solches System werden Sensoren für die automatisierte Erfassung der wichtigsten physikalischen, chemischen und biologischen Parameter der Wasserqualität an kritischen Einleitstellen und ein zentrales Labor zur qualitätsgesicherten Analyse weiterer Proben benötigt. Die Vernetzung, Auswertung und Bereitstellung der Informationen ist dann durch entsprechende IT-Lösungen zu gewährleisten. Werden Echtzeitdaten mittels GIS-gestützter Systeme verknüpft und für alle zugänglich veröffentlicht, kann dies eine gesicherte Grundlage für weitere städtische Investitionsentscheidungen liefern und die notwendige Transparenz verbessern.
Technologien für die industrielle Abwasserreinigung in den Unternehmen, obschon neben den Kommunen weiterer maßgeblicher Verursacher von verschmutztem Grund- und Oberflächenwasser, sind aus Sicht aller lokalen Akteure dagegen durchaus vorhanden und – in der Nachbarstadt Tiruppur beispielsweise – auch erfolgreich im Betrieb. Es hapert hier vielmehr an der Durchsetzung der bestehenden Regelungen. Überwachungssysteme und damit eine größere Transparenz würden den Druck auf alle Beteiligten erhöhen, die Gesetze zu befolgen.
Informationen und Kontakt
Erste Skizzen für den Water Innovation Hub und die geplanten Projekte sind hier zu finden: www.igb.fraunhofer.de/swfi.
Hintergrund: Smart City Coimbatore
Mit 1,7 Millionen Einwohnern auf 257 Quadratkilometern ist Coimbatore eine der über 50 typischen von der Industrie geprägten Millionenstädte Indiens. Schätzungen gehen davon aus, dass die Bevölkerung in den kommenden 30 Jahren um eine weitere Million Menschen wachsen wird. Die Sicherung der Wasserversorgung und Abwasserentsorgung ist eines der dringendsten Probleme der Stadt.
Im Rahmen der deutsch-indischen Zusammenarbeit unterstützt Deutschland Coimbatore, das von der indischen Zentralregierung für das »100 Smart Cities«-Programm ausgewählt wurde, bei der Umsetzung ihrer Smart-City-Pläne.
Wissenschaftliche Ansprechpartner:
Dr.-Ing. Marius Mohr
Gruppenleiter Bioverfahrenstechnik in der Wasser- und Kreislaufwirtschaft
Tel.: +49 711 970-4216
E-Mail: marius.mohr@igb.fraunhofer.de
Weitere Informationen:
https://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2018/deutsche…
Anhang
Download Presseinformation
https://idw-online.de/de/attachment66885
Quelle: idw
Ätna: Neues Messsystem belegt Abrutschen des Südosthangs
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Die Südostflanke des Ätna rutscht langsam in Richtung Meer. Ein Team des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und des Kieler Exzellenzclusters „Ozean der Zukunft“ konnte mithilfe eines neuen, schallbasierten Vermessungsnetzes erstmals nachweisen, dass sich der Hang auch unter Wasser weiterbewegt. Innerhalb von acht Tagen bewegte er sich um circa vier Zentimeter. Ein plötzliches und schnelles Abrutschen des gesamten Hangs könnte zu einem Tsunami mit schwerwiegenden Folgen für die gesamte Region führen. Die Ergebnisse wurden heute in der internationalen Fachzeitschrift Science Advances veröffentlicht.
Als aktivster Vulkan Europas wird der Ätna von der Wissenschaft und den Behörden intensiv überwacht. Dabei zeigen satellitengestützte Messungen seit einiger Zeit, dass der Südosthang des Vulkans langsam in Richtung Meer abrutscht, während die anderen Hänge stabil sind. Unklar war bisher, ob sich die Bewegung auch unter Wasser fortsetzt, da Messungen per Satellit oder GPS dort nicht möglich sind. Mithilfe eines neuartigen Vermessungsnetzes, das Teil des GEOMAR GeoSEA Arrays ist, konnten Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, der Christian-Albrechts-Universität zu Kiel, Schwerpunkt Meereswissenschaften, und des Istituto Nazionale di Geofisica e Vulcanologia (INGV) nun erstmals unter Wasser die Bewegung des Hangs in horizontaler und vertikaler Richtung nachweisen.
Die Ergebnisse bestätigen die Vermutung, dass der gesamte Südosthang in Bewegung ist. Ursache für die Bewegung des Hangs ist aller Wahrscheinlichkeit nach hauptsächlich die Schwerkraft, und nicht, wie bisher angenommen, aufsteigendes Magma. Ein schlagartiges Abrutschen der gesamten Flanke kann nicht ausgeschlossen werden und würde einen starken Tsunami in der Region auslösen. Die Ergebnisse der Untersuchung wurden heute in der internationalen Fachzeitschrift Science Advances veröffentlicht.
„Am Ätna haben wir zum ersten Mal die schallbasierte Vermessung unter Wasser, die sogenannte marine Geodäsie, an einem Vulkan genutzt“, erklärt Dr. Morelia Urlaub, Erstautorin der Studie. Sie leitete die Untersuchungen im Rahmen des Projekts „MAGOMET – Marine geodesy for offshore monitoring of Mount Etna“. Entlang der Störungslinie, die die Grenze zwischen rutschender Flanke und stabilem Hang darstellt, platzierte das GEOMAR-Team dafür im April 2016 insgesamt fünf Transponder-Messstationen. „Drei platzierten wir auf dem abrutschenden Hang, zwei auf der anderen Seite der Störungslinie“, sagt Urlaub.
Die Transponder sendeten sich dann alle 90 Minuten ein akustisches Signal. Da die Geschwindigkeit des Schalls unter Wasser bekannt ist, können über die Zeitdauer, die das Signal unterwegs ist, relative Bewegungen des Meeresbodens zentimetergenau bestimmt werden. „Wir stellten eindeutig fest, dass der Hang im Mai 2017 innerhalb von acht Tagen um vier Zentimeter Richtung Meer abrutschte und dabei einen Zentimeter tiefer sank“, erklärt Urlaub. Diese Bewegung kann dabei mit einem langsamen Erdbeben verglichen werden, ein sogenannter „Slow Slip“. Es war das erste Mal, dass die horizontale Bewegung eines solchen Slow-Slip-Ereignisses unter Wasser erfasst wurde. Insgesamt war das System rund 15 Monate im Einsatz.
Im Vergleich mit per Satellit gewonnenen Daten zeigte sich, dass der Südosthang sich an Land im selben Zeitraum ähnlich weit bewegt hat. „Der komplette Südosthang hat also seine Position verändert“, sagt Dr. Urlaub.
„Insgesamt deuten unsere Ergebnisse darauf hin, dass der Hang aufgrund der Schwerkraft abrutscht und nicht etwa durch den Aufstieg von Magma“, erläutert sie weiter. Würde Magma im Zentrum des Vulkans die Bewegung auslösen, müsste sich der Hang an Land stärker fortbewegen als unter Wasser. Diese Erkenntnis ist wichtig für die weitere Gefahrenabschätzung. „Der gesamte Hang befindet sich durch die Schwerkraft in Bewegung. Daher ist es durchaus möglich, dass er plötzlich abrutscht, was einen Tsunami im gesamten Mittelmeer auslösen könnte“, erklärt Professor Heidrun Kopp, Koordinatorin des GeoSEA-Arrays und Co-Autorin der Studie. Allerdings ist durch die Untersuchungsergebnisse keine Voraussage möglich, ob und wann es zu diesem Ereignis kommen könnte.
„Um die geologischen Vorgänge rund um den Ätna und anderen an Küsten gelegenen Vulkanen zu verstehen, ist weitere Grundlagenforschung nötig. Unsere Untersuchung zeigt aber, dass das schallbasierte Vermessungsnetz uns dabei hervorragend unterstützen kann“, fasst Dr. Urlaub zusammen.
Originalpublikation:
Urlaub, M., F. Petersen, F. Gross, A. Bonforte, G. Puglisi, F. Guglielmino, S. Krastel, D. Lange, H. Kopp (2018): Gravitational collapse of Mount Etna’s southeastern flank. Science Advances 2018; 4: eaat9700, https://doi.org/10.1126/sciadv.aat9700
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
https://www.geomar.de/index.php?id=5286&L=1 Das GEOMAR GeoSEA Array
Quelle: idw
Warum Vitamin E-Wirkung bisher oft reine Glückssache ist
Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
Pharmazeuten und Biochemiker der Universität Jena entschlüsseln mit internationalem Forscherteam die entzündungshemmende Wirkungsweise von Vitamin E und seiner Stoffwechselprodukte / Ergebnis zeigt Nutzen einer personalisierten Medizin auf / Patentierter Wirkstoffkandidat wird nun weiter erforscht
Es soll die Hautalterung bremsen, Gelenkverschließ bei Rheuma und Arthrose lindern und sogar vor Krebs und Herz-Kreislauferkrankungen schützen. Seit fast 100 Jahren erforschen Wissenschaftler die Wirkungen von Vitamin E, fachsprachlich Alpha-Tocopherol, und haben die chemischen Grundlagen weitgehend geklärt. „Vitamin E ist ein Antioxidans, es neutralisiert zellschädigende freie Radikale“, erläutert PD Dr. Andreas Koeberle von der Friedrich-Schiller-Universität Jena. Doch obwohl dies in Zell- und Tiermodellen unter Laborbedingungen hinreichend belegt ist, überzeugt Vitamin E in klinischen Studien bisher nicht: „Hier finden wir sehr heterogene Ergebnisse“, sagt Koeberle. „Nicht nur, dass die positiven Effekte oft nicht in der erwarteten Stärke auftreten, manchmal zeigt die Gabe von Vitamin E sogar nachteilige Effekte“, so der Biochemiker vom Lehrstuhl für Pharmazeutische Chemie.
Eine mögliche Ursache dafür haben Dr. Koeberle und seine Kollegen nun gefunden: Wie das Jenaer Forscherteam in einer breit angelegten interdisziplinären Studie gemeinsam mit Partnern aus Frankreich, Österreich, Italien und Deutschland belegt, beruht die Wirkung von Vitamin E, das als Tablette oder Kapsel eingenommen wird, gar nicht auf dem Vitamin selbst, sondern auf der eines Stoffwechselprodukts. Diese Substanz mit Namen Alpha-Carboxychromanol besitzt unter anderem eine vielversprechende entzündungshemmende Wirkung. Ihre Ergebnisse haben die Forscher in der Fachzeitschrift „NATURE Communications“ veröffentlicht (DOI: 10.1038/s41467-018-06158-5).
Alpha-Carboxychromanol wird in der Leber gebildet. „In welchem Maße das passiert, ist von Patient zu Patient aber sehr verschieden“, berichtet Prof. Dr. Oliver Werz, der die Studie gemeinsam mit Dr. Koeberle geleitet hat. Wie die Jenaer Wissenschaftlerinnen und Wissenschaftler gezeigt haben, weist der Spiegel des Metaboliten im Blut von Versuchspersonen eine sehr große individuelle Spannweite auf. „Wenn der Effekt von Vitamin E davon abhängt, in welchem Maße der bioaktive Metabolit gebildet wird, dann erklärt das sehr gut, wieso die gleiche Menge Vitamin E bei einer Person eine bestimmte Wirkung zeigt und bei einer anderen Person womöglich eine wesentlich geringere“, macht Werz deutlich. Dies belege, so der Jenaer Pharmazeut weiter, den großen Nutzen, den eine personalisierte Medizin zu bieten hat. „Wenn wir zuvor den Stoffwechsel eines Patienten charakterisieren, lässt sich ein Therapieerfolg – nicht nur für Vitamin E – wesentlich präziser erzielen.“
Schlüsselenzym im Entzündungsprozess wird gehemmt
In der vorliegenden Studie haben die Forschenden das entzündungshemmende Potenzial von Alpha-Carboxychromanol detailliert untersucht. Der bioaktive Metabolit hemmt ein Schlüsselenzym von Entzündungsprozessen (5-Lipoxygenase, kurz 5-LO). Dies sei eine vielversprechende Erkenntnis, sagt Koeberle, denn die 5-LO spiele eine zentrale Rolle bei Entzündungserkrankungen wie Asthma oder Arthritis. „Bislang gibt es aber nur ein einziges zugelassenes Arzneimittel, das die 5-LO hemmt, das aber aufgrund starker Nebenwirkungen nur sehr eingeschränkt eingesetzt werden kann.“ Die Jenaer Forscher wollen ihre Erkenntnisse nutzen, um einen neuen Wirkstoffkandidaten für die Behandlung entzündlicher Erkrankungen zu entwickeln. Ein erster von Alpha-Carboxychromanol abgeleiteter Kandidat sei bereits patentiert, so Koeberle.
Wissenschaftliche Ansprechpartner:
PD Dr. Andreas Koeberle und Prof. Dr. Oliver Werz
Institut für Pharmazie der Friedrich-Schiller-Universität Jena
Philosophenweg 14, 07743 Jena
Tel.: 03641 / 949815
E-Mail: andreas.koeberle@uni-jena.de; oliver.werz@uni-jena.de
Originalpublikation:
Pein H et al. Endogenous metabolites of vitamin E limit inflammation by targeting 5-lipoxygenase. Nature Communications (2018), volume 9, Article number: 3834, DOI: 10.1038/s41467-018-06158-5
Weitere Informationen:
https://rdcu.be/7gHO
Quelle: idw
Übergewicht entwickelt sich bereits in der frühen Kindheit – und bleibt dann bestehen
Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig
Forscher der Leipziger Universitätsmedizin haben herausgefunden, dass schon die frühe Kindheit entscheidend für die Entwicklung von Übergewicht und Adipositas ist. Sie analysierten dazu die Entwicklung des Gewichts von mehr als 51.000 Kindern von der Geburt bis in die Adoleszenz. Das Ergebnis ist eindeutig: Fast 90 Prozent der Kinder, die im Alter von drei Jahren übergewichtig waren, waren es auch als Jugendliche. Bei ihnen erfolgte der stärkste Gewichtszuwachs im Kleinkindalter von zwei bis sechs Jahren. Die Ergebnisse haben die Wissenschaftler aktuell im renommierten New England Journal of Medicine veröffentlicht.
Noch bevor ein Kind in die Schule geht, wird der Grundstein für Übergewicht und Adipositas gelegt. „Die Erkrankung manifestiert sich häufig schon sehr früh in der Kindheit. Zugleich liegt die Wahrscheinlichkeit, dass kleine Kinder mit Adipositas zu einem Normalgewicht in der Jugend zurückkehren, bei weniger als 20 Prozent. Diese Effekte konnten wir in einer großen Längsschnittstudie nachweisen mit direkten Implikationen für die Praxis“, sagt Prof. Dr. Antje Körner, Professorin für Pädiatrische Forschung an der Universität Leipzig und Arbeitsgruppenleiterin am Center for Pediatric Research Leipzig (CPL) des Universitätsklinikums Leipzig. In der Untersuchung analysierten die Wissenschaftler um Studienleiterin Antje Körner Daten zum Gewichtsverlauf von 51.505 Kindern aus dem CrescNet Register im Alter von 0 und 18 Jahren.
Das Kleinkindalter von zwei bis sechs Jahren ist das kritische Alter des Gewichtsanstiegs
In ihrer statistischen Analyse konnten die Forscher feststellen, dass in den ersten zwei Lebensjahren die Chancen für Kinder, die adipös waren, später zu einem Normalgewicht zurückzukehren gerade einmal bei 50:50 stehen. Waren die Kinder hingegen schon drei Jahre alt, waren es nur noch knapp zehn Prozent – das bedeutet: Rund 90 Prozent dieser Kinder waren auch als Jugendliche übergewichtig oder adipös. „Wir konnten mit unseren Daten zeigen, dass das Gewicht von Jugendlichen mit Übergewicht und Adipositas am stärksten zwischen zwei und sechs Jahren zugenommen hat“, so Körner. Auch danach stiegen der BMI weiter stetig an, wodurch sich das Ausmaß der Adipositas weiter Jahr für Jahr verschlimmerte.
Auch Geburtsgewicht und Gewicht der Mutter haben Einfluss
Mit Daten der LIFE Child-Studie konnten auch die Bedeutung von Geburtsgewicht und Gewicht der Mutter auf das kindliche Adipositasrisiko nachgewiesen werden. So hatte fast die Hälfte der Babys, die zur Geburt sehr groß und schwer waren, einen höheren BMI in ihrer Kindheit und Jugend. Demgegenüber entwickelten weniger als 30 Prozent der Kinder mit normalem oder niedrigem Geburtsgewicht Übergewicht oder Adipositas im Jugendalter. Kinder von Müttern mit Übergewicht hatten ein deutlich höheres Risiko für kindliches Übergewicht als Kinder von Müttern, die normalgewichtig waren.
Übergewicht im frühen Kindesalter bleibt meist bestehen
„Die meisten Kinder und Jugendliche mit Übergewicht haben es auch noch im Erwachsenenalter. Natürlich ist die Prävalenz, das heißt die Häufigkeit, von Übergewicht bei Erwachsenen noch höher und nicht jeder übergewichtige Erwachsene war ein übergewichtiges Kind. Wenn jedoch Übergewicht bereits im (frühen) Kindesalter einsetzt, bleibt es zuallermeist bestehen – mit allen Konsequenzen beispielsweise für die Entwicklung von Folgeerkrankungen bereits im Jugend- oder jungen Erwachsenenalter. Eine übermäßige Gewichtszunahme bei Kindern unter sechs Jahren kann ein frühes Anzeichen für spätere Adipositas sein. Wachstum und Gewicht müssen von Kinderärzten, Erziehern und Eltern schon früh genau beobachtet werden, um Kinder mit erhöhtem Risiko zu erkennen“, sagt Prof. Dr. Antje Körner.
Die Studie wurde durch den DFG-Sonderforschungsbereich „Mechanismen der Adipositas“ (SFB 1052), durch das Integrierte Forschungs- und Behandlungszentrum AdipositasErkrankungen (IFB) sowie durch das Leipziger Forschungszentrum für Zivilisationserkrankungen (LIFE Child) unterstützt.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Antje Körner
Telefon: +49 341 97-26500
Email: antje.koerner@medizin.uni-leipzig.de
Originalpublikation:
„Acceleration of BMI in Early Childhood and Risk of Sustained Obesity“; DOI: 10.1056/NEJMoa1803527
Weitere Informationen:
https://www.nejm.org/do/10.1056/NEJMdo005405/full/?requestType=popUp&related…
Quelle: idw
Risiken von Mikroschadstoffen bewerten, Stauräume nachhaltig bewirtschaften, Dürre sichtbar machen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Wasser gilt als einer der wichtigsten Rohstoffe des 21. Jahrhunderts. Wie die Verfügbarkeit in ausreichender Qualität gewährleistet werden kann, erforschen Universitäten des Landes gemeinsam im Förderprogramm „Netzwerk Wasserforschung Baden-Württemberg“, einer Initiative des Ministeriums für Wissenschaft, Forschung und Kunst (MWK). Die Geschäftsstelle am Karlsruher Institut für Technologie (KIT) veranstaltet ein Statuskolloquium, um Ergebnisse der drei großen Verbundprojekte vorzustellen.
„Aktuelle und zukünftige Herausforderungen in der Wasserforschung verlangen angesichts des globalen Wandels und der komplexen Nutzungskonflikte um Wasserressourcen ein hohes Maß an inter- und transdisziplinären Herangehensweisen“, sagt Harald Horn, Professor am Engler-Bunte-Institut (EBI) des KIT und Sprecher des Netzwerks. „Nur mit einer engen Verzahnung von Natur-, Ingenieur-, Geistes- und Sozialwissenschaften kann die Wasserforschung zukunftsweisende Lösungsansätze entwickeln und umsetzen.“
Die vielfältigen Aktivitäten der Hochschulen des Landes auf diesem Gebiet besser zu vernetzen, ist Ziel des „Netzwerks Wasserforschung Baden-Württemberg“. Zentrale Komponenten sind dabei drei interdisziplinäre Verbundprojekte, in denen Wissenschaftlerinnen und Wissenschaftler von je drei Hochschulen in Baden-Württemberg jeweils ein gemeinsames Thema aus unterschiedlichen Perspektiven bearbeiten:
Effect-Net: Wirkungszusammenhänge für die Risikobewertung von Chemikalien in Gewässerökosystemen
Im Projekt Effect-Net (Effect Network in Water Research) arbeiten Natur- und Sozialwissenschaftlerinnen und -wissenschaftler der Universitäten Heidelberg und Tübingen sowie des Karlsruher Instituts für Technologie (KIT) zusammen. Sie erforschen, ob sich Arzneimittel und künstliche Süßstoffe in Gewässern nachteilig auf Fische und wirbellose Organismen auswirken. Zusätzlich will das Projektteam herausfinden, wie Gesellschaft und Politik diese Thematik wahrnehmen. Zum Nachweis der Substanzen selbst sowie deren Um- und Abbauprodukte in Oberflächenwasser, Abwasser und Organismen haben die Forscherinnen und Forscher chemisch-analytische Methoden entwickelt und optimiert. Ziel von Effect-Net ist, biologische Risiken zu identifizieren, ihnen entgegenzuwirken sowie Konzepte zur Steuerung von Konsumentenverhalten und für die Umweltgesetzgebung zu entwickeln.
Sprecher: Professor Thomas Braunbeck, Universität Heidelberg
Weitere Informationen: http://www.effect-net-wasser.de
CHARM: Stauräume verstehen – Stauräume nachhaltig bewirtschaften
Talsperren und Stauräume wie Speicher und Rückhaltebecken spielen eine bedeutende Rolle für die Wasser- und Energieversorgung, den Hochwasserschutz und die Freizeitgestaltung. Bau und Betrieb sind jedoch mit vielen Herausforderungen verbunden: Ablagerung von Sedimenten, Wachstum von Blaualgen, Emission von Treibhausgasen oder gesellschaftliche Akzeptanz. Im Projekt CHARM (CHAllenges of Reservoir Management) erforscht ein interdisziplinäres Team der Universitäten Stuttgart, Konstanz und Freiburg die Eigenschaften von Stauräumen im Schwarzwald und im Fränkischen Seenland und die damit assoziierten Prozesse. Die Ergebnisse können zu einem verbesserten Speichermanagement beitragen, um die Wirtschaftlichkeit zu erhöhen (z.B. Wasserkraft, Hochwasserschutz), Gefährdungen zu reduzieren (z.B. Treibhausgasemissionen, gesundheitliche Risiken durch Blaualgentoxine) und den Betrieb aus ökologischer Sicht zu verbessern.
Sprecherin: Professorin Silke Wieprecht, Universität Stuttgart
Weitere Informationen: www.charm-bw.de
DRIeR: Auswirkungen von Dürre – Das Unsichtbare sichtbar machen
Die Dürre dieses Jahres zählt zu den folgenreichsten Ereignissen der letzten zwei Jahrzehnte. Solche Extremereignisse könnten in Anbetracht des Klimawandels auch in Baden-Württemberg häufiger auftreten. Ein interdisziplinäres Team an den Universitäten Freiburg, Heidelberg und Tübingen untersucht im Forschernetzwerk DRIeR die komplexen Auswirkungen von Dürre auf Natur und Gesellschaft. Die Forscherinnen und Forscher analysieren Dürreereignisse und deren Auswirkungen seit dem 16. Jahrhundert und verbinden diese mit gegenwärtiger Prozessforschung, um insbesondere die versteckten Auswirkungen, beispielsweise auf Wasserqualität und Biodiversität, sichtbar zu machen. DRleR beschäftigt sich darüber hinaus mit der Frage, wie Staat und Gesellschaft mit dem Risiko einer Dürre umgehen und umgehen sollten.
Sprecherteam: Professorin Kerstin Stahl und Professor Jens Lange, Universität Freiburg
Weitere Informationen: www.drier.uni-freiburg.de
Das Ministerium für Wissenschaft, Forschung und Kunst (MWK) unterstützt das „Netzwerk Wasserforschung in Baden-Württemberg“ über einen Zeitraum von fünf Jahren bis 2020. Die drei interdisziplinären Verbundprojekte erhalten jeweils zwei Millionen Euro. Beim Statuskolloquium stellen die Wasserforscherinnen und -forscher erste Ergebnisse vor.
Das MWK fördert zudem die Geschäftsstelle des Netzwerks Wasserforschung Baden-Württemberg, die am Karlsruher Institut für Technologie (KIT) beim Sprecher des Netzwerks, Professor Harald Horn, eingerichtet wurde. Die Geschäftsstelle organisiert Workshops und Veranstaltungen zu vielfältigen Themen, um neue Kooperationen aufzubauen und weitere Forschungsideen zu entwickeln. Auch der wissenschaftliche Nachwuchs wird dabei schon frühzeitig in den interdisziplinären Austausch und die Ideenentwicklung eingebunden.
Weitere Informationen:
http://www.wassernetzwerk-bw.de
Weiterer Kontakt:
Sarah Werner, Redakteurin/Pressereferentin, Tel.: +49 721 608 21170, E-Mail: sarah.werner@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Wissenschaftliche Ansprechpartner:
Sarah Werner, Redakteurin/Pressereferentin, Tel.: +49 721 608 21170, E-Mail: sarah.werner@kit.edu
Originalpublikation:
http://www.kit.edu/kit/pi_2018_123_risiken-von-mikroschadstoffen-bewerten-staura…
Weitere Informationen:
http://sarah.werner@kit.edu
http://www.sek.kit.edu/presse.php
http://www.wassernetzwerk-bw.de
http://www.effect-net-wasser.de
Anhang
KIT: Risiken von Mikroschadstoffen bewerten, Stauräume nachhaltig bewirtschaften, Dürre sichtbar machen
https://idw-online.de/de/attachment66819
Quelle: idw
Wasser – zu viel oder zu wenig? Tagung zu regionalen Auswirkungen des Klimawandels
Josef Zens Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Klimawandel in Regionen verstehen, Folgen erkennen und Auswirkungen diskutieren: Die 8.. Regionalkonferenz des Forschungsverbunds REKLIM legt den Schwerpunkt auf die Auswirkungen des Klimawandels in Nordost-Deutschland und beantwortet Fragen rund um das Thema Wasser. Nach dem heißen Sommer und der massiven Dürre in weiten Teilen Deutschlands zeichnen sich die Folgen dieser extremen Wetterbedingungen ab: Ernteausfälle, Einbußen für die Binnenschifffahrt, großflächige Waldbrände sowie Belastungen für Mensch und Natur. Forschende des Verbunds REKLIM „Regionale Klimaänderungen“ der Helmholtz-Gemeinschaft diskutieren mit Politik und Verwaltung die Herausforderungen.
Klimawandel in Regionen verstehen, Folgen erkennen und Auswirkungen diskutieren: Die mittlerweile achte Regionalkonferenz des Forschungsverbunds REKLIM legt in diesem Jahr den Schwerpunkt auf die Auswirkungen des Klimawandels in Nordost-Deutschland und beantwortet insbesondere Fragen rund um das Thema Wasser. Nach dem sehr warmen Sommer im Norden und Osten und der massiven Dürre in weiten Teilen Deutschlands zeichnen sich die Folgen dieser extremen Wetterbedingungen in vielen Bereichen ab: Ernteausfälle, Einbußen für die Binnenschifffahrt, großflächige Waldbrände sowie Belastungen für Mensch und Natur. Wissenschaftlerinnen und Wissenschaftler des Forschungsverbunds REKLIM „Regionale Klimaänderungen“ der Helmholtz-Gemeinschaft diskutieren mit Vertretern aus Politik und Verwaltung, vor welche Herausforderungen der Klimawandel die Gesellschaft bereits heute stellt.
Die in diesem Jahr vom Deutschen GeoForschungsZentrum (GFZ) vorbereitete 8. REKLIM Regionalkonferenz findet am 25. September 2018 im Hörsaalgebäude „H“ auf dem Telegrafenberg in Potsdam statt. Neben Expertinnen und Experten des Helmholtz-Forschungsverbunds REKLIM gestalten Entscheidungsträger aus Politik und Verwaltung das Programm aktiv mit. Es geht dabei besonders um Fragestellungen der Anpassung, wie z. B. der Historischen Gärten in Potsdam, dem Regenwassermanagement in Berlin oder wie sich die Wasserwirtschaft der Stadt Potsdam der Zukunft stellt. Ergänzt wird der Tag durch aktuelle Forschungsergebnisse aus der Wissenschaft.
„Gerade die Frage, ob extreme Wetterereignisse wie Starkregen oder Trockenheit häufiger und intensiver werden, spielt für die Anpassung eine enorm wichtige Rolle“, erklärt der wissenschaftliche Koordinator des Forschungsverbundes, Prof. Dr. Peter Braesicke, der am 1. September 2018 die wissenschaftliche Leitung des Forschungsverbundes von Prof. Dr. Peter Lemke übernommen hat. Er ergänzt: „Die REKLIM-Konferenz bietet eine hervorragende Dialog-Plattform, um mehr über die aktuelle Forschung und ihre Möglichkeiten, Extreme zu verstehen und vorherzusagen, zu erfahren und die Bedürfnisse der Gesellschaft herauszuarbeiten.“
Aber auch die Frage der Einordnung dieser Extremereignisse in den Kontext der Klimawissenschaften wird diskutiert. Seespiegeländerungen als Indikatoren für Klimaänderungen in der Vergangenheit und heute werden ebenso erörtert wie die Klimawirksamkeit wiedervernässter Moore oder die Rolle von Bäumen als Indikatoren von Wärmeinseln in der Stadt. Die Veranstaltung wird von Staatssekretärin Dr. Ulrike Gutheil vom Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg (MWFK) eröffnet.
Die 8. REKLIM Regionalkonferenz schließt mit einem Premierenabend von Kurzfilmen zum Thema Klimawandel, die der Forschungsverbund REKLIM in Kooperation mit der DEKRA Hochschule für Medien, Berlin, entwickelt hat.
Unter dem Titel „Ich wünschte, ich würd‘ in dieser Welt leben“ werden sieben Filme von jungen Filmemachern gezeigt, in denen kurze Geschichten und sehr persönliche Vision über die Folgen des Klimawandels erzählt werden. REKLIM engagiert sich seit 2013 in einer intensiven Kooperation mit der DEKRA Hochschule für Medien, um das Thema Klimawandel mit und insbesondere für die junge Generation fassbar und erfahrbar zu machen.
Über REKLIM
Die Helmholtz-Klimainitiative REKLIM (Regionale Klimaänderungen) ist ein 2009 gegründeter Verbund von neun Forschungszentren der Helmholtz-Gemeinschaft. REKLIM nutzt die in der Helmholtz-Gemeinschaft gebündelte Kompetenz für regionale Beobachtungs- und Prozessstudien in Kombination mit Modellsimulationen zur Verbesserung von regionalen und globalen Klimamodellen, die eine solide Basis für klimabezogene Entscheidungshilfen bieten sollen. Weitere Informationen: www.reklim.de
In der Pressestelle
des Deutschen GeoForschungsZentrums
steht Ihnen Josef Zens (0331-288-1040; Mail: josef.zens@gfz-potsdam.de) zur Verfügung,
in der des Alfred-Wegener-Instituts
steht Ihnen Dr. Folke Mehrtens (Tel.: +49(0)471 4831-2007; E-Mail: medien@awi.de
gern für Rückfragen zur Verfügung.
Wissenschaftliche Ansprechpartner:
Ihr wissenschaftlicher Ansprechpartner am Deutschen GeoForschungsZentrum (GFZ) in Potsdam ist:
Prof. Dr. Achim Brauer (Tel.: +49 (0)331 288-1330; E-Mail: brau@gfz-potsdam.de)
Ihr Ansprechpartner für den REKLIM Verbund ist:
Dr. Klaus Grosfeld (Tel.: +49(0)471 4831-1765; E-Mail: klaus.grosfeld@awi.de)
Weitere Informationen:
https://www.reklim.de/konferenz-2018/
Quelle: idw
Gegen Straßenschmutz im Regenwasser
Katharina Thehos Dezernat Kommunikation und Marketing
Hochschule Ostwestfalen-Lippe
Autos verschmutzen nicht nur die Luft, sondern auch die Straßen, auf denen sie fahren. Abrieb von Reifen und Bremsen oder Verlust von Öl – wenn es regnet, gelangen Schadstoffe von den Straßen ins Abwasser. Wie dieses bestmöglich gereinigt werden kann, erforschen Wissenschaftler der Hochschule OWL im Rahmen eines vom NRW-Umweltministerium geförderten Projektes. Die Untersuchungen finden an der Bundesstraße 64 in Höxter statt.
Wenn Regen auf versiegelte Flächen fällt, wäscht er von diesen Verunreinigungen ab, bevor er im Abflusssystem verschwindet. Auf Straßen handelt es sich bei den Verunreinigungen nicht nur um Laub oder Staub, sondern auch um Partikel, die nicht natürlichen Ursprungs sind: Abrieb von Bremsen oder von Reifen, Öl oder metallische Teilchen, die beispielsweise von rostenden Leitplanken stammen. All diese Partikel gelangen mit dem Regenwasser in den Straßenablauf. Dort wird versucht, sie mit Filtern oder durch Einrichtungen, in denen sie sich absetzen, aus dem Wasser zu eliminieren – bisher sind die Ergebnisse jedoch nicht zufriedenstellend: „Wir haben in einem inzwischen abgeschlossenen Forschungsprojekt Abscheider untersucht, mit denen das Wasser behandelt wird. Dazu haben wir Messungen in Straßenabläufen durchgeführt und mit Labordaten verglichen. Dabei fällt auf, dass die Abscheider im Einsatz an der Straße nicht so gut arbeiten wie sich aus dem Verhalten im Labor erwarten ließ“, sagt Professor Joachim Fettig vom Fachgebiet Wassertechnologie der Hochschule Ostwestfalen-Lippe.
Er und sein Team bearbeiten jetzt ein Folgeprojekt mit dem Titel „Erfassung und weitergehende Charakterisierung der Fraktion AFS-fein im Zu- und Ablauf von dezentralen Anlagen zur Behandlung des Niederschlagswassers von Verkehrsflächen“. Dabei geht es darum, die Eigenschaften der Schmutz-Partikel genauer zu verstehen, um diese besser als bisher aus dem Wasser abscheiden zu können. Das Projekt wird seit Mai 2018 für zwei Jahre mit 160.000 Euro vom Ministerium für Umwelt, Landwirtschaft, Natur- und Verbraucherschutz des Landes Nordrhein-Westfalen gefördert. Die Wissenschaftler arbeiten an einem Versuchsstand an der Bundesstraße 64 im Stadtgebiet Höxter. Dort entnehmen sie bei Regen automatisiert Proben aus dem abfließenden Wasser. „Die vorhandenen Partikel analysieren wir anschließend mit unterschiedlichen Messmethoden, beispielsweise hinsichtlich ihrer Größe und Dichte“, so Fettig, der auch Sprecher des Forschungsschwerpunktes „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“ der Hochschule OWL ist. Die betrachteten Partikel, die im Projektnamen als „Fraktion AFS-fein“ benannt sind, sind abfilterbare Stoffe (AFS), die kleiner als 63 Tausendstel eines Millimeter sind.
Die Forscher sammeln über einen Zeitraum von zwei Jahren Daten bei mehreren Dutzend Regengüssen. Neben Metallen und organischen Verunreinigungen steht dabei auch das Thema Mikroplastik im Fokus. „Mikroplastik wird aktuell stark diskutiert, allerdings vor allem im Bereich der Kläranlagen. Der Nachweis im Straßenwasser ist nicht nur für uns neu, sondern allgemein Pionierarbeit“, sagt Fettig. Die Wissenschaftler der Hochschule OWL kooperieren in diesem Gebiet mit der Hochschule Rhein-Main, in deren Labors die Mikroplastik-Analysen stattfinden. Das Projekt in Höxter zeichnet sich zudem durch zwei weitere Besonderheiten aus: Zum einen verfolgt es den zeitlichen Verlauf des Regens und geht damit der Frage nach, ob bzw. inwieweit das am Anfang eines Regengusses fallende Wasser am stärksten verschmutzt wird. Zum anderen bringen die Wissenschaftler die Wasserverunreinigungen mit Verkehrsdaten in Verbindung. Hierzu haben sie ein Messsystem installiert, das erfasst, wie viele Fahrzeuge – getrennt nach PKW, LKW und Bussen – den Versuchsstand passieren.
Forschungsschwerpunkt „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“
Der Forschungsschwerpunkt „Nachhaltige Wasserwirtschaft und vorsorgender Gewässerschutz“ der Hochschule OWL befasst sich mit der Gewässerreinhaltung und Gewässergütebestimmung, der Wassermengenwirtschaft, der Gewässer- und Auenökologie sowie der Gewässerentwicklung. Zusätzlich berücksichtigen die Forscherinnen und Forscher wasserwirtschaftliche Aspekte der Geotechnik, Abfallwirtschaft und Deponietechnik. Dabei kommen Methoden der Modelltechnik und der modernen Datenverarbeitung zur Anwendung. Ein Schwerpunkt liegt auf der interdisziplinären Forschung. Beteiligt sind Wissenschaftlerinnen und Wissenschaftler aus acht Fachgebieten der beiden Höxteraner Fachbereiche Umweltingenieurwesen und Angewandte Informatik sowie Landschaftsarchitektur und Umweltplanung. www.hs-owl.de/fb8/forschung
Wissenschaftliche Ansprechpartner:
Kontakt: Professor Dr. Joachim Fettig, Telefon 05271 687-7851, E-Mail joachim.fettig@hs-owl.de
Quelle: idw
Eine Tablette Aspirin täglich hat keinen gesundheitlichen Vorteil für fitte und gesunde Senioren
Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann
Viele gesunde Menschen über 70 nehmen jeden Tag eine geringe Dosis Aspirin zu sich, um sich vor Herzinfarkt und Schlaganfall zu schützen. Wissenschaftler der Monash University in Melbourne haben nun herausgefunden, dass sich die Gesundheit der betroffenen Personen hierdurch nicht verbessern lässt. Im Gegenteil: die bekannte Nebenwirkung des erhöhten Blutungsrisikos wurde bestätigt. Also lieber Finger weg vom Aspirin?
Millionen von Senioren nehmen jeden Morgen eine geringe Dosis Aspirin zu sich, ohne dass es hierfür eine medizinische Indikation gibt. Sie tun dies in der Hoffnung, so unter anderem dem ersten Herzinfarkt oder Schlaganfall vorzubeugen. Dabei gibt es in der Forschung kaum Beweise, die diese Annahme unterstützen.
Obwohl in klinischen Richtlinien durchaus auf diesen Mangel an Nachweisen hingewiesen wird, sieht es in der Praxis ganz anders aus: Schon seit Jahrzehnten wird vor diesem Hintergrund täglich Aspirin eingenommen.
Jetzt hat eine große Studie der Monash University ergeben, dass die tägliche Einnahme von niedrig dosiertem Aspirin (100 mg), wenn es gesunde Menschen ab einem Alter von 70 Jahren nehmen, nicht dazu beiträgt, dass das Risiko eines erstmaligen Herzinfarktes oder Schlaganfalls in erheblichem Ausmaß verringert wird.
Die Studie, welche 2010 ihren Anfang genommen hat, wurde in Australien von den Professoren John McNeill und Robyn Woods von der Monash University geleitet. Beide forschen und lehren an der School of Public Health and Preventive Medicine.
Die Studie war eine Zusammenarbeit australischer und amerikanischer Wissenschaftler und vergleicht die Wirkung von niedrig dosiertem Aspirin mit einem Placebo-Wirkstoff bei gesunden Menschen ab 70 Jahren.
Mehr als 19.000 Menschen in Australien und den USA – 16.700 davon im südöstlichen Australien – wurden über einen Zeitraum von sieben Jahren untersucht. Die Studie nannte sich ASPREE: Aspirin in Reducing Events in the Elderly (Aspirin-Einnahme in Hinsicht auf das Vermeiden von Herzinfarkt oder Schlaganfall bei Senioren).
Die Ergebnisse zeigen, dass niedrig dosiertes Aspirin ein gesundes Leben nicht verlängert. Es trägt auch nicht dazu bei, länger zu leben oder die Gefahr eines Herzinfarktes oder eines Schlaganfalls in erheblichem Ausmaß zu reduzieren. Zwischen den Versuchsgruppen mit Aspirin und denen mit Placebo gibt es nur sehr geringfügige Unterschiede.
„Aus dieser komplexen, groß-angelegten und durch Placebo-Präparate kontrollierten Studie kann geschlussfolgert werden, dass gesunde, ältere Menschen, die darüber nachdenken, wie sie ihre Gesundheit am besten fördern können, sehr wahrscheinlich keinen Nutzen aus der Aspirin-Einnahme ziehen.“, sagt Professor McNeil, der Leiter des Department of Epidemiology and Preventive Medicine an der Monash University.
Erhöhtes Blutungsrisiko, eine bekannte Nebenwirkung von Aspirin, konnten von der Studie bestätigt werden. Es lässt sich ein kleiner Anstieg (3,8 Prozent) in Fällen von ernsten Blutungen bei den Probanden, welche Aspirin nahmen, feststellen. Bei den Placebo einnehmenden Probanden beträgt der Anstieg hingegen nur 2,8 Prozent.
„Das bedeutet, dass Millionen von gesunden, älteren Menschen weltweit, welche ohne einen medizinischen Grund niedrig dosiertes Aspirin nehmen, dieses völlig unnötig einnehmen. Die Studie zeigt, dass es keinen größeren Vorteil gibt, der das möglicherweise erhöhte Blutungsrisiko wettmacht.“, sagt Professor McNeil.
Des Weiteren führt er aus, dass Aspirin ein relativ sicheres Medikament bleibt. Dennoch ist es nicht völlig bedenkenlos einzunehmen, und Patienten sollten sich im Hinblick auf den täglichen, niedrig dosierten Gebrauch an die Anweisungen ihres Arztes halten.
Gleichzeitig warnte er, dass sich die Ergebnisse der Studie nicht auf jene Menschen beziehen lassen, die bereits einen Herzinfarkt oder Schlaganfall erlitten haben oder von einer Angina Pectoris betroffen sind. In diesen Fällen ist Aspirin als wichtiges Medikament zur Vorbeugung empfohlen.
Was passiert als Nächstes?
Laut Professor McNeil werden die ASPREE-Ergebnisse dazu führen, dass globale Richtlinien rund um die Aspirin-Verwendung zur Vermeidung von Herz-Kreislauf-Erkrankungen im Alter überdacht werden.
„Obwohl Aspirin schon seit mehr als 100 Jahren auf dem Markt ist, wussten wir bislang nicht, ob ältere Menschen es zur Vermeidung von Herz-Kreislauf-Erkrankungen einnehmen sollten und ob es ihnen ein längeres Leben in Gesundheit ermöglicht. Die Studie hat die Antwort auf diese Fragen nun geliefert“, sagte Professor McNeil.
„Diese Ergebnisse werden dabei helfen, die verschreibenden Ärzte darüber zu informieren. Die Ärzte waren lange Zeit unsicher, ob die Empfehlung von Aspirin für gesunde Patienten ohne klaren medizinischen Grund Sinn ergibt.“
Professor McNeil erläuterte, dass präventive Versuchsreihen in der älteren Bevölkerungsgruppe – so wie ASPREE – zunehmend wichtig werden, da es einen enormen Anstieg von dieser Bevölkerungsgruppe gibt. Deshalb ist es notwendig, neue Methoden zu entdecken, um die Lebensqualität dieser Altersgruppe aufrecht zu erhalten und das Auftreten von gesundheitlichen Einschränkungen zu verzögern.
„Es wird prognostiziert, dass es bis 2056 in Australien 8,7 Millionen Menschen in dieser Altersgruppe geben wird. Und bis 2096 werden 12,8 Millionen Menschen 65 Jahre oder älter sein. Ohne neue Strategien, um das Einsetzen von körperlichen Einschränkungen und Demenz zu verzögern, werden die Kosten in der Pflege die folgenden Generationen signifikant treffen“, erläuterte er.
Die durchgeführte Studie, ASPREE, wurde vom US National Institute of Health, vom Australian National Health and Medical Council, von der Victorian Cancer Agency und der Monash University finanziert.
In den Vereinigten Staaten wurde die Studie von den Professoren Anne Murray und Brenda Kirpach geleitet, welche am Berman Center for Outcomes and Clinical Research in Minneapolis forschen und lehren.
Diese neuen Ergebnisse werden in drei Aufsätzen im New England Journal of Medicine dargelegt.
Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593
oder:
John McNeil
john.mcneil@monash.edu
Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.
Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de
Quelle: idw
Erstmals systematische Untersuchungen von Arzneimitteleinträgen in die Ostsee
Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
In dem von der EU finanzierten Projekt CWPharma wurde damit begonnen, aktive pharmazeutische Wirkstoffe in sechs Flusseinzugsgebieten zu untersuchen, um ein besseres Bild der Eintragspfade, Emissionen und umweltrelevanten Konzentrationen von Arzneimitteln in der Ostseeregion zu erhalten.
„Wir haben bereits Proben aus sechs Flusseinzugsgebieten und mehreren Kläranlagen in Estland, Finnland, Deutschland, Lettland, Polen und Schweden gesammelt. Ziel des Screenings ist es, den gesamten Eintrag von Pharmazeutika in die Ostseeregion abschätzen zu können“, sagt Projektleiterin Noora Perkola vom Finnischen Umweltinstitut. „Wir analysieren gerade die Proben in unseren Labors in Helsinki im Hinblick auf etwa 80 pharmazeutische Wirkstoffe. Zum ersten Mal wird ein derart umfassendes und systematisches Screening von unterschiedlichen Proben aus verschiedenen Ländern durchgeführt. Damit werden die Ergebnisse tatsächlich vergleichbar und können für eine solide Abschätzung der Emissionen und potenziellen Hotspots genutzt werden.“
Die Beprobung verschiedener Flüsse und Flussmündungen aus Flusseinzugsgebieten in Deutschland wurden bereits vom Kompetenzzentrum Wasser Berlin durchgeführt. Im Fokus waren die Tollense vor und nach der Einleitstelle des Klärwerks Neubrandenburg, die Peenemündung, die Warnow im Stadtgebiet Rostock sowie die Warnowmündung am Leuchtturm in Warnemünde. Um jahreszeitliche Konzentrationsschwankungen in den Oberflächengewässern zu erfassen, erfolgten Probenahmen im Sommer und im Winter. Zusätzlich wurde in der Nähe vom Küstenort Rerik Bodenproben von Agrarflächen genommen, auf denen Klärschlamm ausgetragen wird. Zusätzlich organisierte der DWA-Landesverband Nord-Ost in Kooperation mit dem Betreiber der Kläranlage Rostock eine Beprobung des dortigen Kläranlagenzulaufs sowie des Klärschlamms. Die Proben werden derzeit analysiert. Ergebnisse liegen noch nicht vor.
Weitere Informationen über Medikamente und die Umwelt sind erforderlich!
Während Pharmazeutika nützlich und manchmal lebensrettend für Menschen und Haustiere sind, können sie für die Umwelt schädlich sein. Helcoms Hintergrundbericht zu pharmazeutischen Konzentrationen und Auswirkungen in der Ostsee (2016) wies bereits auf viele Wissenslücken hinsichtlich des Ostseeraumes hin.
Das Projekt CWPharma will diese Wissenslücken schließen, indem u.a. Emissionen aus der Pharmaindustrie, Krankenhäusern, Mülldeponien, Fisch- und Geflügelfarmen und kommunalen Kläranlagen geprüft werden. „Ziel der Beprobungen in Deutschland war es, die Relevanz von Klärwerksemissionen für die Qualität der Ostsee zu erfassen“, sagt Dr. Ulf Miehe, Leiter der Untersuchungen beim Kompetenzzentrum Wasser Berlin.
Es ist bereits bekannt, dass Medikamente für den menschlichen Verbrauch in den Abwässern der Kläranlagen zu finden sind und bestimmte weit verbreitete Arzneimittel wie Codein auch in Fischen der Ostsee gefunden wurden. Dennoch ist in vielen Bereichen sehr wenig über die Menge der in die Umwelt gelangende Medikamente bekannt, und noch weniger wissen wir über die Auswirkungen dieser Substanzen auf die Umwelt.
Der veterinärmedizinische Einsatz von Arzneimitteln ist ein noch größeres Problem. Deshalb nehmen wir auch Proben aus Gewässern in der Nähe von Fisch- und Geflügelfarmen und von Feldern, die mit Mist oder Gülle gedüngt werden.
Wie können die Emissionen reduziert werden?
Zusätzlich zum Screening von Pharmazeutika wird CWPharma verschiedene emissionsmindernde Maßnahmen evaluieren, wie bspw. die Veröffentlichung von Umweltdaten zu pharmazeutischen Produkten und die Erteilung von Umweltgenehmigungen für pharmazeutische Betriebe. „Einige dieser Maßnahmen sind hochtechnisch, wie die weitergehenden Methoden der Abwasserbehandlung, bei anderen wiederum handelt es sich um Low-Tech-Verfahren, die dennoch eine Menge bewirken können, darunter die Rücknahme- und Entsorgungsprogramme für nicht verwendete Arzneimittel „, sagt Noora Perkola.
Bewährte Methoden, wie sie in den Partnerländern bereits praktiziert werden, werden gemeinsam genutzt, um den nachhaltigen Umgang mit Arzneimitteln in der Ostseeregion voranzubringen. Zu diesem Zweck werden im Rahmen des Projekts Leitlinien für eine fortschrittliche Abwasserbehandlung und Emp-fehlungen für Low-Tech-Verfahren zur Kontrolle und Verringerung der Emissionen erarbeitet sowie ein umfassender Aktionsplan für die effizientesten Maßnahmen zur Emissionsminderung.
Wissenschaftliche Ansprechpartner:
Kontakt Deutschland:
Dr. Ulf Miehe, Kompetenzzentrum Wasser Berlin, +49 30 53653 821
Projektleitung CWPharma:
Noora Perkola, Finnish Environment Institute tel. +358 295 251 507
Helene Ek Henning, County administrative board of Östergötland
Weitere Informationen:
http://www.cwpharma.fi
http://www.swedishepa.se/Hazards/Pharmaceuticals
https://youtu.be/oIll3vw63as
Quelle: idw
Ein neuer preiswerter Filter macht es möglich: giftiges Wasser wird sicher und trinkbar
Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann
Eine Erfindung in der Flüssigmetall-Chemie könnte dabei helfen, ein Zehntel der Weltbevölkerung kostengünstig mit sauberem Trinkwasser zu versorgen. Das fanden Forscher der UNSW Sydney und des RMIT in Melbourne in einer bahnbrechenden Studie heraus.
Forscher von der University of New South Wales in Sydney und des Royal Melbourne Institute of Technology haben eine revolutionäre und günstige Methode entwickelt, Filter herzustellen, die mit Schwermetallen kontaminiertes Wasser in wenigen Minuten in sicheres Trinkwasser verwandeln.
Prof. Kourosh Kalantar-zadeh, seit kurzem an der UNSW tätig, und seine früheren Kollegen am RMIT konnten zeigen, dass Nano-Filter aus Aluminiumoxid günstig und mit extrem geringem Energieaufwand mit Hilfe von flüssigem Gallium hergestellt werden können.
Der Hauptautor Dr. Ali Zavabeti (RMIT) und Prof. Kalantar-zadeh erklären, dass ein Stück Aluminium, welches bei Zimmertemperatur in flüssiges Gallium gelegt wird, schnell an der Oberfläche des Galliums Schichten von Aluminiumoxid bildet. Sie entdeckten, dass die Schichten des Aluminiumoxids sehr porös waren. Sie konnten nachweisen, dass Aluminiumoxid geeignet ist, sowohl Schwermetall-Ionen als auch Ölverschmutzungen in noch nie da gewesener Geschwindigkeit zu filtern.
Prof. Kalantar-zadeh, der kurz nach seinem Beitritt in die UNSW School of Chemical Engineering mit dem ARC Australian Laureate Fellowship ausgezeichnet wurde, sagt, dass die kostengünstigen und tragbaren Filter, die durch den neuen Prozess hergestellt werden, von Menschen genutzt werden können, die bisher keinen Zugang zu sauberen Trinkwasser hätten. Sie könnten damit Blei und andere giftige Schwermetalle in wenigen Minuten herausfiltern.
„Weil es sehr porös ist, wird das Wasser sehr schnell durchgefiltert“, so Professor Kalantar-zadeh. „Blei und andere Schwermetalle sind eng verwandt mit Aluminiumoxid. Wenn das Wasser die Milliarden Schichten durchläuft, wird jedes einzelne Blei-Ion von den Aluminiumoxid-Schichten angezogen. Zugleich ist die Methode sehr sicher, denn auch nach wiederholter Nutzung kann das Wasser die Schwermetallionen nicht vom Aluminiumoxid lösen“.
Prof. Kalantar-zadeh ist der Ansicht, dass die Technologie in Afrika und Asien besonderes gut an den Orten eingesetzt werden kann, an denen die Konzentration von Schwermetallionen im Wasser besonders hoch – und damit für Menschen schädlich – ist. Es wird geschätzt, dass 790 Millionen Menschen, also einer von zehn der gesamten Weltbevölkerung, keinen Zugang zu sauberem Wasser haben.
„Wenn die Wasserqualität schlecht ist, nimm einfach einen dieser Filter“, so Prof. Kalantar-zadeh. „Man schüttet das kontaminierte Wasser in eine Flasche mit einem Aluminiumoxid-Filter. Dann wartet man zwei Minuten, und das durch den Filter gelaufene Wasser ist sauber und trinkbar. Und das Gute daran ist, dass der Filter auch noch günstig ist.“
Es gäbe zwar bereits tragbare Filter, die Schwermetalle aus dem Wasser filtern, aber diese seien im Vergleich teuer. Sie kosteten oft mehr als 100 Dollar. Im Gegensatz dazu könnten die Aluminiumoxid-Filter, die mit flüssigem Gallium hergestellt werden, für nur 10 Cent produziert werden, was sie für mögliche zukünftige Investoren interessant macht.
„Um Aluminiumoxid herzustellen, musste man Aluminium bislang auf über 1.000 Grad erhitzen oder andere energieintensive Prozesse nutzen“, sagt Prof. Kalantar-zadeh. „Es würde eigentlich sehr viel Energie kosten, etwas wie diesen Filter herzustellen, wodurch der Prozess sehr teuer wäre. Jetzt reden wir von etwas, was man sogar bei 35 Grad in der Sonne machen kann.“
„Während Aluminium reichlich vorkommt und billig ist, ist Gallium recht teuer. Aber was Gallium in diesem Prozess zum Helden macht, ist die Tatsache, dass es nach der Produktion des Aluminiumoxids rein und unverändert bleibt. Man fügt einfach Aluminium zum Gallium hinzu, und sobald es mit der Wasseroberfläche in Berührung kommt, erhalten wir Aluminiumoxid. Man kann das Gallium wieder und wieder verwenden. Gallium reagiert nicht mit den anderen Stoffen“, erklärt Prof. Kalantar-zadeh.
Prof. Kalantar-zadeh sagt, der Herstellungsprozess sei so günstig und benötige nur so wenig Energie, dass die Filter sogar in der Küche hergestellt werden könnten. „Wir veröffentlichen dieses Konzept und machen es zum Allgemeingut, damit alle Menschen auf der Welt die Idee kostenlos nutzen und ihre Lebensqualität verbessern können“, so Prof. Kalantar-zadeh.
„Hierbei geht es um ein neues Paradigma. Wir haben noch nicht einmal damit angefangen herauszufinden, wir wir flüssige Metalle als Basis für Dinge nutzen können, die günstig, grün und sicher für die Menschheit sind.“
Das Paper wurde im wissenschaftlichen Magazin „Advanced Functional Materials“ veröffentlicht.
Die Arbeit, die von Prof. Kalantar-zadeh und Dr. Zavabeti geleitet wurde, wurde vom ARC Centre for Future Low-Energy Electronics Technologies (FLEET) finanziert.
Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593
oder:
Isabelle Dubach
Media and Content
+61 2 9385 7307
i.dubach@unsw.edu.au
Das Institut ist die gemeinnützige Einrichtung zur Förderung des Austausches und der Auslandsstudien insbesondere mit allen Universitäten Australiens und Neuseelands sowie zur Förderung von Wissenschaft und Forschung. In seinen Förderprogrammen stellt es SchülerInnen und Studierenden Unterstützung in der Finanzierung durch Stipendien und Coaching in der Studienberatung und Studienplatzbewerbung zur Verfügung.
Wissenschaftliche Ansprechpartner:
https://www.ranke-heinemann.de
Quelle: idw
Umweltauswirkungen der Krabbenfischerei im Nationalpark Wattenmeer
Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Thünen-Institut erhält Zuschlag für ein neues, bundesländerübergreifendes Forschungsprojekt
Die deutsche Nordseeküste gehört fast vollständig zum Nationalpark Wattenmeer, einem besonders schützenswerten Ökosystem. In diesem Gebiet sind rund 190 Krabbenfischerei-Betriebe tätig. Hohe Anforderungen an die Nachhaltigkeit sind nötig, um die Garnelenfischerei mit den Nationalparkzielen und der Natura2000-Richtlinie in Einklang zu bringen. Bei ihren Fangfahrten setzen die Krabbenfischer Grundschleppnetze ein, sogenannte Baumkurren, die durch Rollen und Kufen stetigen Kontakt zum Meeresboden haben. Wie stark dies das Ökosystem beeinträchtigt, wird in der Öffentlichkeit kontrovers diskutiert.
Die Auswirkungen der Baumkurren auf den Meeresboden und seine Lebensgemeinschaften besser zu verstehen, ist Ziel des neuen Forschungsprojekts „CRANIMPACT – Auswirkungen der Garnelenfischerei auf Habitate und Lebensgemeinschaften im Küstenmeer der Norddeutschen Bundesländer Schleswig-Holstein, Hamburg und Niedersachsen“. Unter Leitung des Thünen-Instituts für Seefischerei hat sich für dieses Projekt ein Konsortium aus Universitäten, staatlichen Forschungseinrichtungen und Wirtschaftspartnern zusammengefunden; die Kosten von rund 1,4 Millionen Euro werden zu 75 % aus Mitteln des Europäischen Meeres- und Fischereifonds bereitgestellt, die übrigen 25 % tragen die beiden Bundesländer Schleswig-Holstein und Niedersachsen.
Das Projekt hat zwei sich ergänzende Ansätze: Analysen der Zusammensetzung der Bodenlebensgemeinschaften entlang von Gradienten fischereilicher Nutzung und die Untersuchung der Erholungsraten der Lebensgemeinschaften und Bodenstrukturen nach experimenteller Befischung. Als Referenzgebiet dient dabei erstmals ein Teil des dänischen Wattenmeeres, wo Krabbenfischerei seit Jahrzehnten verboten ist. Zusätzlich wird untersucht, wie tief die Baumkurren in die verschiedenen Bodentypen des Küstenmeeres eindringen, um deren physikalische Empfindlichkeit gegenüber der Fischerei herauszuarbeiten.
Für die Arbeiten auf See kommen sowohl kommerzielle Krabbenkutter der Erzeuger-gemeinschaft der Deutschen Krabbenfischer zum Einsatz als auch kleinere Forschungsschiffe, die speziell für den Einsatz im flachen Wattenmeer konzipiert sind. Die Untersuchungsgebiete erstrecken sich vom Lister Tief nördlich der Insel Sylt bis zur Blauen Balje südlich des Jadebusens im Niedersächsischen Wattenmeer.
Neben den praktischen Arbeiten auf See werden verschiedene Datensätze, unter anderem Langzeiterhebungen der Bodenlebensgemeinschaften und Satellitenüberwachungsdaten, ausgewertet, um abschätzen zu können, wie sich die Ökosysteme längerfristig an die Fischerei anpassen. In den biologischen Analysen stehen die Auswirkungen der Fischerei auf die Ökosystemfunktionalität und -leistungen besonders im Fokus.
Die Projektergebnisse liefern eine fundierte wissenschaftliche Grundlage für Management-maßnahmen und Bewirtschaftungspläne für die Krabbenfischerei im Küstenmeer, wie sie z.B. im Rahmen der MSC-Zertifizierung eingefordert werden. Darüber hinaus liefern Sie wichtige Fakten, die die Diskussion über die Vereinbarkeit von Naturschutz und fischereilicher Nutzung im Nationalpark Wattenmeer weiterbringen können.
Wissenschaftliche Ansprechpartner:
Dr. Gerd Kraus
Thünen-Institut für Seefischerei, Bremerhaven
Tel.: 0471 94460-101
E-Mail: gerd.kraus@thuenen.de
Quelle: idw
Das Hochwasserrisiko besser abschätzen
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Ingenieure der Ruhr-Universität Bochum haben ein neues statistisches Modell entwickelt, das vorhersagt, wie wahrscheinlich extreme Hochwasserereignisse in Deutschland sind. Anders als in früheren Modellen unterscheiden sie dabei drei Typen von Hochwasser mit verschiedenen Ursachen, etwa Starkregen oder Dauerregen. Das Modell kann helfen, das Hochwasserrisiko in bestimmten Gebieten einzuschätzen und entsprechende Schutzmaßnahmen zu planen. Über ihre Arbeit berichtet das Team um Prof. Dr. Andreas Schumann vom Lehrstuhl für Hydrologie, Wasserwirtschaft und Umwelttechnik im Bochumer Wissenschaftsmagazin Rubin.
Drei Ursachen für Hochwasser
In ihrem Modell unterscheiden die Hydrologen drei Arten von Hochwasser, die auf verschiedene Ursachen zurückgehen: Starkregen, der ein oder zwei Tage andauert; Dauerregen über vier bis fünf Tage; und schneebeeinflusste Hochwasser.
Früher wurden die Jahreshöchstwerte statistisch analysiert, das Modell unterschied also nicht zwischen den drei Hochwassertypen. Genau das ist aber notwendig, um die Hochwasserwahrscheinlichkeit abzuschätzen. Ein kurzer, lokal begrenzter Starkregen kann zum Beispiel in kleineren Gebieten die Flüsse über die Ufer treten lassen, in größeren Gebieten aber nicht.
Wetterdaten und Pegelstände zusammenbringen
Schumanns Gruppe rechnete die drei Hochwassertypen für das neue Modell auseinander. Als Grundlage erhielten sie von den jeweiligen Landesämtern Aufzeichnungen der Pegelstände bestimmter Flüsse und setzten diese mit meteorologischen Daten des Deutschen Wetterdienstes zum gleichen Zeitpunkt in Beziehung. So erhielten sie eine Statistik, welche Wetterereignisse welche Effekte in den Flüssen auslösen, und können darauf basierend Aussagen zum Hochwasserrisiko für die Zukunft ableiten. Das Modell basiert auf Daten des Flusses Mulde und der Region Ostharz. Prinzipiell funktioniert es für ganz Deutschland, allerdings muss es für jedes Gebiet angepasst werden.
Wichtig für eine möglichst gut treffende Aussage sind auch die Randbedingungen jeder Region, die das Modell ebenfalls berücksichtigt. Dazu zählen Bodenfeuchte, Bewaldung, ob und wie ein Gebiet landwirtschaftlich genutzt oder bebaut ist sowie das Relief des Geländes, das zum Beispiel bedingt, ob es eine steile oder flache Flutwelle gibt und wie schnell das Hochwasser abläuft.
Hochwasser treten unregelmäßig auf
„Wir können nun ausrechnen, wie wahrscheinlich es ist, dass in einem beliebigen Jahr eine bestimmte Art von Hochwasser auftritt“, sagt Andreas Schumann. Allerdings sind die Ereignisse nicht gleichmäßig über die Zeit verteilt. Gemeinsam mit Meteorologinnen und Meteorologen der Goethe-Universität Frankfurt suchen die Bochumer Ingenieure derzeit nach einer Erklärung für hochwasserarme und -reiche Perioden.
Kein Beleg für den Klimawandel
Klar ist: Seit ungefähr 1993 befindet sich Deutschland in einer hochwasserreichen Zeit. „Natürlich stellt sich immer die Frage, ob das die Folgen des Klimawandels sind“, weiß Andreas Schumann. „Aber bislang sind die Messreihen nicht lang genug, um einen solchen Zusammenhang zu belegen. Hochwasserreiche Perioden hat es auch schon früher gegeben.“ Trends zeichnen sich hingegen ab: Schneehochwasser sind seltener geworden; Hochwasser durch Starkregen häufiger – statistisch signifikant ist das jedoch derzeit nicht.
Die beschriebenen Arbeiten erfolgen im Rahmen der von der Deutschen Forschungsgemeinschaft geförderten Forschungsgruppe „Space-Time Dynamics of Extreme Floods“.
Ausführlicher Beitrag in Rubin
Einen ausführlichen Beitrag (http://news.rub.de/wissenschaft/2018-09-17-umwelttechnik-hochwasserrisiko-besser…) zum Thema finden Sie im Wissenschaftsmagazin Rubin. Texte auf der Webseite und Bilder aus dem Downloadbereich dürfen unter Angabe des Copyrights für redaktionelle Zwecke honorarfrei verwendet werden.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Andreas Schumann
Lehrstuhl für Hydrologie, Wasserwirtschaft und Umwelttechnik
Fakultät für Bau- und Umweltingenieurwissenschaften
Ruhr-Universität Bochum
Tel.: 0234 32 24693
E-Mail: andreas.schumann@rub.de
Weitere Informationen:
http://news.rub.de/leute/2018-05-18-volker-medal-andreas-schumann-fuer-hochwasse…
Quelle: idw
Neue Studie: Wasserelektrolyse hat Potenzial zur Gigawatt-Industrie
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
Die Wasserelektrolyse zur Erzeugung von Wasserstoff auf Basis von regenerativ erzeugtem Strom entwickelt sich immer mehr zu einer Kerntechnologie der Energiewende. Der steigende Anteil volatilen Wind- und Solarstroms kann in Form von Wasserstoff saisonal gespeichert, rückverstromt oder zu Kraftstoffen und chemischen Grundstoffen weiterverarbeitet werden. Allein für Deutschland wird bis 2050 eine installierte Anlagenleistung im dreistelligen Gigawattbereich prognostiziert, unter der Maßgabe, dass die Klimaschutzziele der Bundesregierung erreicht werden.
Im Auftrag des Bundesministeriums für Verkehr und digitale Infrastruktur (BMVI) haben das Fraunhofer-Institut für Solare Energiesysteme ISE, das Fraunhofer-Institut für Produktionstechnologie und Automatisierung IPA und das Beratungsunternehmen E4tech einen Fahrplan für die Etablierung der Wasserelektrolyse in Deutschland entwickelt.
In der heute veröffentlichten Studie »Industrialisierung der Wasserelektrolyse in Deutschland: Chancen und Herausforderungen für nachhaltigen Wasserstoff für Verkehr, Strom und Wärme« zeigen die Partner auf, wie die notwendigen industriellen Fertigungskapazitäten für Elektrolyseure in den nächsten Jahren aufgebaut werden können. Sie untersuchten hierfür die Herausforderungen beim Aufbau einer Gigawatt-Elektrolyse-Industrie in Deutschland, insbesondere mit Blick auf kritische Komponenten. Unter Einbeziehung von Industrie und Anwendern wurden die technologischen, herstellungstechnischen und akteursspezifischen Handlungsbedarfe diskutiert und Handlungsempfehlungen abgeleitet.
Der künftige Elektrolysebedarf für die Sektoren Verkehr, Wärme und Strom wurde mit dem am Fraunhofer ISE entwickelten Tool REMod-D in einer Energiesystemsimulation für Deutschland ermittelt. Insgesamt wurden sechs Ausbauszenarien betrachtet, um unter anderem die Bandbreite der in der Industrieumfrage ermittelten Leistungsparameter zu berücksichtigen; in allen betrachteten Szenarien gilt dabei die Randbedingung, dass das deutsche Klimaziel einer Absenkung der energie-bedingten CO2-Emissionen um 80 % ohne einen großskaligen Import von synthetischen Energieträgern erreicht wird. Zugleich wird davon ausgegangen, dass energieintensive Industrien auch weiterhin am Standort Deutschland betrieben werden. Im Ergebnis resultiert – abhängig von den jeweils zugrunde gelegten Randbedingungen – ein Ausbaukorridor von größer 100 bis weit über 200 Gigawatt an installierter Elektrolysekapazität im Jahr 2050. Bereits in der zweiten Hälfte des kommenden Jahrzehnts müsste die Zubaurate ein Gigawatt Neuinstallation pro Jahr deutlich übersteigen, und ab den 2030er Jahren gehen die Szenarien von mehreren Gigawatt Neuinstallation pro Jahr aus. »Bereits heute sind die beiden wichtigsten Technologien, die alkalische und die PEM-Elektrolyse, in einem technisch ausgereiften Zustand. Einer großskaligen Nutzung der Elektrolyse steht aus technologischer Sicht nichts im Wege«, erklärt Dr. Tom Smolinka, Abteilungsleiter Chemische Energiespeicherung am Fraunhofer ISE. Einzelne Forschungsthemen müssen jedoch noch weiter verfolgt werden. So ist beispielsweise die Hochtemperatur-Elektrolyse noch nicht wettbewerbsfähig, sie hat aber wegen des geringeren Strombedarfs und der in Deutschland vorhandenen industriellen Abwärme durchaus Potenzial. Auch aus produktionstechnischer Sicht konnten nur wenige hinderliche Aspekte identifiziert werden. »Die zur Produktion der Komponenten nötigen Verfahren werden bereits in anderen Branchen großindustriell angewendet. Eine Skalierung der Produktion ist mit einem vergleichsweise geringen Maschinen- und Kapitaleinsatz möglich«, so Steffen Kiemel, wissenschaftlicher Mitarbeiter am Fraunhofer IPA. Bei den als potenziell kritisch eingestuften Komponenten wurde aufgezeigt, dass weder kurz- noch langfristig mit Lieferengpässen zu rechnen ist.
Markthemmnisse beseitigen
»Handlungsbedarf besteht vor allem auf Seiten des Gesetzgebers: der Markthochlauf, der für die weitere Technologieentwicklung und Kostenreduktion der zentrale Hebel ist, muss durch Anpassungen des regulatorischen Rahmens, insbesondere beim Strombezug unterstützt werden, damit Elektrolyseanwendungen wirtschaftlich werden können«, bekräftigt Franz Lehner, Managing Consultant beim Beratungsunternehmen E4tech. Die Autoren der Studie schlagen daher ein »Marktaktivierungsprogramm Wasserelektrolyse« vor, das den Herstellern und Anwendern Planungssicherheit für Investitionen bietet.
Studie
Die Studie »Industrialisierung der Wasserelektrolyse in Deutschland: Chancen und Herausforderungen für nachhaltigen Wasserstoff für Verkehr, Strom und Wärme« wurde durch die Nationale Organisation Wasserstoff- und Brennstoffzellentechnologie (NOW GmbH) koordiniert und durch den Projektträger Jülich betreut.
Originalpublikation:
https://www.now-gmbh.de/content/service/3-publikationen/1-nip-wasserstoff-und-br…
Weitere Informationen:
https://www.ise.fraunhofer.de/de/presse-und-medien/presseinformationen/2018/neue…
Anhang
Presseinformation [PDF]
https://idw-online.de/de/attachment66627
Quelle: idw
Versauert die Ostsee? IOWForscher adaptiert erstmals präzise optische pH-Messmethode für Brackwasser
Dr. Kristin Beck Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Großer Fortschritt für das pH-Monitoring in der Ostsee: Um mögliche Versauerungstrends besser beobachten zu können, entwickelte Jens Müller, Meereschemiker am Leibniz-Institut für Ostseeforschung Warnemünde (IOW), eine sehr genaue optische pH-Messmethode, die bislang nur bei hohen Salzgehalten im Ozean anwendbar war, so weiter, dass sie auch bei geringer Salinität im Ostsee-Brackwasser einsatzbereit ist. Das adaptierte Messverfahren, für das bereits ein marktreifes Gerät konstruiert wurde, empfiehlt sich daher für den routi-nemäßigen Einsatz im Rahmen der Ostsee-Umweltüberwachung der Helsinki-Kommission (HELCOM). Durchgeführt wurden die Arbeiten im Rahmen des EU-Projektes BONUS PINBAL*.
Der durch den Menschen verursachte übermäßige CO₂-Ausstoß ist nicht nur ein Problem für das Weltklima, sondern auch für die Weltmeere: Kohlendoxid löst sich im Meerwasser, bil-det Kohlensäure und setzt dadurch Wasserstoff-Ionen frei, die zu einer Versauerung führen. Seit Beginn der Industrialisierung ist der durchschnittliche pH-Wert der Ozeane von 8,2 auf rund 8,1 gefallen. Auch als „das andere CO₂-Problem“ bezeichnet, beeinflusst die Absen-kung des pH-Wertes fast alle biochemischen und biologischen Prozesse im Meer. Sehr emp-findlich reagieren beispielsweise Muscheln, Krebse und Korallen, da der Aufbau ihrer Kalkschalen, -panzer oder -skelette in dem zunehmend sauren Milieu erschwert wird.
Obwohl sich die Wissenschaft bereits seit rund zwei Jahrzehnten mit der Ozeanversauerung befasst, ist es nicht leicht, die aktuelle Dynamik des Phänomens mitzuverfolgen: Langzeit-Messreihen im offenen Ozean zeigen, dass sich der pH-Wert im Schnitt jährlich um ca. 0,002 Einheiten vermindert. Um diese geringen Veränderungen zu erfassen, bedarf es hochgenauer Messmethoden. In der Ozeanographie hat sich dafür die optische pH-Messung als Standard etabliert hat. Sie beruht auf der Zugabe des Farbstoffs m-Kresolpurpur zur Wasserprobe und dessen pH-abhängigen Farbumschlag von Violett nach Gelb. Die Farbigkeit kann mit einem Photometer äußerst exakt bestimmt und in Abhängigkeit von Salzgehalt und Temperatur in pH-Einheiten umgerechnet werden.
Und wie sieht es mit der Ostsee aus? „Wir haben Daten der letzten 20 Jahre analysiert und keinen eindeutigen Versauerungstrend feststellen können – ein ziemlich bemerkenswertes Ergebnis angesichts der bereits nachgewiesenen allgemeinen Ozeanversauerung“, sagt Jens Müller vom IOW, der sich im Rahmen seiner Doktorarbeit intensiv mit dem CO₂-System der Ostsee befasst hat. Dafür kämen verschiedene Gründe in Frage; zwei besonders wichtige seien die folgenden, erklärt der Meereschemiker: 1. Die Datenqualität ist in Bezug auf Mess-genauigkeit unzureichend. 2. Es gibt tatsächlich keinen abnehmenden pH-Trend, da die Versauerung durch konträr wirkende Einflüsse abgepuffert wird.
Dass es in der Ostsee derzeit in der Tat Prozesse gibt, die der Versauerung entgegenwirken, zeigen umfangreiche Analysen zur Alkalinität, also zum Säurebindungsvermögen des Meer-wassers. Der seit 1995 beobachtete Anstieg der Alkalinität in der Ostsee ist wahrscheinlich durch kontinentale Gesteinsverwitterung bedingt, deren Produkte mit den Flüssen in das Binnenmeer gewaschen werden. Wie lange dieser Alkalinitätsanstieg jedoch anhält und eine Versauerung abpuffern kann, ist unbekannt. „Um zu verstehen, was in der Ostsee in Sachen pH passiert, muss ausgeschlossen werden, dass ein Nachweis von Versauerung einfach an Methodenungenauigkeit scheitert“, betont Jens Müller. Derzeit basiert die Erfassung des pH-Werts im Rahmen von Ostsee-Routine-Untersuchungen auf Messungen mit einer Glaselektrode; der Messfehler dieses Verfahrens ist zu groß, um Versauerungstrends sicher nachzuweisen. Jens Müller mahnt daher an, ein entsprechendes Monitoring mit genauester Methodik und möglichst guter zeitlicher und räumlicher Auflösung durchzuführen, damit man bei so einem Schlüsselparameter immer auf dem neusten Stand sei. Müller: „Wir haben deshalb die deutlich genauere optische pH-Messmethode, die bislang nur in den offenen Ozeanen mit hohen Salzgehalten zwischen 20 und 40 anwendbar war, so weiterentwickelt, dass sie auch im Ostsee-Brackwasser bei geringerer Salinität von 5 bis 20 funktioniert und für ein routinemäßiges Monitoring einsatzbereit ist.“
Dazu glich Jens Müller in Kooperation mit der Physikalisch-Technischen Bundesanstalt (PTB) in künstlichen Meerwasserstandards durchgeführte optische pH-Messungen erstmals mit pH-Messungen nach dem primären, messtechnisch definierten elektrochemischen Stan-dardverfahren ab und charakterisierte systematisch das Farbumschlagsverhalten des Indi-katorfarbstoffs m-Kresolpurpur für niedrige Salzgehalte. „Mit Hilfe dieser auf Primärstandards zurückführbaren Daten können wir nun erstmals pH-Messgeräte auch für den Salinitätsbereich der Ostsee eichen und die Farbigkeit des Indikators zuverlässig in pH-Einheiten umrechnen“, erläutert Müller. In einem letzten Schritt konnte der IOW-Forscher noch experimentell ausschließen, dass sich Schwefelwasserstoff und größere Mengen organischen Materials, beides typisch für Brackwasserökosysteme wie die Ostsee, störend auf das neue Messverfahren auswirken.
Um das optische pH-Messverfahren nicht nur auf chemisch-physikalischer Ebene für den Einsatz in der Ostsee startklar zu machen, erarbeitete Jens Müller zusammen mit einer Kieler Meerestechnik-Firma und zwei wissenschaftlichen Partnerinstitutionen eine für den Feldein-satz anwendungsreife technische Umsetzung, die mittlerweile erprobt und auf dem Markt ist. „Unser ‚Roter Kasten‘, in dem alles eingebaut ist, was man zur optisch-photometrischen pH-Messung braucht, kann leicht auf jedem Forschungsschiff installiert werden und auch auf sogenannten ‚voluntary observing ships‘ (VOS) mitfahren“, sagt Müller.
VOS sind regelmäßig auf den Ozeanen und auch auf der Ostsee verkehrende Schiffe, die nicht primär für die Forschung unterwegs sind, aber dennoch Messgeräte an Bord nehmen und wissenschaftliche Daten erheben. „Einer routinemäßigen Verwendung des angepassten Verfahrens für ein deutlich präziseres, hochaufgelöstes und flächendeckendes pH-Monitoring in der Ostsee steht damit nichts mehr im Wege. Wir halten das nun auch Brackwasser-taugliche Verfahren daher für geeignet, als offizielle neue Standard-Messmethode im Ostsee-Monitoring zum Einsatz zu kommen. Dafür machen wir uns bei der HELCOM (Helsinki-Kommission zum Schutz der Ostsee) stark“, kommentiert Gregor Rehder, Leiter der IOW-Arbeitsgruppe „Biogeochemie Umweltrelevanter Gase“ und Koordinator des PINBAL-Projekts, die Forschungsergebnisse seines ehemaligen Doktoranden und jetzigen Kollegen abschließend.
Originalpublikationen im Rahmen von BONUS PINBAL* zur pH-Messung im Brackwasser:
(*kurz für „Development of a spectrophotometric pH-measurement system for monitoring in the Baltic Sea“, weitere Infos: http://www.bonusportal.org/pinbal)
– Jens D. Müller, Frank Bastkowski, Beatrice Sander, Steffen Seitz, David R. Turner, Andrew G. Dickson, Gregor Rehder (2018): „Metrology for pH Measurements in Brackish Waters – Part 1: Extending Electrochemical pHT Measurements of TRIS Buffers to Salinities 5 – 20″, Front. Mar. Sci. 5:176, doi: 10.3389/fmars.2018.00176
– Jens D. Müller and Gregor Rehder (2018): „Metrology for pH Measurements in Brackish Waters – Part 2: Experimental Characterization of Purified meta-Cresol Purple for Spectrophotometric pHT Measurements“, Front. Mar. Sci. 5:177, doi: 10.3389/fmars.2018.00177
– Jens D. Müller, Bernd Schneider, Steffen Aßmann, Gregor Rehder (2018): „Spectrophotometric pH measurements in the presence of dissolved organic matter and hydrogen sulfide“, Limnol. Oceanogr.: Methods 16, 2018, 68-82, doi: 10.1002/lom3.10227
BONUS PINBAL-Partner:
– Kongsberg Maritime Contros GmbH, Kiel
– University of Gothenburg, Göteborg, Schweden
– Institute of Oceanology of Polish Academy of Science, Warschau, Polen
Kontakt IOW-Presse- und Öffentlichkeitsarbeit:
Dr. Kristin Beck | Tel.: 0381 – 5197 135 | kristin.beck@io-warnemuende.de
Dr. Barbara Hentzsch | Tel.: 0381 – 5197 102 | barbara.hentzsch@io-warnemuende.de
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 93 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 19.100 MitarbeiterInnen, davon sind ca. 9.900 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,9 Mrd. Euro. http://www.leibniz-gemeinschaft.de
Wissenschaftliche Ansprechpartner:
Dr. Jens Müller | Tel.: 0381 – 5197 3458 | jens.mueller@io-warnemuende.de
Prof. Gregor Rehder | Tel.: 0381 – 5197 336 | gregor.rehder@io-warnemuende.de
Quelle: idw
Experten klären auf: Wann das Smartphone für Kinderaugen gefährlich wird
Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft
Berlin – Die übermäßige Nutzung von Smartphones und Tablets fördert die Entwicklung von Kurzsichtigkeit bei Kindern. Das belegen Studien. Doch wieviel Zeit am Handy ist aus Sicht des Augenarztes erlaubt? Auf einer Pressekonferenz im Vorfeld des 116. Kongresses der DOG Deutsche Ophthalmologische Gesellschaft geben Experten konkrete Empfehlungen zum altersangemessenen Umgang mit elektronischen Medien. Die DOG 2018 findet vom 27. bis 30. September 2018 in Bonn statt.
In den vergangenen Jahren ist die Anzahl kurzsichtiger Menschen vor allem in den Industrieländern rasant angestiegen. So sind in Deutschland inzwischen 50 Prozent aller jungen Erwachsenen von einer Kurzsichtigkeit betroffen, in einzelnen asiatischen Ländern beläuft sich die Quote sogar auf bis zu 95 Prozent. „Die Zunahme ist vor allem auf sehr frühen und intensiven Gebrauch von PCs, Smartphones und Tablets bei gleichzeitig immer kürzeren Tagesaufenthalten im Freien zurückzuführen“, sagt Frau Professor Dr. med. Nicole Eter, Präsidentin der DOG und Direktorin der Klinik und Poliklinik für Augenheilkunde am Universitätsklinikum Münster.
Ist Kurzsichtigkeit – in der Fachsprache auch Myopie genannt – einmal vorhanden, bleibt sie bestehen. Eine Myopie beginnt meist im Grundschulalter und nimmt bis ins Erwachsenenalter zu. Es gilt: Je früher sie einsetzt, desto stärker ist ihr Ausmaß. Dabei hat Kurzsichtigkeit nicht nur das Tragen von Brillen oder Kontaktlinsen zur Konsequenz. „Myope Menschen haben auch ein größeres Risiko für schwerwiegende Folgeerkrankungen wie Netzhautablösung, Schädigungen der Makula oder für erhöhten Augeninnendruck, der zu grünem Star führt“, betont Frau Professor Dr. med. Bettina Wabbels, Leiterin der Abteilung für Orthoptik, Neuro- und pädiatrische Ophthalmologie an der Universitäts-Augenklinik Bonn.
Übermäßiger elektronischer Medienkonsum hat aber vermutlich noch weitere negative Auswirkungen. So kann der ständige Blick auf den Screen kindliche Augen reizen, ermüden und austrocknen. Auch steht der abendliche Griff zu Smartphone & Co. in Verdacht, Schlafstörungen auszulösen. „Der hohe Blaulichtanteil der Bildschirme hemmt die Ausschüttung des Hormons Melatonin, das schläfrig macht“, erläutert die Bonner DOG-Expertin. Gehen schon Kleinkinder häufig online, leidet womöglich sogar deren räumliches Vorstellungsvermögen. „Zu viel Smartphone kann zudem Probleme beim Wechsel zwischen Nah- und Fernsicht verursachen, etwa in Form von verschwommenem Sehen oder Schielen“, setzt Bettina Wabbels die Liste schädlicher Folgen fort.
Eltern sollten daher unbedingt die Nutzungsdauer digitaler Medien bei ihrem Nachwuchs begrenzen. „Aus augenärztlicher Sicht sind PC, Smartphone oder Tablet für Kinder bis zu einem Alter von drei Jahren gänzlich ungeeignet“, betont die DOG-Expertin. Für Vier- bis Sechsjährige empfiehlt sie eine tägliche Nutzungsdauer von bis zu dreißig Minuten – so lautet auch die Einschätzung der Bundeszentrale für gesundheitliche Aufklärung. „Im Grundschulalter wäre eine Medienzeit von maximal einer Stunde täglich aus augenärztlicher Sicht vertretbar, ab einem Alter von etwa zehn Jahren von bis zu zwei Stunden pro Tag“, ergänzt die Ophthalmologin.
Besitzen Kinder eigene Geräte, die sie außer Haus mitnehmen, sollten die Eltern entweder klare Regeln aufstellen oder die Nutzungsdauer über technische Einstellungen beschränken, etwa mit einer App oder Kindersicherung. Ebenfalls wichtig: „Um Schlafstörungen zu vermeiden, sind elektronische Medien ein bis zwei Stunden vor dem Zubettgehen tabu“, sagt Bettina Wabbels. Das digitale „Daddeln“ sollte im Übrigen stets mit analoger Freizeitgestaltung kombiniert werden. „Es ist der Gesundheit zuträglich, wenn sich Kinder täglich mindestens zwei Stunden bei Tageslicht im Freien aufhalten, das wirkt auch einer Kurzsichtigkeit entgegen“, betont die Expertin.
Kontakt für Journalisten:
Deutsche Ophthalmologische Gesellschaft (DOG)
Pressestelle
Kerstin Ullrich
Postfach 30 11 20
70451 Stuttgart
Telefon: 0711 8931-641
Telefax: 0711 8931-167
ullrich@medizinkommunikation.org
www.dog.org
Weitere Informationen:
http://www.dog.org
Quelle: idw
Wohnort und Situation beeinflussen, wie stark wir uns mit anderen vergleichen
Gabriele Meseg-Rutzen Presse und Kommunikation
Universität zu Köln
Sozialpsychologen zeigen, dass die menschliche Neigung sich mit anderen zu vergleichen in bestimmten Situationen und in manchen US-Bundesstaaten weiter verbreitet ist als in anderen.
Wohnort und Situation beeinflussen, wie stark wir uns mit anderen vergleichen
Sozialpsychologen zeigen, dass die menschliche Neigung sich mit anderen zu vergleichen in bestimmten Situationen und in manchen US-Bundesstaaten weiter verbreitet ist als in anderen.
Eine aktuelle Reihe von sozialpsychologischen Studien an der Universität zu Köln und der London Business School hat erstmals gezeigt, dass die menschliche Tendenz, sich mit anderen zu vergleichen, von zwei grundlegenden kulturellen Merkmalen abhängt. Dr. Matthew Baldwin (Social Cognition Center Cologne) and Professor Dr. Thomas Mussweiler (London Business School) fanden heraus, dass Menschen sich zum einen in Situationen, in denen strenge soziale Normen herrschen und ein Abweichungen von diesen bestraft wird, stark mit anderen vergleichen. Zum anderen ist die Neigung zum sozialen Vergleich in Situationen höher, in denen sich Menschen mit anderen stark verbunden fühlen. Eine strenge soziale Situation, in der das richtige Verhalten klar definiert ist, kann beispielsweise ein Vorstellungsgespräch sein. Eine weniger strenge soziale Situation, in der man sich mit jedoch mit anderen Menschen stark verbunden fühlt, ist beispielsweise eine Party.
Dieses Phänomen ist in unterschiedlichen Situationen und Kulturen zu beobachten. Die Ergebnisse aus drei Studien wurden nun unter dem Titel „The culture of social comparison“ in den Proceedings of the National Academy of Sciences (PNAS) veröffentlicht.
In den ersten beiden Studien, die Baldwin und Mussweiler online mit dem Tool MTurk von Amazon durchgeführt haben, befragten sie insgesamt rund 1.000 Amerikaner und Amerikanerinnen zu ihrem Verhalten in Alltagssituationen der sozialen Strenge (Vorstellungsgespräch) und der sozialen Verbundenheit (Party). Dabei stellten sie fest, dass besonders in diesen beiden Arten von Situationen die Neigung zum sozialen Vergleich besonders hoch ist. „Die Reaktionen von Menschen, die viele Kilometer voneinander entfernt lebten und sich nicht kannten, sind dabei bemerkenswert ähnlich“, sagt Baldwin. „Das bedeutet, dass soziale Vergleiche zum Teil in der sozialen Welt verankert ist: es ist nicht nur eine Frage der individuellen Wahrnehmung.“
In der letzten Studie analysierten die beiden Psychologen öffentlich zugängliche Daten von Google mit dem Online-Tool Google Correlate. Für jeden Bundesstaat in den USA schauten sie sich die Suchfrequenzen für eine Vielzahl von Emotionswörtern an, die auf soziale Vergleich hinweisen (z.B. Eifersucht, Stolz). Ein hoher Wert für einen Bundesstaat zeigt, dass Menschen dort öfter nach den Wörtern suchen als Menschen in anderen Staaten. Menschen in Staaten, die kulturell und sozial strenger und kollektivistischer sind, neigen demnach stärker dazu, nach Emotionen des gesellschaftlichen Vergleichs zu suchen. Eine interaktive Karte zu den Forschungsergebnissen in verschiedenen US-Bundesstaaten ist hier verfügbar: www.mattwbaldwin.com/blog/the-culture-of-social-comparison-map.
Sich mit anderen zu vergleichen ist gesellschaftlich weit verbreitet und ein grundlegender Aspekt der menschlichen Kognition. Die Tendenz des Menschen, durch das Denken, Fühlen und Verhalten anderer Informationen zu erhalten, trägt maßgeblich zum Funktionieren der hochkomplexen und vernetzten globalen Welt bei. Allerdings weiß die Wissenschaft noch sehr wenig über den Zusammenhang von kulturellen Unterschieden und sozialen Vergleichen. Die Studie trägt zu einem besseren Verständnis der Ursprünge sozialer Vergleiche und seiner Rolle im menschlichen Zusammenleben bei.
Inhaltlicher Kontakt:
Dr. Matthew Baldwin
+49 221 470-1101
mbaldwin@uni-koeln.de
Presse und Kommunikation:
Eva Schissler
+49 221 470-4030
Publikation:
https://doi.org/10.1073/pnas.1721555115
Quelle: idw
Energiewende auf den Flüssen Europas
Katharina Vorwerk Presse- und Öffentlichkeitsarbeit
Otto-von-Guericke-Universität Magdeburg
Ingenieure der Universität Magdeburg haben mobile Wasserkraftanlagen und fischfreundliche Wehre für umweltfreundliche Energiegewinnung entwickelt
Ingenieurinnen und Ingenieure der Otto-von-Guericke-Universität Magdeburg arbeiten intensiv an Lösungen für eine umweltfreundliche Energiegewinnung auf den Flüssen Europas. In naher Zukunft will das Bündnis aus Instituten und Unternehmen ökologisch verträgliche Fluss-Wasserkraftanlagen und fischfreundliche Wehre serienreif realisieren, die auf Elbe, Bode oder Tiber mobil eingesetzt werden können.
„In Zeiten steigender Energiekosten und knapper werdender Primärenergiequellen hat die Energienutzung durch Flusskraftwerke ein erhebliches Potenzial“, so der Projektleiter und Sprecher des Bündnisses, Dipl.- Ing. Mario Spiewack. Diese Form der Energiegewinnung habe zudem eine lange Tradition, so Spiewack. „Bis in das 19. Jahrhundert hinein standen mehr als 700 so genannte Flussmühlen auf den Flüssen Europas – allein in Magdeburg mehr als 20. Mit ihrem einfachen Wirkungsprinzip aus Schwimmkörpern und einem Wasserrad versorgten sie ganze Städte mit Mahl- und Schleiferzeugnissen. Erst mit der Nutzung von Kohle und Erdöl verschwanden sie von den Gewässern. Die Zeit für die Renaissance moderner Schiffmühlen ist reif.“
Prof. Dr.-Ing. Dominique Thévenin von der Fakultät für Verfahrens- und Systemtechnik simuliert, zum Beispiel, die komplizierte Strömung und Verwirbelung in Flüssen, um die neu entwickelten Turbinen und Wasserräder zu optimieren. „Die Forschung mit Wasserrädern wurde Ende des 19. Jahrhunderts gestoppt, da dank der Wasserstauung klassische Turbinen viel effizienter wurden. Wir fangen also wieder dort an, wo Kollegen vor 130 Jahren aufgehört haben, aber mit vollkommen neuen Methoden. Ich bin sehr neugierig zu sehen, was wir mit moderner Technik herausholen werden“, so der Strömungsexperte.
Im Forschungsschwerpunkt des Teams von Prof. Dr.-Ing. Roberto Leidhold aus der Fakultät für Elektrotechnik und Informationstechnik steht der Einsatz von innovativen Generatoren in Flusskraftwerken, sogenannten Transversalflussmaschinen. Der Fokus dieser Technologie liegt darauf, Verluste im Zusammenspiel mit der verwendeten Leistungselektronik sowie Regelungs- und Steuerungsverfahren zu minimieren. Zusätzlich wurden Methoden zur optimalen Integration der Generatoren in die Fluss-Strom-Anlagen erarbeitet und erfolgreich getestet.
Der regionale Wachstumskern Fluss-StromPlus wird vom Bundesministerium für Bildung und Forschung BMBF bis 2018 in insgesamt sechs Verbund- und 30 Teilprojekten mit ca. 11 Millionen Euro gefördert. www.flussstrom.eu.
Wissenschaftliche Ansprechpartner:
Dipl.-Ing. Mario Spiewack, Tel.: +49 391 544 8619 217, E-Mail: mario.spiewack@exfa.de
Weitere Informationen:
http://www.flussstrom.eu
Quelle: idw
Nach der schweren Grippewelle und vor der nächsten Grippewelle: Schutzmöglichkeiten besser nutzen!
Susanne Glasmacher Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut
Die Grippewelle im Winter 2017/18 ist außergewöhnlich schwer gewesen. Das zeigt der neue Influenza-Saisonbericht der Arbeitsgemeinschaft Influenza (AGI) des Robert Koch-Instituts mit seinen umfangreichen Auswertungen.
So gab es zum Beispiel geschätzte neun Millionen influenzabedingte Arztbesuche, zwei Millionen mehr als in den starken Grippesaisons 2012/13 und 2014/15. Besonders ältere Menschen können schwer an der Grippe erkranken oder sogar versterben. „Die Schutzmöglichkeiten müssen besser genutzt werden“, betont RKI-Präsident Lothar H. Wieler. Die Impfung ist trotz der von Saison zu Saison unterschiedlichen Wirksamkeit die wichtigste Schutzmaßnahme. Außerdem werden vor allem gründliches Händewaschen mit Seife und Abstandhalten zu Erkrankten empfohlen, um das Erkrankungsrisiko zu verringern.
Die Ständige Impfkommission (STIKO) empfiehlt die Impfung für alle Personen über 60, für chronisch Kranke aller Altersstufen, für Schwangere und für Medizin- und Pflegepersonal. „Mit keiner anderen Impfung lassen sich hierzulande mehr Leben retten“, unterstreicht Wieler. Erst im Juli hatten RKI-Wissenschaftler über die viel zu niedrigen Impfquoten in Krankenhäusern berichtet. Demnach waren in der Grippesaison 2016/2017 in der Ärzteschaft 61,4 % geimpft, beim Pflegepersonal 32,5 % und bei therapeutischen Berufen 34,2 %, in der Bevölkerung waren gerade einmal 34,8 % der Personen über 60 Jahre geimpft.
Das RKI erhebt Daten mit mehreren Systemen, um die Influenza-Aktivität umfassend bewerten zu können. In der AGI wird die Krankheitslast mit dem Praxisindex gemessen, für den rund 550 Arztpraxen bundesweit ehrenamtlich die Zahl ihrer Patienten mit akuten Atemwegserkrankungen melden. Der Praxisindex war in der Grippewelle 2017/18 so hoch wie in keiner der früheren Saisons, seit das RKI 2001 die wissenschaftliche Federführung der AGI und 2009 die vollständige Durchführung übernommen hat. Besonders betroffen waren die Altersgruppen ab 35 Jahren.
Auf Intensivstationen übertraf die Zahl der Patienten mit schweren akuten respiratorischen Erkrankungen die drei Vorsaisons deutlich. Die Schwere der Grippesaison zeigt sich auch in der Auswertung der „Übersterblichkeit“ im Zeitraum der Grippewelle, die für Berlin bereits vorliegt. Die im Bericht gezeigten Daten für Berlin übertreffen mit geschätzten 1.100 zusätzlichen Todesfällen die bereits hohen Schätzwerte für 2016/17.
Das Nationale Referenzzentrum für Influenza am RKI untersucht Proben von Patienten mit Grippesymptomen und charakterisiert die zirkulierenden Viren. Von Beginn an dominierten Influenza B-Viren. Sie gehörten fast ausschließlich zur Yamagata-Linie und nicht zur Victoria-Linie, die die Weltgesundheitsorganisation als B-Komponente für den weltweit gebräuchlichsten Dreifachimpfstoff empfohlen hatte (neben den zwei Komponenten für die Influenza A-Subtypen H1N1 und H3N2). Die STIKO-Empfehlung für Vierfachimpfstoffe war im Januar 2018 veröffentlicht worden. Da die Produktion von Grippe-Impfstoffen mehrere Monate in Anspruch nimmt, können die Hersteller diese Empfehlung für die kommende Saison erstmals berücksichtigen. Vierfachimpfstoffe enthalten Vertreter beider B-Linien. Allerdings ist die Influenzaimpfung auch bei guter Übereinstimmung der zirkulierenden Viren nicht so gut wirksam wie andere Impfungen. Aufgrund der Häufigkeit der Influenza können mit der Impfung dennoch sehr viele Erkrankungen, schwere Verläufe und Todesfälle verhindert werden.
Weitere Informationen:
http://www.rki.de/influenza & http://www.rki.de/influenza-impfung
Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin
http://www.rki.de
Twitter: @rki_de
Pressestelle
Susanne Glasmacher
(Pressesprecherin)
Marieke Degen
(stellv. Pressesprecherin)
Heidi Golisch
Claudia Paape
Judith Petschelt
Kontakt
Tel.: 030-18754-2239, -2562 und -2286
E-Mail: presse@rki.de
Das Robert Koch-Institut ist ein Bundesinstitut im Geschäftsbereich des Bundesministeriums für Gesundheit
Quelle: idw
Insektensterben durch Lichtverschmutzung vermeiden
Dr. Carolin Liefke, Haus der Astronomie Öffentlichkeitsarbeit
Max-Planck-Institut für Astronomie
Gemeinsame Pressemitteilung der Vereinigung der Sternfreunde und des Hauses der Astronomie in Heidelberg – Studien haben in den vergangenen Jahren einen dramatischen Rückgang von Anzahl und Artenvielfalt bei Fluginsekten festgestellt. Der Lichtverschmutzung – der Aufhellung der Nacht durch künstliche Lichtquellen – fallen nachweislich große Zahlen von nachtaktiven Insekten zum Opfer. Angesichts dessen fordert die Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V. Maßnahmen zur Reduzierung der Lichtverschmutzung.
Der natürliche Wechsel von hellem Tag und dunkler Nacht ist der grundlegendste Rhythmus der meisten Lebewesen und ein wichtiges Element funktionierender Ökosysteme. Unterbrechungen bedeuten immer eine Störung. Künstliches Licht bei Nacht sollte daher so belastungsarm wie möglich eingesetzt werden.
Durch aktuelle Forschungsergebnisse über den dramatischen Rückgang der Insekten im letzten Jahr rückt das Thema Lichtverschmutzung als eine der wichtigen Ursachen in den Fokus, beispielsweise im Eckpunktepapier der deutschen Bundesregierung [1].
In Anbetracht der Dringlichkeit des Problems fordert die VdS-Fachgruppe Dark Sky, Empfehlungen für umweltfreundliche und verantwortungsvolle Beleuchtung schnellstens bei Planungen und Umsetzungen zu berücksichtigen, die im wesentlichen Lichtlenkung, Lichtmenge und Lichtfarbe umfassen. Die entsprechende Technik ist bereits seit Jahren vorhanden und muss endlich genutzt werden.
Die ehrenamtlich arbeitende Fachgruppe „Dark Sky – Initiative gegen Lichtverschmutzung“ der Vereinigung der Sternfreunde e.V. beschäftigt sich bereits seit über 20 Jahren mit diesem Umweltthema und hat schon vor 10 Jahren an Untersuchungen der Universität Mainz zur Auswirkung künstlichen Lichts auf Insekten mitgewirkt [2]. Diese Untersuchungen in Düsseldorf zeigten, dass Leuchtmittel mit geringen Blau- und Ultraviolettanteilen deutlich weniger Insekten anziehen. In dem Zusammenhang wurde damals bereits auf die rapide Abnahme der Insekten hingewiesen [3].
Die Fachgruppe veröffentlichte vor zwei Jahren gemeinsam mit der „Kommission Lichtverschmutzung“ der Astronomischen Gesellschaft und der Gesellschaft Deutschsprachiger Planetarien Empfehlungen zur Reduzierung der Lichtverschmutzung [4]. Diese Hinweise sind weiterhin aktuell und werden durch neuere wissenschaftliche Studien unterstützt. Sie helfen auf einfache und effektive Weise, das Sterben von Insekten an künstlichen Lichtquellen zu reduzieren. Dadurch werden auch andere Arten und der Mensch gezielt vor negativen Auswirkungen durch künstliches Licht bei Nacht verschont. Diese Empfehlungen für eine nachhaltige künstliche Beleuchtung, die weit über eine reine Energieeffizienz reichen, werden bereits in den Kommunen der Sternenparks, die in den letzten Jahren mit Unterstützung der Fachgruppe Dark Sky als Modellregionen errichtet wurden, praktisch umgesetzt.
Die Fachgruppe Dark Sky arbeitete zudem an der Erstellung einer Broschüre „Nachhaltige Beleuchtung“ des hessischen Umweltministeriums mit, in der Hinweise für Industrie und Gewerbe gegeben werden [5].
Diese von der Fachgruppe Dark Sky empfohlenen Maßnahmen umfassen folgende Punkte:
– Künstliches Licht nachts nur einsetzen, wenn es unbedingt notwendig ist. Insbesondere naturnahe Bereiche sollten nicht beleuchtet werden.
– Licht sollte mithilfe von voll abgeschirmten Leuchten nur dorthin gelenkt werden, wo es benötigt wird, auf die Verkehrs- oder tatsächlich zu beleuchtende Fläche. Insbesondere sollten keine Naturelemente (Bäume, Felsen, Gewässer) angestrahlt werden. Zudem darf kein Licht unnütz nach oben und horizontal abstrahlen. Diese Maßnahme hilft auch Blendung zu vermeiden.
– Die Lichtmenge sollte möglichst gering gewählt werden, oft ist eine gleichmäßige Beleuchtungsstärke von wenigen Lux ausreichend.
– Licht sollte nur bedarfsorientiert eingeschaltet werden, etwa durch Einsatz von Zeitschaltuhren, Schaltern oder Bewegungsmeldern.
– Weißes Licht sollte möglichst wenige Blauanteile enthalten. Deswegen ist warmweißes und gelbes Licht mit einer äquivalenten Farbtemperatur von weniger als 2700 Kelvin (K), keineswegs aber über 3000 K, einzusetzen.
Da diese Maßnahmen leicht zu realisieren sind, fordert die VdS-Fachgruppe Dark Sky endlich ihre schnelle Umsetzung:
– Kommunen sollten sie bei ihren Planungen und Umrüstungen berücksichtigen, etwa indem sie sie in Lichtsatzungen, Lichtmasterplänen oder in Bebauungsplänen einbringen.
– Fördermittel sollten an die Umsetzung dieser Maßnahmen geknüpft werden.
– Architekten, Lichtplaner und ausführende Elektrofirmen sind für diese Maßnahmen zu sensibilisieren.
– Private Haushalte und Handel sollten durch umfassende Informationen zur Umsetzung der Maßnahmen angeregt werden.
Für Fragen und Unterstützungen steht die VdS-Fachgruppe Dark Sky im Rahmen ihrer ehrenamtlichen Möglichkeiten zur Verfügung.
Referenzen:
[1] www.bmu.de/pressemitteilung/bundeskabinett-beschliesst-eckpunkte-fuer-aktionsprogramm-zum-insektenschutz/
[2] Gerhard Eisenbeis: Straßenbeleuchtung und Umwelt – Wirkung konventioneller und moderner Straßenbeleuchtungslampen auf das Anflugverhalten von Insekten, Landeshauptstadt Düsseldorf, Jan. 2009
Gerhard Eisenbeis und Klaus Eick: Studie zur Anziehung nachtaktiver Insekten an die Straßenbeleuchtung unter Einbeziehung von LEDs, Natur und Landschaft 86, 2011, S. 298
[3] „This growing body of evidence strongly suggest that the diversity of insects has declined dramatically in Germany and England during the last decades. The implementation of insect friendly lighting systems may reduce the negative impacts on insects, but if the absolute lighting levels continue to increase then our cities will develop to nearly insect (and perhaps bird) free ghost towns far away from the formerly rich animal life.“ in: Gerhard Eisenbeis und Andreas Hänel: Light pollution and the impact of artificial night lighting on insects, in M.J. McDonnell, A.K. Hahs, J.H. Breuste (ed.): Ecology of Cities and Towns, Cambridge, 2009, p. 260
[4] http://www.lichtverschmutzung.de/zubehoer/download.php?file=Resolution_gegen_Lic…
[5] M. Schmidt, A. Hänel: Nachhaltige Außenbeleuchtung – Informationen und Empfehlungen für Industrie und Gewerbe, Hessisches Ministerium für Umwelt, Klimaschutz, Landwirtschaft und Verbraucherschutz, Wiesbaden, 2017, https://umwelt.hessen.de/presse/pressemitteilung/wie-lichtverschmutzung-reduzier…
Die Vereinigung der Sternfreunde e.V. (VdS) ist mit über 4000 Mitgliedern der größte Verein von Amateurastronomen im deutschsprachigen Raum. Sie widmet sich der Pflege und Förderung der Amateurastronomie durch Beratung und Erfahrungsaustausch bei der astronomischen Arbeit. Zudem fördert sie Kontakte zur Fachastronomie und die astronomische Volksbildung, etwa mit der Organisation des jährlich stattfindenden Astronomietags. Außerdem steht den Mitgliedern die Nutzung der Sternwarte in Kirchheim offen und viermal jährlich wird eine Zeitschrift, das VdS-Journal für Astronomie, veröffentlicht.
Kontakt:
Vereinigung der Sternfreunde e.V., Postfach 1169, 64629 Heppenheim, www.vds-astro.de
Wissenschaftliche Ansprechpartner:
Dr. Andreas Hänel
Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V., c/o Museum am Schölerberg, Osnabrück
Tel. 0541-5600326
ahaenel@uos.de
Sabine Frank
Sternenpark Rhön
Landkreis Fulda
Tel. 0661-60061659,
info@sternenpark-rhoen.de
Weitere Informationen:
https://www.vds-astro.de/index.php?id=74&tx_ttnews%5Byear%5D=2018&tx_ttn… – Webversion der Meldung bei der Vereinigung der Sternfreunde
http://lichtverschmutzung.de/ – Webseiten der Fachgruppe Dark Sky der Vereinigung der Sternfreunde e.V.
Quelle: idw
Gut die Hälfte der rentennahen Erwerbstätigen kann Konsum im Ruhestand nicht halten
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Forscher: Riester & Co. helfen kaum
Gut die Hälfte der rentennahen Erwerbstätigen kann Konsum im Ruhestand nicht halten – Absenken der gesetzlichen Rente verschärft Problem
Viele Erwerbstätige, die kurz vor der Rente stehen, werden sich im Ruhestand einschränken müssen: Mehr als die Hälfte, 58 Prozent, der 55- bis 64-jährigen Erwerbstätigen hätten nicht genug Ansprüche an die gesetzliche, betriebliche oder private Altersversorgung, um ihr aktuelles Konsumniveau aufrecht zu erhalten, wenn sie jetzt in Rente gingen. Falls sie noch bis zum durchschnittlichen Renteneintrittsalter auf ihrer aktuellen Position weiterarbeiten können, sind immer noch rund 50 Prozent davon betroffen.
Ein weiteres Absenken des gesetzlichen Rentenniveaus würde das Problem verschärfen. Entlastend würde eine Stärkung der gesetzlichen ersten Säule wie in Österreich wirken. Zu diesen Ergebnissen kommt eine neue, von der Hans-Böckler-Stiftung geförderte Studie des Deutschen Instituts für Wirtschaftsforschung (DIW)*.
– Gesetzliche Rente weiter Fundament –
Die gesetzliche Rente ist nach wie vor das Fundament der Altersversorgung. Allein reicht sie heute in der Regel aber nicht aus, um das gewohnte Konsumniveau zu halten. Die betriebliche Alterssicherung leistet ebenfalls einen wichtigen Beitrag – wobei jedoch gerade Geringverdiener oder prekär Beschäftigte oft nicht in den Genuss einer Betriebsrente kommen. Im Vergleich dazu bringt die private Altersversorgung wenig, zeigt die Untersuchung. „Die gesetzliche Rente ist und bleibt der Anker der Altersversorgung“, sagt Dr. Dorothea Voss, die die Forschungsförderung der Hans-Böckler-Stiftung leitet. „Jedes weitere Absinken des Rentenniveaus muss verhindert werden – nicht nur bis 2025, sondern dauerhaft.“
Die DIW-Wissenschaftler haben anhand von repräsentativen Daten des Sozio-oekonomischen Panels (SOEP) aus dem Jahr 2012 untersucht, wie hoch die Rente ausfällt, die Erwerbstätigen aus rentennahen Jahrgängen zusteht. In einem zweiten Schritt haben die Forscher für den hypothetischen Fall, dass diese Erwerbstätigen sofort in Rente gehen würden, berechnet, inwieweit die Rente ihren derzeitigen Konsum mit den bis dahin erworbenen Anwartschaften decken kann. Arbeitslose, frühverrentete oder anderweitig nicht erwerbstätige Personen sind nicht in die Berechnung einbezogen.
Bei 69 Prozent der Erwerbstätigen im Alter von 55 bis 64 Jahren, die nur Anspruch auf eine gesetzliche Rente haben, fällt der aktuelle Konsum höher aus als die bisher erworbenen Rentenanwartschaften. Nimmt man zur gesetzlichen Rente noch die Betriebsrenten hinzu, reduziert sich der Anteil auf 50 Prozent. Im Durchschnitt aller älteren Beschäftigten ergibt sich damit ein Wert von 58 Prozent. Rechnet man noch private Versicherungen mit ein, sinkt er lediglich von 58 auf 56 Prozent (siehe auch Tabelle 1 in der Studie; Link unten). „Die Ergebnisse zeigen, dass private Versicherungen als dritte Säule der Alterssicherung insgesamt nur wenig dazu beitragen, die Versorgungslücke zu schließen“, schreiben die Forscher. Insbesondere bei Riester- und Rürup-Renten seien die eingezahlten Beiträge gering, das erreichte Sparguthaben falle auch aufgrund geringer Verzinsung eher klein aus.
Wenn man annimmt, dass die untersuchten Erwerbstätigen durchgängig bis zum durchschnittlichen Renteneintrittsalter in ihrer bisherigen Position weiterarbeiten können, sinkt der Anteil der Betroffenen zwar merklich. Doch auch dann müssen von den Ruheständlern, die Geld aus gesetzlicher und betrieblicher Rente bekommen, 50 Prozent ihren Konsum einschränken. Rechnet man Leistungen aus privaten Versicherungen hinzu, sind es 48 Prozent.
– Zum aktuellen Konsumniveau fehlen im Schnitt 700 Euro –
Bei denjenigen 55- bis 64-jährigen Erwerbstätigen, die eine potenzielle Versorgungslücke haben, beträgt die Differenz zwischen aktuellem Konsumniveau und dem zum Untersuchungszeitpunkt bestehenden Rentenanspruch im Durchschnitt rund 700 Euro. Die Versorgungslücke ist bei Erwerbstätigen, die nur Anspruch auf eine gesetzliche Rente haben, mit knapp 740 Euro am größten. Liegen auch Anwartschaften an Betriebsrenten vor, reduziert sich die Lücke auf rund 620 Euro. Der Einfluss privater Versicherungen ist erneut relativ gering (siehe auch Tabelle 2 in der Studie).
Je nach Erwerbseinkommen gibt es große Unterschiede: Bei betroffenen Menschen im untersten Zehntel der Einkommensverteilung beträgt die Versorgungslücke im Alter rund 300 Euro, im obersten Zehntel sind es knapp 1800 Euro. Doch auch wenn die Lücke bei ihnen absolut betrachtet höher erscheint, können die Besserverdiener diese meist besser ausgleichen, da sie häufig auf weitere Geldanlagen zurückgreifen können und Immobilien besitzen. Für Menschen mit kleinem Einkommen macht es dagegen einen großen Unterschied, wenn am Ende des Monats 300 Euro fehlen. Am schwierigsten sei die Lage für Geringverdiener, Frauen und Alleinlebende, aber auch für Selbständige ohne Angestellte, konstatieren die Forscher. „Entscheidend sind also die Dauer der sozialversicherungspflichtigen Beschäftigung und die daraus erzielten Einkommen“, sagt Dorothea Voss von der Hans-Böckler-Stiftung. „Wer die Alterssicherung stärken will, muss deshalb für eine aktive Beschäftigungspolitik, bessere Löhne und Gehälter sorgen.“
– Alternative Szenarien mit niedrigerem Konsumniveau im Alter –
Diese grundsätzlichen Zusammenhänge bestehen auch in einem weiteren Szenario, das die DIW-Forscher berechnet haben. Es greift die Annahme vieler Experten auf, dass Menschen im Ruhestand weniger ausgeben als Berufstätige. Wenn man daher annimmt, dass Rentner mit 70 Prozent ihres vorherigen Konsums auskommen, fällt die potenzielle Versorgungslücke nach den Berechnungen des DIW geringer, aber weiterhin oft erheblich aus: Betroffen sind dann noch 38 Prozent der rentennahen Erwerbstätigen, bezieht man private Versicherungen ein, sind es 35 Prozent. Die potenzielle Versorgungslücke bei den Betroffenen beträgt beim 70-Prozent-Szenario im Schnitt gut 320 Euro. Beschäftigte mit einer betrieblichen Altersvorsorge hätten gemessen an einem 70-Prozent-Niveau noch eine Versorgungslücke von 200 Euro (Tabelle 2). Allerdings sind das selten Beschäftigte mit niedrigeren Einkommen.
In einem weiteren Szenario haben die Wissenschaftler berechnet, was passieren würde, wenn man das gesamte private Vermögen zur Sicherung des aktuellen Konsums im Alter heranzieht. Das Ergebnis: Selbst wenn sie alle Ersparnisse einsetzen und, falls vorhanden, die selbst genutzte Immobilie zur Finanzierung des Ruhestands verkaufen würden, hätten 41 Prozent der Erwerbstätigen aus rentennahen Jahrgängen eine Versorgungslücke. Würden die untersuchten älteren Erwerbstätigen bis zur Rente auf ihrer Stelle weiterarbeiten, wären es immer noch 33 Prozent. In Ostdeutschland wäre der Anteil höher als in Westdeutschland, da Ostdeutsche nach wie vor über weniger Vermögen verfügen. Wesentlich geringer wäre der Anteil der Betroffenen unter den Selbständigen mit Mitarbeitern, da diese häufig selbst fürs Alter in Form von privatem Vermögen vorsorgen.
– Rentenniveau nicht weiter senken –
Die Wissenschaftler raten dazu, das Rentenniveau nicht weiter abzusenken. Stattdessen solle sich die Politik „stärker am österreichischen Modell orientieren“, das mehr auf die erste Säule der Alterssicherung setzt. Zudem empfehlen sie, Personen mit geringen Anwartschaften stärker zu unterstützten. Möglich wäre das durch eine Modifizierung des strikten Äquivalenzprinzips, womit die Höhe der Rentenleistungen nicht mehr eins zu eins an die Einzahlungsbeiträge gekoppelt wäre. Gerade Geringverdiener sollten dann höhere Leistungen erhalten.
Wissenschaftliche Ansprechpartner:
Dr. Dorothea Voss
Leiterin Abteilung Forschungsförderung
Tel.: 0211-7778-194
E-Mail: Dorothea-Voss@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Originalpublikation:
*Markus M. Grabka, Timm Bönke, Konstantin Göbler und Anita Tiefensee: Große Lücke in der Sicherung des Lebensstandards bei rentennahen Jahrgängen, DIW-Wochenbericht 37, September 2018. Download: Studie http://www.diw.de/documents/publikationen/73/diw_01.c.597903.de/18-37-3.pdf
Quelle: idw
Weniger ist manchmal mehr – neue Substanz reduziert das Körpergewicht
Stephan Wiegand, Medizinische Fakultät Carl Gustav Carus der TU Dresden Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Carl Gustav Carus Dresden
In einer weltweiten Studie haben Forscherinnen und Forscher erstmals die Wirksamkeit von Semaglutid wissenschaftlich untersucht. Mit diesem Medikament lässt sich künftig nicht nur das Gewicht reduzieren, sondern auch der Blutdruck verbessern. Die neuen in der Fachzeitschrift The Lancet veröffentlichten Erkenntnisse bedeuten einen großen Fortschritt in der Adipositastherapie. Mitautor ist Prof. Andreas Birkenfeld, Leiter des Studienzentrums Metabolisch-Vaskuläre Medizin am Universitätsklinikum Carl Gustav Carus.
„Diäten und Magenverkleinerungen sind sicherlich wichtig und auch so etwas wie der Königsweg, wenn es darum geht, das Gewicht zu reduzieren. Allerdings sind heute auch andere wirksame Methoden gefragt, um einer drohenden Diabetesepidemie etwas entgegenzusetzen“, sagt Prof. Andreas Birkenfeld, Stoffwechselexperte der Medizinischen Klinik III am Universitätsklinikum Carl Gustav Carus an der TU Dresden und Leiter des neu gegründeten Universitätsstudienzentrums für Stoffwechselerkrankungen. In einer weltweiten Phase-2-Studie (erstmalige Wirksamkeitserprobung am Patienten) mit mehr als 900 Patienten wurde nun erstmals die Wirksamkeit und die Sicherheit von Semaglutid in der Therapie der Adipositas untersucht. Das Medikament ist eine neue Substanz. Sie gehört in die Klasse der Glucagon-like Peptid-1 (GLP-1)-Analoga. Die Wirkungsweise ist ähnlich der körpereigenen Darmhormone, die das Sättigungsgefühl erzeugen. Semaglutid soll einmal wöchentlich verabreicht werden.
Das Studienteam um Prof. Andreas Birkenfeld fand heraus, dass alle Semaglutid-Dosen im Vergleich zu Placebo deutlich das Körpergewicht reduzieren. In der höchsten Dosierung konnte eine Gewichtsabnahme von bis zu 17 Prozent des Ausgangskörpergewichts beobachtet werden. Damit war es möglich, einen Patienten, der zuvor einen BMI von 35 kg/m2 und formal eine Adipositas Grad 2, also eine mittelschwere Adipositas aufwies, auf einen BMI von 29 kg/m2 zurückzuführen. Kurzum: er schaffte den Schritt von formal fettleibig zu übergewichtig. Zeitgleich wurden der Blutzucker, der Blutdruck, und die Blutfette deutlich gesenkt. Prof. Andreas Birkenfeld bewertet die Reaktion positiv: „Der Patient hat nicht nur abgenommen, sondern Semaglutid gut vertragen, die Nebenwirkungen entsprachen denen anderer bekannter GLP-1 Analoga und sind nicht als kritisch einzustufen.“
Diese Wirkung von Semaglutid auf das Körpergewicht läutet jetzt eine neue Ära der pharmakologischen Adipositastherapie ein. Es wird erstmals eine Gewichtsreduktion erreicht, die sonst meist nur mit einer chirurgischen Therapie möglich war. Nachdem Semaglutid in der Typ-2-Diabetestherapie zugelassen wurde, ist absehbar, dass es auch bei Adipositaspatienten zum Einsatz kommt. Denn es wurde bei Patienten mit Typ 2 Diabetes bereits bewiesen: Semaglutid bewirkt nicht nur eine Gewichtsreduktion, sondern reduziert auch das Auftreten kardiovaskulärer Erkrankungen. Die Ergebnisse der Adipositastherapie wurden kürzlich in der Fachzeitschrift Lancet veröffentlicht. Momentan ist Semaglutid ist noch nicht für die Adipositastherapie zugelassen.
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Carl Gustav Carus Dresden
Medizinische Klinik III
Prof. Dr. med. Andreas Birkenfeld
Leiter Studienzentrum Metabolisch-Vaskuläre Medizin, Fiedlerstraße 34, 01307 Dresden
Tel.: 0351 4583651
E-Mail: andreas.birkenfeld@uniklinikum-dresden.de
Originalpublikation:
THE LANCET. 2018 Aug 25;392(10148):637-649
doi: 10.1016/S0140-6736(18)31773-2
PMID: 30122305
Weitere Informationen:
http://www.uniklinikum-dresden.de/mk3
https://tu-dresden.de/med/mf/die-fakultaet/newsuebersicht/weniger-ist-manchmal-m…
http://www.thelancet.com/journals/lancet/article/PIIS0140-6736(18)31773-2/abstra…
Quelle: idw
Ausnahmen für Unternehmen bei der EEG-Umlage senken die Zahlungsbereitschaft privater Haushalte
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
Die Ausnahmeregelung für stromintensive Unternehmen beim Erneuerbare-Energien-Gesetz (EEG) ist seit Jahren umstritten. Eine neue Studie des RWI – Leibniz-Institut für Wirtschaftsforschung, die heute in der renommierten energiewirtschaftlichen Fachzeitschrift Nature Energy erscheint, zeigt nun, dass solche indirekten Subventionen die Zahlungsbereitschaft von privaten Haushalten beeinflussen: Würden die Ausnahmeregelungen für Unternehmen wegfallen, könnte die Akzeptanz für die Kosten der Energiewende demnach deutlich zunehmen.
Die wichtigsten Ergebnisse:
• Ein großer Teil der Haushalte wäre bereit, den Ausbau der erneuerbaren Energien mit höheren Strompreisen zu finanzieren, wenn die Ausnahmeregelungen für stromintensive Unternehmen entfallen würden. Das ist das Ergebnis eines Experiments mit mehr als 11.000 Teilnehmern des forsa-Haushaltspanels.
• Die Teilnehmer des Experiments wurden nach ihrer Bereitschaft befragt, eine höhere EEG-Umlage zu zahlen, um den Anteil erneuerbarer Energien in Deutschland zu steigern. Einer zufällig ausgewählten Gruppe wurde dabei mitgeteilt, dass die Ausnahmeregelung für die energieintensive Industrie bei der EEG-Umlage bestehe. In einer zweiten zufällig ausgewählten Gruppe sollte die Ausnahmeregelung bei der Erhöhung der EEG-Umlage wegfallen. In dieser zweiten Gruppe zeigten sich – je nach Höhe des Preisaufschlags – zwischen 61 und 74 Prozent der Teilnehmer bereit, eine höhere EEG-Umlage zu akzeptieren. In der Gruppe, bei der die Ausnahmeregelung für Unternehmen bestehen bleiben sollte, waren es dagegen nur rund 23 bis 38 Prozent.
• Die Ergebnisse deuten darauf hin, dass eine Abschaffung der Ausnahmeregelungen, etwa durch deren Steuerfinanzierung, ein entscheidendes Kriterium für die Akzeptanz weiterer Erhöhungen der EEG-Umlage sein könnte.
Der Leiter des Kompetenzbereichs „Umwelt und Ressourcen“ am RWI und Professor für Energieökonomik und angewandte Ökonometrie an der Ruhr-Universität Bochum, Manuel Frondel, sagt: „Die Einstellung zur Energiewende hängt nicht allein von der Höhe des Strompreises ab. Wenn die Belastungen gleichmäßig verteilt sind, ist eine große Mehrheit durchaus bereit, mehr Geld für Strom aus erneuerbaren Energien zu bezahlen.“ Die aus Wettbewerbsgründen etablierte Ausnahmeregelung für energieintensive Unternehmen bei der EEG-Umlage sollte daher künftig aus Steuermitteln finanziert werden und nicht dadurch, dass die übrigen Stromverbraucher mehr zu bezahlen haben.
Die Daten aus dem forsa-Haushaltspanel wurden im Rahmen des RWI-Projekts AKZEPTANZ erhoben, das die gesellschaftliche Einstellung zur Energiewende erforscht. Das Projekt wird durch das Bundesministerium für Bildung und Forschung finanziert.
Ihre Ansprechpartner dazu:
Prof. Dr. Manuel Frondel, Tel. (0201) 81 49-204
Leonard Goebel (Pressestelle), Tel. (0201) 81 49-210
Wissenschaftliche Ansprechpartner:
Prof. Dr. Manuel Frondel, Tel. (0201) 81 49-204
Originalpublikation:
Dieser Pressemitteilung liegt der Artikel M. Andor, M. Frondel und S. Sommer (2018), Equity and the willingness to pay for green electricity in Germany, Nature Energy, zugrunde. Er ist unter http://www.nature.com/articles/s41560-018-0233-x online abrufbar. Eine frühere Version der Studie ist als Ruhr Economic Paper #759 erschienen und unter http://www.rwi-essen.de/media/content/pages/publikationen/ruhr-economic-papers/r… im Open Access frei zugänglich.
Quelle: idw
Vitaminpillen nutzlos gegen Schlaganfall und Herzinfarkt
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Nahrungsergänzungsmittel wie Vitamine und Mineralien senken nicht das Risiko, an einem Hirninfarkt oder einer Herzkrankheit zu sterben. So lautet das Ergebnis einer aktuellen Übersichtsstudie mit mehr als zwei Millionen Teilnehmern. Verbraucher sollten ihr Geld deshalb lieber in einen Sportverein investieren und auf eine gesunde Ernährung achten, raten Experten der Deutschen Gesellschaft für Neurologie (DGN) und der Deutschen Schlaganfall-Gesellschaft (DSG).
Jeder vierte deutsche Verbraucher schluckt sie, doch die wenigsten brauchen sie: Mit Nahrungsergänzungsmitteln wie Vitamin A, C, D und E, mit Kalzium, Magnesium oder Eisen setzte der Handel im Jahr 2015 laut Verbraucherzentrale Bundesverband rund 1,1 Milliarden Euro um. Dass dieses Geld schlecht angelegt ist, bestätigt nun eine Metaanalyse zum Einsatz der Präparate gegen Schlaganfall und Herzinfarkt.
Insgesamt 3249 Studien aus den Jahren 1970 bis 2016 haben US-Mediziner um den Kardiologen
Dr. Joonseok Kim, Juniorprofessor an der University of Alabama in Birmingham, für die Metaanalyse berücksichtigt. Um zu klären, wie die Einnahme von Nahrungsergänzungsmitteln das Risiko für Schlaganfälle und Herzerkrankungen beeinflusst, analysierten die Forscher 18 besonders hochwertige Studien, an denen insgesamt mehr als zwei Millionen Menschen teilgenommen hatten.
Sterblichkeit ist mit und ohne Nahrungsergänzung gleich
„Das Ergebnis ist ernüchternd und lautet, dass es keinen Nutzen einer solchen Maßnahme für die Gesamtbevölkerung gibt“, sagt Professor Dr. Peter Berlit, DGN-Generalsekretär und ehemaliger Chefarzt der Klinik für Neurologie am Alfried Krupp Krankenhaus in Essen. Fasst man die Sterblichkeit für alle Herz-Kreislauf-Erkrankungen zusammen, so war das relative Risiko (RR) bei der Einnahme von Nahrungsergänzungsmitteln exakt 1,00. Das bedeutet: Es machte keinen Unterschied, ob die Teilnehmer eine Extradosis Vitamine, Mineralstoffe oder Spurenelemente einnahmen oder nicht. Zum gleichen Ergebnis kamen die Forscher – im Rahmen der statistischen Schwankungen – bei der separaten Betrachtung von Herzsterblichkeit (RR 1,02), Tod durch Schlaganfall (RR 0,95) und der Häufigkeit von Schlaganfällen (RR 0,98).
Lediglich das Risiko für Herzerkrankungen schien mit einem RR von 0,88 für Nahrungsergänzungs-mittel zu sprechen. Es besteht aber auch hier kein Zusammenhang: Zieht man lediglich die höherwertigen, sogenannten randomisierten und kontrollierten Studien zur Berechnung heran, ergibt sich ein relatives Risiko von 0,97. „Zu diesem unbefriedigenden Resultat kommt noch das alarmierende Ergebnis einer systematischen Metaanalyse von 78 randomisierten Studien aus dem Jahr 2012 durch die Cochrane Collaboration, wonach die Nahrungsergänzung mit Antioxidantien nicht nur nicht hilft, sondern sogar die Sterblichkeit erhöht!“, so Professor Berlit.
Dabei hatten die Forscher sich in der aktuellen Studie die größte Mühe gemacht, auch Untergruppen zu erkennen, die möglicherweise doch von Nahrungszusätzen profitieren könnten. Das Ergebnis blieb jedoch stets negativ, egal, wie lange die Präparate eingenommen wurden, wie alt die Studienteilnehmer waren, ob Mann oder Frau, Raucher oder Nichtraucher, sportlich oder nicht.
Es gibt bessere Investitionen in die Gesundheit
„Mit Multivitamin-Tabletten werden jährlich Milliardenumsätze gemacht, die Metaanalyse zeigt jedoch klar, dass diese Pillen weder Schlaganfälle verhindern noch die Sterblichkeit an Herz-Kreislauf-Erkrankungen senken“, fasst der 1. Vorsitzende der Deutschen Schlaganfall-Gesellschaft (DSG), Professor Dr. Armin Grau, zusammen: „Von diesen Pillen profitieren nur Hersteller und Verkäufer. Es ist hingegen eindeutig erwiesen, dass Salat, Obst und Gemüse Gefäßerkrankungen entgegenwirken. In Salat, Obst und Gemüse kommen Vitamine in ihrer natürlichen Umgebung vor. Fünf Portionen am Tag gelten als optimal.“ Weitere effektive Maßnahmen, die sogar den Geldbeutel schonen, sind der Verzicht aufs Rauchen und auf größere Mengen von Alkohol sowie regelmäßige körperliche Bewegung.
„Wenn man schon Geld ausgeben will, dann ist es ist viel lohnenswerter, in einen Sportverein oder ein Fitnessstudio zu investieren als in Vitamine und Mineralstoffe“, rät Professor Berlit.
Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren rund 9000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist Berlin. www.dgn.org
Präsident: Prof. Dr. med. Gereon R. Fink
Stellvertretende Präsidentin: Prof. Dr. med. Christine Klein
Past-Präsident: Prof. Dr. med. Ralf Gold
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter
Geschäftsstelle: Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0)30 531437930, E-Mail: info@dgn.org
Wissenschaftliche Ansprechpartner:
Prof. Dr. med. Peter Berlit
Generalsekretär der Deutschen Gesellschaft für Neurologie
Reinhardtstr. 27 C
10117 Berlin
Tel.: +49 (0)30 531437930
E-Mail: berlit@dgn.org
Prof. Dr. med. Armin J. Grau
1. Vorsitzender der Deutschen Schlaganfall-Gesellschaft (DSG)
Direktor der Neurologischen Klinik
Klinikum der Stadt Ludwigshafen a.Rh.
Bremserstr. 79
D-67063 Ludwigshafen a.Rh.
Tel.: +49 (0)621 5034200
Fax: +49 (0)621 5034202
e-mail: graua@klilu.de
Originalpublikation:
Kim J et al.: Association of Multivitamin and Mineral Supplementation and Risk of Cardiovascular Disease: A Systematic Review and Meta-Analysis. Circ Cardiovasc Qual Outcomes. 2018 Jul;11(7):e004224. doi: 10.1161/CIRCOUTCOMES.117.004224.
Weitere Informationen:
https://www.dgn.org/presse/pressemitteilungen/56-pressemitteilung-2018/3656-vita…
Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment66469
Quelle: idw
Mit Polyphosphat gegen die Plastikberge in den Weltmeeren
Katharina Kipp Pressestelle
Fachhochschule Münster
Max Volhard vom Fachbereich Chemieingenieurwesen der FH Münster forscht in seiner Doktorarbeit an einem Verfahren, das Kunststoffe im Salzwasser zersetzt. Das Patent ist bereits angemeldet.
Münster/Steinfurt (3. September 2018). Die Zahl ist gewaltig: 335 Millionen Tonnen Kunststoff wurden 2016 laut Plastics Europe auf der Erde produziert – Tendenz steigend. Rund 40 Prozent davon sind Verpackungsmaterialien. „Solche Kunststoffe sind prädestiniert dafür, sie in der Umwelt zu vergessen oder auf den Weltmeeren durch die Schifffahrt auszubringen“, sagt Max-Fabian Volhard der FH Münster. Die Bilder von riesigen Müllinseln und Müllbergen mitten im Ozean sprechen für sich. Aber der Doktorand am Fachbereich Chemieingenieurwesen und sein betreuender Professor Dr. Thomas Jüstel haben eine Idee: Sie wollen Kunststoffe so verändern, dass sie für ihren Einsatz – zum Beispiel als Flasche – stabil sind, sich aber im Meer von alleine zersetzen. „Normalerweise dauert es Jahrzehnte bis Jahrhunderte, bis das Plastik vollständig abgebaut ist“, sagt Volhard.
Ein ungiftiger Zusatz im Kunststoff soll das jetzt aber deutlich beschleunigen. „Genauer gesagt wollen wir einen Katalysator hinzufügen, der auf Sonnenlicht reagiert“, erklärt Volhard. „Denn der Katalysator Titandioxid ist spezialisiert darauf, Radikale zu bilden, die den Kunststoff zersetzen beziehungsweise mineralisieren können.“ Was zum Schluss vom Plastik übrig bleibt: Wasser und Kohlenstoffdioxid. Es gibt aber ein kleines Problem. Der Katalysator fängt sofort an, die Radikale zu bilden, wenn die Sonne scheint – egal, ob die Flasche gerade im Meer schwimmt oder noch im Einkaufswagen steht. „Deshalb wollen wir ihn optimieren, und das ist unsere Kernidee: Wir wollen den Katalysator beschichten, damit die Radikale nicht nach außen dringen können und den Kunststoff nicht zu früh mineralisieren.“
Dabei setzen Volhard und Jüstel auf eine Polyphosphat-Beschichtung. Sie reagiert sehr sensitiv auf Salze. Der Gedanke: Im Kontakt mit Leitungs- oder Mineralwasser passiert nichts. Aber im salzigen Meerwasser löst sich das Polyphosphat auf und gibt somit die Radikale frei, die den treibenden Plastikmüll zersetzen. Die Idee hat Jüstel aus der Biochemie adaptiert, das Patent haben die beiden Wissenschaftler bereits angemeldet.
„Jetzt ist es meine Aufgabe zu überprüfen, ob das Konzept wirklich funktioniert“, erklärt Volhard. Bisher hat er den Abbau von Kunststoffen im Labor untersucht, die im Leitungswasser und im Meerwasser gelöst sind. Genau mit der Idee: per Polyphosphat-Katalysator und Sonnenlicht – imitiert durch einen UV-LED-Photoreaktor. Das hat funktioniert, die ersten Versuche stimmen ihn zuversichtlich. „Aber die Kunststoffe liegen im Meer ja nicht gelöst vor. Deshalb muss ich jetzt noch näher an die Realität und an die Verpackungsmaterialien kommen.“
Darum verarbeitet Volhard gerade Kunststoffe und Katalysatoren in der Knetkammer des Labors für Kunststofftechnologie von Prof. Dr. Reinhard Lorenz und wird verschiedene Experimente im Labor durchführen. Die neuen Kunststoffe sollen im Idealfall nur noch maximal zehn Jahre brauchen, bis sie sich vollständig zersetzt haben. „Aber so lange kann ich ja nicht auf meine Versuche warten. Um trotzdem valide Aussagen treffen zu können, muss ich mir noch eine neue Methode zur Überprüfung einfallen lassen“, bemerkt Volhard.
Weitere Informationen:
Fachbereich Chemieingenieurwesen
https://www.fh-muenster.de/ciw/index.php
Prof. Dr. Thomas Jüstel
https://www.fh-muenster.de/ciw/personal/professoren/juestel/index.php
Forschungsaktivitäten am Fachbereich Chemieingenieurwesen
https://www.fh-muenster.de/ciw/forschung/index.php?p=6
Labor für Kunststofftechnologie
https://www.fh-muenster.de/ciw/laboratorien/kt/kunststoff.php?p=7,6
Quelle: idw
Stirnfalten können Hinweise auf Herz-Sterberisiko geben
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Menschen mit mehreren tiefen Falten auf der Stirn können ein erhöhtes Risiko haben, an einer Kreis-Kreislauf-Krankheit zu sterben. Eine Untersuchung im Hinblick auf Falten im Augenbrauen-Bereich könnte eine einfache und kostengünstige Methode sein, Menschen mit hohem Sterbe-Risiko zu identifizieren.
Menschen mit mehreren tiefen Falten auf der Stirn können ein erhöhtes Risiko haben, an einer Kreis-Kreislauf-Krankheit zu sterben. Eine Untersuchung im Hinblick auf Falten im Augenbrauen-Bereich könnte eine einfache und kostengünstige Methode sein, Menschen mit hohem Sterbe-Risiko zu identifizieren. Das berichtet Dr. Yolande Esquirol (Toulouse, F) auf einer Pressekonferenz des Europäischen Kardiologiekongresses. In München werden von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen kommen, der Kongress der Europäischen Kardiologiegesellschaft (ESC) ist einer der weltweit größten Medizinkongresse.
„Wir untersuchten Stirnfalten als Marker“, sagt Dr. Esquirol. „Ein Blick auf das Gesicht eines Patienten reicht, um Alarm zu schlagen, und wir können ihm Ratschläge geben, wie das Risiko verringert werden kann.“
Die Studienautoren hatten 3.200 gesunde Erwachsenen auf die Anzahl ihrer Stirnfalten hin untersucht, sie je nach dem Ergebnis in Untergruppen eingeteilt und 20 Jahre lang nach verfolgt. Von den 233 Studienteilnehmern, in dieser Zeit verstarben, hatten 15,2 Prozent zwei oder drei Stirnfalten, 6,6 Prozent eine Stirnfalte und 2,1 Prozent keine. Studienteilnehmer mit den meisten Stirnfalten hatten ein zehnmal erhöhtes Sterberisiko im Vergleich zu jenen ohne Stirnfalten.
Die Forscher kennen die genaue Ursachen dieser Zusammenhänge noch nicht. Vermutlich sei Arteriosklerose oder eine Verhärtung der Blutgefäße infolge von Ablagerungen (Plaque) beteiligt. Veränderungen im Collagen-Protein und oxidativer Stress scheinen sowohl bei Arterioskleroseals auch bei Stirnfalten eine Rolle zu spielen. „Außerdem sind Blutgefäße in der Stirn sehr klein undreagieren möglicherweise sensibler auf die Plaqueentstehung und könnten somit ein früheres Zeichen von Gefäßalterung sein“, so Dr. Esquirol. „Unsere ersten Ergebnisse müssen in künftigen Studien bestätigt werden. Aber sie können schon jetzt in Arztpraxen und Krankenhäusern praktisch angewendet werden. Das kostet nichts und bedeutet keinerlei Risiko.“
Quellen:
ESC Abstract N° 85605; Esquirol et al.: Forehead Wrinkles and risk of all cause and cardiovascular mortality over 20year follow-up in working population: VISAT study
Poster session 2: Risk assessment
Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.
Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.
ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com
Quelle: idw
Geringere Kosten und sauberes Wasser durch neueste Sensortechnologie
Jasmin Bauer Hochschulkommunikation
Technische Hochschule Nürnberg Georg Simon Ohm
Das Institut Polymer Optical Fiber Application Center (POF-AC) der TH Nürnberg entwickelt einen innovativen Sensor für die Wasseraufbereitung
Wasser ist ein kostbares Gut. Der Aufbereitung von Frischwasser kommt deshalb eine große Bedeutung zu. Prof. Dr.-Ing. Rainer Engelbrecht von der TH Nürnberg forscht mit seinem Team am Polymer Optical Fiber Application Center (POF-AC) an einer Sensortechnologie zur Vermeidung von Ablagerungen in Membranmodulen zur industriellen Wasseraufbereitung. Das Ziel der Forschung ist die Steigerung der wirtschaftlichen Prozessperformance und eine ökologische Ressourcenschonung durch eine verbesserte Regelung der Wasseraufbereitungsanlagen. Die Bayerische Forschungsstiftung fördert das Projekt mit insgesamt 398.900 Euro, davon erhält die TH Nürnberg 214.300 Euro.
Nürnberg, 3. September 2018. Frischwasser in gleichmäßig guter Qualität wird bei der Herstellung von Lebensmitteln beispielsweise in Brauereien sowie für viele chemische und technische Industrieprozesse benötigt. Dies wird häufig durch Aufbereitungsanlagen zur Wasserenthärtung und Entsalzung realisiert, die mit einem Membranfilter und dem Prinzip einer umgekehrten Osmose arbeiten. Mögliche Ablagerungen auf der Membran (sog. Membran-Fouling) sind eine Herausforderung für die Betreiber: Die Reinigung und ein vorsorglicher Membranwechsel verursachen Kosten und Stillstandszeiten. Im Forschungsprojekt „POF_MEM: POF-Foulingsensor für Membranen zur Wasseraufbereitung“ erforscht das Polymer Optical Fiber Application Center (POF-AC) der TH Nürnberg unter der Projektleitung von Prof. Dr.-Ing. Rainer Engelbrecht eine Sensortechnologie zur Vermeidung von Ablagerungen in membranbasierten Wasseraufbereitungsanlagen. Das Team kooperiert in dem Projekt mit der TU München (TUM), Lehrstuhl für Lebensmittelchemie und molekulare Sensorik, Abteilung Wassertechnologie unter Leitung von Dr. Karl Glas sowie den Unternehmen Grünbeck GmbH, Ingenieurbüro Heinl und der Staatsbrauerei Weihenstephan.
Prof. Dr.-Ing. Rainer Engelbrecht, einer der Leiter des Instituts POF-AC: „Unser Ziel ist es, die Prozessführung in Wasseraufbereitungsanlagen wirtschaftlicher zu machen und zugleich die ökologischen Ressourcen zu schonen. Davon profitieren sowohl Menschen als auch die Umwelt. Dazu planen wir gemeinsam mit den Kollegen von der TUM und unseren Industriepartnern einen innovativen optischen Sensor zu entwickeln, der buchstäblich Licht ins Dunkel dieser Membranmodule bringt.“
Das Forschungsteam um Prof. Dr.-Ing. Rainer Engelbrecht untersucht in diesem Kontext
einen Sensor, der auf der Leitung von Licht in polymeren optischen Fasern beruht. Wird der Mantel einer solchen Faser bereichsweise entfernt und die Faser in das Membranfiltermodul eingelegt, so kommt das Wasser in direktem Kontakt mit dem lichtführenden Kern. Wenn sich Ablagerungen auf Membran und dem Kern der optischen Faser bilden, wird die Lichtleitung behindert. Dies ist durch die Messung der übertragenen Lichtmenge zu erkennen. Für eine zuverlässige Funktion verbessert das Forschungsteam in diesem Projekt die Geometrie und die Struktur der faseroptischen Sensoren, entwickelt eine stabile Optoelektronik und klärt wasserchemische Fragen. Anschließend testen die Forscherinnen und Forscher das Sensorsystem unter realitätsnahen Bedingungen im Umfeld einer Brauerei.
Prof. Dr.-Ing. Rainer Engelbrecht: „Der Einsatz des Sensors kann nach diesem Projekt auf verschiedenste Membransysteme übertragen werden, darunter fallen vor allem die Meerwasseraufbereitung sowie die Ultra- und Mikrofiltration. Zudem sind Membranreinigungen in einem frühen Stadium der Ablagerung deutlich effizienter und oftmals nur dann möglich.“
Gefördert wird das Projekt von der Bayerischen Forschungsstiftung mit insgesamt 398.900 Euro, davon erhält die TH Nürnberg 214.300 Euro.
Polymer Optical Fiber Application Center (POF-AC), Technische Hochschule Nürnberg
Das 2001 gegründete Polymer Optical Fiber Application Center (POF-AC) ist ein Institut der TH Nürnberg und beschäftigt sich mit angewandter Forschung und Entwicklung mit Schwerpunkt auf POF für die Bereiche Datenübertragung, Sensorik und Messtechnik, Energieübertragung und Beleuchtung. Das POF-AC hat sich seit seiner Gründung zu einem der führenden Institute für Polymerfasern in Deutschland und Europa entwickelt, wie auch die Teilnahme an großen EU-Förderprojekten wie „POF-ALL“ und „POF-Plus“ oder aktuell am EFRE-Programm (Europäischer Strukturfonds, Projekt OHM-Netze) zeigt. Geleitet wird das POF-AC heute von Prof. Dr.-Ing. Olaf Ziemann, einem erfahrenen Wissenschaftler und renommierten Experten im Bereich Polymerfasern und optischer Datenübertragung, sowie von Prof. Dr.-Ing. habil. Rainer Engelbrecht, der seit 2016 seine Kompetenzen im Bereich Faseroptik und optischer Sensorik einbringt.
Quelle: idw
Kurzer Nachtschlaf verdoppelt das Herz-Kreislauf-Risiko
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Männer mittleren Alters, die pro Nacht nur fünf Stunden oder weniger schlafen, haben ein doppelt so hohes Risiko, in den folgenden 20 Jahren ein schweres Herz-Kreislauf-Event zu erleiden, als Männer mit 7 oder 8 Stunden Nachtschlaf. Das berichten Forscher aus Schweden auf dem Europäischen Kardiologiekongress in München.
Männer mittleren Alters, die pro Nacht nur fünf Stunden oder weniger schlafen, haben ein doppelt so hohes Risiko, in den folgenden 20 Jahren ein schweres Herz-Kreislauf-Event zu erleiden, als Männer die sieben oder 8 Stunden schlafen. „Menschen mit einem aktiven Lebensstil mag Schlafen als Zeitvergeudung erscheinen, unsere Studie zeigt jedoch, dass kurze Schlafdauer mit zukünftigen Herz-Kreislauf-Krankheiten verknüpft sein kann“, sagt Studienautorin Moa Bengtsson (Goetheborg, Schweden) auf einer Pressekonferenz auf dem Europäischen Kardiologiekongress. In München kommen von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen – der Kongress der Europäischen Gesellschaft für Kardiologie (ESC) ist einer der weltweit größten Medizinkongresse.
Nach der Untersuchung von 759 Männern, die in vier Gruppen eingeteilt worden waren, zeigte sich, dass hoher Blutdruck, Diabetes, starkes Übergewicht, aktuelles Rauchen, wenig körperliche Aktivitäten und schlechte Schlafqualität weit verbreiteter unter Männern mit einem Nachtschlaf von 5 Stunden oder weniger war als bei jenen, die sieben oder 8 Stunden schliefen. „Männer mit einem Alter von 50 Jahren, die die kürzeste Schlafdauer aufwiesen, hatten ein doppelt so hohes Risiko mit 71 Jahren ein Herz-Kreislauf Ereignis zu erleiden, als jene mit normaler Schlafdauer. Das galt auch, nachdem alle anderen Risikofaktoren berücksichtigt wurden“, sagte Bengtsson in München. „Die Erhöhung des kardiovaskulären Risikos bei unzureichendem Schlaf ist vergleichbar mit jener durch Rauchen oder Diabetes im Alter von 50 Jahren. Unsere Ergebnisse betonen die hohe Bedeutung des Schlafes.“
Quellen:
ESC-Abstract Nr. 83093; Bengtsson et al.: Middle age men with short sleep duration have two times higher risk of cardiovascular events than those with normal sleep duration, a cohort study with 21 years followup
Pressekonferenz: The ZZZs of heart health: the art of good sleeping
Best Posters 3: Best Posters in preventive cardiology
Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.
Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.
ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com
Quelle: idw
Verringerung der Stickstoffeinträge verhindert Algenblüten in Seen
Nadja Neumann Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Seit Jahrzehnten wird diskutiert, ob ein verringerter Eintrag der Stickstoffverbindungen Nitrat und Ammonium die Gewässergüte nachhaltig verbessert, obwohl Stickstoff auch durch Blaualgen aus der Luft gebunden werden kann. Um das zu klären fehlten Langzeitbeobachtungen von Seen, in denen Stickstoff verringert wurde – bis jetzt: Wissenschaftler vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) haben nachgewiesen, dass eine Reduzierung von Stickstoff im Berliner Müggelsee der Schlüssel zur Vermeidung von Algenblüten im Sommer ist.
Bereits in den 1970ern wurden Nährstoffeinträge durch die Landwirtschaft und Abwassereinleitungen als Hauptverursacher für ein übermäßiges Pflanzen- und Algenwachstum in Seen und Flüssen erkannt. Seither setzt man im Gewässermanagement auf eine Verringerung der Phosphoreinträge. „Diese Strategie ist oft erfolgreich, allerdings längst nicht in allen Gewässern: in flachen Seen gibt das Sediment im Sommer große Mengen Phosphor ab. Dann könnte eine Verringerung des Stickstoffangebotes helfen, weil die Algen sowohl Phosphor als auch Stickstoff zum Wachsen brauchen. Bisher fehlten allerdings stichhaltige Beweise dafür, dass die – aufwendigere und teurere – Reduzierung von Stickstoffeinträgen langfristig erfolgreich ist“, erklärt Dr. Tom Shatwell, Gewässerökologe am IGB, den Ausgangspunkt der Untersuchung.
Langzeitdaten lassen tief blicken
Für ihre Untersuchung haben die Wissenschaftler Daten aus 38 Jahren (1979-2016) statistisch ausgewertet. Im Rahmen eines Langzeitprogramms werden der Müggelsee und seine Zuflüsse seit den 1970ern wöchentlich beprobt und unter anderem die Konzentrationen von Phosphor und Stickstoff sowie die Artenzusammensetzung der Algengemeinschaften untersucht. Der Müggelsee ist einer der wenigen Seen weltweit, dessen Belastung mit Phosphor und Stickstoff deutlich abgenommen hat und der gleichzeitig schon lange genug untersucht wird, um Rückschlüsse auf die Auswirkungen verringerter Stickstoffeinträge zu ziehen.
Phosphor war im Müggelsee jeden Sommer im Überfluss vorhanden, weil er aus den Seesedimenten freigesetzt wurde. Die Algenmenge nahm allein durch die Verringerung des Stickstoffangebotes ab – und die Klarheit des Wassers zu. Die Annahme, dass bestimmte Blaualgenarten den fehlenden Stickstoff aus den Zuflüssen langfristig durch Luftstickstoff ersetzen würden, hat sich im Müggelsee nicht bestätigt. Tatsächlich haben sich die Blaualgen nicht vermehrt und kaum Stickstoff aus der Luft gebunden. „Die Fixierung von Luftstickstoff erfordert sehr viel mehr Energie als die Nutzung von Nitrat oder Ammonium aus dem Wasser. Die Blaualgen nutzen diese Methode offenbar nur dann, wenn es unbedingt nötig ist und wenn ausreichend Sonnenenergie zur Verfügung steht“, erklärt Dr. Jan Köhler, Mitautor und Leiter der Arbeitsgruppe „Photosynthese und Wachstum von Algen und Makrophyten“ am IGB.
Vom Müggelsee lernen
Bislang ist der Müggelsee das einzige Fallbeispiel im großen Stil. Allerdings ist die starke Freisetzung von Phosphor aus dem Sediment und von Stickstoff aus dem Wasser in die Luft typisch für Flachseen im Sommer, sodass sich viele andere flache Seen ähnlich verhalten dürften. „In jedem Fall sollten die Ergebnisse Ansporn genug sein, um eine gezielte Reduzierung von Stickstoff auch für andere Seen zu testen. Unsere Studie ist ein Baustein für ein effektiveres Gewässermanagement“, fasst Tom Shatwell die Relevanz der Ergebnisse zusammen.
Über das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB):
Das IGB ist das bundesweit größte Forschungszentrum für Binnengewässer. Es verbindet Grundlagen- und Vorsorgeforschung, bildet den wissenschaftlichen Nachwuchs aus und berät Politik und Gesellschaft in Fragen des nachhaltigen Gewässermanagements. Forschungsschwerpunkte sind u.a. die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten angesichts sich rasch ändernder Umweltbedingungen, die Renaturierung von Ökosystemen, die Biodiversität aquatischer Lebensräume sowie Technologien für eine ressourcenschonende Aquakultur. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin-Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.
www.igb-berlin.de/
Wissenschaftliche Ansprechpartner:
Dr. Tom Shatwell, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abteilung 1 Ökohydrologie, +49 (0)30 64181 690, shatwell@igb-berlin.de (Interviews in Englisch und Deutsch möglich)
Dr. Jan Köhler, Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Abteilung 2 Ökosystemforschung, +49 (0)30 64181 687, koehler@igb-berlin.de, (Interviews in Deutsch und Englisch möglich)
Originalpublikation:
Tom Shatwell, Jan Köhler (2018) Decreased nitrogen loading controls summer cyanobacterial blooms without promoting nitrogen-fixing taxa: long-term response of a shallow lake. Limnology and Oceanography. doi: 10.1002/lno.11002
Weitere Informationen:
https://youtu.be/oIME72cZy4M
Quelle: idw
Neue Europäische Blutdruck-Leitlinie: 140/90 mm Hg bleibt «rote Linie»
Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga
Auch in der neuen Europäischen Blutdruck-Leitlinie [1], die aktuell publiziert wurde, markiert der Grenzwert von 140/90 mm Hg die «rote Linie». Erst dann kommen Blutdrucksenker ins Spiel. Lebensstilmaßnahmen zum Gegensteuern werden bereits davor empfohlen: Das ist effektiv und schützt vor einem kardiovaskulären Ereignis wie Herzinfarkt und Schlaganfall. Die Gefahr einer möglichen Untertherapie sieht die Deutsche Hochdruckliga nicht.
In den vergangenen Jahren gab es immer wieder Diskussionen um Blutdruckgrenzwerte, da diese in den USA in Folge der SPRINT-Studie [2] 2017 abgesenkt wurden. Krank und somit therapiebedürftig ist dort, wer Blutdruckwerte ≥ 130/80 mm Hg aufweist. Die Frage war, ob auch die Europäer dem amerikanischen Beispiel folgen und den Grenzwert in ihrer Leitlinie absenken. Die neue Leitlinie der europäischen Gesellschaften für Hypertonie und Kardiologie (ESH/ ESC) wurde nun anlässlich des Kongress der European Society of Cardiology (ESC) in München publiziert, sieht aber weiterhin vor, Hypertoniker erst ab einem Blutdruck von ≥ 140/90 mm Hg medikamentös zu behandeln.
Prof. Dr. Bernhard K. Krämer, Mannheim, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutschen Gesellschaft für Hypertonie und Prävention e.V. erklärt: „Viele Studien zeigen ein Ansteigen des kardiovaskulären Risikos bereits ab einem Blutdruck von 130/ 80 mm Hg auf. Mit der roten Linie, dem Grenzwert, wird der Schwellenwert definiert, ab dem der Einsatz von blutdrucksenkenden Medikamenten empfohlen wird. Dieser Grenzwert bleibt bei 140/90 mm Hg. Die neue Leitlinie definiert aber erstmals einen niedrigeren, individuell festzulegenden Zielwert (je nach Ausgangsrisiko in Abhängigkeit von Alter, manifesten Organschäden und körperlicher Verfassung) bei der medikamentösen Hochdruckbehandlung. Dieser Zielwert liegt für Patienten unter 65 Jahre erstmals bei 120/70 bis 130/80 mm Hg (nur bei guter Verträglichkeit).
Professor Dr. med. Peter Trenkwalder, Stellv. Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention, erklärt: „Bei uns bleibt 140/90 mm Hg die «rote Linie». Erst ab da muss der Blutdruck medikamentös gesenkt werden. Lebensstilmaßnahmen zur Blutdrucksenkung werden aber bereits bei hochnormalen Blutdruckwerten (130-139/85-89 mm Hg) empfohlen. Hier haben es die Menschen selbst in der Hand, durch ausreichend Bewegung, gesunde Ernährung und Abnehmen bei Übergewicht ihren Blutdruck zu senken. Erst wenn diese Maßnahmen nicht greifen und der Blutdruck über den Grenzwert von 140/90 mm Hg steigt, sollten zusätzlich medikamentöse Blutdrucksenker eingesetzt werden.“
Die Deutsche Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention sieht in den neuen Leitlinien keine mögliche Gefährdung oder Untertherapie der Patienten: „Unserer Meinung nach ist das eine Empfehlung mit Augenmaß“, so das Fazit von Prof. Dr. Bernhard K. Krämer. Professor Trenkwalder ergänzt: „Es nützt nichts, die Patienten durch das Absenken der Grenzwerte kränker zu machen. Die Herausforderung und Verantwortung für den Arzt gegenüber seinen Patienten liegt darin, sie in der Therapietreue medikamentös und nichtmedikamentös zu unterstützen.“
Wissenschaftliche Ansprechpartner:
Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629
Originalpublikation:
Quelle:
[1] Williams B, Mancia G et al. 2018 ESC-ESH Guidelines for the Management of Arterial Hypertension. J Hypertens 2018 (in press)
[2] Wright JT, Jr., Williamson JD, Whelton PK et al. A Randomized Trial of Intensive versus Standard Blood-Pressure Control. N Engl J Med 2015; 373: 2103-2116
Quelle: idw
Der Verlauf von Dürren: Flüsse werden früher und stärker beeinträchtigt als die Landwirtschaft
Dr. Eberhard Fritz Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie
Eine Studie von Klimaforschern aus Deutschland und Schweden offenbart, wie Auswirkungen heftiger Dürreperioden zeitlich verlaufen. Bei ausbleibendem Regen trocknet zunächst der Boden binnen Tagen aus, bevor innerhalb weniger Wochen die Wasserstände der Flüsse zurückgehen. Erst Monate später vertrocknet die Vegetation, mit entsprechenden Auswirkungen auf die Landwirtschaft. Die Studie wurde unter Federführung des Max-Planck-Instituts für Biogeochemie im Fachjournal „Nature Communications“ veröffentlicht. Die Forscher folgern, dass sich wirkungsvolle Strategien zur Vermeidung von Dürreschäden an dem beschriebenen Verlaufsmuster orientieren sollten.
Dürreperioden, wie in diesem Sommer, können große wirtschaftliche Schäden verursachen. Sie beeinträchtigen unter anderem die Wassertransportwege, die Stromerzeugung, die Trinkwasserversorgung und die landwirtschaftliche Bewässerung. Leidet die Pflanzenwelt durch Dürren, so drohen Ernteausfälle sowie Verluste in der Forstwirtschaft. Hervorgerufen werden Dürren in der Hauptsache durch zu geringe Niederschläge. Ihr Auftreten wird aber auch durch die erhöhte Verdunstung aufgrund steigender Temperaturen begünstigt, sowie durch eine von den Menschen veränderte Wasser- und Landnutzung.
Um den zeitlichen und räumlichen Verlauf von Dürren und deren Auswirkungen zu verstehen, kombinierten und verrechneten Forscher aus Deutschland und Schweden große Datensätze zum Wasserkreislauf. Die Daten decken mehrere Jahrzehnte ab und beziehen sich auf Gebiete, die über ganz Europa und somit über verschiedene Klimaregionen verteilt sind. Als wichtige Grundlage verwendeten die Forscher dabei Messungen von Wasserständen von über 400 kleinen und von Menschen kaum beeinflussten Flussläufen. Diese verglichen sie mit Modelldaten zu dürrebedingten Veränderungen der Verdunstung und dem Wassergehalt der Böden in der jeweiligen Region. So konnten sie für jedes Teilgebiet und über einen Zeitraum von mehreren Jahrzehnten den Weg des Wassers mit täglicher Genauigkeit beschreiben. Diese Ergebnisse verglichen sie abschließend mit dem Gesundheits- und Aktivitätszustand der Pflanzenwelt, der routinemäßig von Forschungssatelliten erfasst wird.
Nach statistischer Auswertung der komplexen und viele Variablen betreffenden Daten ergibt sich für die Forscher ein eindeutiges Bild darüber, wie sich Dürren entwickeln: ausbleibender Regen führt innerhalb weniger Tage zu trockeneren Böden, und im Verlauf von Wochen zu sinkenden Flusspegeln. Die Pflanzenwelt wird dagegen erst nach Monaten beeinträchtigt, erkennbar an der reduzierten Verdunstungsrate und der verringerten Vegetationsaktivität. Letztere sind hauptsächlich in Südeuropa zu beobachten. Nur dort ist das Klima so trocken, dass Dürren so lange Zeiträume anhalten können.
Interessanterweise erholt sich die Vegetation meist unmittelbar nach Ende der Dürre, während Flusspegel trotz wieder einsetzendem Regen noch Wochen oder Monate unter ihren Normalwerten verharren. Der Wasserkreislaufs ist also teilweise blockiert: Das Regenwasser wird zunächst in den Böden und im Grundwasser aufgenommen, bevor es die Flüsse erreicht und deren Pegel wieder ansteigen lässt.
Dürreperioden entwickeln sich also etappenweise und mit jeweils verschiedenen, charakteristischen Auswirkungen auf die Wirtschaft und den globalen Wasserkreislauf. Das ganze Ausmaß der negativen Folgen ist daher meist nicht so unmittelbar ersichtlich wie bei schneller verlaufenden Klimaextremen, wie Überschwemmungen oder Hitzewellen. „Doch dieser Sommer ist außergewöhnlich: Die lange Trockenheit, gepaart mit den hohen Temperaturen, hat in weiten Teilen Westeuropas die Dürre deutlich spürbar gemacht. Sie hat bereits zu starken Beeinträchtigungen der Ökosysteme und auch der Bevölkerung geführt“, bestätigt René Orth, Gruppenleiter am Max-Planck-Institut für Biogeochemie in Jena.
Mit den neuen Erkenntnissen können die Strategien zur Vermeidung von Dürreschäden verbessert werden, sagen die Forscher. Dazu sollten Maßnahmen stufenweise ergriffen werden und sich an dem beschriebenen Verlaufsmuster orientieren: In frühen Stadien einer Dürre sollten Anpassungen an gesunkene Flusspegel im Vordergrund stehen, und erst später wird z.B. die Bewässerung landwirtschaftlicher Anbauflächen immer wichtiger. „Da wir wissen, dass der Klimawandel stärkere oder vermehrt auftretende Dürren hervorrufen könnte, ist ein verbessertes Trockenheitsmanagement besonders wichtig“, bemerkt Georgia Destouni, Koautorin von der Universität Stockholm. Die derzeitige Dürreperiode hat die vielfältige Abhängigkeit der Wirtschaft vom Wasserkreislauf aufgezeigt und die Problematik stärker in das gesellschaftliche Bewusstsein gerückt. Damit, und mit den neuen wissenschaftlichen Erkenntnissen ist der Grundstein gelegt für ein besseres Dürremanagement in der Zukunft.
Wissenschaftliche Ansprechpartner:
Dr. Renè Orth, Max-Planck-Institut für Biogeochemie
Gruppenleiter Wechselwirkungen zwischen Hydrologie-Biosphäre-Klima
Email: rene.orth@bgc-jena.mpg.de
Tel: +49 3641 576250
Originalpublikation:
Orth R. and G. Destouni, 2018. Drought reduces blue-water fluxes more strongly than green-water fluxes in Europe, Nat. Commun. 9, (2018) 9:3602
https://www.nature.com/articles/s41467-018-06013-7
Quelle: idw
Neue Studie: Wer länger Urlaub macht, lebt länger
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Wer sich Urlaub nimmt, kann damit sein Leben verlängern, kürzere Urlaube sind mit einer höheren Sterblichkeit verknüpft. Diese Ergebnisse der „Helsinki Businessmen Study“, die 1.222 männliche Manager umfasste, wurden auf dem Europäischen Kardiologiekongress in München vorgestellt.
Wer sich Urlaub nimmt, kann damit sein Leben verlängern. „Niemand soll glauben, dass man mit einem ansonsten gesunden Lebensstil zu lange Arbeitszeiten und den Verzicht auf Urlaub wettmachen kann. Ferien können eine gute Methode sein, um Stress abzubauen“, sagt Professor Dr. Timo Strandberg (Helsinki) auf einer Pressekonferenz des Europäischen Kardiologenkongresses. In München kommen von 25. bis 29. August 31.000 Teilnehmer aus 150 Ländern zusammen – der Kongress der Europäischen Kardiologengesellschaft (ESC) ist einer der weltweit größten Medizinkongresse.
Die von Prof. Strandberg vorgestellte Studie umfasst 1.222 männliche Manager, die zwischen 1919 und 1934 geboren wurden und in die „Helsinki Businessmen Study“ eingeschlossen wurden. Teilnehmer hatten zumindest einen Risikofaktor für Herz-Kreislauf-Erkrankungen. Die in München präsentierten Ergebnisse bezogen ein verlängertes Follow-up von 40 Jahren mit ein, bei dem auch Faktoren wie Arbeitszeiten, Schlafdauer und Urlaubszeiten berücksichtigt wurden. In einer Interventionsgruppe wurden Teilnehmer fünf Jahre lang alle vier Monate mündlich und schriftlich zu einem gesunden Lebensstil aufgefordert und bekamen bei Bedarf Medikamente gegen Risikofaktoren. Mitglieder der Kontrollgruppe erhielten bloß eine übliche Behandlung.
Fazit: In der Interventionsgruppe zeigte sich, dass kürzere Urlaube mit einer höheren Sterblichkeit verknüpft waren. Studienteilnehmer mit drei Wochen oder weniger Jahresurlaub hatten ein um 37 Prozent erhöhtes Risiko, zwischen 1974 und 2004 zu versterben, als Studienteilnehmer mit längerer Urlaubszeit. „Studienteilnehmer mit kürzeren Urlauben arbeiteten länger und schliefen weniger als jene mit längeren Urlauben. Dieser stressreiche Lebensstil hat vermutlich einen stärkeren Einfluss, als die Gesundheits-Interventionen Vorteile bringen“, so Prof. Strandberg. „Stressreduktion sollte ein wesentlicher Bestandteil von Programmen sein, die auf eine Verringerung der Risiken für kardiovaskuläre Krankheiten abzielen.“
Zur Vorbeugung von Herz-Kreislauf-Ereignissen bei Menschen mit hohem Risiko sollten Ratschläge zum Lebensstil vernünftig mit modernen Medikamenten kombiniert werden, empfiehlt Prof. Strandberg.
Quellen:
ESC Abstract: Strandberg et al.: Increased mortality despite successful multifactorial cardiovascular risk reduction in healthy men. 40-year follow-up of the Helsinki businessmen study intervention trial“; J Nutr Health & Aging. 2018, in press.
Pressekonferenz: Is this really good for you? Challenging conventional wisdom
Über die Europäische Gesellschaft für Kardiologie
Die Europäische Gesellschaft für Kardiologie (ESC) vereinigt Medizinerinnen, Mediziner und Angehörige anderer Gesundheitsberufe aus mehr als 150 Ländern. Sie setzt sich dafür ein, die Herz-Kreislauf-Medizin weiter zu entwickeln und unterstützt die Menschen dabei, länger und gesünder zu leben.
Über den ESC-Kongress 2018
Der ESC-Kongress ist weltweit die größte und einflussreichste wissenschaftliche Veranstaltung im Bereich der Herz-Kreislauf-Medizin. Der ESC-Kongress 2018 findet vom 25. bis 29. August in der Messe München satt. Das wissenschaftliche Programm ist unter http://bit.do/esc2018scientificprogramme zu finden.
ESC-Medienkontakt für deutschsprachige Medien:
B&K – Bettschart & Kofler Kommunikationsberatung (www.bkkommunikation.com)
Roland Bettschart: +43 6766356775; bettschart@bkkommunikation.com
Dr. Birgit Kofler: +43 6766368930; kofler@bkkommunikation.com
Quelle: idw
Tiefseebergbau hinterlässt tiefe Narben -Massiver Artenverlust 26 Jahre nach Abbau nachgewiesen
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Gemeinsam mit einem internationalen Team haben Senckenberg-Wissenschaftlerinnen die Auswirkungen von Tiefseebergbau – wie den Abbau von Manganknollen – auf die Artenvielfalt am Meeresboden untersucht. Sie zeigen, dass auch 26 Jahre nach dem Abbau ein erheblicher Verlust bodenlebender Organismen zu verzeichnen ist. Insbesondere filtrierende Tiere sind betroffen – über zwei Jahrzehnte nach dem Abbau bleiben knapp 80 Prozent dieser Arten verschwunden. Die Studie erschien kürzlich im Fachjournal „Biogeosciences“.
Das Bergbau Spuren hinterlässt ist selbstverständlich – das gilt auch für den Abbau von Rohstoffen am Meeresboden. „Es gibt belastbare Studien, die zeigen, dass sich beispielsweise der Abbau von Manganknollen negativ auf das Tiefsee-Leben auswirkt“, erläutert Dr. Lidia Lins vom Senckenberg Forschungsinstitut in Frankfurt und fährt fort: „Ob und wann sich die Tiere wieder von dem Eingriff erholen, ist aber noch weitestgehend unerforscht.“
Die Zweitautorin der kürzlich erschienenen Studie hat daher mit einem internationalen Team die Auswirkungen des „DISturbance and reCOLonization (DISCOL)“-Experiments auf bodenlebende Tiefsee-Organismen untersucht. Während der 1989 beginnenden wissenschaftlichen Versuchsreihe wurden 22 Prozent eines insgesamt 10,8 Quadratkilometer großen manganknollenreichen Gebietes im südöstlichen Pazifik mit schwerem Gerät umgepflügt.
Das Areal wurde einen Monat, sechs Monate, drei, sieben und 26 Jahre nach der Störung erneut untersucht, um die Vielfalt der Makro- und Megafauna und die Fischhäufigkeit zu beurteilen.
„Wir haben diese einzigartige Zeitreihe aus der Tiefsee genutzt, um Nahrungskreisläufe für karbonatproduzierende und -fressende Organismen zu entwickeln. Aus diesen können wir dann ableiten, welche Auswirkungen das Umgraben des Meeresbodens innerhalb und außerhalb des gepflügten Bereiches hat“, erklärt Lins.
Die Ergebnisse sind besorgniserregend: Sogar noch 26 Jahre nach dem Experiment lag die Gesamtmasse von kalkbildenden Organismen innerhalb des gestörten Bereiches 54 Prozent unterhalb der Masse außerhalb des Gebietes. Am wenigsten betroffen waren dabei die auf dem Meeresboden fressenden Organismen – sie verzeichneten einen Verlust von 2,6 Prozent.
„Die filtrierende und suspensionsfressende Fauna hat es umso härter getroffen. Hier gibt es knapp 80 Prozent weniger Aktivität“, ergänzt Lins und fügt hinzu: „Wir konnten zeigen, dass sich die Ökosysteme in der Tiefsee nur sehr langsam von Eingriffen erholen – fast 30 Jahre nach einer vergleichsweisen kleinen Störung ist gerade mal die Hälfte an Leben in das Gebiet zurückgekehrt. Wir plädieren daher für Schutzzonen in den Ozeanen!“
Wissenschaftliche Ansprechpartner:
Dr. Lidia Lins Pereira
Senckenberg Forschungsinstitut und Naturmuseum Frankfurt
Tel. 069- 7542 1303
Lidia.Lins@Senckenberg.de
Originalpublikation:
Stratmann, T., Lins, L., Purser, A., Marcon, Y., Rodrigues, C. F., Ravara, A., Cunha, M. R., Simon-Lledó, E., Jones, D. O. B., Sweetman, A. K., Köser, K., and van Oevelen, D.: Abyssal plain faunal carbon flows remain depressed 26 years after a simulated deep-sea mining disturbance, Biogeosciences, 15, 4131-4145, https://doi.org/10.5194/bg-15-4131-2018, 2018.
Quelle: idw
Ängste abbauen geht anders – Prof. Christoph M. Schmidt über die Ausweitung der Rentengarantien
Sabine Weiler Kommunikation
RWI – Leibniz-Institut für Wirtschaftsforschung
RWI-Präsident Prof. Christoph Schmidt erläutert in seinem Statement, warum eine Ausweitung der Rentengarantien über das Jahr 2025 hinaus aus ökonomischer Sicht kaum nachvollziehbar ist und vor allem mehr Unsicherheit erzeugt. Er schlägt vor, ab dem Jahr 2030 das Renteneintrittsalter an die Lebenserwartung zu koppeln, um zu verhindern, dass die Rentenbezugsdauer eins-zu-eins mit ihr steigt.
„Die jüngste Diskussion um eine Ausweitung der Rentengarantien über das Jahr 2025 hinaus ist aus ökonomischer Sicht kaum nachvollziehbar. Schließlich hat die große Koalition gerade erst eine Haltelinie bis dahin beschlossen und eine Rentenkommission damit beauftragt, Reformvorschläge für die Zukunft auszuarbeiten. Sinnvoll wäre es nun, deren Ergebnisse abzuwarten. Der aktuelle Aktionismus erzeugt hingegen trotz aller Beteuerungen vor allem eines: mehr Unsicherheit.
Das Rentenniveau bis zum Jahr 2040 einzufrieren, bürdet der jüngeren Generation zudem die Hauptlast des demographischen Wandels auf. Denn dieser führt in unserem umlagefinanzierten Rentensystem dazu, dass sich das Verhältnis zwischen Beitragszahlern und Rentnern drastisch ändert. Werden nun gleichzeitig das Rentenniveau und das Renteneintrittsalter fixiert, müssen entweder die Beiträge noch stärker erhöht werden als ohnehin vorgesehen, oder die Steuerbelastung muss steigen.
Eine kluge Möglichkeit wäre es stattdessen, ab dem Jahr 2030 das Renteneintrittsalter an die Lebenserwartung zu koppeln, um zu verhindern, dass die Rentenbezugsdauer eins-zu-eins mit ihr steigt. Eine weitere Möglichkeit, um eine ausgewogenere Lastenverteilung zwischen den Generationen zu erreichen, ist die Stärkung der privaten und betrieblichen Altersvorsorge. Dagegen ist es mehr als kurzsichtig, die Leistungen des Rentensystems sogar noch auszuweiten, etwa durch die Mütterrente.“
Prof. Dr. Christoph M. Schmidt ist Präsident des RWI – Leibniz-Institut für Wirtschaftsforschung, Vorsitzender des Sachverständigenrates zur Begutachtung der gesamtwirtschaftlichen Entwicklung und Professor an der Ruhr-Universität Bochum.
Ansprechpartnerin:
Sabine Weiler (Pressestelle), Tel. 0201/8149-213
Weitere Informationen:
http://www.rwi-essen.de/presse/mitteilung/328/
hier finden Sie das Statement von RWI-Präsident Prof. Christoph Schmidt auf der RWI-Homepage
Quelle: idw
Joggen in der Stadt. Ist das gesund?
Dr. Ulrich Kümmel Presse- und Öffentlichkeitsarbeit
Deutsche Atemwegsliga e.V.
Bewegung ist wichtig – Bewegung ist gesund. Stimmt das wirklich? Fast täglich erfahren wir, dass Städte über Fahrverbote diskutieren, dass schlechte Luft gesundheitsschädlich ist. Dieselfahrzeuge sollen aus Städten verbannt werden. Sollten wir deshalb in der Stadt besser keinen Sport treiben, um uns nicht zu gefährden? Das Thema des diesjährigen Deutschen Lungentages lautet deshalb „Dicke Luft – Gefahr für die Lunge“. Im Rahmen des Deutschen Lungentages finden im September bundesweit viele Informationsveranstaltungen statt.
Die Luftqualität wird belastet durch den Straßenverkehr, die Industrie, die Landwirtschaft und Kleinfeuerungsanlagen. Der Autoverkehr und insbesondere Dieselmotoren tragen maßgeblich zur Belastung mit Stickoxiden (NOx) bei. Feinstaub wird eher durch ältere Dieselfahrzeuge freigesetzt. Die Konzentrationen von Feinstaub, NOx und Ozon in der Außenluft werden landesweit gemessen. Es gibt Grenzwerte, die der Gesetzgeber festgelegt hat. Werden diese nicht eingehalten, müssen zum Schutz der Bevölkerung Gegenmaßnahmen ergriffen werden. Dies kann u.U. auch Fahrverbote bedeuten.
Wie schädlich sind die Emission durch den Verkehr wirklich und ist der Zusammenhang zwischen Gesundheitsschädigung und Verkehr tatsächlich nachgewiesen?
Die schädlichen Wirkungen von Feinstaub, NOx und Ozon sind ausreichend belegt. Der spezielle Zusammenhang mit den Emissionen des Autoverkehrs kann jedoch lediglich abgeleitet werden, da die eingeatmete Luft ein Gemisch von Schadstoffen aus unterschiedlichen Quellen ist. Personen, die an verkehrsreichen Straßen wohnen, haben ein höheres Erkrankungsrisiko, und Kraftfahrzeugabgase enthalten Schadstoffe. Dies wird als Indizienbeweis gewertet.
Das ESCAPE-Projekt (European Study of Cohorts) untersucht derzeit die Langzeitwirkung von Luftschadstoffen in Europa. Das Besondere ist, dass die individuelle Schadstoffexposition errechnet werden kann, um so einen genaueren Zusammenhang zwischen Exposition und Risiko herzustellen.
Erste Daten wurden bereits analysiert: Feinstaub der Partikelgröße von 10 µm (PM10) erhöhte signifikant das Risiko für Lungenkrebs. Der Zusammenhang zwischen Schadstoffexposition und COPD wurde tendenziell gezeigt. Niedrige Werte der Lungenfunktion ließen sich auf Exposition mit PM10 und NOx zurückführen. Für Kinder erhöhte sich das Risiko für Asthma, wenn auch nicht signifikant. Luftschadstoffe begünstigten das Auftreten von Lungenentzündung, ein Einfluss auf Pseudokrupp wurde nicht beobachtet.
Eine Studie aus England zeigte, dass die Lungenfunktion beim Laufen in hoch belasteten Gegenden schlechter wurde. Dennoch haben diese Studie und weitere Studien zeigen können, dass die positiven Effekte der körperlichen Aktivität, die Nachteile, die mit einer höheren Luftschadstoffexposition verbunden sind, überwiegen. Es gibt also gute Gründe, sich körperlich zu betätigen, und das auch in Gegenden, die durch Straßenverkehr belastet sind, wenn es keine anderen Möglichkeiten in unbelasteten Gebieten gibt.
Jeder ist auf Luft zum Atmen angewiesen. Ziel muss es deshalb sein, saubere Luft für Alle und überall sicher zu stellen.
Grenzwerte sind dabei häufig nur ein vernünftiger Kompromiss, das Wünschenswerte mit dem Machbaren zu vereinen. Vieles kann getan werden, um die Luftqualität zu verbessern. Zu den Maßnahmen gehören neben sauberen Motoren und verkehrsorganisatorischen Maßnahmen ein attraktiver Nahverkehr und Umweltzonen. Eine Verlagerung des Verkehrs an den Messstationen vorbei, verlagert das Problem lediglich. Erste Analysen belegen, dass z.B. ausreichend große Umweltzonen tatsächlich die Luftqualität verbessern.
Wir alle können dazu beitragen, dass unsere Luft besser wir, z.B. indem wir das Auto einmal stehen lassen.
„Dicke Luft – Gefahr für die Lunge“ ist das Thema des diesjährigen Lungentages. Im Rahmen des Deutschen Lungentages finden bundesweit viele Informationsveranstaltungen statt. https://www.lungentag.de/veranstaltungen/page/1.html
Die diesjährige Zentralveranstaltung des Lungentags findet in Berlin statt:
Samstag, 29. September 2018, 10 bis 14 Uhr
Charité Berlin, CCO Auditorium und Foyer, Virchowweg 6
Weitere Informationen:
Deutscher Lungentag
Raiffeisenstr. 38
33175 Bad Lippspringe
www.lungentag.de
Email: info@lungentag.de
Sektionssprecher: Prof. Dr. M. Lommatzsch
Quelle: idw
360° – Film nimmt Zuschauer mit auf einen faszinierenden Tauchgang durch ein Korallenriff
Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
2018 ist das Internationale Jahr des Riffes. Als einen Beitrag hierzu veröffentlicht das Leibniz-Zentrum für Marine Tropenforschung (ZMT) gemeinsam mit der Filmagentur „The Jetlagged“ einen 360°-Film, der in einem tropischen Korallenriff aufgenommen wurde.
2018 ist das Internationale Jahr des Riffes, eine weltweite Initiative der „International Coral Reef Initiative“, die erstmalig 1997 ausgerufen wurde und nun bereits zum dritten Mal stattfindet. Als einen Beitrag hierzu veröffentlicht das Leibniz-Zentrum für Marine Tropenforschung (ZMT) gemeinsam mit der mehrfach preisgekrönten Filmagentur „The Jetlagged“ einen 360°-Film, der in einem tropischen Korallenriff aufgenommen wurde.
Der Film nimmt den Zuschauer mit auf eine Reise durch das Korallen-Dreieck in Südostasien und seine beeindruckenden Riffe. Mit einem VR-Headset kann der Betrachter die Unterwasserwelt mit einem Blickumfang von 360° erleben, sich wie ein Taucher rundherum umschauen und diesen spannenden Lebensraum erkunden. Das Korallen-Dreieck, das sich von den Inseln der Salomonen über Neuguinea und Borneo bis zu den Philippinen ausstreckt, ist eine der artenreichsten Meeresregionen der Erde.
Während sich unser Planet weiter erwärmt, verändern sich die Ozeane: Korallenbleiche und Ozeanversauerung, dazu noch Überfischung und Verschmutzung bedrohen weltweit die empfindlichen Korallenriffe. Rund 30% der Riffe weltweit gelten aufgrund menschlicher Einflüsse bereits als zerstört, und Klimamodelle sagen ein regelmäßiges Ausbleichen von nahezu 90% aller Riffe bis Mitte des Jahrhunderts voraus. So ist es dringend erforderlich, Menschen für dieses einzigartige Ökosystem zu begeistern und auf die Notwendigkeit eines umfassenden Riffschutzes aufmerksam zu machen.
Der 360°-Film ist Teil eines Forschungsprojektes von Dr. Katie Nelson und Prof. Dr. Achim Schlüter, beide Sozialwissenschaftler am ZMT. Er ist mit verschiedenen Textversionen unterlegt und soll in Kombination mit anderen Medien eingesetzt werden, um herauszufinden, mit welchen Anreizen sich Menschen ökologischer Probleme bewusst werden und lernen, einen Naturraum wertzuschätzen.
In Indonesien führten die beiden Forscher bereits eine Versuchsreihe mit mehr als 1000 Personen durch. Getestet wurde deren Bereitschaft, nach einem virtuellen Tauchgang mithilfe des Films für ein Korallenschutzprojekt zu spenden.
Das ZMT wird den Film mit entsprechender VR-Ausrüstung am 22. und 23. September auf der Forschungsmeile an der Weserpromenade im Rahmen der Maritimen Woche in Bremen zeigen. Im Oktober soll der Film auf der internationalen Our Ocean-Konferenz zum Meeresschutz in Bali präsentiert werden.
Wissenschaftliche Ansprechpartner:
Dr. Katie Nelson (nur Englisch)
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
katie.nelson@leibniz-zmt.de
Tel: 0421 / 23800 – 128
Prof. Dr. Achim Schlüter
Leibniz-Zentrum für Marine Tropenforschung (ZMT)
achim.schlueter@leibniz-zmt.de
Tel: 0421 / 23800 – 104
Weitere Informationen:
https://www.leibniz-zmt.de/de/neuigkeiten/im-fokus/film-nimmt-zuschauer-mit-auf-…
Quelle: idw
Was die Forschung heute weiß: Sieben Ernährungsmythen aufgeklärt
Dr. Katarina Werneburg Stabsstelle Universitätskommunikation/Medienredaktion
Universität Leipzig
Auch diese August-Woche verspricht wieder heiße Temperaturen und wenig Abkühlung. Dabei vergeht manchem die Lust auf warme Speisen und üppige Mahlzeiten. Doch wie gesund sind die Alternativen? Machen Obst und Essen am Abend wirklich dick? Und sind Übergewichtige dann selbst schuld an ihrem Gewicht? „Nein“, sagt Prof. Dr. Matthias Blüher, Leiter der Adipositas-Ambulanz für Erwachsene am Integrierten Forschungs- und Behandlungszentrum (IFB) AdipositasErkrankungen der Leipziger Universitätsmedizin. Denn Adipositas sei eine Erkrankung, die von vielen Faktoren bestimmt wird. Im Interview spricht der Mediziner über vermeintliche gesunde Obst-Snacks und die Ursachenforschung bei Adipositas.
Im Sommer benötigen wir weniger Kalorien, weil der Körper für die Abkühlung weniger Energie verbraucht.
Prof. Dr. Matthias Blüher: Das stimmt nicht. In Situationen extremer Hitze oder Kälte ist der Energieverbrauch unseres Körpers generell erhöht: Sowohl beim Frieren als auch beim Abkühlen benötigen wir mehr Energie. Allerdings ist nicht davon auszugehen, dass man im Sommer oder im Winter unterschiedlich gute Chancen hat, abzunehmen. Der einzige Unterschied liegt tatsächlich im Ernährungsverhalten: Im Sommer nehmen viele typischerweise leichtere und kalorienärmere Mahlzeiten zu sich, im Winter legt man sich eher den klassischen Winterspeck zu.
Gerade bei heißen Temperaturen setzen viele auf Obst-Snacks. Davon kann man so viel essen, wie man will – Obst ist in jedem Fall gesund.
Prof. Dr. Matthias Blüher: Leider ist das nicht ganz richtig, denn auch beim Obst macht die Dosis das Gift. Früchte können auch eine ganze Menge an Kalorien und Kohlenhydraten enthalten. Ein aktuelles Beispiel aus der Forschung zeigt, dass gerade die Fruktose, die wir verstärkt in Obst finden, einen ganz wesentlichen Beitrag bei der Entstehung der Fettleber leisten kann.
Auch wenn sich die Temperaturen dann etwas abgekühlt haben: Abends essen macht dick.
Prof. Dr. Matthias Blüher: Das stimmt und stimmt auch nicht. Auch hier kommt es wieder darauf an, wie viel zum Abendessen auf den Tisch kommt. Man geht zwar davon aus, dass die Kalorien am Abend nicht gleich wieder verbrannt werden können, weil man dann ins Bett geht. Letztendlich gibt es aber keinen Beweis dafür, zu welcher Tageszeit Kalorien fürs Gewicht schädlicher sind – die Gesamtmenge, die man über den Tag verteilt zu sich nimmt, zählt. Vielen Menschen fällt es aber leichter, abends auf Essen zu verzichten, um ihr Gewicht zu reduzieren. Wissenschaftliche Untersuchungen haben gezeigt, dass Menschen, die regelmäßig frühstücken, eine höhere Chance haben, Gewicht zu verlieren.
Mit Light-Produkten hingegen nimmt man ab.
Prof. Dr. Matthias Blüher: Das stimmt leider nicht. In Light-Produkten wird Zucker oft durch Zuckerersatzstoffe ausgetauscht. Diese Ersatzstoffe können mehr Appetit machen oder direkt auf unsere Darmbakterien wirken. Light-Produkte können also indirekt dazu beitragen, dass man mehr Appetit hat und doch nicht abnehmen kann – auch wenn es der Name anders verspricht.
Übergewichtige und adipöse Menschen sind selber schuld an ihrem Übergewicht.
Prof. Dr. Matthias Blüher: Stimmt nicht. Wir wissen heute zum Beispiel, dass genetische Faktoren eine ganz große Rolle bei der Ausprägung von Übergewicht und Adipositas spielen. Auch hormonelle Aspekte und unser gesellschaftliches Umfeld bedingen die Entstehung von Übergewicht. All diese Faktoren kann der Einzelne nicht aktiv beeinflussen.
Übergewichtige müssen einfach weniger essen und mehr Sport treiben, dann nehmen sie schon ab.
Prof. Dr. Matthias Blüher: Eigentlich stimmt das. Leider muss man sagen, dass Abnehmkonzepte, die nur darauf basieren weniger zu essen und sich mehr zu bewegen, langfristig versagt haben. Woran das liegt, wissen wir nur zum Teil. Es ist sehr wahrscheinlich, dass unser Körper ein einmal erreichtes Gewicht hervorragend verteidigen kann. Hier greifen verschiedene Mechanismen ineinander, die dazu führen, dass der Körper immer wieder zu seinem maximal erreichten Gewicht zurück möchte. Zu diesen Faktoren gehören beispielsweise die Ausschöpfung der aufgenommenen Kalorien aus der Nahrung sowie die Regulation von Grundumsatz, Appetit und Sättigung. Auch diese Faktoren können wir nicht bewusst kontrollieren.
Adipositas ist eine Erkrankung und die Ursachen der Adipositas sind der Wissenschaft in Gänze bekannt.
Prof. Dr. Matthias Blüher: Den ersten Teil der These kann ich bejahen. Wir sehen Adipositas als eine Erkrankung an und stehen damit nicht allein da – auch die Weltgesundheitsorganisation definiert Adipositas mittlerweile als eine Erkrankung. Den zweiten Teil des These muss ich verneinen: Wir sind immer noch bemüht, die Ursachen der Adipositas-Entstehung für den einzelnen Menschen und auf gesellschaftlicher Ebene komplett zu verstehen. Nur für wenige, einzelne Fälle können wir bislang einen klaren Zusammenhang etwa zwischen dem Defekt eines Gens und der Ausprägung von Adipositas herstellen.
Adipositas-Forschung in Leipzig
Die Adipositas-Forschung ist seit vielen Jahren ein Schwerpunkt der Universität Leipzig. Auch der Wissenschaftsrat attestiere dem Standort zuletzt herausragende Kompetenzen in diesem Bereich. Im Februar 2018 hat die Universität Leipzig einen Vollantrag für das Exzellenzcluster „Adipositas verstehen“ in der Exzellenzstrategie des Bundes und der Länder eingereicht. Das Projekt verfolgt einen interdisziplinären Ansatz, der die Medizin mit den Sozial- und Geisteswissenschaften verbindet. Denn Ursachen und Folgen von Adipositas sind kein rein medizinisches Thema, sondern eingebettet in unsere Kultur und Gesellschaft. Wirksame Präventions- und Therapiestrategien müssen daher in diesem Kontext entwickelt und gedacht werden. Die Universität Leipzig stellt die Wissenschaftler und ihre Forschungsarbeit hinter dem Cluster-Antrag vor: Vom Historiker, über Bioinformatiker und Mediziner bis hin zur Kommunikationswissenschaftlerin.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Matthias Blüher
Weitere Informationen:
http://www.adipositas-verstehen.de
Quelle: idw
Füße kribbeln, brennen, sind taub: Neue Biomarker der Entzündung als Risikofaktoren für Neuropathie
Christina Becker Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes-Zentrum
Die Polyneuropathie gehört zu den häufigsten Komplikationen bei Menschen mit Diabetes. Sie kann aber auch bei bestimmten Risikofaktoren oder Erkrankungen bereits vor der Manifestation eines Diabetes auftreten. Erste Symptome sind häufig Missempfindungen in den Füßen. Obwohl eine Polyneuropathie bei etwa 30% der Menschen mit Diabetes vorliegt, bleibt sie häufig undiagnostiziert. Wissenschaftler aus dem Deutschen Diabetes-Zentrum (DDZ) in Düsseldorf konnten in Kooperation mit Kolleginnen aus dem HelmholtzZentrum München (HMGU), beide Partner im Deutschen Zentrum für Diabetesforschung (DZD), nun erstmals zeigen, dass sechs Biomarker der Entzündung das Risiko für eine Polyneuropathie anzeigen.
Obwohl viele Patienten an Polyneuropathie leiden, weiß man derzeit relativ wenig über ihre Entstehung, was auch die therapeutischen Möglichkeiten begrenzt. Bislang ist bekannt, dass Entzündungsprozesse zu anderen diabetischen Komplikationen wie Herzinfarkt oder Schlaganfall beitragen. Ziel dieser neuen Studie war daher die umfangreiche Analyse von Biomarkern, die Entzündungsprozesse als Risikofaktor für die sogenannte distale sensorische Polyneuropathie charakterisieren. Dabei wurden sowohl Menschen mit Typ-2-Diabetes als auch Menschen in der älteren Allgemeinbevölkerung untersucht. Die Ergebnisse wurden in der aktuellen Ausgabe der Zeitschrift Diabetes veröffentlicht.
„In unserer Studie haben wir neue Biomarker identifiziert, die das Risiko für die Entstehung einer Polyneuropathie anzeigen. Erstmals konnten wir auch Hinweise darauf finden, dass neben dem angeborenen Immunsystem das adaptive Immunsystem an der Entwicklung der Krankheit beteiligt sein könnte“, erläutert Prof. Dr. Christian Herder, Leiter der Studie am Deutschen Diabetes-Zentrum (DDZ). „Diese Befunde könnten neue therapeutische Perspektiven eröffnen. Das Ziel könnte dabei sein, das Immunsystem entsprechend zu beeinflussen und damit letztlich die Entstehung beziehungsweise das Fortschreiten der Neuropathie zu verhindern“, ergänzt der Neurodiabetologe Prof. Dr. Dan Ziegler, Stellvertretender Direktor des Instituts für Klinische Diabetologie am DDZ.
Studie – Ablauf und Design
Die Studie umfasste 513 Männer und Frauen der bevölkerungsbasierten KORA (Kooperative Gesundheitsforschung in der Region Augsburg) F4/FF4-Kohorte im Alter von 62 bis 81 Jahren, die zu Studienbeginn keine distale sensorische Polyneuropathie hatten. Von diesen Personen entwickelten während der 6,5-jährigen Nachbeobachtungszeit 127 Personen eine DSPN. Der Serumspiegel von insgesamt 71 Biomarkern der Entzündung wurde unter Verwendung der neuen Proximity-Extension-Assay-Technologie gemessen. Der Serumspiegel von 26 dieser 71 Biomarkern war bei Personen, die während der Studie eine Polyneuropathie entwickelten, höher als bei den Personen, die keine Polyneuropathie aufwiesen. Nach statistischer Korrektur für multiples Testen blieben höhere Konzentrationen von sechs Biomarkern mit dem DSPN-Risiko verbunden. Drei dieser Proteine (MCP-3/CCL7, MIG/CXCL9, IP-10/CXCL10) waren Chemokine, während die anderen drei (DNER, CD40, TNFRSF9) lösliche Formen von Transmembranrezeptoren waren.
Die Chemokine zeigten neurotoxische Wirkungen in einem Zellkultur-Modell, was für ihre Beteiligung an der Entstehung der Neuropathie spricht. Wenn die Daten für diese sechs Biomarker zu einem klinischen Risikomodell hinzugefügt wurden, verbesserte sich die Vorhersagegüte des Modells signifikant. Weiterführende Pathway-Analysen wiesen darauf hin, dass wahrscheinlich verschiedene Zelltypen von angeborener und adaptiver Immunität an der Entwicklung von DSPN beteiligt sind. Insgesamt konnte diese Studie daher neuartige Assoziationen zwischen Biomarkern der Entzündungen und dem Polyneuropathie-Risiko zeigen und Hinweise darauf liefern, die auf ein komplexes Zusammenspiel von angeborener und adaptiver Immunität in der Entstehung dieser Komplikation hinweisen.
Fazit
Mit dieser Studie verbessert sich das Verständnis für die Rolle von Entzündungsprozessen in der Entstehung der distalen sensorischen Polyneuropathie, sowohl bei älteren Personen ohne als auch mit Typ-2-Diabetes erheblich. Die Hauptbefunde müssen nun in anderen Kohorten repliziert werden. Dabei sind neben den biochemischen Untersuchungen auch Untersuchungen von Immunzellen wichtig. Langfristig soll mit diesen Arbeiten geklärt werden, ob und wie eine Modulation von Entzündungsprozessen die Optionen hinsichtlich Prävention und Therapie der distalen sensorischen Polyneuropathie ergänzen kann.
Wissenschaftliche Ansprechpartner:
Prof. Christian Herder
Deutsches Diabetes-Zentrum (DDZ)
Auf’m Hennekamp 65, 40225 Düsseldorf
Tel. +49 211 3382 649
E-mail: christian.herder@ddz.uni-duesseldorf.de
Originalpublikation:
Herder C, Kannenberg J, Carstensen-Kirberg M, Strom A, Bönhof G, Rathmann W, Huth C, Koenig W, Heier M, Krumsiek J, Peters A, Meisinger C, Roden M, Thorand B, Ziegler D. A Systemic Inflammatory Signature Reflecting Crosstalk Between Innate and Adaptiv Immunity Is Associated With Incident Polyneuropathy: KORA F4/FF4 Study. Diabetes. 2018 Aug 16. db180060. DOI: 10.2337/db18-0060. [Epub ahead of print]
Weitere Informationen:
http://ddz.uni-duesseldorf.de/de/
http://diabetes.diabetesjournals.org/content/early/2018/08/13/db18-0060.full-tex…
Quelle: idw
Natürlicher Hochwasserschutz an der Donau: EU-Projekt mit Aueninstitut der KU
Dipl.-Journ. Constantin Schulte Strathaus Presse- und Öffentlichkeitsarbeit
Katholische Universität Eichstätt-Ingolstadt
In den vergangenen Jahrzehnten sind die Anrainerstaaten der Donau, die von der Quelle bis zur Mündung zehn europäische Länder durchfließt, von schweren Flutkatastrophen betroffen gewesen. Mit Beteiligung des Aueninstituts Neuburg der Katholische Universität Eichstätt-Ingolstadt (KU) untersucht in den kommenden zwei Jahren ein europäisches Forschungskonsortium von mehr als 20 Kooperationspartnern, wie sich das Risiko von Überschwemmungen durch eine Wiederherstellung von Auen entlang der Donau reduzieren lässt.
Dabei knüpft das Aueninstitut der KU an seine langjährige Expertise an, die es etwa bei der Renaturierung der Donauauen zwischen Ingolstadt und Neuburg oder internationalen Projekten in China gesammelt hat. „Wasser macht nicht an Grenzen halt. Deshalb ist es ein Anliegen des Projektes, auf internationaler Ebene umfassende Perspektiven für das Wassermanagement und die Prävention von Überflutungen zu untersuchen – verbunden mit dem Aspekt von Artenvielfalt, die durch Auen bewahrt und gefördert wird“, erklärt Prof. Dr. Bernd Cyffka, Leiter des Aueninstituts und Inhaber der Professur für Angewandte Physische Geographie. Neben Cyffka und seinem Team sind für die deutsche Seite noch Forscher der TU München am Projekt „Danube Floodplain“ beteiligt. Weitere Mitwirkende sind Wissenschaftlerinnen und Wissenschaftler aus Österreich, der Tschechischen Republik und der Slowakei, Ungarn, Kroatien, Serbien und Bulgarien. Die Leitung des Gesamtprojektes liegt bei der nationalen Wasserbehörde Rumäniens. Für die Teilprojekte des Aueninstituts der KU stellt die Europäische Union rund 250.000 Euro an Fördermitteln zur Verfügung.
Viele Auen entlang der Donau sind im Lauf der Zeit durch Ansiedlungen, Landwirtschaft und Infrastrukturmaßnahmen verloren gegangen. Anhand einer einheitlichen Methodik wollen die beteiligten Wissenschaftler in mehreren Pilotregionen untersuchen, welche positiven Effekte noch bestehende Auengebiete haben bzw. welches Potenzial derzeit trocken liegende Auen aufweisen. Im Vergleich zu aufwändigen und teuren technischen Maßnahmen für den Hochwasserschutz bietet die Renaturierung von Auen darüber hinaus die Gelegenheit, Biodiversität zu erhalten bzw. neue Grundlagen für Artenreichtum zu schaffen.
Da bei solchen Renaturierungsprojekten die Perspektiven vieler Interessensgruppen zu berücksichtigen sind – wie etwa von anliegenden Gemeinden, Waldbesitzern, Fischereiverbänden oder landwirtschaftlichen Betrieben – wird das Aueninstitut der KU die Stakeholderanalysen von anderen Projektbeteiligten zusammenfassen, um daraus sogenannte Ökosystemleistungen von Auen abschätzen zu können. Gemeint sind damit Leistungen der Auen für Mensch und Natur – als Lebensraum für Pflanzen und Tiere, als Erholungsraum, als Filter für Schadstoffe oder als Beitrag zum Hochwasserschutz. Die wechselseitige Abwägung der verschiedenen Anforderungen an das Ökosystem Auen soll in einem zweiten Schritt als Grundlage für ein Modell zur Kosten-Nutzen-Analyse dienen, an dessen Entwicklung das Aueninstitut ebenfalls beteiligt ist. Das Modell wird in einen Leitfaden einfließen, mit dem Regionen entlang der Donau Kriterien und Schritt-für-Schritt-Anleitungen zur Umsetzung eigener Renaturierungsmaßnahmen aufgezeigt bekommen – auch bezogen auf die Lösung möglicher Konflikte mit einzelnen Interessensgruppen.
„Ziel des Projektes ist es auch, zu belegen, dass sich Renaturierungsmaßnahmen im Vergleich zum herkömmlichen Hochwasserschutz in vielerlei Hinsicht als profitabel erweisen können – sowohl für Bevölkerung und Wirtschaft als auch für die Natur“, sagt Professor Cyffka.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Bernd Cyffka (bernd.cyffka@ku.de; Tel. 08421/932-3039)
Weitere Informationen:
http://www.interreg-danube.eu/approved-projects/danube-floodplain
Anhang
Der Auenwald an der Donau zwischen Neuburg und Ingolstadt. Die Erfahrungen aus der Renaturierung dieses Gebietes wollen Wissenschaftler des Aueninstituts der KU auf das EU-Projekt übertragen.
https://idw-online.de/de/attachment66433
Quelle: idw
„Im Alten Rom kannten Beschimpfungen in der Politik kaum Grenzen“
Viola van Melis Zentrum für Wissenschaftskommunikation
Exzellenzcluster „Religion und Politik“ an der Westfälischen Wilhelms-Universität Münster
52. Deutscher Historikertag beleuchtet Schmähungen und „Hate Speech“ in allen Epochen – Althistoriker Martin Jehne: Unter römischen Senatoren waren persönliche Attacken gängig – Das Volk in der Volksversammlung durfte beleidigen, selbst aber nicht gekränkt werden – „Ungeheure Spaltung zwischen Arm und Reich“ – „Moderne Gesellschaften könnten im Umgang mit Beschimpfungen etwas römische Robustheit brauchen“
Das Alte Rom hat politische Debatten Historikern zufolge mit großer Härte und persönlichen Angriffen geführt, die mancher Hassrede im Internet in nichts nachstehen. „Die Angriffe, auch Invektiven genannt, gehörten für Senatoren der römischen Republik fest zum öffentlichen Leben“, erläutert der Althistoriker Prof. Dr. Martin Jehne von der Technischen Universität Dresden, der auf dem 52. Deutschen Historikertag im September in Münster in einer Sektion über Schmähungen von der Antike bis heute zur Streitkultur im antiken Rom spricht. „Heftige Abwertungen des politischen Gegners schweißten die Unterstützergruppe zusammen und sorgten für Aufmerksamkeit, Unterhaltung und Empörung – ähnlich wie Beleidigungen, Drohungen und Hate Speech heute im Internet.“ Der Ton in der stark hierarchisierten römischen Politik sei rau gewesen, so Jehne, aber nicht ohne Regeln. „Politiker beschimpften einander rücksichtslos. Zugleich mussten sie sich in der Volksversammlung vom Volk beleidigen lassen, ohne es selbst schmähen zu dürfen – ein Ventil, das in einer tiefen Spaltung in arm und reich die Allmachtsphantasien der Elite begrenzte.“ Politiker und Publikum hätten Schmähungen kaum für bare Münze genommen. Auch wenn der Vergleich zu heute teils hinke, so Jehne: „Eine gewisse römische Robustheit im Umgang mit Schmähgemeinschaften wie AfD oder Pegida könnte helfen, den Aufregungspegel zu senken und sachlicher zu werden.“
Kränkungen auszuhalten und zu überwinden, kann nach den Erkenntnissen des Historikers für das Alte Rom letztlich politisch stabilisierend wirken. Die üble Nachrede in der römischen Republik (509-27 v. Chr.) ging durchaus weit: „Der berühmte Redner und Politiker Marcus Tullius Cicero (106-43 v. Chr) etwa schreckte, als er seinen Unterstützer Sestius verteidigte, nicht davor zurück, dem Feind Clodius öffentlich Inzest mit Brüdern und Schwestern vorzuwerfen“, so Prof. Jehne. Eine Sexualpraxis, die auch in Rom als unzulässig galt. „Clodius warf Cicero wiederum vor, er hätte sich als Konsul wie ein König aufgeführt. Eine schwere Anschuldigung, war doch das Königtum in der römischen Republik verpönt.“ So gab es im politischen Streit kaum Grenzen, wie der Historiker betont. Das unterscheide sich von heute, wo intensiv über Grenzen des Erlaubten in Debatten auf der Straße oder im Web nachgedacht werde. „Die Römer scheint das wenig interessiert zu haben. Es gab zwar das Delikt der iniuria, zu der auch verbale Verletzungen gehörten – aber kaum solche Anklagen.“
„Keine Morde aus gekränkter Ehre“
Die Stadtrömer waren dem Historiker zufolge stolz auf ihren bissigen, rücksichtslosen Witz auf Kosten anderer: „Sie hielten das für einen wichtigen Teil von urbanitas, den Kommunikationsformen der Hauptstädter, im Gegensatz zur rusticitas der Landeier.“ Man habe sich regelrecht gerühmt, dass die üble Nachrede in der Stadt besonders blühte. „Als Geschmähter hielt man das aus, und wenn möglich, revanchierte man sich.“ Oft arbeiteten Invektivgegner schon bald danach wieder zusammen und pflegten normalen Umgang. Das politische Klima blieb leidlich stabil: Morde aus gekränkter Ehre gab es nur in der Ausnahmesituation des Bürgerkriegs.
Dass das Volk vom scharfen Umgang der Senatoren in politischen Arenen ausgenommen war, selbst aber die politische Elite beleidigen und auspfeifen durfte, zeigt nach Prof. Jehne, dass die Politiker der Republik die Volksversammlung „unbestritten als politisches Volk anerkannten“. An heutigen demokratischen Wahlverfahren gemessen habe es sich zwar höchstens um drei Prozent der Abstimmungsberechtigten gehandelt, „doch die Senatoren sahen darin das Volk als Entscheidungsinstanz für das Gemeinwesen verkörpert“. So versuchte Cicero zwar in der Debatte um das Agrargesetz im Jahr 63 vor Christus das Volk umzustimmen. „Er versprach aber, sich dem Volk zu beugen und seine Meinung zu ändern, wenn ihm das nicht gelinge.“ Wer das Volk als Entscheidungsinstanz in Frage stellte, riskierte, dass die Menge aufbrüllte und die Rednertribüne stürmte. „Diese Macht des Volkes galt allerdings nur in offiziellen politischen Kommunikationsarenen“, betont Jehne. „Wenn Angehörige des ‚einfachen Volkes‘ den Senatoren und ihrem Gefolge in den Straßen nicht rechtzeitig Platz machte, wurden sie rüde angegangen und keineswegs hofiert.“
„Etwas mehr Gelassenheit in aktuellen Debatten“
Heutige Debatten in sozialen Netzwerken sieht Jehne persönlich gelassener, seit er Schmähungen in der römischen Republik untersucht. „Die empörenden Grenzüberschreitungen von Schmähgemeinschaften wie Pegida oder AfD, mit denen sie ihre Unterstützer integrieren wollen, erhalten in der überschießenden Medienvielfalt eine Resonanzverstärkung. Meine Forschung hat mich aber dazu gebracht, meinen Aufregungspegel bei neuen Schmähungen der Gegenwart erheblich zurückzufahren – die Schmähungen waren es jedenfalls nicht, die den Untergang der römischen Republik herbeiführten.“
Auf dem 52. Deutschen Historikertag in Münster leitet der Althistoriker Prof. Dr. Martin Jehne die Sektion „Invektive Spaltungen? Exkludierende und inkludierende Dynamiken von Schmähungen von der Antike bis zur Zeitgeschichte“ am Donnerstag, 27. September, gemeinsam mit den Dresdener Historikern Prof. Dagmar Ellerbrock und Prof. Gerd Schwerhoff. Dabei werden neben den Schmähungen der römischen Republik auch Beschimpfungen zwischen Geistlichen und Laien im christlichen Mittelalter, Schmähungen unter aufgeklärten Philosophen und die Situation in den USA der 1960er Jahre und im kolonialen Afrika beleuchtet. Hintergrund sind Forschungen am Sonderforschungsbereich 1285 „Invektivität. Konstellationen und Dynamiken der Herabsetzung“, der TU Dresden, an dem Prof. Jehne das Teilprojekt „Invektivität in Arenen ritualisierter Kommunikation während der römischen Republik und Kaiserzeit“ leitet. (sca/vvm)
„Gespaltene Gesellschaften“ – 52. Deutscher Historikertag
Mit dem Thema „Gespaltene Gesellschaften“ in allen Epochen und Kontinenten befasst sich der 52. Deutsche Historikertag vom 25. bis 28. September 2018 an der Universität Münster. Rund 3.500 Wissenschaftler aus dem In- und Ausland tauschen sich auf dem größten geisteswissenschaftlichen Kongress in Europa in mehr als 90 Sektionen über aktuelle Forschungsthemen aus. Als Gastredner werden auch erwartet Wolfgang Schäuble, Christopher Clark, Herfried Münkler, Ulrich Raulff, Aladin El-Mafaalani und Birgit Schäbler. Das Gastland Niederlande vertreten etwa die Parlamentsvorsitzende Khadija Arib und der Autor Geert Mak.
Die Sektionen befassen sich in vielen Fallbeispielen mit sozialen, ökonomischen, religiösen oder ethnischen Spaltungen, die nicht erst die Gegenwart, sondern auch frühere Epochen herausforderten. Erörtert werden etwa Flüchtlingsdebatten vom Altertum bis zur Gegenwart, die soziale, wirtschaftliche und rechtliche Ausgrenzung bestimmter Gruppen in verschiedenen Epochen, die Frage nach dem Westfälischen Frieden als Vorbild für Nahost, ökonomische Spaltungen in der Bundesrepublik etwa zwischen „Hartz-IV-Familien und Helikoptereltern“ oder die politische Instrumentalisierung von Geschichtsbildern in heute gespaltenen Gesellschaften wie Katalonien, Schottland und Kosovo.
Ausrichter des Historikertags sind der Verband der Historiker und Historikerinnen Deutschlands (VHD), der Verband der Geschichtslehrer Deutschlands (VGD) und die Westfälische Wilhelms-Universität Münster (WWU). Der Kongress geht auf die „erste Versammlung deutscher Historiker“ 1893 in München zurück, wird alle zwei Jahre ausgetragen und widmet sich drängenden Fragen in Geschichtswissenschaft und Gesellschaft. (vhd/sca/vvm)
Weitere Informationen:
https://www.uni-muenster.de/Religion-und-Politik/aktuelles/2018/aug/PM_Schmaehungen_im_Alten_Rom_und_Hassrede_heute.html
Quelle: idw
Schwachstelle Knie: Präventionsübungen senken Risiko für Verletzung des vorderen Kreuzbands
Anne-Katrin Döbler und Lisa Ströhlein, Thieme-PR Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Orthopädie und Unfallchirurgie e. V.
Pressemitteilung zum DKOU 2018
Deutscher Kongress für Orthopädie und Unfallchirurgie
23. bis 26. Oktober 2018, Messegelände Süd, Berlin
Berlin – Wer regelmäßig spezielle Übungen zur Prävention von vorderen Kreuzbandverletzungen macht, eine Innendrehung des Knies beim Sport vermeidet und auf eine korrekte Bewegungstechnik achtet, halbiert sein Risiko für entsprechende Verletzungen oder gar einen Kreuzbandriss. Frauen profitieren noch mehr als Männer von diesen Übungen. In Situationen ohne Kontakt zu anderen Sportlern sinkt ihr Verletzungsrisiko um zwei Drittel. Das schließen Orthopäden und Unfallchirurgen aus mehreren großen Studien (1).
Experten raten Trainern, ihre Sportler gezielt auf Präventionsprogramme hinzuweisen. Wie Knie- und Muskelverletzungen vermieden und effektiv behandelt werden, erklären Experten auf einer Pressekonferenz im Rahmen des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) 2018.
Verletzungen am vorderen Kreuzband zwingen Sportler häufig zu monatelangen Ruhepausen mit Operationen und Reha. Für professionelle Athleten können sie auch das Karriere-Aus bedeuten: Eine Untersuchung hat gezeigt, dass nur zwei Drittel der Sportler in den 41 Monaten nach der Verletzung wieder mit dem üblichen Einsatz spielen können (2). „Präventionsübungen sind deshalb keine verlorene Zeit, sondern eine wichtige Investition in einen verletzungsfreien Sport“, sagt Dr. med. Gerd Rauch, Kongresspräsident des Berufsverbands für Orthopädie und Unfallchirurgie für den DKOU 2018. Zudem erhöht eine Knieverletzung auch das Risiko, im späteren Leben an einer Kniearthrose zu erkranken – auch nach einer operativen Behandlung des vorderen Kreuzbands.
Sportarten mit vielen Sprüngen, abrupten Stopps, schnellen Richtungswechseln und Drehbewegungen belasten das Knie in besonderer Weise. Deswegen verletzen sich vor allem Fuß-, Hand- und Basketballer sowie Skifahrer, Feldhockeyspieler und Judokämpfer am vorderen Kreuzband. Frauen sind dabei zwei- bis achtmal häufiger betroffen als Männer (3). Kreuzbandverletzungen entstehen meist, wenn das Knie in die sogenannte X-Beinstellung gerät: Das bedeutet, dass das Knie sich nach innen dreht, während der Schwerpunkt des Körpers gleichzeitig hinter den Knien liegt und die Beine ungleichmäßig belastet werden. Das passiert meist, wenn der Sportler nach einem Sprung landet, abrupt die Laufrichtung ändert, plötzlich stoppt oder sich dreht. „Verliert der Sportler dabei die Kontrolle über den Bewegungsablauf, ist eine Verletzung des vorderen Kreuzbands quasi vorprogrammiert“, erklärt Rauch, der als Mannschaftsarzt die Handballer vom MT Melsungen betreut. Die Deutsche Kniegesellschaft hat ein Trainingsprogramm entwickelt, das Sportler darin schulen soll, die X-Beinstellung zu vermeiden. In einer 30-seitigen Broschüre beschreiben Experten verschiedene Lauf-, Balance-, Sprung- und Kraftübungen, die die Gelenke und die umliegende Muskulatur stabilisieren. „Diese Übungen sollten zwei- bis dreimal pro Woche in ein 20- bis 30-minütiges Aufwärmtraining eingebaut werden“, empfiehlt Rauch. Ein weiteres Präventionsprogramm heißt FIFA 11+ und wurde vom Weltfußballverband entwickelt.
Ob ein Sportler zur X-Beinstellung neigt, lässt sich mit einem einfachen Sprungtest feststellen. Dazu springt der Athlet von einem Kasten, landet und springt dann mit maximaler Kraft in die Höhe und landet wieder. Sind die Knie bei der Landung nach innen geneigt, sprechen Orthopäden und Unfallchirurgen von der X-Beinstellung. Diese Menschen sind besonders gefährdet und sollten gezielt an einer Änderung dieses Bewegungsmusters arbeiten. „Auch wenn wir viele Knieverletzungen erfolgreich behandeln können, ist Vorbeugen immer die beste Variante“, betont Rauch. „Vor allem im Breitensport findet Prävention immer noch zu wenig Aufmerksamkeit.“ Sportverletzungen und Verletzungsprävention stehen deshalb wieder groß auf der Agenda des DKOU 2018.
Die Broschüre „Stop X – Programm zur Prävention von Sportverletzungen am Kniegelenk“ ist zum kostenlosen Download erhältlich: https://stop-x.de/
Das Präventionsprogramm FIFA 11+ kann unter folgendem Link heruntergeladen werden:
https://www.dfb.de/fileadmin/_dfbdam/16988-Elf-Plus-Manual-Deutsch.pdf
Quellen:
(1) Webster KE, Hewett TE. Meta-Analysis of meta-analyses of anterior cruciate ligament injury reduction training programs. J Orthop Res. (2018)
Doi:10.1002/jor.24043
(2) Ardern CL et al. Return to sport following anterior cruciate ligament reconstruction surgery: a systematic review and meta-analysis of the state of play. Br J Sports Med. (2011) 45:596-606
(3) Joseph AM et al. A multisport epidemiologic comparison of anterior cruciate ligament injuries in Highschool athletics. J Athl Train (2013). 48:810-817
Terminhinweis
Kongress-Pressekonferenz im Rahmen des DKOU 2018
Donnerstag, 25. Oktober 2018, 12.30 bis 13.30 Uhr
Ort: Messe Berlin, Eingang Süd, Halle 6.3, Raum 411
Wie Sportverletzungen im Breitensport entstehen und wie sie verhindert werden können
Dr. med. Gerd Rauch, Kongresspräsident
Muskelverletzungen im Sport: Entstehungsmuster, ACP/PRP-Therapie und internistische Aspekte
Professor Dr. med. Tim Meyer, Deutscher Fußballbund
Return-to-Play: Der sportliche Wiedereinstieg nach Verletzung
Finn Lemke, Handballprofi
Neues bei der Therapie und der Rehabilitation von vorderen Kreuzbandverletzungen
Dr. med. Christian Schoepp, MSV Duisburg
Behandlungs- und optimierte Rehabilitationskonzepte
Privatdozent. Dr. med. habil. Raymond Best
Wie die Digitalisierung hilft neue Versorgungskonzepte in O & U zu entwickeln
Dr. med. Johannes Flechtenmacher
Ihr Kontakt für Rückfragen/zur Akkreditierung:
Lisa Ströhlein, Heinke Schöffmann
Pressestelle DKOU 2018
Pf 30 11 20, 70451 Stuttgart
Tel.: 0711 8931-459, Fax: 0711 8931-167
stroehlein@medizinkommunikation.org
Weitere Informationen:
http://www.dkou.de
Quelle: idw
DBFZ Jahrestagung 2018: Experten diskutieren die Nutzungsoptionen von Biomasse
Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Zum dritten Mal präsentiert das Deutsche Biomasseforschungszentrum (DBFZ) am 19./20. September 2018 den aktuellen Stand der Bioenergieforschung. Unter dem Motto „Energie und Stoffe aus Biomasse: Konkurrenten oder Partner?“ soll u.a. die Frage diskutiert werden, wie und in welchem Maße nachwachsende Rohstoffe gleichzeitig zu einer nachhaltigen Energieversorgung wie auch zu einer biobasierten Wirtschaft beitragen können. Parallel zur Jahrestagung werden vom DBFZ auch das Fachforum „Hydrothermale Prozesse“ sowie das 1. Deutsche Doktorandenkolloquium Bioenergie ausgerichtet. Die Anmeldung zu allen Veranstaltungen ist unter www.bioenergiekonferenz.de möglich.
Biomasse stellt mit einem aktuellen Anteil von rund 60 % den wesentlichsten Part der erneuerbaren Energieversorgung. In zunehmendem Maße werden nachwachsende Rohstoffe jedoch auch stofflich, z.B. für Werkstoffe oder in der chemischen Industrie eingesetzt. Ergibt sich hieraus ein Dilemma für die zukünftige Energieversorgung oder vielmehr eine Möglichkeit zur Synergie? Auf welchem Weg befindet sich die Bioenergieforschung und welche politischen Rahmenbedingungen sind für eine erfolgreiche Umsetzung der Energiewende notwendig? Fragen, welche die diesjährige Jahrestagung des DBFZ unter dem Motto „Energie und Stoffe aus Biomasse: Konkurrenten oder Partner?“ mit zahlreichen Experten aus Wissenschaft und Wirtschaft sowie Vertretern verschiedener Bundesministerien zu beantworten sucht. Neben einem abendlichen Netzwerk-Event bietet die Veranstaltung mit Posterausstellung und Science-Slam sowie dem sich anschließenden 1. Deutschen Doktorandenkolloquium Bioenergie eine Vielzahl von Möglichkeiten zur wissenschaftlichen Vernetzung mit namhaften Experten und dem wissenschaftlichen Nachwuchs aus allen Bereichen der Bioenergieforschung. Weitere Informationen sowie die Möglichkeit zur Anmeldung finden sich unter: www.bioenergiekonferenz.de
Fachforum Hydrothermale Prozesse
Parallel zur Jahrestagung wird vom DBFZ am 19./20. September 2018 auch wieder das Fachforum „Hydrothermale Prozesse zur stofflichen und energetischen Wertschöpfung“ ausgerichtet. In verschiedenen Vorträgen sowie Poster-Speedpräsentationen verfolgt die Spezialveranstaltung das Ziel, die neuesten Trends und Entwicklungen von hydrothermalen Prozessen (HTP) als Schlüsseltechnologie darzustellen und insbesondere den gegenseitigen Erfahrungsaustausch zwischen Forschung und Wirtschaft zu fördern. Die Veranstaltung richtet sich an Institutionen und Entscheidungsträger aus Wissenschaft und Forschung, Beteiligte aus der Agrar-, Energie- und Umweltpolitik, Fachleute aus regional und überregional ansässigen Unternehmen, Verbände und Vereine der Energiebranche, Vertreter aus Industrie und Wirtschaft, kommunale und staatliche Einrichtungen sowie Wissenschaftler von universitären und außeruniversitären Einrichtungen. Weitere Informationen sowie die Möglichkeit zur Anmeldung unter www.dbfz.de/htp
Die Termine noch einmal zusammen gefasst:
Veranstaltungen: DBFZ Jahrestagung 2018 / HTP-Fachforum / Doktorandenkolloquium Bioenergie
Termine: 19./20./21. September 2018
Ort: Veranstaltungszentrum Hotel de Pologne (Leipziger Foren), Hainstr. 16, 04109 Leipzig
Anmeldung: www.bioenergiekonferenz.de / www.htp-inno.de / www.dbfz.de/doktoranden
Smart Bioenergy – Innovationen für eine nachhaltige Zukunft
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen und stofflichen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz und Effektivität zum bestehenden und zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit. Mit der Arbeit des DBFZ soll das Wissen über die Möglichkeiten und Grenzen einer energetischen und integrierten stofflichen Nutzung nachwachsender Rohstoffe in einer biobasierten Wirtschaft insgesamt erweitert und die herausragende Stellung des Industriestandortes Deutschland in diesem Sektor dauerhaft abgesichert werden – www.dbfz.de.
Wissenschaftlicher Kontakt:
Prof. Dr. Michael Nelles
Tel.: +49 (0)341 2434-112
E-Mail: michael.nelles@dbfz.de
Organisatorischer Kontakt:
Katja Lucke
Tel.: +49 (0)341 2434-119
E-Mail: katja.lucke@dbfz.de
Weitere Informationen:
https://www.dbfz.de/presse/pressemitteilungen-2018/dbfz-jahrestagung-am-1920-sep…
Anhang
DBFZ Jahrestagung am 19./20. September 2018: Experten aus Wissenschaft, Wirtschaft und Politik diskutieren die Nutzungsoptionen von Biomasse
https://idw-online.de/de/attachment66317
Quelle: idw
Woher Muskeln wissen, wie spät es ist
Sonja Opitz, Abteilung Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Wie bereiten sich Muskelzellen auf einen anstrengenden Arbeitstag vor? Wissenschaftlerinnen und Wissenschaftler des Helmholtz Zentrums München und der Ludwig-Maximilians-Universität München (LMU), Mitglieder im Deutschen Zentrum für Diabetesforschung (DZD), haben diese Frage untersucht und die Ergebnisse in ‚PLOS Biology‘ publiziert. Die Arbeit deckt ein ganzes Stoffwechselnetzwerk auf, das wider Erwarten nicht durch das Gehirn, sondern über die ‚innere Uhr‘ der Muskelzellen gesteuert wird.
Quasi alle Zellen des menschlichen Körpers besitzen eine eigene innere Uhr. Sie steuert sämtliche Vorgänge, die nicht gleichzeitig stattfinden oder nicht mit immer gleicher Intensität ablaufen sollen. „Das betrifft beispielsweise die Verwertung von Nährstoffen wie Fett und Proteinen“, erklärt Prof. Dr. Henriette Uhlenhaut. Sie ist Gruppenleiterin am Institut für Diabetes und Adipositas des Helmholtz Zentrums München (IDO) sowie am Genzentrum der LMU. „Gerät die innere Uhr des Körpers aber aus dem Takt, so kann das schwere Folgen für den Stoffwechsel haben. So ist beispielsweise bekannt, dass Menschen, die viel im Schichtdienst arbeiten, besonders anfällig für Stoffwechselkrankheiten wie Diabetes sind.“
In der aktuellen Arbeit konzentrierte sich das Team um Uhlenhaut nun erstmals auf den 24-Stunden-Stoffwechsel-Rhythmus der Muskeln. „Wir hatten speziell zwei Proteine im Blick, die als sogenannte Master Regulatoren der inneren Uhr fungieren“, sagt Dr. Kenneth Dyar, Wissenschaftler am IDO und Erstautor der aktuellen Studie. „Diese beiden Moleküle binden an die DNA und stoßen alle nachfolgenden Prozesse an.“ In Muskelzellen von Mäusen konnten die Wissenschaftler die Aktivität dieser beiden Proteine im Tagesverlauf sehr genau ermitteln. „Dabei haben wir angefangen bei der Bindung an das Erbgut über die zu- oder abnehmende Genaktivität bis hin zu den entsprechenden Gen- und Stoffwechselprodukten alles gemessen“, erklärt Kenneth Dyar den umfassenden Ansatz. Aufbauend auf früheren Studien untersuchten die Wissenschaftler den Auf- und Abbau von Fetten und Proteinen – ein Ansatz der auch für Sportler interessant sein dürfte.
Stoffwechselnetzwerk aufgedeckt
In Zusammenarbeit mit italienischen und österreichischen Kollegen (vom Venezianischen Institut für Molekulare Medizin sowie den Universitäten von Padua, Triest und Graz) arbeiteten die Wissenschaftler bestimmte Vorgänge heraus, die nachts von den Regulatoren der inneren Uhr angeschaltet werden: „Darunter fällt beispielsweise das Speichern von Fett, der Zuckerstoffwechsel oder die Sensitivität gegenüber dem Hormon Insulin“, erklärt Henriette Uhlenhaut. Gleichzeitig würden gegenläufige Prozesse wie die Fettsäureoxidation oder der Proteinabbau heruntergefahren, so die Autoren. Diese Muster seien vor allem in den Stunden vor dem Aufwachen besonders ausgeprägt und bereiten die Muskeln auf den kommenden Tag vor.
Im letzten Schritt untersuchten die Wissenschaftler Eingriffsmöglichkeiten in diese Vorgänge. Dazu beobachteten sie Mäuse, bei denen einer der Master Regulatoren fehlte. Ohne ihre innere Uhr bildeten die Tiere deutlich weniger Fettmasse und die Produktion von Muskelproteinen wurde erhöht. „Zusammengenommen deckt unsere Arbeit auf mehreren Ebenen ein ganzes Stoffwechselnetzwerk auf“, erklärt Studienleiterin Uhlenhaut. „Biologisch spannend dabei ist auch, dass der Taktgeber dafür nicht wie zu vermuten zentral im Gehirn sitzt, sondern die innere Uhr der Muskelzellen selbst ist.“ Langfristig wollen die Autoren die Mechanismen auch im Menschen untersuchen und eine Möglichkeit finden, darin einzugreifen. So wäre es demnach denkbar, eine Insulinresistenz bei Typ-2-Diabetes zu bekämpfen, oder die Energieverbrennung anzukurbeln, um krankhaftes Übergewicht zu reduzieren.
Weitere Informationen
Hintergrund:
Konkret verglichen die Autoren die genomweite Bindung der beiden Transkriptionsfaktoren BMAL1 und REV-ERBα. Die Autoren Michaël Hubert und Katrin Fischer sind Teilnehmer am Doktoranden-Ausbildungsprogramms Helmholtz Graduate School Environmental Health, kurz HELENA.
Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus, Allergien und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de
Das Institut für Diabetes und Adipositas (IDO) erforscht die Erkrankungsmechanismen des Metabolischen Syndroms mit systembiologischen und translationalen Ansätzen. Mittels zellulärer Systeme, genetisch modifizierter Mausmodelle und klinischer Interventionsstudien sollen neue Signalwege und Zielstrukturen entdeckt werden. Ziel ist die interdisziplinäre Entwicklung innovativer Therapieansätze zur personalisierten Prävention und Behandlung von Adipositas, Diabetes und deren Begleiterkrankungen. Das IDO ist Teil des Helmholtz Diabetes Center (HDC). http://www.helmholtz-muenchen.de/ido
Das Deutsche Zentrum für Diabetesforschung e.V. ist eines der sechs Deutschen Zentren der Gesundheitsforschung. Es bündelt Experten auf dem Gebiet der Diabetesforschung und verzahnt Grundlagenforschung, Epidemiologie und klinische Anwendung. Ziel des DZD ist es, über einen neuartigen, integrativen Forschungsansatz einen wesentlichen Beitrag zur erfolgreichen, maßgeschneiderten Prävention, Diagnose und Therapie des Diabetes mellitus zu leisten. Mitglieder des Verbunds sind das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt, das Deutsche Diabetes-Zentrum DDZ in Düsseldorf, das Deutsche Institut für Ernährungsforschung DIfE in Potsdam-Rehbrücke, das Institut für Diabetesforschung und Metabolische Erkrankungen des Helmholtz Zentrum München an der Eberhard-Karls-Universität Tübingen und das Paul-Langerhans-Institut Dresden des Helmholtz Zentrum München am Universitätsklinikum Carl Gustav Carus der TU Dresden, assoziierte Partner an den Universitäten in Heidelberg, Köln, Leipzig, Lübeck und München sowie weitere Projektpartner. http://www.dzd-ev.de
Wissenschaftliche Ansprechpartner:
Prof. Dr. Henriette Uhlenhaut, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Diabetes und Adipositas, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 2052 – E-Mail: henriette.uhlenhaut@helmholtz-muenchen.de
Originalpublikation:
Dyar, K. et al. (2018): Transcriptional programming of lipid and amino acid metabolism by the skeletal muscle circadian clock. PLOS Biology, DOI: 10.1371/journal.pbio.2005886
Quelle: idw
China als globaler Ozon-Brennpunkt
Dipl.-Biologin Annette Stettien Unternehmenskommunikation
Forschungszentrum Jülich
Eine neue Studie von chinesischen, amerikanischen und Jülicher Wissenschaftlern zeigt, dass China zu einem globalen Ozon-Hotspot geworden ist. Im Gegensatz zum allgemeinen Rückgang der Ozonbelastung in den USA und Europa zeigen die verfügbaren Daten in China seit den 1990er Jahren deutliche Zuwächse. Die Forscher verwendeten für ihre Studie die neuesten Ozonmessungen des chinesischen Überwachungsnetzes, und kombinierten sie mit der globalen Datenbank des Tropospheric Ozone Assessment Reports (TOAR) für andere Industrieregionen. Eine vergleichende Auswertung der letzten fünf Jahre zeigt, dass der Anstieg des Oberflächen-Ozons noch immer zunimmt.
Weit oben schützt uns Ozon vor gefährlicher UV-Strahlung, in den unteren Luftschichten ist es ein Schadstoff. Erhöhte Ozon-Konzentrationen in Bodennähe haben negative Auswirkungen auf das Pflanzenwachstum, das Klima – und die Gesundheit: Neuere Untersuchungen zeigen, dass selbst relativ niedrige Ozonwerte chronische Atemwegserkrankungen zur Folge haben können.
In einer neuen Studie hat ein internationales Team von Wissenschaftlern aus China, den USA und Jülich die Konzentrationen von bodennahem Ozon in China ausgewertet – und kamen zu dem Schluss, dass China zu einem globalen Brennpunkt der Ozonbelastung geworden ist: Während die mittleren Ozonwerte mit denen in anderen Industrieregionen in Europa und Nordamerika vergleichbar sind, sind Extremwerte in China nicht nur höher als in diesen Gebieten, sie treten auch häufiger auf. „Nach unserem Wissen gibt es keine andere Region in der Welt, in der die Ozonbelastung so hoch und so häufig ist“, erklärt Dr. Martin Schultz vom Jülich Supercomputing Centre.
Die sommerliche Ozonbelastung ist in China in den letzten Jahren zu einem wachsenden Problem geworden: Im Sommer 2017 wurde in vielen chinesischen Städten besonders hohe Konzentrationen von bodennahem Ozon gemessen. „Im Gegensatz zum allgemeinen Rückgang der Ozonkonzentrationen in den USA und Europa zeigen die verfügbaren entsprechenden Daten für China seit 1990 deutliche Zuwächse“, so Schultz. „Trotz der zunehmenden Aufmerksamkeit wurde jedoch die Schwere der Ozonbelastung in China – anders als in anderen Industrienationen – bisher nicht auf Grundlage einer umfassenden Ozonüberwachung genau erfasst.“
Die Daten
Für ihre Studie verwendeten die Forscher die kürzlich verfügbar gemachten Daten der chinesischen landesweiten Oberflächen-Ozonmessungen. Das Beobachtungsnetz zur Überwachung der städtischen und vorstädtischen Luftverschmutzung auf dem chinesischen Festland wurde 2013 in ersten Großstädten in Betrieb genommen und umfasst bis 2017 knapp 1600 nicht-ländliche Gebiete in 454 Städten.
Zum globalen Vergleich diente der Tropospheric Ozone Assessment Report (TOAR). Grundlage für TOAR ist eine im Herbst letzten Jahres veröffentlichte, vom Jülich Supercomputing Centre betriebene Datenbank. Dabei handelt es sich um die weltweit umfangreichste Datensammlung bodennaher Ozonmessungen, die alle global verfügbaren Messdaten von 1975 bis heute in einheitlichem Format frei zugänglich macht. „Die TOAR-Ozondatenbank enthält Ozonstatistiken und -metriken, die für Studien über Klima, menschliche Gesundheit und Vegetationsexposition relevant sind, berechnet aus stündlichen Ozonmessungen an mehr als 9.000 Messstellen weltweit“, erklärt Schultz.
Rasante Urbanisierung
Bodennahes Ozon entsteht unter dem Einfluss von Sonnenlicht aus sogenannten Vorläuferschadstoffen: Vor allem Stickoxide und flüchtige organische Verbindungen, daneben auch Kohlenmonoxid und Methan. Um den Ausstoß dieser Schadstoffe zu begrenzen, sind in Europa und Nordamerika seit den 90er Jahren strenge Luftreinhaltungsmaßnahmen in Kraft: Das hat die schädlichen Ozonkonzentrationen in den westlichen Industrienationen erheblich verringert. „In Süd- und Ostasien jedoch haben eine rasante Urbanisierung und Industrialisierung alle Anstrengungen zur Luftreinhaltung überholt und so zu einem deutlichen Anstieg der Emissionen von Ozon-Vorläuferschadstoffen geführt“, so Schultz.
Um der zunehmenden Luftverschmutzung Herr zu werden, startete die chinesische Regierung 2013 einen Aktionsplan. „Durch diesen konnten primäre Luftschadstoffe wie Stickstoffdioxid, Schwefeldioxid oder Kohlenmonoxid erfolgreich reduziert werden“, erklärt der Autor der Studie, Dr. Lin Zhang von der Universität Peking. „Die sich nun abzeichnende Schwere der Ozonbelastung stellt eine neue Herausforderung für die Emissionskontrolle dar.“
Die Wissenschaftler konnten auch zeigen, dass die Ozonwerte in China in den letzten fünf Jahren stetig gestiegen sind. „Auch wenn der betrachtete Fünfjahreszeitraum zu kurz ist, um statistisch belastbare Trendschätzungen abzuleiten, deuten unsere Ergebnisse auf eine zunehmende Ozonbelastung von Menschen, Pflanzen und Ökosystemen in ganz China hin“, erklärt Martin Schultz. „Aus historischer Sicht ist das heutige Ozon in chinesischen Großstädten vergleichbar mit der Situation von 1980 in den USA, als dort Emissionskontrollen gerade erst begonnen hatten, die Ozon-Spitzenwerte zu beeinflussen.“
Wissenschaftliche Ansprechpartner:
PD Dr. Martin Schultz
Jülich Supercomputing Centre
Tel.: +49 2466 61-96870
E-Mail: m.schultz@fz-juelich.de
Originalpublikation:
Severe Surface Ozone Pollution in China: A Global Perspective
Xiao Lu , Jiayun Hong, Lin Zhang, Owen R. Cooper, Martin G. Schultz, Xiaobin Xu, Tao Wang, Meng Gao, Yuanhong Zhao, and Yuanhang Zhang
Environ. Sci. Technol. Lett., 2018, 5 (8), pp 487-494
DOI: 10.1021/acs.estlett.8b00366
Weitere Informationen:
http://www.fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2018/2018-08-23-chi…
Pressemitteilung des Forschungszentrums Jülich
Quelle: idw
Das Gegenüber entscheidet, wie ich mich verhalte
Jennifer Hohensteiner Public Relations und Kommunikation
Goethe-Universität Frankfurt am Main
Sozialpsychologische Studie belegt: Das Aufwachsen in einer sozialen Klasse ist prägend für das spätere Auftreten, noch mehr aber die Kommunikationssituation
FRANKFURT. Sind Menschen mit mehr Geld und Bildung dominanter und weniger warmherzig? Eine sozialpsychologische Studie an der Goethe-Universität hinterfragt Stereotypen.
Wie wird unser Verhalten durch unsere soziale Klasse beeinflusst? Diese Frage beschäftigt die Soziologie schon seit jeher. Je nachdem, ob Menschen in einem Arbeitermilieu aufwachsen oder in einem Akademikerhaushalt, übernehmen sie für diese Schicht charakteristische Verhaltensweisen, so die Hypothese. Die Frankfurter Sozialpsychologin Dr. Anna Lisa Aydin hat neue Belege für diese Hypothese gefunden. Ihre gemeinsam mit Forschenden aus Zürich, Hagen, Idaho und Tel Aviv erarbeitete Studie, die im Fachmagazin Social Psychological and Personality Science erschienen ist, zeigt jedoch auch, dass Menschen nicht nur stur ihr klassenspezifisches Verhalten zeigen, sondern flexibel auf ihr Gegenüber aus anderen sozialen Klassen reagieren.
Ein Großteil der Forschung zum Einfluss sozialer Klasse beruht auf den Ideen des Soziologen Pierre Bourdieus. Er beschreibt, wie sich das Umfeld, in dem wir aufwachsen, tief in unsere Identität einschreibt. Sozialpsychologische Autoren argumentieren, dass Menschen aus einer niedrigeren sozialen Klasse über weniger Ressourcen verfügen und ihre Umwelt in geringerem Maße beeinflussen können. Sie seien somit stärker auf gegenseitige Hilfe angewiesen, was dazu führe, dass Zusammenhalt ein wichtiger Wert sei. Die Menschen identifizierten sich mit diesem Wert und verhielten sich dementsprechend kooperativ. Menschen aus einer höheren sozialen Klasse hingegen verfügten über mehr Ressourcen, sie könnten zwischen mehreren Alternativen entscheiden und seien weniger auf gegenseitige Hilfe angewiesen. Dies resultiere in individualistischeren Selbstkonzepten, bei denen es zentral sei, seine Umwelt nach den eigenen Vorstellungen zu gestalten. Die unterschiedlichen Verhaltensweisen stellen somit eine Anpassungsleistung an das jeweiliges Lebensumfeld dar.
Diese Theorie ließ sich in den vorliegenden Studien zum Teil stützen. Insgesamt wurden mehr als 2000 Personen in Deutschland befragt. So war den Befragten, die sich einer niedrigeren sozialen Klasse zugehörig fühlten, ein warmherziger und kooperativer Umgang mit anderen Menschen aus ihrer sozialen Klasse wichtiger als jenen, die sich einer höheren sozialen Klasse zugehörig fühlten. Darüber hinaus legten diejenigen, die mehr verdienten und besser gebildet waren, mehr Wert darauf, im Kontakt mit anderen ihre Kompetenz zu zeigen und dominant aufzutreten als die Angehörigen der Gruppe mit geringerem Verdienst und weniger guter Ausbildung.
Die Befürchtung der Autoren: Derartige Verhaltensunterschiede könnten zu einer weiteren Zunahme sozialer Ungleichheit in Deutschland führen. Denn wer dominanter auftritt, hat bessere Chancen auf sozialen Aufstieg. Die beobachteten Verhaltensunterschiede waren jedoch relativ klein. Deutlich grösser war der Einfluss der sozialen Klasse des Gegenübers. Wie verhalten sich Menschen, wenn sie es mit jemandem aus einer niedrigeren oder höheren Klasse zu tun haben? Die Mehrheit der Befragten bezeichnete die sozialen Unterschiede in Deutschland als nicht bzw. weniger gerechtfertigt. Sie fanden es folglich wichtig, sich gegenüber Menschen mit weniger Geld und Bildung warmherzig und kooperativ zu verhalten. Umgekehrt legten sie Wert darauf, gegenüber Menschen mit mehr Geld und Bildung kompetent zu erscheinen und sich zu behaupten.
Diese Befunde sind insbesondere vor dem Hintergrund relevant, dass die soziale Ungleichheit in Deutschland und vielen anderen Teilen der Welt zunimmt, obwohl sie von den meisten Menschen als ungerechtfertigt wahrgenommen wird. Während die auf soziologischen Theorien basierende Forschung erklären kann, wie sich diese Ungleichheit durch die Prägung in den unterschiedlichen sozialen Klassen noch verstärken kann, bietet die aktuelle Studie einen etwas optimistischeren Ausblick: Sobald es nämlich zum Austausch zwischen Personen unterschiedlicher Klassen kommt und die Klassenunterschiede als illegitim empfunden werden, zeigt sich Solidarität gegenüber Armen und ein Selbstbehauptungswille gegenüber Reichen.
Publikation: Aydin, A. L., Ullrich, J., Siem, B., Locke, K. D., & Shnabel, N. (in press). The effect of social class on agency and communion: Reconciling rank-based and identity-based perspectives.
Manuscript accepted for publication in Social Psychological and Personality Science. http://journals.sagepub.com/doi/pdf/10.1177/1948550618785162
https://psyarxiv.com/waz8e/
Informationen: Dr. Anna Lisa Aydin, Institut für Psychologie, Theodor-W.-Adorno-Platz 6, PEG, 5.G030, Telefon ++49(0)69 798 35287, E-Mail Aydin@psych.uni-frankfurt.de
Aktuelle Nachrichten aus Wissenschaft, Lehre und Gesellschaft in GOETHE-UNI online (www.aktuelles.uni-frankfurt.de)
Die Goethe-Universität ist eine forschungsstarke Hochschule in der europäischen Finanzmetropole Frankfurt. 1914 mit privaten Mitteln überwiegend jüdischer Stifter gegründet, hat sie seitdem Pionierleistungen erbracht auf den Feldern der Sozial-, Gesellschafts- und Wirtschaftswissenschaften, Medizin, Quantenphysik, Hirnforschung und Arbeitsrecht. Am 1. Januar 2008 gewann sie mit der Rückkehr zu ihren historischen Wurzeln als Stiftungsuniversität ein hohes Maß an Selbstverantwortung. Heute ist sie eine der drittmittelstärksten und drei größten Universitäten Deutschlands mit drei Exzellenzclustern in Medizin, Lebenswissenschaften sowie Geistes- und Sozialwissenschaften. Zusammen mit der Technischen Universität Darmstadt und der Universität Mainz ist sie Partner der länderübergreifenden strategischen Universitätsallianz Rhein-Main(siehe auch www.uni-frankfurt.de/59086401/rhein-main-allianz). Internet: www.uni-frankfurt.de
Herausgeberin: Die Präsidentin der Goethe-Universität Redaktion: Dr. Anke Sauter, Referentin für Wissenschaftskommunikation, Abteilung PR & Kommunikation, Theodor-W.-Adorno-Platz 1, 60323 Frankfurt am Main, Telefon 069 798-13066, Fax 069 798-763-12531, sauter@pvw.uni-frankfurt.de
Wissenschaftliche Ansprechpartner:
Dr. Anna Lisa Aydin, Institut für Psychologie, Theodor-W.-Adorno-Platz 6, PEG, 5.G030, Telefon ++49(0)69 798 35287, E-Mail Aydin@psych.uni-frankfurt.de
Originalpublikation:
http://journals.sagepub.com/doi/pdf/10.1177/1948550618785162
https://psyarxiv.com/waz8e/
Weitere Informationen:
https://aktuelles.uni-frankfurt.de/aktuelles/sozialpsychologische-studie-das-geg…
Quelle: idw
Sehschwäche in der Schwangerschaft: Bei diesen Warnzeichen sollten Sie zum Augenarzt
Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft
Jede sechste werdende Mutter ist während der Schwangerschaft von Augenproblemen betroffen. Die meisten Beschwerden sind harmlos und bilden sich nach der Schwangerschaft von selbst zurück, sagen Experten der DOG – Deutsche Ophthalmologische Gesellschaft. In seltenen Fällen können aber auch Symptome auftreten, die auf einen Schwangerschaftsdiabetes oder eine Schwangerschaftsvergiftung – die sogenannte Präeklampsie – hinweisen. Bei wechselnder Sehschärfe, Flimmern oder Schatten vor den Augen oder bei komplettem Sehverlust sollten Schwangere sofort einen Augenarzt aufsuchen.
Viele Schwangere bekommen bräunliche Flecken um die Augen herum, die zum Nasenrücken auslaufen. Diese Pigmenteinlagerungen sind harmlos und verschwinden nach der Schwangerschaft von selbst. Seltener kommt es zu leichten Einblutungen unter die Bindehaut, die zwar beängstigend aussehen, das Sehvermögen jedoch nicht beinträchtigen.
Trockene Augen und Sehschwäche – auf Kontaktlinsen und Lasern vorerst verzichten
Schwangerschaftshormone können auch die Zusammensetzung der Tränenflüssigkeit verändern. Dadurch trocknen die Augen schneller aus, sind häufig gereizt und brennen. „Während einer Schwangerschaft ist es deshalb ratsam, auf Kontaktlinsen zu verzichten oder Augentropfen mit künstlicher Tränenflüssigkeit zu verwenden“, empfiehlt Privatdozent Dr. med. Thomas Neß von der Klinik für Augenheilkunde am Universitätsklinikum Freiburg. Bei 14 Prozent der werdenden Mütter ändert sich in den Schwangerschaftsmonaten die Brillenstärke – eine Kurzsichtigkeit kann sich um bis zu 1,5 Dioptrien verschlechtern. „Das liegt daran, dass sich Flüssigkeit in der Linse und in der Hornhaut einlagert, die die Brechkraft verändert“, erklärt Neß. Bei den meisten Frauen bilden sich diese Veränderungen laut dem Experten nach der Geburt wieder zurück, sodass der Kauf einer neuen Brille in der Regel nicht lohnt. Aus diesem Grund sollten Schwangere sich auch nicht die Augen lasern lassen – frühestens ein Jahr nach der Geburt ist die Brillenstärke wieder ausreichend stabil dafür.
Wechselnde Sehschärfe – Auf Diabetes untersuchen lassen
Ändert sich die Sehschärfe plötzlich oder mehrmals am Tag, kann das ein Zeichen für einen Schwangerschaftsdiabetes sein – eine Form der Zuckerkrankheit, die erstmals in der Schwangerschaft auftritt: Durch die hormonelle Umstellung kann der Körper Zucker aus der Nahrung nicht so schnell verarbeiten wie vor der Schwangerschaft. Durch die Blutzuckerschwankungen kommt es zu Wassereinlagerungen in der Augenlinse, die die Brechkraft verändern, sodass das scharfe Sehen verloren geht. „Wer solche Anzeichen bei sich bemerkt, sollte unbedingt einen Augenarzt aufsuchen“, rät DOG-Experte Neß. Der Arzt kann mit einer Spiegelung des Augenhintergrundes die Gefäße der Netzhaut untersuchen und diabetesbedingte Veränderungen erkennen, bevor die Stoffwechselerkrankung sich mit anderen Symptomen bemerkbar macht. Erhärtet sich der Verdacht, wird die Patientin an den Hausarzt oder Internisten überwiesen, der sie auf Diabetes hin untersucht. Frauen, die bereits vor der Schwangerschaft einen Diabetes haben, müssen engmaschig überwacht werden, da die diabetesbedingten Veränderungen an der Netzhaut im Laufe der Schwangerschaft behandlungsbedürftig werden können.
Schatten, Flimmern, Sehverlust – Gefahr für Mutter und Kind
Wenn Teile des Gesichtsfelds schwarz werden oder Blitze vor den Augen auftreten, können das Anzeichen einer Präeklampsie sein, einer gefährlichen Schwangerschaftskomplikation, die unter anderem durch einen erhöhten Blutdruck hervorgerufen wird. Bis zu zehn Prozent aller Schwangeren leiden – nicht selten unbemerkt – an Bluthochdruck. „Bei vielen Betroffenen lässt sich der Hochdruck an einer veränderten Netzhaut ablesen“, sagt Neß. „Diese müssen dringend weiter untersucht werden, denn Bluthochdruck kann Mutter und Kind in Gefahr bringen“, betont der Experte. Bei nahezu allen Augenerkrankungen ist eine normale Entbindung möglich. Weder Kurzsichtigkeit noch ein Glaukom, eine vorherige Netzhautablösung oder eine vorherige Augenoperation sind ein Grund für einen Kaiserschnitt.
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 7.400 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.
Weitere Informationen:
http://www.dog.org
Quelle: idw
Neue Quallenart im Nord-Ostsee-Kanal
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Eine neue Quallenart hat sich im Nord-Ostsee-Kanal etabliert. Die Brackwasser-liebende Blackfordia virginica ist seit Sommer 2016 ein neuer Spieler im dortigen Ökosystem. Das ergab die Auswertung von regelmäßigen biologischen Monitoring-Fahrten der vergangenen zehn Jahre, die Forschende des GEOMAR-Helmholtz-Zentrums für Ozeanforschung Kiel, der Technischen Universität Dänemark und der Universität Kiel jetzt veröffentlich haben. Eine weitere Ausbreitung von Blackfordia virginica in die Ostsee ist demnach wahrscheinlich.
Globale Studien zeigen, dass die Zahl der Arten, die in fremde Ökosysteme einwandern, ständig zunimmt. Zwar können sich bei weitem nicht alle Spezies in den neuen Umgebungen etablieren. Doch die erfolgreichen Bio-Invasoren haben das Potenzial, betroffene Ökosysteme stark zu verändern. Auch in der Ostsee konnten in den vergangenen Jahrzehnten zahlreiche bislang fremde Arten nachgewiesen werden. Ein prominentes Beispiel ist die amerikanische Rippenqualle Mnemiopsis leidyi, auch Meerwalnuss genannt.
Wissenschaftlerinnen und Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel, der Technischen Universität Dänemark (DTU Aqua) und der Christian-Albrechts-Universität zu Kiel (CAU) haben jetzt bei der Auswertung von regelmäßigen Monitoringfahrten im Nord-Ostsee-Kanal und in der Ostsee eine weitere, für diese Region neue Quallenart entdeckt. Ihr fachlicher Name lautet Blackfordia virginica.
„Unsere Langzeit-Daten zeigen, dass diese Quallen-Art seit dem Sommer 2016 im Nord-Ostsee-Kanal etabliert ist und sich aktiv vermehrt, also einen neuen Bestandteil des Ökosystems bildet“, sagt Dr. Cornelia Jaspers, die als Biologische Ozeanographin am GEOMAR und am Nationalen Institut für Aquatische Ressourcen der DTU in Lyngby arbeitet.
Die Art Blackfordia virginica wurde 1904 erstmals in den Gewässern vor dem US-Bundesstaat Virginia wissenschaftlich beschrieben. Spätere Studien lassen aber vermuten, dass sie ursprünglich aus dem Schwarzen Meer stammt. „Mittlerweile findet sie sich aber auch in Indien, Südamerika und Südafrika. Seit den 1970er Jahren kommt sie in Brackwassergebieten Nord-Frankreichs und seit den 1980er Jahren auch in Portugal vor“, erklärt Dr. Jaspers. „Wir haben es also mit einer Art zu tun, die auf eine lange Erfolgsgeschichte als Eroberer fremder Ökosysteme zurückblicken und dort sehr große Populationsdichten erreichen kann“.
Wie die Quallen in den Nord-Ostsee-Kanal gelangt sind, ist nicht genau nachweisbar. Da der Kanal die am stärksten befahrene künstliche Wasserstraße der Welt ist, haben höchstwahrscheinlich Schiffe die Quallen eingeschleppt. Ballastwasser darf im Kanal allerdings nicht abgepumpt werden. „Deshalb sind die Quallen wohl über Quallenpolypen an Schiffsrümpfen, die Jungquallen, sogenannte Ephyren, ins Wasser abgegeben haben, hier angekommen“, sagt Dr. Jaspers.
Auch außerhalb des Kanals, in der Kieler Förde, konnten die Wissenschaftlerinnen und Wissenschaftler bereits Exemplare nachweisen. Dort gibt es bislang aber keine Belege, dass sich die Art aktiv vermehrt. „Im Rahmen unserer Studie haben wir jedoch gezeigt, dass die Ostsee als Brackwassergebiet einen geradezu idealen Lebensraum für Blackfordia virginica darstellt. Wir erwarten deshalb eine weitere Ausbreitung“, sagt Dr. Jaspers.
Welche Folgen das für die Ostsee haben könnte, ist noch unklar. Aus anderen Regionen ist bekannt, dass Blackfordia virginica eine erhebliche Konkurrenz zu anderen Planktonfressern darstellt. Außerdem kann sie den Nachwuchs von Fischarten beeinträchtigen, weil sie deren Larven frisst. Das könnte letztendlich auch wirtschaftliche Folgen haben.
Unterstützt wurde die Untersuchung von Studierenden des Kieler Master-Studiengangs „Biological Oceanography“, die während ihrer Ausbildungs-Seereise mit dem Forschungsschiff ALKOR im August 2017 mehrere tausend Kubikmeter Wasser von Flensburg bis nach Finnland durchfischt und inspiziert haben.
„Insgesamt zeigt die Entdeckung, wie wichtig regelmäßiges Monitoring der Artenzusammensetzung in küstennahen Gewässern ist, da diese Gebiete besonders starken anthropogenen Einflüssen ausgesetzten sind. Besonders das gelatinöse Plankton, also Quallen, müssen wir dabei noch stärker als bisher berücksichtigen“, betont Dr. Jaspers.
Originalpublikation:
Jaspers, C., B. Huwer, N. Weiland-Bräuer, C. Clemmesen (2018): First record of the non-indigenous jellyfish Blackfordia virginica (Mayer, 1910) in the Baltic Sea. Helgoland Marine Research, https://doi.org/10.1186/s10152-018-0513-7
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.aqua.dtu.dk Das National Institut für Aquatische Ressourcen der DTU
http://www.uni-kiel.de Die Christian-Albrechts-Universität zu Kiel
http://www.metaorganism-research.com Der Sonderforschungsbereich 1182 „Metaorganism“ in Kiel
Quelle: idw
Forscher aus Mecklenburg-Vorpommern entwickeln effiziente Biogasanlagen
Henning Kraudzun Stab – Wissenschaftsmanagement
Leibniz-Institut für Plasmaforschung und Technologie e.V.
Durch eine innovatives Technologie, die Ultraschall- und Plasmaverfahren vereint, soll der Aufschluss organischer Verbindungen deutlich verbessert und somit die Wirtschaftlichkeit von Biogasanlagen erhöht werden.
Mecklenburg-Vorpommern ist Spitzenreiter bei der Umsetzung der Energiewende. Der Nordosten deckt seinen Primärenergiebedarf bereits zu mehr als einem Drittel aus regenerativen Quellen. Damit diese Entwicklung weiter vorangetrieben wird, muss die Effizienz der Energieerzeugung gesteigert werden, da es immer weniger Ausbaukapazitäten gibt. Während neue Generationen von Windkraftanlagen bereits installiert werden, gewinnt auch die Nachrüstung von Biogasanlagen, mit denen 17 Prozent des Stroms in MV erzeugt werden, eine größere Bedeutung. Mit diesen technischen Fragen beschäftigt sich ein Projekt des Leibniz-Instituts für Plasmaforschung und Technologie (INP), der Universität Rostock und des Unternehmens PRE Power Recycling Energyservice aus Neubrandenburg. Das auf zwei Jahren angelegte Verbundvorhaben wird vom Landesministerium für Wirtschaft, Arbeit und Gesundheit mit einer Million Euro gefördert.
Das Projekt verfolgt das Ziel, die Aufbereitung der Einsatzstoffe – pflanzliche Abfälle, Gülle, Klärschlämme und Bioabfälle – in den Vergärungsprozessen zu verbessern. Bislang werden in herkömmlichen Anlagen nur rund 65 Prozent der schwer abbaubaren organischen Anteile von den Bakterien aufgeschlossen und hauptsächlich zu Methan umgewandelt. Der Rest bleibt ungenutzt. Mittels Ultraschall kann schon ein Teil der zuvor nicht verfügbaren Organik verwertet und zur Energieerzeugung genutzt werden, wie die „Wave-Box“ (s. Abb.) des Forschungspartners PRE bewiesen hat. Diese Erfahrungen bilden die Grundlage des innovativen Geräts „Kombi-Max“, welches Ultraschall- und Plasmaverfahren vereint.
Aus der Synergie beider Technologien erwarten die Projektbeteiligten einen Quantensprung in der Effizienzsteigerung bei der Auflösung organischer Verbindungen. Einen Schwerpunkt bildet die Untersuchung geeigneter Plasmaquellen, die in Verbindung mit Ultraschall zur Prozessoptimierung eingesetzt werden können. Im Fokus der Forscher stehen insbesondere schwer aufzubrechende biomolekulare Verbindungen wie Lignin, aber auch unerwünschte Chemikalien. Gleichzeitig wollen die Wissenschaftler mit dem neuen Verfahren eine Verringerung der Stickstoffemissionen erreichen.
„Wir haben die berechtigte Hoffnung, dass durch den Einsatz beider Technologien der Wirkungsgrad und somit die Wirtschaftlichkeit der Biogasanlagen spürbar erhöht werden kann“, sagt Volker Brüser, Abteilungsleiter für Plasmaprozesstechnik im INP und zugleich Verantwortlicher für ein Teilprojekt von „Kombi-Max“. Dies sei für die Zukunft dieser Energietechnologie von großer Bedeutung. Norbert Rossow, Geschäftsführer von PRE, betont: „Mit unserem Hochleistungs-Ultraschallgerät, der Wave Box, haben wir in der Biomasse-Aufbereitung für Biogasanlagen eine sehr gute Effizienzsteigerung von bis zu 20 Prozent erreicht. Die Kombination beider Aufschluss-Systeme im neuen Gerätetyp wird, wie aus wissenschaftlichen Veröffentlichungen ersichtlich, die Effizienzsteigerung multiplizieren. Hierbei erwarten wir eine deutliche Minderung der eingesetzten Energie, Verdoppelung des Aufschlussgrades und deutliche Verkleinerung der Gerätegröße.“ Aus der Zusammenarbeit des INP mit der PRE Neubrandenburg und den ersten konstruktiven Schritten zu dem neuen Gerät sei bereits ein neues internationales Patent beider Partner entstanden. Im Jahr 2020 sind industrienahe Tests der Demonstrationsanlage geplant.
Wissenschaftliche Ansprechpartner:
Dr. Volker Brüser
Abteilungsleiter Plasmaprozesstechnik
Leibniz-Institut für Plasmaforschung und Technologie (INP)
Tel. +49 3834 5543808
E-Mail: brueser@inp-greifswald.de
Norbert Rossow
Geschäftsführer
PRE Power Recycling Energyservice
Tel. +49 395 7074709
E-Mail: nr@pre-mv.de
Anhang
PM INP 15/08/18 Forscher aus Mecklenburg-Vorpommern entwickeln effiziente Biogasanlagen
https://idw-online.de/de/attachment66333
Quelle: idw
Wie sich die Gehirne von Aufschiebern und Machern unterscheiden
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Warum manche Menschen Aufgaben eher vor sich herschieben als sofort zu handeln, haben Forscherinnen und Forscher der Ruhr-Universität Bochum untersucht. Mittels Kernspintomografie identifizierten sie zwei Hirnbereiche, deren Größe und funktionelle Verknüpfung damit zusammenhängt, wie gut eine Person ihre Handlungen kontrollieren kann. Die Ergebnisse berichtet das Team um Caroline Schlüter, Dr. Marlies Pinnow, Prof. Dr. Dr. h. c. Onur Güntürkün und Dr. Erhan Genç von der Arbeitseinheit Biopsychologie in der Zeitschrift Psychological Science vom 17. August 2018.
Zwei Hirnregionen hängen mit Handlungskontrolle zusammen
Die Biopsychologinnen und Biopsychologen untersuchten 264 Frauen und Männer im Kernspintomografen. Sie bestimmten das Volumen einzelner Hirnareale und ihre funktionelle Vernetzung. Außerdem füllten alle Probanden einen Fragebogen aus, mit dem ihre Fähigkeiten zur Handlungskontrolle eingeschätzt wurden.
Menschen mit schlechter Handlungskontrolle hatten eine größere Amygdala. Außerdem war bei ihnen die funktionelle Verbindung zwischen der Amygdala und dem sogenannten dorsalen anterioren cingulären Kortex (dorsaler ACC) weniger stark ausgeprägt. „Die beiden Hirnregionen sind bereits in früheren Studien mit der Steuerung von Handlungen in Verbindung gebracht worden“, sagt Erhan Genç.
Handlungen bewerten und auswählen
Die Funktion der Amygdala ist es vor allem, eine Situation und ihren jeweiligen Ausgang zu beurteilen und uns vor möglichen negativen Konsequenzen einer Handlung zu warnen. Der dorsale ACC nutzt hingegen Informationen über den potenziellen Ausgang einer Handlung, um Handlungen auszuwählen, die in die Tat umgesetzt werden. Er unterdrückt auch konkurrierende Handlungen und Emotionen, sodass eine ausgewählte Handlung erfolgreich abgeschlossen werden kann.
Ist das Zusammenspiel zwischen Amygdala und dorsalem ACC gestört, kann die Handlungskontrolle nicht mehr erfolgreich ausgeführt werden, so die Theorie der Forscherinnen und Forscher. „Menschen mit höherem Amygdala-Volumen könnten eine größere Furcht vor den negativen Konsequenzen einer Handlung haben – sie zögern und schieben Dinge auf“, vermutet Erhan Genç. „Die geringe funktionelle Kopplung zwischen der Amygdala und dem dorsalen ACC könnte diesen Effekt weiter verstärken, indem störende negative Emotionen und Handlungsalternativen unzureichend reguliert werden.“
Trainierbar oder nicht?
Künftige Studien sollen zeigen, ob die unterschiedlich gut ausgeprägte Handlungskontrolle durch spezifische Trainings oder Hirnstimulation verändert werden kann. „Obwohl die individuellen Unterschiede in der Fähigkeit zur Handlungskontrolle einen großen Einfluss auf unseren persönlichen und beruflichen Erfolg sowie unsere psychische und physische Gesundheit haben, sind ihre neuronalen Grundlagen bisher nur wenig erforscht“, sagt Caroline Schlüter, die sich dem Thema in ihrer Promotion widmet.
Förderung
Die Deutsche Forschungsgemeinschaft förderte die Arbeiten im Rahmen der Grants mit den Nummern GU 227/16-1 und GE 2777/2-1 sowie im Rahmen des Sonderforschungsbereichs 1280. Weitere Unterstützung kam vom Mercator Research Center Ruhr durch den Grant An-2015-0044.
Wissenschaftliche Ansprechpartner:
Caroline Schlüter
Arbeitseinheit Biopsychologie
Fakultät für Psychologie
Ruhr-Universität Bochum
Tel.: 0234 32 21775
E-Mail: caroline.schlueter@rub.de
Originalpublikation:
Caroline Schlüter, Christoph Fraenz, Marlies Pinnow, Patrick Friedrich, Onur Güntürkün, and Erhan Genç: The structural and functional signature of action control, in: Psychological Science, 2018, DOI: 10.1177/0956797618779380
Quelle: idw
Valsartan-Rückruf: Verunreinigte Blutdrucksenker
Pierre König Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung
Was müssen Herzpatienten jetzt tun?
Seit Anfang Juli rufen die Aufsichtsbehörden europaweit Blutdrucksenker mit dem Wirkstoff Valsartan zurück. In bestimmten Valsartan-haltigen Präparaten wurde die potenziell gefährliche Verunreinigung N-Nitrosodimethylamin (NDMA) gefunden, eine Substanz die von der internationalen Agentur für Krebsforschung, der Weltgesundheitsorganisation (WHO) und der EU als wahrscheinlich krebserregend für Menschen eingestuft wird. N-Nitrosodimethylamin und andere so genannte Nitrosamine finden sich beispielsweise im Zigarettenrauch und in gepökeltem oder geräuchertem Fleisch. Aktuell sind zahlreiche betroffene Chargen Valsartan-haltiger Arzneimittel vom Markt genommen. Betroffen sind zum jetzigen Zeitpunkt Nachahmerprodukte (Generika) der Originalprodukte. Es ist möglich, dass noch weitere Sartane von der Verunreinigung betroffen sind. Mittlerweile hat sich bestätigt, dass die zurückgerufenen Valsartan-Tabletten bis zu 22 Mikrogramm pro Tablette NDMA enthalten. Konkrete Grenzwerte für die täglich erlaubte Menge von NDMA gibt es nicht. Die mittlere Aufnahme von Nitrosaminen aus Lebensmitteln wird auf insgesamt 0,3 Mikrogramm pro Tag geschätzt. Bei Menschen, die täglich 20 Zigaretten rauchen, kann die Belastung mit Nitrosaminen auf 17 bis 85 Mikrogramm pro Tag ansteigen. Eine aktuelle Übersicht über die mit NDMA verunreinigten Valsartan-haltigen Präparate ist abrufbar unter
http://www.abda.de/amk-nachricht/artikel/online-nachricht-amk-liste-der-chargenbezogenen-rueckrufe-valsartan-haltiger-arzneimittel/ .*
Was können betroffene Patienten tun?
Viele Patienten sind verunsichert. Sie wissen nicht, ob ihr Valsartan-Präparat von der Verunreinigung betroffen ist, auf welches andere Valsartan sie umsteigen können, ob sie es ganz absetzen oder durch ein anderes Sartan ersetzen sollen. „Patienten sollten ihren Hausarzt aufsuchen und um eine Alternative bitten. In der Regel sollten Betroffene auf ein anderes gleichdosiertes Valsartan-Präparat umsteigen, das nicht von der Verunreinigung betroffen ist“, empfiehlt der Kardiologe und Pharmakologe Professor Dr. Thomas Meinertz von der Deutschen Herzstiftung. Spätestens bei der Ausstellung eines neuen Rezepts sollte die Umsetzung auf ein anderes, nicht betroffenes Valsartan oder ein anderes Sartan, beispielsweise Candesartan oder Telmisartan, in gleich effektiver Dosierung erfolgen. „Generell sollten Blutdrucksenker nicht abgesetzt werden“, warnt Meinertz. Ein plötzliches Absetzen blutdrucksenkender Medikamente kann bei Bluthochdruck-Patienten Blutdruckspitzen erzeugen, die Herz und Kreislauf gefährlich belasten können.
Langfristige Folgen wissenschaftlich untersuchen
Ob für Patienten, die über lange Jahre mit NDMA verunreinigtes Valsartan eingenommen haben, die Gefahr besteht an Krebs zu erkranken, muss wissenschaftlich untersucht werden, fordert die Deutsche Herzstiftung. Zum Schutz der Patienten gilt es darüber hinaus, die bisherigen Kontrollmechanismen zu überprüfen. Im Fall der verunreinigten Valsartan-haltigen Präparate hatte die chinesische Hersteller-Firma der europäischen Aufsichtsbehörde (EDQM) gemäß der rechtlichen Bestimmungen gemeldet, den Wirkstoff nach einem veränderten Verfahren zu produzieren. Nach Angaben des Herstellers gab es keinen Hinweis darauf, dass es aufgrund der neuen Synthese zur Verunreinigung mit der potenziell krebserzeugenden Substanz kommen könnte. Auch die Experten der europäischen Aufsichtsbehörde (EDQM) hatten aufgrund der vom Hersteller vorgelegten Unterlagen keinen Verdacht geschöpft. Das deutet auf Lücken im Prüfverfahren hin. „Der Gesetzgeber sollte deshalb die Kontrollen von Generika verstärken, beispielsweise durch Eingangsprüfungen. Eine andere Maßnahme wäre die Einführung bundeseinheitlich verbindlicher Tests durch eine zentrale Bundesbehörde.“
* Quelle: Arzneimittelkommission der Deutschen Apotheker (AMK)
Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069 955128-114/-140
presse@herzstiftung.de
https://www.herzstiftung.de
Weitere Informationen:
https://www.herzstiftung.de
http://www.abda.de/amk-nachricht/artikel/online-nachricht-amk-liste-der-chargenb…
Anhang
Valsartan-Rückruf: Verunreinigte Blutdrucksenker
https://idw-online.de/de/attachmentdata66284.pdf
Quelle: idw
Bienen brauchen es bunt
Corinna Russow Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Das Bienensterben aufhalten, ist ein Ziel von Wissenschaftlern. Forscher unter Leitung der Universität Würzburg haben herausgefunden, dass eine vielfältige Pflanzenlandschaft Bienen hilft, stabile Populationen aufrecht zu erhalten.
Bisher vermuteten Wissenschaftler, dass landwirtschaftlich intensiv genutzte Habitate generell schlecht für Bienen sind, da sie dort Pestiziden ausgesetzt sind und nur eine sehr geringe Auswahl an Nahrungsressourcen und Nistmöglichkeiten finden. Auch darauf führte man das weltweite Bienensterben zurück. Bienen können jedoch durchaus in landwirtschaftlich genutzten Flächen gut leben. Voraussetzung ist, dass die Bienen Zugang zu sogenannten Habitatinseln mit hoher Pflanzendiversität haben.
Das zeigten Wissenschaftler der Julius-Maximilians-Universität Würzburg (JMU), zusammen mit anderen deutschen und australischen Forschern nun erstmals in einer Studie. Ihre Ergebnisse veröffentlichten sie in „Scientific Reports“.
Soziale Bienen untersucht
„Tetragonula carbonaria“ heißt die australische, stachellose Bienenart, die die Wissenschaftler über mehr als zwei Jahre untersuchten. „Beispielhaft beobachteten wir an ihr, ob die Fitness und der Fortpflanzungserfolg sozialer Bienen von der sie umgebenden Diversität der Pflanzen und der damit verbundenen Qualität der Nahrungsressourcen abhängt“, sagt Dr. Sara Leonhardt, die Leiterin der Studie an der JMU. Zu sozialen Bienen gehören unter anderen Honigbienen und stachellose Bienen. Sie sind für einen Großteil der weltweiten Bestäubungsleistung verantwortlich.
Für die Studie installierten die Wissenschaftler Bienenkolonien in drei verschiedenen Habitaten. „Wir wählten naturbelassene Wälder, urbane Gärten und landwirtschaftlich intensiv genutzte Macadamia-Plantagen und beobachteten das Wachstum und die Produktion von Arbeiterinnen, Königinnen und neuen Kolonien“, sagt Dr. Benjamin Kaluza, der Erstautor der Studie. Außerdem analysierten sie die Nahrungsqualität des gesammelten Pollens und Honigs und kartierten die Pflanzendiversität in diesen Habitaten.
Rückgang der Biodiversität als Ursache für das Bienensterben
Das Ergebnis: Die Lebensqualität der Bienen war in Gärten und artenreichen Wäldern am höchsten und in Plantagen am geringsten. Nehme die Pflanzenvielfalt in der Umgebung ab, produzieren die Bienen weniger Nachkommen, folglich schrumpfen die Kolonien. „Bienen brauchen Diversität“, sagt Kaluza. „Nur in Landschaften mit hohem Pflanzenarten-Reichtum finden sie kontinuierlich ausreichend ausgewogene und qualitativ hochwertige Nahrung und andere Ressourcen.“
Laut Leonhardt ist dieser Effekt bereits sichtbar, wenn die Bienen auch nur kleine Habitatinseln mit hoher Blütendiversität in Flugdistanz haben. „Denn dann können sie sowohl den negativen Einfluss von Pestiziden als auch von Monokulturen kompensieren“, sagt sie und ergänzt: „Dieses Ergebnis bedeutet, der weltweite massive Rückgang der Biodiversität könnte eine Hauptursache für das Bienensterben sein.“
Die Folgen ihrer Erkenntnisse: „Wir erhoffen uns jetzt natürlich verstärkten Schutz und Re-etablierung biodiverser Habitate, vor allem in landwirtschaftlich stark genutzten Regionen, wie zum Beispiel Plantagen“, sagt Kaluza.
Zusammenarbeit mit anderen Forschern
Die Forschung wurde finanziell von der Deutschen Forschungsgemeinschaft unterstützt. Beteiligt waren Professorin Helen Wallace von der University of the Sunshine Coast (Australien), Dr. Tim Heard, Bienenberater aus Brisbane (Australien), Dr. Vanessa Minden von der Universität Oldenburg und Professorin Alexandra-Maria Klein von der Universität Freiburg. In weiteren Forschungen wollen Sara Leonhardt und ihr Team nun untersuchen, wie genau die Bienen ihre Ressourcen finden und wie sie von den unterschiedlichen Ressourcen profitieren.
Wissenschaftliche Ansprechpartner:
Dr. Sara Leonhardt, Zoologie III,sara.leonhardt@uni-wuerzburg.de, T.: +49 931 31-80168
Originalpublikation:
Social bees are fitter in more biodiverse environments, Benjamin F. Kaluza, Helen M. Wallace, Tim A. Heard, Vanessa Minden, Alexandra Klein, Sara D. Leonhardt, DOI: 10.1038/s41598-018-30126-0, https://rdcu.be/4FDx
Quelle: idw
Neue Ausgabe forscher – Das Magazin für Neugierige erklärt Kindern den Roboter
Luise Wunderlich Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft
Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft
Die neue Ausgabe der Kinder- und Jugendzeitschrift „forscher“ ist ab sofort kostenfrei erhältlich – Magazin für Neugierige erklärt Kindern den Roboter
Es sind knifflige Fragen, die im neuen „forscher – Das Magazin für Neugierige“ unter die Lupe genommen werden. Mit der aktuellen Ausgabe der Kinder- und Jugendzeitschrift, die sich an junge Leserinnen und Leser zwischen acht und zwölf Jahren richtet, können diese jedoch im Handumdrehen beantwortet werden. Passend zum Wissenschaftsjahr 2018 dreht sich auch in dieser Ausgabe fast alles um die Arbeitswelten der Zukunft.
Welche Technik steckt eigentlich in Robotern? Und wie funktionieren diese menschenähnlichen Maschinen? Auf diese und viele weitere spannende Fragen unter anderem zu modernen Technologien und den Arbeitswelten von heute, morgen und übermorgen gibt das Magazin interessante Antworten. „forscher“ wird vom Bundesministerium für Bildung und Forschung herausgegeben. Die neue Ausgabe ist ab sofort kostenfrei erhältlich.
Die preisgekrönte Zeitschrift bereitet die Themen in vielfältigen Formaten altersgerecht auf – von Reportagen über Illustrationen bis hin zu einer Bauanleitung für einen Mini-Roboter. So zeigt die Titelgeschichte „Hallo, Roboter!“, wie automatische Maschinen funktionieren, die den Menschen eines Tages zum Beispiel in der Lehre oder in der Pflege unterstützen können. Im Interview mit Biologieprofessor Till Roenneberg dreht sich alles um die Innere Uhr des Menschen. Ein weiterer Artikel erklärt anschaulich, wie es Computerfachleuten gelingt, Maschinen mit künstlicher Intelligenz auszustatten.
Warum interessieren sich Forscherinnen und Forscher für den Tastsinn des Elefantenrüsselfisches? Welche Tiere helfen dem Menschen schon seit Jahrtausenden bei der Arbeit? Auch auf diese Fragen findet „forscher – Das Magazin für Neugierige“ faszinierende Antworten, die die jungen Leserinnen und Leser begeistern werden.
Das Kinder- und Jugendmagazin erscheint zweimal jährlich mit einer Auflage von rund 250.000 Exemplaren und wird von mehr als 1.300 Vertriebspartnern kostenfrei verteilt, darunter Schulen, Unternehmen, Vereine, Jugendherbergen und Museen. „forscher – Das Magazin für Neugierige“ ist Träger des begehrten Best of Content Marketing Award (Kategorie: Customer-Print-Magazine B2C, Non-Profit/Verbände/Institutionen).
Die neue Ausgabe ist ab sofort kostenfrei erhältlich unter http://www.forscher-online.de/bestellen, telefonisch unter +49 30 182722721 (14 Cent/Min. aus dem deutschen Festnetz, Mobilfunk max. 42 Cent/Min.) oder per E-Mail (obligatorisch ab 100 Exemplaren) an vertrieb@forscher-online.de.
Weitere Informationen:
https://www.wissenschaftsjahr.de/ | http://www.forscher-online.de/
Wissenschaftsjahr 2018 – Arbeitswelten der Zukunft
Das Wissenschaftsjahr 2018 widmet sich dem Thema Arbeitswelten der Zukunft. Durch die Digitalisierung, alternative Arbeitsmodelle und die Entwicklung künstlicher Intelligenz stehen Forschung und Zivilgesellschaft vor neuen Chancen und Herausforderungen: Wie werden die Menschen in Zukunft arbeiten? Wie machen sie sich fit dafür? Und welche Rolle spielen Wissenschaft und Forschung bei der Gestaltung eben dieser neuen Arbeitswelten? Das Wissenschaftsjahr 2018 zeigt, welchen Einfluss soziale und technische Innovationen auf die Arbeitswelten von morgen haben – und wie diese nicht nur den Arbeitsalltag verändern, sondern auch neue Maßstäbe im gesellschaftspolitischen Dialog setzen. „Erleben. Erlernen. Gestalten.“ – unter diesem Motto werden Bürgerinnen und Bürger im Wissenschaftsjahr 2018 dazu aufgerufen mitzumachen, Fragen zu stellen und gemeinsam Lösungsansätze zu finden.
Die Wissenschaftsjahre sind eine Initiative des Bundesministeriums für Bildung und Forschung (BMBF) gemein-sam mit Wissenschaft im Dialog (WiD). Sie tragen als zentrales Instrument der Wissenschaftskommunikation Forschung in die Öffentlichkeit und unterstützen den Dialog zwischen Forschung und Gesellschaft.
Weitere Informationen:
https://www.wissenschaftsjahr.de
https://www.facebook.com/wissenschaftsjahr
https://www.youtube.com/user/wissenschaftsjahr
https://twitter.com/w_jahr
Anhang
Neue Ausgabe „forscher – Das Magazin für Neugierige“
https://idw-online.de/de/attachment66273
Quelle: idw
Scharfstoff aus Ingwer mindert üblen Atem
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Der im Ingwer enthaltene Scharfstoff 6-Gingerol stimuliert ein Speichelenzym, das übelriechende Substanzen abbaut. Es sorgt damit für frischen Atem und einen besseren Nachgeschmack. Zitronensäure erhöht dagegen den Natriumionen-Gehalt im Speichel, sodass Salziges weniger salzig wirkt. Um mehr über Lebensmittelinhaltsstoffe herauszufinden, untersuchte ein Team der Technischen Universität München (TUM) und des Leibniz-Instituts für Lebensmittel-Systembiologie deren Effekte auf die im Speichel gelösten Moleküle.
Viele Lebensmittelinhaltsstoffe tragen direkt durch ihren Eigengeschmack, ihren Duft oder ihre Schärfe zum typischen Geschmack von Speisen und Getränken bei. Sie beeinflussen aber auch indirekt über andere, noch weitgehend unbekannte biochemische Mechanismen unser Geschmacksempfinden. Dies hat ein Team um Professor Thomas Hofmann vom Lehrstuhl für Lebensmittelchemie und Molekulare Sensorik nun genauer erforscht.
6-Gingerol sorgt für frischen Atem
Wie die Ergebnisse dieser Untersuchung zeigen, lässt das im Ingwer enthaltene, scharf schmeckende 6-Gingerol innerhalb weniger Sekunden den Spiegel des Enzyms Sulfhydryl-Oxidase 1 im Speichel um das 16-fache ansteigen. Die an jeweils vier Frauen und Männern durchgeführten Speichel- und Atemluftanalysen belegen, dass das Enzym übelriechende schwefelhaltige Verbindungen abbaut. Auf diese Weise ist es in der Lage, den lang anhaltenden Nachgeschmack vieler Lebensmittel wie Kaffee zu vermindern. „Auch unser Atem riecht dadurch besser“, erklärt Studienleiter Prof. Hofmann, Direktor des Leibniz-Instituts für Lebensmittelsystembiologie an der TUM. Der entdeckte Mechanismus könne zukünftig dazu beitragen, neue Mundpflegemittel zu entwickeln.
Zitronensäure mindert unser Salzempfinden
Zitronensäure beeinflusst dagegen laut der Studie unsere Geschmackswahrnehmung über einen ganz anderen Mechanismus. Wie jeder aus eigener Erfahrung weiß, stimulieren saure Lebensmittel wie zum Beispiel der Saft von Zitronen den Speichelfluss. Proportional zur Speichelmenge erhöht sich dabei auch die Menge der im Speichel gelösten Mineralstoffe.
Laut Prof. Hofmann steigt der Natriumionen-Spiegel nach der Stimulation mit Zitronensäure rasch um das etwa Elffache an. Dieser Effekt lässt uns dann weniger sensitiv auf Kochsalz reagieren. Der Lebensmittelchemiker erklärt dies so: „Kochsalz ist nichts anderes als Natriumchlorid, wobei die Natriumionen beim Menschen für den Salzgeschmack verantwortlich sind. Enthält der Speichel bereits höhere Konzentrationen an Natriumionen, müssen verkostete Proben einen deutlich höheren Salzgehalt aufweisen, um sie vergleichsweise salzig zu empfinden.“
Hofmann sieht noch viel Forschungsbedarf, um das komplexe Zusammenspiel zwischen den geschmacksgebenden Molekülsystemen in Lebensmitteln, den biochemischen Prozessen, die im Speichel ablaufen, und unserem Geschmacksempfinden zu verstehen. Mittels eines systembiologischen Ansatzes verfolgt Hofmann das Ziel, eine neue wissenschaftliche Basis für die Produktion von Lebensmitteln zu entwickeln, deren Inhaltsstoff- und Funktionsprofile an den gesundheitlichen und sensorischen Bedürfnissen der Verbraucherinnen und Verbraucher ausgerichtet sind. Hierfür kombinieren er und sein Team Methoden der biomolekularen Grundlagenforschung mit analytischen Hochleistungstechnologien und Methoden der Bioinformatik.
Wissenschaftliche Ansprechpartner:
Prof. Thomas Hofmann
Lehrstuhl für Lebensmittelchemie und molekulare Sensorik
Leibniz-Institut für Lebensmittel-Systembiologie an der TUM
E-Mail: thomas.hofmann@tum.de
Telefon +49 (89) 289 – 22201 oder
Telefon 2: +49 (8161) 71-2902
Originalpublikation:
Chemosensate-Induced Modulation of the Salivary Proteome and Metabolome Alters the Sensory Perception of Salt Taste and Odor-Active Thiols. Bader M, Stolle T, Jennerwein M, Hauck J, Sahin B, Hofmann T. J Agric Food Chem. 2018 Jul 13. doi: 10.1021/acs.jafc.8b02772.
Quelle: idw
Im europäischen Vergleich werden Pkw in Deutschland gering besteuert
Renate Bogdanovic Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin
Reform der Fahrzeug- und Kraftstoffbesteuerung ratsam – Bei einem systematischen Europa-Vergleich aller Abgaben auf Pkw belegt Deutschland einen Platz im unteren Drittel – Pkw-Abgaben sind hierzulande weder fiskalisch ausreichend ergiebig, noch setzen sie hinlänglich Anreize für einen weniger umweltbelastenden Pkw-Verkehr
Deutschland sollte die Besteuerung von Personenkraftwagen und Kraftstoffen reformieren, Priorität sollte dabei die schrittweise Erhöhung der Dieselsteuer haben. Zu diesem Schluss kommt Uwe Kunert, Verkehrsökonom am Deutschen Institut für Wirtschaftsforschung (DIW Berlin).
Kunert hat das Abgabensystem für Pkw in 30 europäischen Ländern (EU-28, Norwegen und Schweiz) in einer neuen Studie systematisch analysiert und verglichen. „Es zeigt sich eine sehr variantenreiche Gestaltung der Steuersysteme, mit vielfältigen Bemessungsgrundlagen und im Ergebnis recht unterschiedlicher Steuerlast“, fasst Uwe Kunert das Ergebnis zusammen. Die Summe der Abgaben, die beim Erwerb (Umsatzsteuer, Zulassungssteuer und -gebühren), bei der Haltung (Kfz-Steuer, Versicherungssteuer) sowie bei der Nutzung (Steuern auf Kraftstoffe) für einen Mittelklassewagen im Erstgebrauch mit einer jährlichen Fahrleistung von 15.000 Kilometern anfallen, liegen für die Mehrzahl der Länder zwischen 1.200 und 2.000 Euro. Für die Länder mit noch höheren Abgaben ist die Zulassungssteuer – die in Deutschland nicht existiert – ausschlaggebend. Zudem ergibt diese Beispielrechnung unter dem Strich in 26 Ländern eine geringere Abgabenbelastung für Pkw mit Dieselmotor als für die mit Ottomotor. Unter den untersuchten Ländern erheben nur die osteuropäischen EU-Länder, die baltischen Länder sowie die Schweiz und Luxemburg geringere Steuern auf Pkw-Besitz und -nutzung als Deutschland. Berücksichtigt man die Kaufkraftparität in den jeweiligen Ländern, liegt Deutschland zusammen mit Luxemburg und der Schweiz ganz am Ende der Skala.
„Zumindest was die Steuern angeht, kosten Autobesitz und -nutzung in Deutschland deutlich weniger als in den meisten Nachbarländern“, kommentiert Uwe Kunert. „Die verschiedenen Abgaben sind zudem für den Staat fiskalisch nicht ergiebig. Gleichzeitig werden offensichtlich nicht ausreichend Anreize für weniger umweltschädliche Technologien gesetzt, denn die CO2-Emissionen im Verkehrssektor steigen und die Luftqualität – vor allem in Städten – ist unzureichend. Das Abgabensystem ist dringend reformbedürftig.“
Energiesteuer und Kfz-Steuer reformieren
Priorität sollte dabei eine schrittweise Angleichung des Steuersatzes auf Dieselkraftstoff auf das Niveau von Vergaserkraftstoff haben, so Kunert. In Deutschland wird wie in den meisten europäischen Ländern die Dieseltechnologie mit einem niedrigeren Satz der Energiesteuer, die auf jeden Liter verbrauchten Kraftstoffs entfällt, stark begünstigt (47 Cent für Diesel und 65,5 Cent für Benzin). Das hat Dieselfahrzeugen zu einem stattlichen Marktanteil verholfen.
In einem weiteren Reformschritt sollten beide Steuersätze angehoben werden. Die Energiesteuer, die auf jeden verbrauchten Liter Kraftstoff entfällt, wurde hierzulande seit dem Jahr 2003 nicht mehr erhöht. Dagegen haben seit dem Jahr 2009 die meisten der untersuchten Länder ihren Steuersatz für Benzin und für Diesel angehoben. Hieraus erzielte Mehreinnahmen sollte der Fiskus zum Beispiel durch die Senkung anderer Steuern, die nicht am Umweltverbrauch ansetzen, ausgleichen.
Ein dritter Reformansatz ist die Bemessungsgrundlage der Kfz-Steuer. Der Pkw-Bestand ist seit dem Jahr 2008 um etwa 13 Prozent gewachsen. Dennoch stagnieren die Einnahmen aus der Kfz-Steuer, weil sie sich am Hubraum der Fahrzeuge und an offiziellen Angaben von CO2-Emissionswerten orientieren. Sowohl Hubraum als auch angegebene CO2-Emissionen sinken. Dabei liegen die offiziellen Angaben zu den Emissionen weitaus niedriger als die tatsächlich emittierten Mengen. „Die Basis für die Kfz-Steuer erodiert, und das Aufkommen der Steuer reflektiert keinesfalls die Tatsache, dass immer mehr Autos auf den deutschen Straßen sind. Als alternative Bemessungsgrundlagen würden sich stattdessen das Gewicht oder die Motorleistung eignen“, so Uwe Kunert. „Beide Größen sind objektiv messbar, beide stehen im Zusammenhang mit Umweltaspekten, und beide steigen kontinuierlich.“
Weitere Informationen:
http://www.diw.de
Quelle: idw
Leuphana Wissenschaftler warnt: Abwasserreinigung steht vor großen Problemen
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Für Chemiker Prof. Dr. Klaus Kümmerer und seine Kollegen von der Leuphana Universität Lüneburg steht fest: Chemische Substanzen müssen künftig in der Umwelt schnell unschädlich werden, sonst steht die Abwasserreinigung vor fast unlösbaren Problemen.
Lüneburg. Chemische Stoffe gelangen über eine Vielzahl von Konsumartikeln oder Arzneimitteln in das Abwasser. Künftig muss schon bei ihrer Herstellung viel stärker darauf geachtet werden, diesen Eintrag frühzeitig zu verringern, sonst kann eine wirkungsvolle Abwasserreinigung nicht mehr sichergestellt werden. In einem jetzt in der renommierten Wissenschaftszeitschrift Science erschienenen Beitrag beschreibt der Chemiker Professor Dr. Klaus Kümmerer von der Leuphana Universität Lüneburg zusammen mit Kollegen die aktuellen Probleme der Abwasserreinigung und Trinkwasseraufbereitung. Für die Forscher ist klar: Chemische Substanzen müssen künftig in der Umwelt schnell unschädlich werden, sonst steht die Abwasserreinigung vor fast unlösbaren Problemen.
Chemikalien sind aus dem modernen Leben nicht wegzudenken, sichern sie doch Wohlstand, Gesundheit und Lebensqualität. Viele chemische Stoffe bereiten aber auch Probleme, weil sie in den Wasserkreislauf und über diesen auch in die Nahrungskette gelangen. Schon heute stößt die Abwasserreinigung an ihre Grenzen, wenn es darum geht, alle kritischen Stoffe zu entfernen. Immer aufwendigere Verfahren werden dafür benötigt. Dadurch steigen die Kosten und auch der Einsatz zusätzlicher Chemikalien wird erforderlich. Trotzdem wird das Wasser nicht immer sauber, manchmal sogar zusätzlich verschmutzt.
Ein weiteres Problem ergibt sich aus dem Klimawandel: Starkregenereignisse und in deren Folge Überschwemmungen können Kläranlagen beschädigen. Der Großteil des Wassers gelangt dann an der Kläranlage vorbei ungereinigt in die Oberflächengewässer. Das führt zu weiteren Gefahren für das Grundwasser. Hinzu kommt, dass in 80 Prozent der Länder dieser Erde überhaupt keine Abwasserreinigungsanlagen existieren.
„Wir müssen viel größeren Wert darauf legen, dass kritische chemische Stoffe gar nicht erst ins Abwasser gelangen. Wo dies unvermeidlich ist, müssen chemische Stoffe und Arzneimittel von Anfang an so designt werden, dass sie in der Umwelt keinen Schaden anrichten“, ist Kümmerer überzeugt. Es sei viel effektiver, die Verschmutzung der Umwelt schon an der Quelle zu bekämpfen, als immer aufwendigere Reinigungsverfahren zu entwickeln. Für die Industrie bedeute dies, die Anzahl der verwendeten Chemikalien in den Produkten zu reduzieren, nicht-abbaubare durch abbaubare Stoffe zu ersetzen und unterschiedliche Abwässer möglichst getrennt zu halten, um sie leichter und besser reinigen zu können.
Aus Produktionsabwässern lassen sich auch Stoffe zurückgewinnen und erneut verwenden, wie etwa Salz oder Farbstoffe bei der Textilfärbung. Mikroplastik, das in der Kosmetik-Industrie häufig eingesetzt wird und große Probleme in der Umwelt verursacht, kann durch ungefährliche Materialien problemlos ersetzt werden. In der aktuellen Diskussion um die Vermeidung problematischer Abwässer besteht ein aussichtsreicher Ansatz darin, die Funktion chemischer Substanzen für den Produktionsprozess und im Produkt genau zu analysieren und nach nicht-chemischen Alternativen zu suchen, die den gleichen Zweck erfüllen.
„Wir werden weiter Chemikalien und Arzneimittel benötigen. Der beste Weg, das Problem der damit einhergehenden Umweltverunreinigung zu lösen, lautet aber ‚benign by design'“, ist sich Kümmerer sicher. „Wir müssen dahin kommen, chemische Stoffe so zu gestalten, dass sie in der Umwelt schnell und vollständig wieder abgebaut werden können“, sagt der Experte für nachhaltige Chemie. Damit das künftig besser zum Tragen kommen könne, benötige man neben guten Anreizsystemen auch eine entsprechende Regulierung, eine bessere Innovationskultur und ein Bewußtsein dafür, dass mit neuen, serviceorientierten Geschäftsmodellen und umweltverträglicheren Stoffen auch Geld verdient werden kann.
Quelle: idw
Stillen in Deutschland aus wissenschaftlicher Sicht
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
Themenheft des Bundesgesundheitsblattes erschienen
Ist Stillen wirklich besser? Über diese Frage wird seit Jahrzehnten intensiv diskutiert, wobei die Debatten oft kontrovers und emotional aufgeladen geführt werden. Stillen ist mehr als die Ernährung des Babys. Sowohl bei Kindern als auch bei Müttern geht Stillen mit körperlichen und psychischen Veränderungen einher. Die Herausforderung für die Forschung: Welche unterschiedlichen Effekte hat das Stillen für Mutter und Kind? Das neu erschienene Heft gibt einen wissenschaftlichen Überblick über das Thema „Stillen in Deutschland“ und widmet sich insbesondere der Verbreitung des Stillens, dem Nutzen und möglichen Risiken des Stillens sowie Maßnahmen zur Stillförderung. Das Fazit: Die positiven Effekte des Stillens für Kind und Mutter sind klar belegt. Das Themenheft wurde mit Unterstützung der Nationalen Stillkommission (NSK) am Bundesinstitut für Risikobewertung (BfR) erstellt und umgesetzt. Das Heft kann abgerufen werden über:
https://link.springer.com/journal/103/61/8/page/1
Muttermilch ist ein komplexes Getränk mit vielen Inhaltsstoffen, das in Millionen von Jahren der Evolution entwickelt und optimiert wurde. Aus Sicht der Wissenschaft ist es jedoch eine Herausforderung, die Wirkung des Stillens auf Mutter und Kind genauer zu bestimmen. Kontrollierte Studien zu diesem Thema sind schwer umsetzbar, oft fehlt es auch an langfristigen Daten. Hinzu kommt: In Deutschland gibt es derzeit kein flächendeckendes nationales Stillmonitoring. Stillhäufigkeit und Stilldauer können auf Basis der vorhandenen Daten bislang nicht nach einheitlichen wissenschaftlichen Kriterien bestimmt werden.
Die Autorinnen und Autoren des Themenhefts greifen diese methodologischen Schwierigkeiten auf und stellen Konzepte zur systematischen Datenerhebung in Deutschland vor. In einem Artikel werden erstmals aktuelle Daten zum Stillen aus der Studie zur Gesundheit von Kindern und Jugendlichen in Deutschland (KiGGS) veröffentlicht, während ein anderer Beitrag Stillquoten und Stillförderung in ausgewählten Ländern in Europa vergleicht. Zwei weitere Artikel beschreiben kurz- und langfristig positive Effekte für das Kind bzw. die Mutter, wenn entsprechend der Empfehlung vier bis sechs Monate ausschließlich gestillt wird. In diesem Fall haben Säuglinge ein geringeres Risiko für Atemwegsinfekte und erkranken seltener an Übergewicht und Diabetes mellitus Typ 2. Allerdings können sich durch Fremdstoffe und Krankheitserreger auch Risiken für den Säugling ergeben. Diese erläutern Forscherinnen und Forscher der Berliner Charité und des BfR in einem gemeinsamen Beitrag. Hier der Link:
https://link.springer.com/article/10.1007/s00103-018-2764-5
Zudem stellen Fachleute Handlungsfelder zur Stillförderung vor. In einer Studie des Bundesinstituts für Risikobewertung zur öffentlichen Wahrnehmung des Stillens in Deutschland nannte jede zehnte Mutter, die bereits abgestillt hatte, die ablehnende Haltung in der Öffentlichkeit als einen Grund für das Abstillen. Hier der Link:
https://link.springer.com/article/10.1007/s00103-018-2785-0
Über die Nationale Stillkommission am BfR
Die Nationale Stillkommission wurde 1994 mit dem Ziel gegründet, die Entwicklung einer neuen Stillkultur in der Bundesrepublik Deutschland zu unterstützen und dazu beizutragen, dass Stillen zur normalen Ernährung für Säuglinge wird. Der Kommission gehören Mitglieder aus medizinischen Berufsverbänden und Organisationen an, die sich für die Förderung des Stillens in Deutschland einsetzen. Weitere Informationen zur Arbeit der Nationalen Stillkommission sind auf der folgenden Website veröffentlicht:
https://www.bfr.bund.de/de/nationale_stillkommission-2404.html
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftlich unabhängige Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Quelle: idw
Sauber durch Sonnenkraft
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
In Verbindung mit den richtigen Materialien können Sonnenstrahlen Wunder wirken: Sie reinigen Gebäudefassaden, zersetzen Schadstoffe aus der Luft oder im Wasser. Photokatalyse heißt das Zauberwort. Doch die Wirksamkeit dieses »Wundermittels« in der Praxis schwankt stark, je nach eingesetztem Material und Umwelteinflüssen. Mit einem neuen Messgerät wollen Forscher jetzt die photokatalytische Wirksamkeit von Oberflächen genauer und schneller bestimmen und damit die Effizienz erhöhen.
Fahrverbote, Dieselnachrüstung oder blaue Plakette – es wird derzeit viel diskutiert, wie sich die Stickoxid- und Feinstaubbelastung in Städten reduzieren lassen. Wie praktisch wäre es, wenn Häuserfassaden und Dächer die Stadtluft einfach nebenbei reinigen würden? Und wenn sich Gebäude gleich selbst von Schmutz befreien könnten? Die gute Nachricht ist: Mit Photokatalyse ist das bereits möglich. Mischt man Baumaterialien einen sogenannten Katalysator wie zum Beispiel Titandioxid (TiO2) bei, löst Sonnenlicht in Verbindung mit Sauerstoff eine chemische Reaktion aus. Das Titandioxid bildet dabei reaktive Substanzen, die Schmutz und Schadstoffe abbauen. Ob Beton, Glas oder Fassadenfarbe, fast jedes Material kann man photokatalytisch aufrüsten.
Doch es gibt gleich mehrere Haken: Je nach Trägermaterial, Oberflächenstruktur und Umwelteinflüssen schwankt die photokatalytische Effizienz in Abhängigkeit von Schadstoff und Produkt um bis zu 100 Prozent und mehr. Die Wirksamkeit ist auch eine Frage der richtigen Mischung: Beschichtet man nur die Oberfläche, wäscht sich der Katalysator schnell ab oder erodiert. Mischt man ihn ins Material, ist ein Großteil nicht wirksam. Das Optimum ist noch nicht gefunden. Auch das Langzeitverhalten und die Stabilität solcher Baumaterialien lassen sich außerhalb des Labors nur schwer vorhersagen.
Erschwerend kommt hinzu, dass es eine hohe Diskrepanz zwischen den im Labor erreichbaren Wirksamkeiten und den draußen im praktischen Einsatz erzielten gibt. All dies ist bislang kaum untersucht worden. Ein besseres Verständnis dieser Zusammenhänge strebten die elf Partner im Verbundprojekt PureBau an. Ihr Ziel war es, die Effizienz von Materialverbindungen zu steigern, so dass bessere photokatalytisch wirksame Baustoffe entwickelt werden können.
Ein neues Werkzeug für effiziente Forschung
Als einer der Partner arbeitet das Fraunhofer-Institut für Schicht- und Oberflächentechnik IST in Braunschweig an einem Messverfahren, das genau das ermöglicht. »Die bisherige Erforschung und Entwicklung von photokatalytisch aktiven Baumaterialen lief mangels eines geeigneten Messverfahrens oft nach dem Versuch-Irrtum-Prinzip. Zudem war es schlichtweg noch nicht möglich, zuverlässige Messungen im Feld durchzuführen. Zwar lassen sich Effekte anhand von Simulation berechnen, doch dies ist aufwändig und zudem noch wenig verbreitet«, sagt Dipl.-Ing. (FH) Frank Neumann, Leiter Arbeitsgruppe Photokatalyse am Fraunhofer IST.
Neumann und seine Mitarbeiter hatten bereits ein Verfahren patentiert, um die photokatalytische Selbstreinigung von Produkten schnell und reproduzierbar im Labormaßstab zu messen. Damit lässt sich bestimmen, wie schnell ein Material mit einem bestimmten Katalysator zum Beispiel eine Fassade oder ein Ziegeldach reinigt. Das Grundprinzip: Ein lumineszierender Farbstoff wird auf eine Oberfläche aufgedampft und dann gemessen, wie schnell er unter Lichteinfluss verblasst. Zusammen mit den Parametern Dicke der Farbschicht und Lichtintensität lässt sich daraus der Wirkungsgrad ermitteln.
Vom Labor ins Feld
Die Herausforderung war nun, dieses Prinzip auf ein portables Gerät zu übertragen, das ohne Vakuumbedingungen funktioniert, und die Messung gleichzeitig deutlich zu beschleunigen. Die Forscher erreichten das in Zusammenarbeit mit dem Institut für Hochfrequenztechnik (IHF) der TU Braunschweig in zwei Schritten: Da die bislang im Labor verwendete Farbstoffsynthese im Feld zu viele ungewünschte chemische Reaktionen zeigte, mussten sie neue Farbstoffe finden. Zum Einsatz kamen Farbstoffe mit Europium-Metallkomplexen, wie sie auch in OLEDs angewendet werden. Zudem funktionierte das bisherige Verfahren des Aufdampfens für den mobilen Zweck nicht mehr. »Stattdessen transferierten wir die Farbstoffe in einer Mono-Lage auf eine polymere Trägerfolie und verbanden beides chemisch durch sogenannte Ankergruppen «, erklärt Neumann. Die Trägerfolie hat die Vorteile, dass sie sich jeder Oberfläche gut anpasst, chemische Reaktionen mit dem Material minimiert und durch Messungen direkt an Fassaden entstehende Schäden (z.B. durch Farbauftrag) vermeidet. Die Beschichtung mit einer einzelnen Lage Farbstoff gewährleistet die Reproduzierbarkeit des Verfahrens.
Im nächsten Schritt wurde zusammen mit der Firma Omicron Laserage Laserprodukte GmbH ein Demonstrator einer mobilen Messpistole entwickelt. In einen Bajonettverschluss wird dort die Folie mit der Farbbeschichtung eingespannt und auf die zu prüfende Oberfläche gepresst. Das Gerät misst dann das Abklingen der Lumineszenz durch den UV-Einfluss und bestimmt darüber die photokatalytische Wirksamkeit – sowohl qualitativ als auch quantitativ durch den Effizienzgrad. Die Messdauer hat sich bei diesem Prozedere im Vergleich zu einschlägigen Normprüfverfahren von zum Teil drei Stunden auf etwa 15 Minuten reduziert.
Neumann ist zuversichtlich, dass die Messlösung in ein bis zwei Jahren marktreif sein könnte. Interessant wäre dies dann für Baustoffhersteller, Beschichtungsexperten und Messdienstleister, aber auch für Anwender: »Vor allem die Qualitätskontrolle derzeit eingesetzter Produkte wäre damit erstmals vor Ort möglich, aber auch die Entwicklung wirksamer photokatalytischer Materialien ließe sich so beschleunigen«. Langfristig könnte dies wiederum die weitreichende Selbstreinigung von Fassaden, Dächern und Verkehrswegen fördern und für ein besseres Klima in unseren Städten sorgen.
Wissenschaftliche Ansprechpartner:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/Sauber-durch…
Quelle: idw
Gefährliche Altlasten in Nord- und Ostsee
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Millionen Tonnen alter Munition und Giftgasgranaten liegen auf dem Grund von Nord- und Ostsee – gefährliche Hinterlassenschaften der beiden Welt- kriege. Denn die alten Kampfmittel rosten und geben ihre giftigen Inhaltstoffe frei. Die Beseitigung ist gefährlich, aufwendig und teuer. Deshalb entwickeln Fraunhofer-Forscher gemeinsam mit Bergungsunternehmen ein Roboter- system, das eine teilautomatische Entsorgung ermöglicht.
Etwa 1,6 Millionen Tonnen konventionelle und 220 000 Tonnen chemische Kampfmittel, so die aktuellen Schätzungen, lagern am Grund von Nord- und Ostsee und rotten seit Jahrzehnten vor sich hin – ein enormes Gefahrenpotenzial für Flora und Fauna wie auch für das Bergungspersonal. Immer häufiger werden diese explosiven Hinterlassenschaften der Kriege zum Problem. Denn die Baustellen auf dem Meer nehmen zu, neue Fahrrinnen müssen freigelegt, Pipelines gebaut, Seekabel für die Landanbindung von Windparks verlegt werden. Das Waffenarsenal, das die Kampfmittelräumdienste aufspüren, reicht von Pistolenpatronen und Panzerfäusten über Seeminen, Sprengbomben, Brandbomben und Torpedos bis hin zu Giftgasgranaten. Der Großteil der explosiven Fracht wurde am Ende des zweiten Weltkriegs im Meer versenkt. Fischer sollten im Auftrag der Alliierten die Kampfmittel in ausgewiesenen Gebieten weit draußen auf See verklappen. Doch offensichtlich kippten einige die Fracht viel früher ins Meer, um Treibstoff zu sparen. Daher befindet sich auch außerhalb der markierten Munitionsgebiete viel Munition. Zudem werden alte Minen, Torpedos und Bomben durch starke Strömungen und Grundschleppfischerei umgelagert.
Minen in Schifffahrtsrinnen
So müssen die Taucher des Kampfmittelräumdienstes immer wieder auch Munition aus Fahrrinnen räumen, die als minenfrei galten. Dank empfindlicher Sonartechnik und Magnetsonden kann der Kriegsschrott inzwischen besser aufgespürt werden – und umso mehr Bomben, Granaten und Minen werden entdeckt. Die Räumung ist aber bisher nur in gefährlicher Handarbeit durch Taucher der Kampfmittelräumdienste oder spezialisierter Firmen möglich. Große Bomben können nicht geborgen werden: Oft reicht die Druckveränderung schon aus, dass sie explodieren. Deshalb verlagert man sie in die bekannten Munitionsgebiete oder sprengt sie vor Ort. Dabei verteilt sich aber ein Teil des giftigen Sprengstoffs weiträumig im Wasser. Außerdem können durch eine Explosion Meereslebewesen wie z. B. Schweinswale oder Fische tödlich verletzt werden.
Für die Beseitigung großer Mengen des explosiven Kriegserbes sind neue umweltschonende, ungefährliche und wirtschaftliche Lösungen gefragt. So entwickeln, gefördert vom Bundesministerium für Wirtschaft und Energie, Forscher des Fraunhofer-Instituts für Chemische Technologie ICT in Pfinztal gemeinsam mit der Universität Leipzig und mehreren Industriepartnern ein »Robotisches Unterwasser-Bergungs- und Entsorgungsverfahren inklusive Technik zur Delaboration von Munition im Meer«, kurz RoBEMM. Die Koordination des Vorhabens hat das Kampfmittelräumunternehmen Heinrich Hirdes EOD Services GmbH übernommen. »Langfristiges Ziel des Projektes ist es«, erklärt Paul Müller vom Fraunhofer ICT, »die Munition bereits direkt am Fundort unter Wasser teilautomatisiert unschädlich zu machen und umweltgerecht zu entsorgen.« Für die Automatisierung und Anbindung der Teilkomponenten ist die automatic Klein GmbH zuständig.
Das Fraunhofer ICT bringt seine Kernkompetenz in der sicherheitstechnischen Betrachtung und Charakterisierung von Gefahrstoffen ein. Aufgabe war, die Handhabung mit den Explosivstoffen in allen Prozessschritten so auszulegen, dass das unvermeidliche Restrisiko einer spontanen Explosion minimiert wird. Das reicht vom Munitionshandling über die Zerlegung bis hin zur Sprengstoffvernichtung und Reststoffbehandlung. Wichtiges Element ist das Herabsetzen der Empfindlichkeit des Sprengstoffs durch die Zugabe von Wasser und die anschließende Zerkleinerung. Dann werden die Metallhülsen gereinigt und der Sprengstoff wird verbrannt, so dass nur Metallschrott an Land gebracht wird.
Jede Bombe ist anders
Selbst nach mehr als 70 Jahren sind die Kampfstoffe gefährlich. Der Sprengstoff kann nach wie vor explodieren, die Abbaustoffe sind hochgiftig. Die Forscherinnen und Forscher am Fraunhofer ICT haben beispielsweise festgestellt, dass die Schlagempfindlichkeit der Explosivstoffe sogar erhöht sein kann. Um eine spontane Detonation zu vermeiden, muss beim Handling größte Vorsicht gewährleistet sein. Ein großes Problem sind die extrem unterschiedlichen Munitionsformate. Am Ende des Krieges wurden für die Herstellung von Munition alle noch verfügbaren Materialien verwendet. Daher weiß man nie wirklich, welche Inhaltsstoffe vorhanden sind und wie sie unter Umständen plötzlich miteinander reagieren. »Aus den sicherheitstechnischen Untersuchungen der damals tatsächlich verwendeten Explosivstoffgemische konnten wir ableiten, was beim Handling zu beachten ist«, sagt der Sicherheitsexperte Paul Müller. Bald beginnen erste Tests mit dem neuen Bergungs- und Entsorgungssystem RoBEMM, das die derzeit gefährlichen Tauchereinsätze und die oftmals alternativlosen Sprengungen der Munition ersetzen kann.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/gefaehrliche…
Quelle: idw
Nachweis von Mikroplastik im Wasser: Fraunhofer CSP entwickelte smarte Filteranlagen
Michael Kraft Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Mikrostruktur von Werkstoffen und Systemen IMWS
Mikroplastikpartikel im Wasser sind ein zunehmendes Problem für die Umwelt. Ein neues Filtersystem, mit dem sich die Belastung von Gewässern schneller und einfacher messen lässt, entwickelt das Fraunhofer-Center für Silizium-Photovoltaik CSP gemeinsam mit Partnern. Das Forschungsprojekt unter Federführung der Bundesanstalt für Materialforschung und -prüfung (BAM) will eine Datenbasis schaffen, um die Belastung von Gewässern analysieren und anschließend verringern zu können.
Der Eintrag von Mikroplastikpartikeln – also Plastikteilchen mit einer Größe von weniger als 1 Millimeter – in unser Ökosystem wird zunehmend problematischer. Doch wie gelangt Mikroplastik in Gewässer und Abwässer? Und wie kann es dort untersucht und nachgewiesen werden? Momentan fehlt eine verlässliche, wissenschaftliche Datenbasis über die Quellen, das Vorkommen sowie die Auswirkungen von Mikroplastikpartikeln auf die Umwelt.
Das Forschungsprojekt »Repräsentative Untersuchungsstrategien für ein integratives Systemverständnis von spezifischen Einträgen von Kunststoffen in die Umwelt (RUSEKU)«, das von der Bundesanstalt für Materialforschung und -prüfung (BAM) ins Leben gerufen wurde, will bis zum Jahr 2021 ein Untersuchungsverfahren entwickeln, mit dem sich der Partikeleintrag in Gewässer einheitlich und schneller messen lässt. Dadurch soll sich auch feststellen lassen, an welchen Orten eine besonders hohe Belastung von Gewässern durch Mikroplastik vorliegt.
Das Fraunhofer-Center für Silizium-Photovoltaik CSP entwickelt im Rahmen des Verbundforschungsprojektes gemeinsam mit der SmartMembranes GmbH ein spezielles Filtersystem als wichtigen Baustein für ein einheitliches und unkompliziertes Verfahren zur Entnahme von Proben. Die Kaskaden-Filtrationsanlage soll spezielle Siliziumfilter mit definierten Lochdichten und -größen einsetzen, in denen die Plastikpartikel hängen bleiben.
»Wesentlich für tragfähige Aussagen über die Mengen von Mikroplastik im Grund-, Trink- sowie Schmutzwasser oder in Oberflächengewässern ist die Methodik für die Probenentnahme. Geplant ist eine Art Probenentnahme-Set, das dazu einen entscheidenden Beitrag leisten soll«, sagt Dr. Christian Hagendorf, der auf Seiten des Fraunhofer CSP für das Forschungsprojekt verantwortlich ist. »Mithilfe von Laser- und chemischen Ätzprozessen werden wir auf dem Siliziumträger passende Lochgrößen schaffen, in denen die Partikel zurückgehalten werden. Bei der späteren Analyse im Labor machen wir uns die chemische Zusammensetzung von Silizium zunutze, das in einem breiten Wellenlängenbereich des Infrarotlichtes im Transmissionsverfahren durchsichtig ist und darauf liegende Mikroplastikteilchen für die spektroskopische Messtechnik sichtbar macht«, sagt Hagendorf weiter.
Eine weitere wichtige Kenngröße für die Qualität der Filter ist die mechanische Festigkeit. Denn Lastzustände, die durch Wasserströmungen während der Probenentnahme verursacht werden, dürfen nicht zum Bruch der Filter führen. Außerdem müssen die Filter eine »smarte«, optimierte Lochgeometrie und Oberflächenbeschaffenheit besitzen. Ein weiteres Arbeitsziel ist es, zusammen mit den Partnern einen vorgeschriebenen Arbeitsablauf von der Probenahme über die Aufreinigung bis zur Analyse der Mikroplastikpartikel zu definieren. Durch »Smart Sampling« wird der Nachweis von Mikroplastik von der Probenahme bis zur Schnellanalytik perfekt abgestimmt.
Das damit ermöglichte Verfahren zur effizienten und zuverlässigen Mikroplastik-Probenentnahme bietet eine Grundlage für Strategien und Regelungen, die helfen, Mikroplastik im Wasserkreislauf zu verringern. Das Verbundforschungsprojekt wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert und findet im Rahmen des Forschungsschwerpunktes »Plastik in der Umwelt« statt. Beteiligt sind neben dem Fraunhofer CSP sechs weitere wissenschaftliche Einrichtungen sowie drei mittelständische Unternehmen.
Über das Fraunhofer-Center für Siliziumphotovoltaik CSP
Das Fraunhofer CSP betreibt angewandte Forschung in den Themengebieten der Siliziumkristallisation, Waferfertigung, Solarzellencharakterisierung und der Modultechnologie. Es entwickelt dabei neue Technologien, Herstellungsprozesse und Produktkonzepte entlang der gesamten photovoltaischen Wertschöpfungskette.
Schwerpunkte sind die Zuverlässigkeitsbewertung von Solarzellen und Modulen unter Labor- und Einsatzbedingungen sowie die elektrische, optische, mechanische und mikrostrukturelle Material- und Bauteilcharakterisierung. Basierend auf dem Verständnis von Ausfallmechanismen werden dadurch Messmethoden, Geräte und Fertigungsprozesse für Komponenten und Materialien mit erhöhter Zuverlässigkeit entwickelt.
Ergänzt wird das Portfolio der Photovoltaik durch Forschungen im Bereich der regenerativen Wasserstofferzeugung, -Speicherung und -Nutzung, hierbei insbesondere der Entwicklung, Charakterisierung und Testung neuer Materialien für Brennstoffzellen und Elektrolyseure sowie der Simulationen und der Wirtschaftlichkeitsbetrachtungen von dezentralen Photovoltaik-Elektrolysesystemen.
Das Fraunhofer CSP ist eine gemeinsame Einrichtung des Fraunhofer-Instituts für Mikrostruktur von Werkstoffen und Systemen IMWS und des Fraunhofer-Instituts für Solare Energiesysteme ISE.
Über die SmartMembranes GmbH
SmartMembranes, im Jahr 2009 von Dr. Petra Göring und Monika Lelonek in Halle (Saale) gegründet, ist der weltweit führende Hersteller von porösen hochgeordneten Materialien aus Aluminiumoxid und Silizium mit definiert einstellbaren Membraneigenschaften und Strukturparametern für eine Vielzahl von innovativen Anwendungen. Ein weiteres wichtiges Standbein neben der Produktion der Membrane nach Kundenwunsch ist die Entwicklung neuer Prozesse und Produkte rund um das Kerngeschäft.
Die SmartMembranes GmbH ist ein Spin-Off des Fraunhofer-Instituts für Mikrostruktur von Werkstoffen und Systemen IMWS in Halle. Die am Standort – dem Technologie- und Gründerzentrum Halle – vorhandene Infrastruktur mit einer Vielzahl an F&E-Einrichtungen wie der Martin-Luther-Universität Halle-Wittenberg, dem Max-Plack-Institut für Mikrostrukturphysik und dem Fraunhofer IMWS ermöglichen eine enge Zusammenarbeit, Kooperation und Vernetzung.
Wissenschaftliche Ansprechpartner:
Dr. Christian Hagendorf, Telefon +49 345 5589-5100, christian.hagendorf@csp.fraunhofer.de
Weitere Informationen:
https://www.imws.fraunhofer.de/de/presse/pressemitteilungen/filteranlage-mikropl…
Quelle: idw
Warum die Stadt nachts heiß bleibt
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die Hitzewelle geht weiter. Dabei kann es in der Würzburger Innenstadt nachts sehr viel wärmer sein als am Stadtrand: Im Forschungsprojekt „Klimaerlebnis Würzburg“ wurde ein Unterschied von 5,4 Grad Celsius gemessen.
Der Juli 2018 ist sehr heiß verlaufen; vielerorts wurden die Monatsrekorde gebrochen. Spitzenreiter war am Dienstag, 31. Juli, die Kreisstadt Bernburg in Sachsen-Anhalt mit 39,5 Grad Celsius. Aber auch in Unterfranken war Schwitzen angesagt: In Kitzingen zum Beispiel zeigte das Thermometer 39 Grad Celsius an.
„Ursache für die Hitzewelle ist sehr warme Luft vom Mittelmeer, die über eine südwestliche Strömung zu uns gelangt“, erklärt Klima-Experte Professor Heiko Paeth vom Institut für Geographie der Julius-Maximilians-Universität Würzburg (JMU). Dazu komme eine sehr stabile Wetterlage mit Hochdruckeinfluss. Diese beeinflusse – mit kurzen Unterbrechungen – seit April das Wettergeschehen in Deutschland. In vielen Regionen habe sie für extreme Trockenheit gesorgt.
Acht Messstationen sammeln Daten
Auch in Würzburg war es in den vergangenen Tagen sehr heiß. Hier haben die acht Messstationen des Forschungsprojekts „Klimaerlebnis Würzburg“ fleißig Daten gesammelt.
„In der Würzburger Innenstadt haben wir am 30. Juli und am Tag danach Spitzenwerte von 36,6 und 37,0 Grad Celsius gemessen“, sagt Paeths Doktorand Christian Hartmann. „Das ist zwar bei weitem nicht auf dem Niveau des Rekords mit 39,4 Grad vom 7. August 2015, für einen Sommertag jedoch schon sehr beachtlich.“
Wärmeinseleffekt ist deutlich ausgeprägt
In der Hitze fiebern viele Menschen den Abendstunden entgegen, wenn die Luft langsam wieder abkühlt und sie die Wohnung noch einmal richtig durchlüften können. Dann aber stellt so mancher enttäuscht fest, dass die Luft draußen bei weitem wärmer ist als gedacht.
In der Innenstadt macht sich der sogenannte städtische Wärmeinseleffekt bemerkbar. „Bebaute Gebiete mit ihren Straßen und Häuserfassaden heizen sich tagsüber stärker auf und können abends schlechter abkühlen als das Umland“, erklärt Hartmann. Besonders in den frühen Nachtstunden geben Asphalt, Steine und Beton die gespeicherte Wärme wieder ab.
Deutlich zeigte sich das beispielsweise am Montag (30. Juli 2018): Gegen 22 Uhr war es am grünen Ortsrand der stadtnahen Gemeinde Gerbrunn rund 5,4 Grad Celsius kühler als in der Würzburger Innenstadt. Dabei liegen die beiden Messstationen nur etwa vier Kilometer Luftlinie voneinander entfernt.
„Wie lange die Hitze in Deutschland noch bleibt, weiß nur Petrus“ sagt Hartmann. Für die kommenden Tage stünden die Weichen auf jeden Fall weiter für Temperaturen von über 30 Grad Celsius.
Forschungsprojekt „Klimaerlebnis Würzburg“
Drei Jahre lang werden das Würzburger Stadtklima und die Lebensbedingungen der Stadtbäume genau unter die Lupe genommen: Im Forschungsprojekt „Klimaerlebnis Würzburg“ kooperiert die JMU mit der TU München im Rahmen des Zentrums für Stadtnatur und Klimaanpassung. Das bayerischen Staatsministerium für Umwelt und Verbraucherschutz fördert das Projekt.
Bei dem Projekt wird unter anderem gemessen, ob die Stadtbäume über genug Wasser verfügen oder wieviel CO2 sie speichern. Alle Interessierten können die Messwerte in Echtzeit über das Internet abrufen unter http://www.klimaerlebnis.de
Dort lässt sich zum Beispiel sehen, dass es einer Linde, die im Ringpark nahe der Residenz steht, in Sachen Wasserversorgung aktuell nicht so gut geht. Oder dass sie seit Jahresbeginn 3,9 Kilogramm CO2 gespeichert hat. Auch wieviel Wasser sie pro Stunde verdunstet und um wie viel kühler es direkt unter dem Baum ist als in Umgebung, lässt sich von der Website ablesen.
Wissenschaftliche Ansprechpartner:
Kontakt
Christian Hartmann, Institut für Geographie und Geologie der JMU, T +49 931 31-89696, christian.hartmann@uni-wuerzburg.de
Quelle: idw
Wie Nährstoffe im sauerstoffarmen Meer verloren gehen
Dr. Boris Pawlowski Presse, Kommunikation und Marketing
Christian-Albrechts-Universität zu Kiel
Kieler Forschungsteam beschreibt erstmals genetische und evolutionäre Mechanismen der Nitratumwandlung bei Foraminiferen
Im Zuge der globalen Klimaveränderungen beobachten Wissenschaftlerinnen und Wissenschaftler eine Zunahme sauerstoffarmer Gebiete im Ozean, die sie auch als Sauerstoffminimumzonen bezeichnen (Englisch: Oxygen Minimum Zones, OMZ). In großer Ausdehnung existieren sie zum Beispiel im Pazifik vor der Küste Südamerikas oder im Indischen Ozean. Da dort in Abhängigkeit von der Wassertiefe wenig bis gar kein Sauerstoff vorhanden ist, sind Lebewesen im Vorteil, deren Stoffwechsel sauerstoffunabhängig ablaufen kann. Zu diesen Organismen zählen einige Vertreter der Foraminiferen: einzellige, gehäusebildende Kleinstlebewesen, die bereits über einen Zellkern verfügen und damit zu den sogenannten Eukaryoten zählen. Ihre Lebensweise geht mit einem bestimmten Stoffwechselweg einher, der als anaerobe Atmung bezeichnet wird. Dabei wandeln sie im Wasser vorhandenes Nitrat in Abwesenheit von Sauerstoff in molekularen Stickstoff um. Dieser mehrstufige Prozess ist auch als Denitrifizierung bekannt und bildet einen zentralen Teil in der globalen Verwertung von Stickstoff, einem für die Lebensprozesse aller Organismen essentiellem Element. In Meeresgebieten mit besonders geringem Sauerstoffanteil treten Foraminiferen auffallend häufig auf. Sie binden dort Nitrat in großem Umfang und entziehen es so dem globalen Nährstoffkreislauf. Damit tragen Foraminiferen möglicherweise entscheidend zum Nährstoffverlust in den OMZ bei. Einem Forschungsteam vom Institut für Allgemeine Mikrobiologie an der Christian-Albrechts-Universität zu Kiel (CAU), dem Sonderforschungsbereich (SFB) 754 „Klima-Biogeochemische Wechselwirkungen im tropischen Ozean“ am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und dem Kiel Evolution Center (KEC) gelang es nun, den bislang unbekannten Denitrifizierungsprozess in Foraminiferen anhand zweier Arten zu beschreiben: Die Forschenden konnten nachweisen, dass Globobulimina turgida sowie die verwandte Art Globobulimina auriculata über einen einzigartigen, eukaryotischen Stoffwechselweg zur Denitrifizierung verfügen. Dazu veröffentlichte das Forschungsteam heute, (Donnerstag, 2. August) erstmals eine Charakterisierung der dazu nötigen genetischen Ausstattung dieser Foraminiferenarten in der renommierten Fachzeitschrift Current Biology.
Zunächst nahm das Forschungsteam Sedimentproben im südschwedischen Gullmarfjord. Er weist durch seine besondere Form und die damit verbundene Wasserschichtung saisonal ein ähnliches Sauerstoffvorkommen auf wie die großen ozeanischen OMZ. Im Fjord leben Foraminiferen in den obersten Zentimetern des Meeresbodens. Hier ist mehrere Monate im Jahr kaum Sauerstoff vorhanden. Den Forschenden gelang es, die Kleinstlebewesen in einem eigens entwickelten Verfahren im Labor zu halten: „Um die stark auf ihre besonderen Umweltbedingungen spezialisierten Foraminiferen im Detail untersuchen zu können, mussten wir die natürlichen Sauerstoffverhältnisse in etwa 120 Metern Tiefe künstlich erzeugen“, betont Dr. Alexandra-Sophie Roy aus der Arbeitsgruppe Genomische Mikrobiologie an der CAU. Gemeinsam mit ihrem Kollegen Dr. Christian Wöhle ist sie Erstautorin der nun erschienenen Studie, die im Rahmen des SFB 754 entstanden ist.
Anschließend untersuchten die Forschenden die gesamten genetischen Informationen der Foraminiferen auf Hinweise, ob sie eigenständig zur Denitrifizierung fähig sind oder ob zum Beispiel symbiotische Bakterien dafür verantwortlich sind. Bereits bekannt war, dass Bakterien und Pilze denitrifizieren können und daher über eine entsprechende genetische Ausstattung verfügen. Die Forschenden suchten also im Genom der Foraminiferen nach bereits von Bakterien oder Pilzen bekannten spezifischen Genen, die dort an der Nitratumwandlung beteiligt sind. „Wir sind auf drei proteincodierende Gene gestoßen, die definitiv nicht von symbiotischen Bakterien stammen“, hebt Wöhle hervor. Bei der vollständigen Denitrifizierung wird Nitrat in vier Schritten zum Endprodukt, dem molekularen Stickstoff, umgewandelt. Um die dafür notwendigen Moleküle bilden zu können, verfügen alle denitrifizierenden Organismen über eine ähnliche genetische Ausstattung. Zwar habe man nicht alle an der Nitratumwandlung beteiligten Gene gefunden, die nun entdeckten Erbinformationen sind aber Teil des Foraminiferen-eigenen Genoms. Ihr Stoffwechsel unterscheide diese marinen Kleinstlebewesen auf jeden Fall von allen anderen eukaryotischen Organismen, unterstreichen Roy und Wöhle die Bedeutung der Forschungsarbeit.
Gestützt wird diese Theorie auch vom offenkundigen ökologischen Erfolg der Foraminiferen in der sauerstoffarmen Meeresumwelt: Untersuchungen der OMZ vor der peruanischen Küste haben zum Beispiel gezeigt, dass die Kleinstlebewesen dort eine Schlüsselrolle im Nitratzyklus einnehmen und mit mehr als 500 Individuen pro Kubikzentimeter im Sediment auftreten können. Diese Dominanz erlangten sie offenbar auch durch den evolutionären Erwerb der Fähigkeit zur vollständigen Denitrifizierung. Eine Beteiligung symbiotischer Bakterien an der Umsetzung des Nitrats in großen Mengen kann ausgeschlossen werden, da diese Form des Zusammenlebens mit den Foraminiferen zu selten vorkommt, um das Phänomen zu erklären. Die eukaryotischen Kleinstlebewesen müssen also eigenständig zur Denitrifizierung in der Lage sein. In weiteren Forschungsarbeiten möchten die Wissenschaftlerinnen und Wissenschaftler künftig die übrigen bei Globobulimina daran beteiligten Gene identifizieren. Weiterhin wollen sie klären, ob sich die an bestimmten Spezies und einem besonderen Meeresgebiet gewonnenen Erkenntnisse auch auf andere Foraminiferen und grundsätzlich auf Sauerstoffminimumzonen übertragen lassen.
„Besser zu verstehen, wie sich die genetischen Grundlagen der Denitrifizierung im Laufe der Evolution bei verschiedenen Organismen entwickelt haben, liefert uns ein wichtiges Puzzleteil, um ein größeres Bild der biogeochemischen Kreisläufe im Meer zusammensetzen zu können“, hebt Professorin Tal Dagan, Co- Autorin der Studie und Leiterin der Arbeitsgruppe Genomische Mikrobiologie an der CAU, hervor. Anhand der Evolution der beteiligten Gene könne man die erdgeschichtliche Entstehung dieser Stoffkreisläufe und den Anteil einzelner Lebewesen daran besser nachvollziehen, so Dagan weiter. „Im Zusammenhang globaler Umweltveränderungen wird ein genaueres Verständnis des Umsatzes und der Verteilung von elementaren Stoffen im Ozean immer wichtiger. Mit den neuen Ergebnissen tragen wir ein Stück dazu bei, den Einfluss des Klimawandels auf vom Sauerstoffgehalt abhängige Nährstoffkreisläufe im Meer besser zu verstehen“, ergänzt der ebenfalls an der Studie beteiligte Dr. Joachim Schönfeld vom SFB 754. So könne man zum Beispiel künftig besser abschätzen, wie sich geänderte Umweltbedingungen auf das Nährstoffangebot und damit die Nahrungsbeziehungen zwischen verschiedenen Lebewesen im Ozean auswirken, fasst Schönfeld zusammen.
Originalarbeit:
Christian Wöhle, Alexandra-Sophie Roy, Nicolaas Glock, Tanita Wein, Julia Weissenbach, Philip Rosenstiel, Claas Hiebenthal, Jan Michels, Joachim Schönfeld, Tal Dagan (2018) „A novel eukaryotic denitrification pathway in foraminifera“. Current Biology, Published on August 2, 2018, https://doi.org/10.1016/j.cub.2018.06.027
Bilder stehen zum Download bereit:
www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-1.jpg
Mit einem Gerät zur Entnahme von Sedimentproben, dem sogenannten Multicorer, können die Forschenden Sedimente vom Grund des Gullmarfjords gewinnen.
Foto/Copyright: Tal Dagan
www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-2.jpg
In einem Inkubationsbehälter befinden sich in jeder Öffnung jeweils steriler Sand und ein einzelnes Foraminiferen-Individuum.
Foto/Copyright: Tal Dagan
www.uni-kiel.de/fileadmin/user_upload/pressemitteilungen/2018/256-currbio-3.jpg
Eine der beiden untersuchten Foraminiferen-Arten, Globobulimina turgida, hat eine Größe von etwa 700 Mikrometern.
Foto/Copyright: Jan Michels
Kontakt:
Prof. Tal Dagan
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5712
E-Mail: tdagan@ifam.uni-kiel.de
Dr. Christian Wöhle
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5744
E-Mail: cwoehle@ifam.uni-kiel.de
Dr. Alexandra-Sophie Roy
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5714
E-Mail: sroy@ifam.uni-kiel.de
Weitere Informationen:
Genomische Mikrobiologie (AG Dagan),
Institut für Allgemeine Mikrobiologie, CAU
www.mikrobio.uni-kiel.de/de/ag-dagan
Sonderforschungsbereich (SFB) 754 „Klima-Biogeochemische Wechselwirkungen im tropischen Ozean“, GEOMAR:
www.sfb754.de/de
Forschungszentrum „Kiel Evolution Center“, CAU Kiel:
www.kec.uni-kiel.de
Ocean Deoxygenation Conference, Öffentliche Vorträge am 5.9.2018,
Sonderforschungsbereich (SFB) 754:
conference.sfb754.de/event/1/page/15-public-event-teacher-workshop
Christian-Albrechts-Universität zu Kiel
Presse, Kommunikation und Marketing, Dr. Boris Pawlowski, Text/Redaktion: Christian Urban
Postanschrift: D-24098 Kiel, Telefon: (0431) 880-2104, Telefax: (0431) 880-1355
E-Mail: presse@uv.uni-kiel.de, Internet: www.uni-kiel.de, Twitter: www.twitter.com/kieluni
Facebook: www.facebook.com/kieluni, Instagram: www.instagram.com/kieluni
Wissenschaftliche Ansprechpartner:
Prof. Tal Dagan
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5712
E-Mail: tdagan@ifam.uni-kiel.de
Dr. Christian Wöhle
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5744
E-Mail: cwoehle@ifam.uni-kiel.de
Dr. Alexandra-Sophie Roy
Genomische Mikrobiologie,
Institut für Allgemeine Mikrobiologie, CAU
Telefon: 0431 880-5714
E-Mail: sroy@ifam.uni-kiel.de
Originalpublikation:
Christian Wöhle, Alexandra-Sophie Roy, Nicolaas Glock, Tanita Wein, Julia Weissenbach, Philip Rosenstiel, Claas Hiebenthal, Jan Michels, Joachim Schönfeld, Tal Dagan (2018) „A novel eukaryotic denitrification pathway in foraminifera“. Current Biology, Published on August 2, 2018, https://doi.org/10.1016/j.cub.2018.06.027
Weitere Informationen:
https://www.uni-kiel.de/de/detailansicht/news/wie-naehrstoffe-im-sauerstoffarmen…
Quelle: idw
Dieselskandal: Ultrafeinstaub deutlich schädlicher als Stickoxide
Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Seit bekannt ist, dass Automobilhersteller die Motorsteuerung ihrer Fahrzeuge durch illegale Abschalteinrichtungen manipulierten um Abgasnormen zu umgehen, kocht die Debatte um den Dieselskandal immer wieder hoch. Es gibt Studien, die meinen den Nachweis erbringen zu können, dass europaweit jährlich etwa 5.000 Menschen vorzeitig sterben, weil Dieselautos im realen Straßenverkehr diese Grenzwerte überschreiten. Neuste Erkenntnisse weisen nun allerdings darauf hin, dass vermutlich nicht Stickoxide, sondern ultrafeine Partikel die Ursache für Gesundheitsgefahren sind. Dabei sind diese Feinstäube besser zu beseitigen.
Was ist Stickstoffdioxid?
Stickstoffdioxid (NO2) entsteht beim Verbrennen von Brenn- und Treibstoffen, insbesondere bei hohen Verbrennungstemperaturen, wie in Dieselmotoren. Als Hauptquelle für die Bildung von NO2 gilt der Straßenverkehr. NO2 ist stark gesundheitsgefährdend – insbesondere für Asthmatiker, Kinder oder ältere Menschen. In der EU gilt daher seit 2010 ein Jahresmittel-Grenzwert von 40 Mikrogramm NO2 pro Kubikmeter Luft. Zum Vergleich: Der Grenzwert in den UBA liegt etwa bei 100 Mikrogramm, in der Schweiz dagegen sind nur 30 Mikrogramm erlaubt.
Was ist an Dieselabgasen so gefährlich?
Feinstaub dringt tief in Lunge und Herzkreislaufsystem ein und kann Krankheiten wie Schlaganfall, Herzerkrankungen, Lungenkrebs oder Atemwegsinfekte verursachen. Laut jüngsten Berichten der Weltgesundheitsorganisation WHO erleiden jährlich ca. 7 Millionen Menschen schwerwiegende gesundheitliche Beeinträchtigungen durch Feinstaub. In diesem Bericht wird NO2 als Schadstoff allerdings nicht explizit erwähnt, sondern vielmehr auf ultrafeine Partikel (UFP) und Metallabrieb aus dem Motor hingewiesen, die für die lebensbedrohenden Gesundheitsschäden verantwortlich sein sollen.
Medizin und Umweltschutz haben den technischen Fortschritt übersehen
Wenn nicht NO2 die tödlichen Gesundheitsschäden auslöst sondern ultrafeine Partikel, haben dann Umweltmedizin und Umweltschutz den technischen Fortschritt und neuesten Stand der Forschung übersehen? Dieser Auffassung ist Dr. Heinz Fuchsig, Arbeitsmediziner und Umweltreferent der Tiroler und Österreichischen Ärztekammer. In der aktuellen Ausgabe der ASU – Zeitschrift für Prävention fasst er die aktuellen Kenntnisse zusammen. Fuchsig erklärt darin, dass durch technische Weiterentwicklung und Erhöhung des Motorendrucks die erzeugten Partikel in den letzten Jahrzehnten immer kleiner geworden sind. Diese „neuen“, ultrafeinen Partikel seien bei aktuelleren Vermessungen nicht erfasst und in der medizinischen Forschung daher schlicht übersehen worden. Aber auch das Verkennen von Emissionen durch mechanischen Motorenabrieb oder die starke Emissionserhöhung infolge der Schwefelentfernung aus Schiffsdiesel hätten zu der „Täuschung“ beigetragen, NO2 sei der gesundheitsschädigende Übeltäter statt ultrafeine Partikel.
Die Lösung: Partikelfilter müssen unbedingt nachgerüstet werden
In der weiteren Dieseldebatte muss unbedingt diesen ultrafeinen Partikeln die Hauptaufmerksamkeit gelten, so Heinz Fuchsig. Eine Nachrüstung großer Schwerfahrzeuge mit entsprechenden Filtern wäre daher wesentlich wichtiger als die Nachrüstung von PKWs mit Hardware zur Verminderung der weniger relevanten Stickoxide aus Auspuffabgasen. Die Technik ist dabei nicht nur erheblich günstiger, sondern auch wirksamer: Studien ergeben eine Partikel-Reduktion um 99,99%. Die Schweiz hat 95% der öffentlichen Busse mit Filtern nachgerüstet und kann dadurch einen Grenzwert von 12 Mikrogramm pro Kubikmeter Luft vermutlich bald einhalten. In Deutschland werden währenddessen doppelt so hohe Grenzwerte sogar überschritten. Notwendig wird auch ein zielgerichtetes Handeln in der Politik, sei es durch steuerliche Vergünstigungen nachgerüsteter Fahrzeuge, die Förderung von Elektromobilität oder das Schaffen höherer Anreize, ein autofreies Leben zu führen – zum Schutz der Gesundheit in der Bevölkerung.
Mehr zu diesem Thema erfahren Sie im Beitrag „Dieselskandal: Sind Stickoxide das geringere Übel?“ von Dr. Heinz Fuchsig in der aktuellen Ausgabe der Zeitschrift Arbeitsmedizin | Sozialmedizin | Umweltmedizin (ASU) unter: https://www.asu-arbeitsmedizin.com/Archiv/ASU-Heftarchiv/article-831861-110576/d…
Fachlicher Kontakt bei Rückfragen:
Alfons W. Gentner Verlag GmbH & Co. KG
Dr. med. Annegret Schoeller
Forststr. 131 • 70193 Stuttgart
Tel. 0711/63 672-896 • Fax 0711/63 672-711
E-Mail: schoeller@asu-arbeitsmedizin.com
Web: http://www.gentner.de
Über ASU – Zeitschrift für medizinische Prävention:
Die Zeitschrift Arbeitsmedizin Sozialmedizin Umweltmedizin ist das Leitmedium der deutschsprachigen Arbeitsmedizin. Das Publikationsorgan der Fachinstitutionen DGAUM, ÖGA, SGARM, VDBW, Vereinigung Deutscher Staatlicher Gewerbeärzte e.V. sowie der arbeitsmedizinischen Akademien und richtet sich an Betriebsärzte, Arbeitsmediziner und Akteure in wichtigen Schnittstellenbereichen zur Arbeitsmedizin. Die Zeitschrift ist peer reviewed. 1965 gegründet, erscheint ASU monatlich und erreicht nahezu alle arbeits- und präventionsmedizinisch orientierten Akteure im deutschsprachigen Raum. Weitere Informationen unter http://www.asu-arbeitsmedizin.com.
Kontakt DGAUM:
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Hauptgeschäftsführer: Dr. Thomas Nesseler
Presse: Berit Kramer
Schwanthaler Str. 73 b • 80336 München
Tel. 089/330 396-0 • Fax 089/330 396-13
E-Mail: gs@dgaum.de
Web: http://www.dgaum.de
Über DGAUM:
Die DGAUM wurde 1962 gegründet und ist eine gemeinnützige, wissenschaftlich-medizinische Fachgesellschaft der Arbeitsmedizin und der klinisch orientierten Umweltmedizin. Ihr gehören heute über 1000 Mitglieder an, die auf dem Gebiet der Arbeitsmedizin und Umweltmedizin arbeiten, vor allem Ärztinnen und Ärzte, aber auch Angehörige anderer Berufsgruppen wie etwa Natur- und Sozialwissenschaftlerinnen und -wissenschaftler. Die Mitglieder der Fachgesellschaft engagieren sich nicht nur in Wissenschaft und Forschung, um so bereits bestehende Konzepte für die Prävention, die Diagnostik und Therapie kontinuierlich zu verbessern, sondern sie übernehmen die ärztliche und medizinische Beratung von Arbeitgebern und Arbeitnehmern an der Schnittstelle von Individuum und Unternehmen. Darüber hinaus beraten die Mitglieder der DGAUM alle Akteure, die ihren Beitrag zu der medizinischen Versorgung leisten und auf Fachwissen aus der betrieblichen Gesundheitsförderung und Prävention, der arbeits- und umweltbezogenen Diagnostik und Therapie, der Beschäftigungsfähigkeit fördernden Rehabilitation sowie aus dem versicherungsmedizinischen Kontext angewiesen sind. Weitere Informationen unter http://www.dgaum.de.
Quelle: idw
Warum macht Lesen kurzsichtig? Aktuell in Scientific Reports veröffentlicht
Bianca Hermle Kommunikation und Medien
Universitätsklinikum Tübingen
Andrea C. Aleman, Min Wang und Frank Schaeffel haben einen unerwarteten Grund gefunden, warum Lesen kurzsichtig machen könnte. Die Wissenschaftler des Forschungsinstituts für Augenheilkunde am Universitätsklinikum Tübingen leiten eine überraschend einfache Strategie gegen die Entwicklung einer Myopie ab. Heute haben sie dazu in Scientific Reports Nature publiziert.
Etwa die Hälfte der Abiturienten in Deutschland ist kurzsichtig. Bei Kurzsichtigkeit (Myopie) wächst das Auge zu lang, das Bild wird vor der Netzhaut scharf abgebildet und man sieht in der Ferne unscharf. Kurzsichtigkeit ist der Preis für gute Ausbildung: pro Jahr Ausbildung wird man im Mittel etwa eine Viertel-Dioptrie kurzsichtiger. Weltweit nimmt die Myopie zu, denn gute Ausbildung ist immer wichtiger.
Kinder, die viel Zeit im Freien bei Tageslicht verbracht haben, werden später kurzsichtig. Spätestens jedoch, wenn sie im Laufe ihrer Ausbildung viel Lesen, steigt das Risiko eine Myopie zu entwickeln. Was genau in der Schule beim Lesen kurzsichtig macht, ist immer noch nicht klar erforscht. Lange wurde angenommen, dass zu wenig Akkommodation beim Lesen das scharfe Bild etwas hinter die Netzhaut verlegt, was die Netzhaut veranlasst, das Auge schneller wachsen zu lassen. Diese Daten waren aber nie vollständig überzeugend. Andrea C. Aleman, Min Wang und Frank Schaeffel vom Forschungsinstitut für Augenheilkunde am Universitätsklinikum Tübingen haben nun einen unerwarteten Grund gefunden, warum Lesen kurzsichtig machen könnte.
Anders als eine Digitalkamera, die jeden Pixel ausliest, misst die Netzhaut hauptsächlich Unterschiede zwischen benachbarten „Pixeln“, den Photorezeptoren. Dies wird erreicht, in dem Zellen die Helligkeit in der Mitte und der Peripherie ihres lichtempfindlichen Bereiches vergleichen, und nur den Unterschied an das Gehirn weiterleiten. Die Sehinformation wird also massiv reduziert, was notwendig ist, da die Netzhaut zwar über rund 125 Millionen „Pixel“ verfügt, der Sehnerv aber nur über etwa eine Million „Kabel“. Der Sehnerv ist also der Flaschenhals der Informationsübertragung.
In der Netzhaut gibt es Zellen, die bewerten, ob in ihrem lichtempfindlichen Bereich (rezeptiven Feld) die Mitte heller und die Umgebung dunkler ist (ON-Zellen). Andere wiederum bewerten, ob die Mitte dunkler, und die Umgebung heller ist (OFF-Zellen). Während unserer normalen Seherfahrung werden beide Typen ähnlich stark gereizt. Aber wie ist das beim Lesen von Text?
Schaeffel hat eine Software entwickelt, die die Reizstärke für ON und OFF-Zellen in unserer visuellen Welt quantifiziert. Dabei hat sich gezeigt, dass dunkler Text auf hellem Hintergrund hauptsächlich die OFF-Zellen reizt (Abbildung 1A), während heller Text auf dunklem Hintergrund hauptsächlich die ON-Zellen reizt (Abbildung 1B).
Von früheren Experimenten mit Hühnern und Mäusen war bereits bekannt, dass die Stimulation der ON-Zellen das Augenwachstum eher hemmen, Stimulation der OFF-Zellen es aber verstärken kann.
Spielt dieser Mechanismus auch beim Menschen eine Rolle spielt?
Mittels der optischen Kohärenztomographie (OCT) kann im lebenden Auge die Dicke der Gewebsschichten genau vermessen (Mikrometerbereich) werden. Bei Hühnern, verschiedenen Affenarten und bei Kindern wurde bereits erforscht, dass die Veränderung der Dicke der Aderhaut, das ist die Schicht hinter der Netzhaut, vorhersagt, wie das Auge in nächster Zeit wachsen wird. Wird die Aderhaut dünner, weist das auf die Entwicklung einer Myopie hin, wird sie dicker, bleibt das Augenwachstum gehemmt, es entwickelt sich keine Myopie.
Alleman, Wang und Schaeffel haben Probanden dunklen Text auf hellem Hintergrund lesen lassen sowie hellen Text auf dunklem Hintergrund. Bereits nach 30 Minuten konnten sie messen, dass die Aderhaut dünner wurde, wenn schwarzer Text gelesen wurde, und dicker, wenn Text mit umgekehrtem Kontrast gelesen wurde (Abbildung 2).
Dies lässt erwarten, dass schwarzer Text auf hellem Hintergrund die Myopieentwicklung fördert, und heller Text auf dunklem Hintergrund die Myopie hemmt. Den Textkontrast umzukehren, wäre deshalb eine einfach umzusetzende Maßnahme, die Myopieentwicklung aufzuhalten, denn immer mehr Zeit wird beim Arbeiten und Lesen an Computerbildschirmen und Tablets verbracht.
Diese Strategie gegen die Entwicklung von Kurzsichtigkeit muss noch verifiziert werden. Dazu haben die Tübinger Wissenschaftler bereits eine Studie mit Schulkindern geplant. Ihre aktuelle Untersuchung zeigt aber bereits im Experiment, dass die Aderhautdicke sich in beide Richtungen ändern kann, nur durch Lesen mit verschiedenem Textkontrast.
Wissenschaftliche Ansprechpartner:
Universitätsklinikum Tübingen
Forschungsinstitut für Augenheilkunde
Professor Frank Schaeffel
Elfriede-Aulhorn-Str. 7, 72076 Tübingen
Tel. 07071 29-80739
E-Mail frank.schaeffel@uni-tuebingen.de
Originalpublikation:
http://www.nature.com/articles/s41598-018-28904-x
Reading and Myopia: Contrast Polarity Matters. Andrea C. Aleman, Min Wang & Frank Schaeffel. Scientific Reports volume 8, Article number: 10840 (2018)
DOI:10.1038/s41598-018-28904-x
Quelle: idw
Spurenschadstoffe im Wasser: Welche Klärtechniken Fischen helfen
Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen
Forschungsteam der Universität Tübingen untersucht, wie Abwasserreinigungsanlagen zum Schutz der Wasserlebewesen aufgerüstet werden sollten
Schadstoffe in Flüssen und Seen können selbst in kleinen Spuren eine Gefahr für Wasserorganismen darstellen. Diese Umweltproblematik ist im vergangenen Jahrzehnt stärker ins Bewusstsein der Öffentlichkeit gelangt. Zu den Spurenschadstoffen zählen Rückstände aus im täglichen Leben eingesetzten Chemikalien wie zum Beispiel aus Spültabs, Waschmitteln oder Duschgels ebenso wie aus Medikamenten, Kosmetika oder Pflanzenschutzmitteln. Die Stoffe gelangen über häusliche Abwässer in Kläranlagen, wo sie durch konventionelle Reinigungsmethoden vielfach nicht vollständig zurückgehalten oder abgebaut werden können. Über das gereinigte Abwasser werden sie deshalb in unsere Gewässer eingetragen. Unter der Leitung von Professorin Rita Triebskorn hat eine Gruppe von Wissenschaftlerinnen und Wissenschaftlern vom Institut für Evolution und Ökologie der Universität Tübingen untersucht, welche Auswirkungen verschiedene Klärtechnologien auf die Gesundheit von Fischen haben. Sie kommen zu dem Ergebnis, dass in Abhängigkeit von der Zusammensetzung des Abwassers im Einzelfall entschieden werden sollte, mit welchen Reinigungstechniken Wasserorganismen nachhaltig geschützt werden können. Ihre Studie wurde im Fachjournal Environmental Sciences Europe veröffentlicht.
In konventionellen Kläranlagen durchläuft das Abwasser aus privaten Haushalten und der Industrie mechanische, biologische und chemische Reinigungsstufen. Seit einigen Jahren werden zunehmend zusätzliche Reinigungstechnologien zum Beispiel auf der Basis von Aktivkohle oder Ozonierung als vierter Reinigungsstufe eingesetzt. „Im Rahmen einer Untersuchung am Bodensee konnten wir zeigen, dass sich durch eine zusätzliche Aktivkohlestufe Spurenstoffe effizient entnehmen lassen und dass sich die Gesundheit der Gewässerorganismen im Vorfluter dadurch deutlich verbesserte“, sagt Rita Triebskorn. „Doch bisher gibt es leider immer noch relativ wenige Studien dazu, wie sich die Spurenstoffelimination langfristig auf Gewässerökosysteme auswirkt.“
Standardisierte Versuchsbedingungen
In ihre vergleichende Untersuchung bezogen die Forscher drei konventionelle Kläranlagen ein, von denen eine, das Klärwerk Langwiese auf der Gemarkung Ravensburg, im Studienverlauf zusätzlich mit einer Aktivkohlefilteranlage ausgerüstet wurde. Sie setzten jeweils ober- und unterhalb der Ein-leitungsstelle der Kläranlage Käfige mit Regenbogenforellen ins Wasser. „Gegenüber der Untersuchung von Wildfischen hat das den Vorteil, dass wir viele Eigenschaften der Fische, wie Alter, Ernährung und Entwicklungsstand, standardisieren können. So lassen sich etwaige Effekte auf die Gesundheit der Tiere klarer erkennen“, sagt die Erstautorin der Studie Sabrina Wilhelm aus dem Forschungsteam. Sie untersuchte mit etablierten Verfahren zum einen, ob die Zellkerne der Regenbogenforellen vermehrt gentoxische Veränderungen aufwiesen. Zum anderen wurde anhand bestimmter Leberwerte der Fische gemessen, ob sie verstärkt Entgiftungsprozesse zum Ab- und Um-bau von Spurenstoffen einsetzen mussten.
Von Fall zu Fall entscheiden
„Während wir bei einer der konventionellen Kläranlagen keine negativen Auswirkungen von Spurenschadstoffen auf die Gesundheit der Fische feststellen konnten, waren die kritischen Leberwerte bei den Regenbogenforellen unterhalb der zweiten konventionellen Anlage stark erhöht“, fasst Sabrina Wilhelm die Ergebnisse zusammen. „Auch beim Klärwerk Langwiese haben wir vor der Aufrüstung solche negativen Effekte gemessen.“ Hier habe die Ausstattung der Anlage mit dem zusätzlichen Aktivkohlefilter sowohl die fraglichen Leberwerte der Fische als auch gentoxische Effekte deutlich reduziert.
„Die Investitionen in moderne Klärtechniken kommen dem Wasserökosystem vor allem dann zugute, wenn konventionelle Technologien die Schadstoffe nicht ausreichend entfernen“, sagt Rita Triebskorn. „Je nach Zusammensetzung des Abwassers lassen sich jedoch negative Einflüsse auf Wasserlebewesen auch durch eine optimierte konventionelle Reinigung reduzieren.“ Unter dem Strich lohne es, in gute Abwasserreinigung zu investieren, um unsere Umwelt nachhaltig zu schützen.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Rita Triebskorn
Universität Tübingen
Institut für Evolution und Ökologie
Telefon +49 7071 29-78892
rita.triebskorn@uni-tuebingen.de
Originalpublikation:
Sabrina Wilhelm, Stefanie Jacob, Michael Ziegler, Heinz-R. Köhler, Rita Triebskorn: Which kind of wastewater treatment do we need to avoid genotoxicity and dioxin-like toxicity in effluent-exposed fish?. Environmental Sciences Europe, https://doi.org/10.1186/s12302-018-0154-0.
Quelle: idw
Studien belegen: Migränepatienten besitzen erhöhtes Risiko für Gefäßkrankheiten
Pressesprecher: Prof. Dr. Hans-Christoph Diener Pressestelle der DGN
Deutsche Gesellschaft für Neurologie e.V.
Menschen mit Migräne besitzen ein erhöhtes Risiko für Gefäßerkrankungen. „Zwei große aktuelle Studien aus den USA und aus Dänemark zeigen, dass Migränepatienten etwas häufiger Herzinfarkte, Schlaganfälle und venöse Thrombosen erleiden“, so Privatdozent Dr. med. Charly Gaul, Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG). „Zwar ist die Sterblichkeit von Menschen mit Migräne insgesamt nicht höher als in der Allgemeinbevölkerung. Ärzte, die Migränepatienten behandeln, sollten sich des Risikos aber bewusst sein“, sagt Prof. Dr. Hans-Christoph Diener von der Deutschen Gesellschaft für Neurologie (DGN).
Menschen mit Migräne besitzen ein erhöhtes Risiko für Gefäßerkrankungen. „Zwei große aktuelle Studien aus den USA und aus Dänemark zeigen, dass Migränepatienten etwas häufiger Herzinfarkte, Schlaganfälle und venöse Thrombosen erleiden“, so Privatdozent Dr. med. Charly Gaul, Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG). „Zwar ist die Sterblichkeit von Menschen mit Migräne insgesamt nicht höher als in der Allgemeinbevölkerung. Ärzte, die Migränepatienten behandeln, sollten sich des Risikos aber bewusst sein“, sagt Prof. Dr. Hans-Christoph Diener von der Deutschen Gesellschaft für Neurologie (DGN). Er rät dazu, insbesondere Frauen mit häufiger Migräne mit Aura auf Risikofaktoren für Herz-Kreislauf-Erkrankungen zu untersuchen und diese dann proaktiv zu behandeln.
Etwa ein Fünftel aller Frauen und acht Prozent der Männer sind von Migräne betroffen, berichten DGN und DMKG in ihrer aktuellen medizinischen Leitlinie, die Ende April erschienen ist. Damit ist Migräne die häufigste neurologische Erkrankung in Deutschland. Heftige, häufig einseitige Kopfschmerzen, die mit Appetitlosigkeit, Übelkeit und Erbrechen einhergehen, zählen zu den typischen Merkmalen der Kopfschmerzerkrankung. Für die Behandlung und Vorbeugung von Migräneattacken steht zwar eine Vielzahl von Arzneien zur Verfügung, doch ein erheblicher Anteil der Migränepatienten wird nicht oder nicht ausreichend behandelt, wie eine Repräsentativbefragung der DMKG belegt.
Die klinische Wissenschaft stellt sich in jüngerer Zeit die Frage, ob Menschen mit Migräne häufiger von zerebro- und kardiovaskulären Ereignissen betroffen sind als andere. Hinweise darauf hatten in den vergangenen Jahren mehrere Untersuchungen an ausgewählten Bevölkerungsgruppen ergeben, die nun gleich durch zwei große Studien bestätigt werden.
Vergleichsstudien mit 450.000 Patienten
„Die größte bisher publizierte Metaanalyse zum Zusammenhang zwischen zerebro- und kardiovaskulären Erkrankungen mit Migräne stützt sich auf die Daten von 16 Studien“, erläutert DMKG-Generalsekretär Gaul. Eingeschlossen wurden annähernd 400.000 Migränepatienten und ca. 750.000 nicht Betroffene als Kontrolle. Nimmt man alle vaskulären Ereignisse zusammen, so war das Risiko der Migränepatienten um 42 Prozent erhöht, für den Schlaganfall um 41 Prozent und für Herzinfarkte um 23 Prozent. Dabei war das Risiko unter den verschiedenen Formen der Migräne ungleich verteilt: Jenes Drittel der Patienten, die bei ihren Anfällen eine Aura erleben – das sind Sehstörungen wie flimmernde Blitze oder Gesichtsfeldausfälle -, hatte ein um 56 Prozent höheres Risiko für Schlaganfälle. Und während die Sterblichkeit an Krankheiten aller Art in der gesamten Gruppe nicht höher war als bei den Kontrollen, galt dies nicht für die Migräne mit Aura. Die Gesamtsterblichkeit dieser Patienten war um 20 Prozent erhöht.
Zu ganz ähnlichen Ergebnissen kommt eine Studie aus Dänemark, wo man die Daten aller mehr als 50.000 Patienten im Land über einen Zeitraum von bis zu 19 Jahren mit denen von 500.000 Kontrollen verglichen hat.
Keine Sorge, aber Vorsicht
„Von dem erhöhten Risiko sollten Patienten sich nicht verängstigen lassen, denn die absolute Zahl der Ereignisse ist relativ gering“, so Diener, der zusammen mit Gaul und dessen Kollegen Peter Kropp auch die aktuelle Migräne-Leitlinie koordiniert hat. Eine Gruppe von Patienten erfordere jedoch besondere Aufmerksamkeit, wie sich aus den Studiendaten ergibt: „Frauen mit häufigen Migräneattacken mit Aura sollten nach ihren vaskulären Risikofaktoren befragt und diese dann konsequent behandelt werden. Von besonderer Bedeutung sind hier das Rauchen und die orale hormonelle Kontrazeption.“ Die Frage, ob durch eine wirksame Behandlung der Migräne auch das Risiko für vaskuläre Ereignisse gesenkt werden kann, ist noch nicht beantwortet. „Um dies nachzuweisen, müssten Studien mit einer Beobachtungszeit von mehr als zehn Jahren durchgeführt werden“, so Gaul.
Quellen
Mahmoud AN et al.: Migraine and the risk of cardiovascular and cerebrovascular events: a meta-analysis of 16 cohort studies including 1 152 407 subjects. BMJ Open. 2018 Mar 27;8(3):e020498. doi: 10.1136/bmjopen-2017-020498.
Adelborg K et al.: Migraine and risk of cardiovascular diseases: Danish population based matched cohort study. BMJ. 2018 Jan 31;360:k96. doi: 10.1136/bmj.k96.
Therapie der Migräneattacke und Prophylaxe der Migräne. Leitlinie der Deutschen Gesellschaft für Neurologie (DGN) in Zusammenarbeit mit der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG), 26. April 2018. Online.
Neue Migräne-Leitlinie veröffentlicht: Patienten in Deutschland müssen besser versorgt werden. Pressemitteilung der Deutschen Gesellschaft für Neurologie (DGN), 26. April 2018. Online.
Gemeinsame Presseinformation der Deutschen Gesellschaft für Neurologie (DGN) und der Deutschen Migräne- und Kopfschmerzgesellschaft (DMKG)
Fachlicher Kontakt bei Rückfragen
Priv.-Doz. Dr. med. Charly Gaul
Generalsekretär der Deutschen Migräne- und Kopfschmerzgesellschaft
Migräne- und Kopfschmerzklinik Königstein
Ölmühlweg 31, 61462 Königstein im Taunus
Tel.: +49 (0)6174-29040, E-Mail: , www.dmkg.de
Prof. Dr. Hans-Christoph Diener
Seniorprofessor für klinische Neurowissenschaften
Klinik für Neurologie, Universitätsklinikum Essen,
Universität Duisburg-Essen
Tel.: +49 (0)201 723 6540, E-Mail:
Pressestelle der Deutschen Gesellschaft für Neurologie
c/o albertZWEI media GmbH, Oettingenstraße 25, 80538 München
Tel.: +49 (0)89 46148622, E-Mail:
Weitere Informationen:
https://www.dgn.org/presse/pressemitteilungen/56-pressemitteilung-2018/3626-stud…
Anhang
Pressemitteilung als PDF
https://idw-online.de/de/attachment66040
Quelle: idw
Neues Standardwerk zu Energietechnologien in Deutschland
Christin Hasken Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie gGmbH
Technologieberichte bilden Grundlage für 7. Energieforschungsprogramm
Im Herbst wird das neue 7. Energieforschungsprogramm (EFP) der Bundesregierung verabschiedet. Das Leitprojekt „Trends und Perspektiven der Energieforschung“, Teilvorhaben: „Technologien für die Energiewende“ – kurz TF_Energiewende – liefert eine wesentliche wissenschaftliche Basis für die Entwicklung des Programms. Das Projekt führte das Wuppertal Institut federführend mit 12 weiteren renommierten Forschungseinrichtungen durch. Nun liegen die Ergebnisse öffentlich zugänglich vor: Sie geben einen umfassenden Überblick zum Innovations- und Marktpotenzial der einzelnen Energietechnologien, bewerten Chancen und Risiken sowie den möglichen Beitrag zur Umsetzung der Energiewende und zeigen den Forschungs- und Entwicklungsbedarf. Zwei umfangreiche Bände mit 31 einzelnen Technologieberichten, ein zusammenfassender Bericht sowie ein Methodikband wurden jetzt offiziell an den parlamentarischen Staatssekretär Thomas Bareiß des Bundesministeriums für Wirtschaft und Energie (BMWi) überreicht.
Technologische Innovationen sind ein Schlüssel für den Erfolg der Energiewende. Nachhaltige Energietechnologien zu erforschen und zur Marktreife zu entwickeln ist das Ziel der Energieforschung. Nur durch beständige Forschung und Entwicklung neuer Technologien ist es möglich, kontinuierlich eine höhere Energieeffizienz im Energiesystem zu erreichen, erneuerbare Energien noch stärker nutzen zu können, die Systemstabilität aufrechtzuerhalten und zugleich die Kosten zu senken. Energieforschung kann zudem einen wichtigen Beitrag dafür leisten, die Marktposition der deutschen Wirtschaft auf dem Weltmarkt zu festigen. Das Energieforschungsprogramm der Bundesregierung, das gerade überarbeitet wird, bildet hierfür den zentralen Rahmen.
Das Wuppertal Institut liefert federführend mit dem Leitprojekt „Trends und Perspektiven der Energieforschung“, Teilvorhaben: „Technologien für die Energiewende“ – kurz TF_Energiewende – eine zentrale und umfassende wissenschaftliche Grundlage für diesen Prozess. Zu den Verbundpartnern gehören das Fraunhofer-Institut für System- und Innovationsforschung ISI und das Institut für ZukunftsEnergie- und Stoffstromsysteme (IZES); zehn weitere renommierte wissenschaftliche Institute unterstützten das Großprojekt. Das Bundesministerium für Wirtschaft und Energie (BMWi) förderte das Projekt von August 2016 bis April 2018 mit rund 1,3 Millionen Euro.
Detaillierte Bewertung von Energietechnologien
Ein zentrales Ergebnis des Projekts sind 31 Technologieberichte, die auf insgesamt über 1.700 Seiten den aktuellen Wissensstand zusammenfassen. Jeder einzelne Bericht gibt einen Überblick über zentrale Technologien, die nach heutigem Stand für die Energiewende derzeit und künftig einen relevanten Beitrag leisten können. Innerhalb von „TF_Energiewende“ führte das Konsortium eine umfassende multikriterielle Bewertung des Potenzials von Energietechnologien durch. Diese umfasst unter anderem das Innovations- und Marktpotenzial einzelner Energietechnologien sowie die damit verbundenen Chancen und Risiken. „Mit dem Projekt liegt eine umfassende Wissensbasis vor, die eine Einschätzung über die große Bandbreite der heute in der Diskussion befindlichen Energietechnologien ermöglicht. Sie zeigt auf, welchen Beitrag sie zur Umsetzung der Energiewende grundsätzlich leisten können und wo auch noch Technologielücken bestehen, die zukünftig geschlossen werden müssen“, sagt Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts.
Die Technologieberichte geben dem BMWi konkrete Hinweise, die bei der Weiterentwicklung der Energieforschungspolitik und der Vorbereitung des 7. Energieforschungsprogramms (EFP) berücksichtigt werden können. Zusätzlich dienen sie der Wirtschaft als wichtige Grundlage – etwa für die Entscheidung über Entwicklungsschwerpunkte – und sollen Forschungseinrichtungen dabei helfen, Prioritäten bei Forschung und Entwicklung zu formulieren. Zudem unterstützt das neue Technologiekompendium die interessierte Fachöffentlichkeit bei der Meinungsbildung. Damit legen die Verbundpartner ein umfassendes und aktuelles Standardwerk vor. „Die Berichte dienen auch in den kommenden Jahren als umfassendes Nachschlagewerk mit vielfältigen Informationen zu 31 Technologiefeldern des Energiesektors“, erläutert Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut.
Begleitet wurden die Berichte durch eine Innovationslückenanalyse auf Grundlage aktueller sektorübergreifender Zielszenarien für Deutschland und die Welt. Mittels ihrer Hilfe zeigte das Konsortium auf, wo mögliche Forschungslücken bestehen, die sich durch bestehende Kompetenzen, oder aufgrund des erwarteten globalen Potenzials durch noch zu entwickelnde Kompetenzen, füllen lassen.
Die 31 Technologieberichte sind in folgende sechs Kategorien unterteilt:
• Erneuerbare Energien
Einzelberichte zu den Themen Bioenergie, Tiefengeothermie, Photovoltaik, solare Wärme und Kälte, solarthermische Kraftwerke, Windenergie mit Exkurs Meeresenergie und Umweltwärme
• Konventionelle Kraftwerke
Einzelberichte zu zentralen Großkraftwerken und dezentralen Kraftwerken (Brennstoffzellen sowie Motoren und Turbinen), CO2-Abscheidung und Lagerung (Carbon Capture and Storage, CCS) sowie CO2-Nutzung
• Infrastruktur
Einzelberichte zu den Themen Stromtransport und -verteilung, Wärmetransport und -verteilung, Energiespeicher (elektrisch, elektrochemisch sowie thermisch, thermochemisch, mechanisch) sowie Nutzung von Erdgas- und Erdölinfrastrukturen und Raffinerien für strombasierte Brennstoffe
• Sektorenkopplung
Einzelberichte zu den Themen Power-to-Gas (Wasserstoff, Methanisierung chemisch-katalytisch sowie biologische Methanisierung), Power-to-Liquids/Power-to-Chemicals und Verfahren der CO2-Abtrennung aus Faulgasen und Umgebungsluft
• Energie- und ressourceneffiziente Gebäude
Ein Einzelbericht zu den Themen energieeffiziente Gebäude und Gebäudetechnik
• Energie- und Ressourceneffizienz in der Industrie
Einzelberichte zu den Themen energieeffiziente Prozesstechnologien, energieeffiziente Querschnittstechnologien, Technologien zur Abwärmenutzung sowie Low-Carbon- und ressourceneffiziente Industrie
Die Berichte beinhalten zusätzlich eine übergreifende Kategorie mit integrativen Aspekten, die energiewirtschaftliche Themen der Elektromobilität in zwei Einzelbänden für Pkw und leichte Nutzfahrzeuge sowie Hybrid-Oberleitungs-Lkw, Fragen der Digitalisierung, Informations- und Kommunikationstechnologien sowie Entwicklungen im Bereich der Systemintegration, -innovation und -transformation thematisieren.
Die Wissenschaftlerinnen und Wissenschaftler fassten die für die Bewertung genutzten Kriterien in einem gesonderten Bericht zusammen. Ein separater Politikbericht enthält vierseitige Zusammenfassungen zu jedem Technologiebericht sowie eine Kurzdarstellung der Bewertungsmethodik.
Beispiele des Forschungsbedarfs
In der Studie bewertete das Projektkonsortium lang bewährte Energietechnologien und solche, die erst im Zuge der fortschreitenden Energiewende benötigt werden. Die Photovoltaik (PV) ist beispielsweise eine schon seit vielen Jahren zur Stromerzeugung aus Solarenergie etablierte Technik. Die Forschungsförderung des 6. EFP trug dazu bei, die Modulwirkungsgrade kristalliner PV innerhalb von zehn Jahren von 12 bis 17 Prozent auf heute 16 bis 22 Prozent zu erhöhen. Gleichzeitig stieg die Lebensdauer von 20 auf 30 Jahre.
Vielfältigen Entwicklungsbedarf sehen die Forscherinnen und Forscher bei der kristallinen Photovoltaik und der Dünnschicht-Technologie. Beispielsweise müssen die bisher erreichten wesentlich höheren Laborwirkungsgrade in die Praxis übertragen werden. „Weiteren Forschungsbedarf sehen wir unter anderem bei bauwerkintegrierter Photovoltaik, die energieerzeugendes Solarmodul und zugleich Funktions- und Designelement ist“, ergänzt Peter Viebahn.
Ein Beispiel für großen Forschungs- und Entwicklungsbedarf stellt zudem die Sektorenkopplung dar – also die Verknüpfung des Stromsektors mit dem Wärme-, Verkehrs- und Industriesektor. Da die Energiewende bisher hauptsächlich eine sogenannte „Stromwende“ ist und es in den anderen Sektoren bislang nur eine geringe Reduktion der CO2-Emissionen gibt, gehen die Wissenschaftlerinnen und Wissenschaftler in mehreren Technologieberichten auf diesen Handlungsbedarf ein, um die klimaverträgliche Versorgung dieser Sektoren über Stromanwendungen zu ermöglichen.
Konsultationsprozess für das 7. Energieforschungsprogramm der Bundesregierung
Das Teilvorhaben „Technologien für die Energiewende“ des Leitprojekts unterstützte zusammen mit einem weiteren Teilvorhaben namens „Handlungsempfehlungen für die Energieforschungspolitik“, kurz EnFo-2030, unter der Leitung der TU München, den öffentlichen Konsultationsprozess, den das BMWi als federführendes Ministerium der Bundesregierung für die Erarbeitung des 7. EFP bis Ende Januar 2018 durchführte. Der Prozess, der von der Energiewende-Plattform „Forschung und Innovation“ des BMWi begleitet wurde, setzt sich aus Empfehlungen der Forschungsnetzwerke Energie, Onlineumfragen sowie Stellungnahmen von Bundesländern, Verbänden, Unternehmen und Wissenschaftseinrichtungen zusammen. In sieben technologiespezifischen Forschungsnetzwerken – Energiewendebauen, Systemanalyse, Stromnetze, Erneuerbare Energien, Energie in Industrie und Gewerbe, Flexible Energieumwandlung und Bioenergie -, die das BMWi ab 2015 sukzessive initiiert hat, sowie im Rahmen des Statusseminars Brennstoffzelle, haben sich Arbeitsgruppen mit den energiepolitischen und energietechnischen Herausforderungen sowie dem daraus abzuleitenden Forschungsbedarf beschäftigt.
Bildunterschrift:
Übergabe der Technologieberichte „TF_Energiewende“ an den parlamentarischen Staatssekretär Thomas Bareiß des Bundesministeriums für Wirtschaft und Energie durch Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts und Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut sowie die Verbundpartner Prof. Dr. Martin Wietschel des Fraunhofer ISI und M.Sc. Wirtschafts-Ing. Juri Horst der IZES gGmbH.
Ebenfalls anwesend: Vertreter des zweiten Projekts, Dr.-Ing. Christoph Pellinger der Forschungsstelle für Energiewirtschaft FfE und Dipl.-Ing. Patrick Wimmer der TU München.
Quelle: Susanne Eriksson/BMWi
Wissenschaftliche Ansprechpartner:
Prof. Dr.-Ing. Manfred Fischedick, Vizepräsident des Wuppertal Instituts (https://wupperinst.org/c/wi/c/s/cd/5/)
Dr. Peter Viebahn, stellvertretender Leiter der Abteilung Zukünftige Energie- und Mobilitätsstrukturen am Wuppertal Institut (https://wupperinst.org/c/wi/c/s/cd/98/)
Originalpublikation:
Projektwebsite TF_Energiewende
https://wupperinst.org/p/wi/p/s/pd/626/
Technologien für die Energiewende – Kriterienraster
Wuppertal Report Nr. 12
https://wupperinst.org/a/wi/a/s/ad/4380/
Technologien für die Energiewende – Technologiebericht Band 1
Wuppertal Report Nr. 13.1
https://wupperinst.org/a/wi/a/s/ad/4381/
Technologien für die Energiewende – Technologiebericht Band 2
Wuppertal Report Nr. 13.2
https://wupperinst.org/a/wi/a/s/ad/4382/
Technologien für die Energiewende – Politikbericht
Wuppertal Report Nr. 14
https://wupperinst.org/a/wi/a/s/ad/4379/
Weitere Informationen:
https://wupperinst.org/p/wi/p/s/pd/626/ (Projektwebsite TF_Energiewende)
Quelle: idw
Studie: Kein kausaler Zusammenhang zwischen Heirat und Gehalt bei Männern
Melanie Löw Presse- und Öffentlichkeitsarbeit
Technische Universität Kaiserslautern
„Verheiratete Männer haben ein höheres Gehalt.“ – Dieser kausale Zusammenhang wird in den Wirtschafts- und Sozialwissenschaften schon seit Jahrzehnten behauptet; immer wieder belegt durch Studien. Vor allem in den USA ist das nach wie vor ein großes Thema. Zu einem ganz anderen Schluss hingegen kommen zwei Sozialwissenschaftler aus Kaiserslautern und München in ihrer aktuellen Studie. Sie haben Daten von über 4.000 US-amerikanischen Männern ausgewertet und mit neuen Statistikverfahren untersucht. Ihr Fazit: Ein kausaler Zusammenhang zwischen Heirat und hohem Gehalt lässt sich nicht nachweisen. Die Studie wurde in der renommierten Fachzeitschrift „American Sociological Review“ veröffentlicht.
Der Schritt vor den Traualtar lässt das Einkommen von Männern steigen. Zu diesem Fazit sind in den vergangenen Jahrzenten zahlreiche Untersuchungen gekommen. Literatur zu dem Gehaltsunterschied von verheirateten und unverheirateten Männern gibt es reichlich. „Vor allem in den USA ist dazu viel geforscht worden“, sagt Juniorprofessor Dr. Volker Ludwig vom Fachgebiet Angewandte Soziologie an der Technischen Universität Kaiserslautern (TUK). „Es wird dort stärker thematisiert als bei uns in Europa.“ Als ein Grund dafür wurde oftmals aufgeführt, dass sich der Ehemann auf die Karriere konzentriert, während die Frau ihm den Rücken freihält und sich um Haushalt und Erziehung der Kinder kümmert.
Das grundlegende Problem bei solchen Themen sei, so der Professor weiter, ob es wirklich einen kausalen Zusammenhang gebe. „Kann man also wirklich davon ausgehen, dass die Heirat Männer produktiver macht“, sagt er. „Oder ist es vielleicht nicht eher so, dass Männer, die mehr verdienen, eher heiraten.“
Mit dieser Thematik hat sich Ludwig gemeinsam mit seinem Kollegen Professor Dr. Josef Brüderl von Lehrstuhl für Quantitative Ungleichheits- und Familienforschung der Ludwig-Maximilians-Universität (LMU) München in einer aktuellen Studie befasst. Sie haben mit neuen statistischen Verfahren die Daten von über 4.000 US-amerikanischen Männern ausgewertet, die bis zu 33 Jahre lang regelmäßig zu ihrer Lebenssituation befragt worden sind.
„Bei solchen Untersuchungen gibt es immer bestimmte Variablen, die man nicht berücksichtigen kann“, sagt Brüderl. Fachleute sprechen in diesem Zusammenhang von einem Selektionsproblem. Zum Beispiel können Faktoren wie Aussehen, Gesundheit oder Charaktereigenschaften, die wichtig für die Partnerwahl sind, durchaus auch eine Rolle für die berufliche Karriere und das Gehalt spielen. Auch kann es sein, dass Frauen sich auf dem Heiratsmarkt eher für die Männer interessieren, die gut verdienen. „Was ist hierbei auf selektive, was auf kausale Zusammenhänge zurückzuführen“, sagt Brüderl weiter.
In vergangenen Studien wurde die „Selektion von Besserverdienern in die Ehe“, wie es im Fachjargon heißt, nur teilweise berücksichtigt und konnte mit den herkömmlichen Verfahren auch nicht vollständig herausgerechnet werden. Mit neuen statistischen Methoden hingegen konnten die beiden Sozialwissenschaftler nun die Datensätze „bereinigen“. „Wir kommen zu dem Schluss, dass es keinen kausalen Zusammenhang zwischen Lohn und Heirat gibt“, resümiert Ludwig. „Vielmehr spielt die Selektion hierbei eine größere Rolle, als es bislang berücksichtigt worden ist. Nicht die Heirat führt zu höherer Produktivität und damit höheren Löhnen, sondern produktivere, besser verdienende Männer werden eher geheiratet. Was das Gehalt betrifft, lohnt es sich nicht, zu heiraten.“
Mit ihrer Arbeit möchten die beiden Wissenschaftler auch auf einen methodisch bedingten Trugschluss hinweisen, bei dem es sich wahrscheinlich um ein allgemeineres Problem handeln dürfte. „Es gibt zahlreiche Studien, die sich mit den Vorteilen der Ehe befassen“, erläutert der Professor. Beispielsweise haben solche Untersuchungen in der Vergangenheit gezeigt, dass in der Ehe die Lebenszufriedenheit höher ist oder dass Verheiratete länger leben. „Auch bei diesen Fällen müsste überprüft werden, ob es sich wirklich um einen rein kausalen Zusammenhang handelt“, so Brüderl.
Angesichts dieser Ergebnisse stellt sich die Frage, ob dies auch in Europa so gilt. Erste Ergebnisse für Deutschland liegen vor und zeigen, dass auch bei uns die Heirat nicht produktiver macht, sondern besserverdienende Männer eher heiraten. Allerdings ist in Deutschland das Ausmaß der Selektion in die Ehe geringer als in den USA. Gegenwärtig dehnen die beiden Forscher ihre Analyse mit den neuen Verfahren auf weitere europäische Länder aus.
Die Studie wurde in der renommierten Fachzeitschrift „American Sociological Review“ veröffentlicht: „Is There a Male Marital Wage Premium? New Evidence from the United States“
DOI: https://doi.org/10.1177/0003122418784909
http://journals.sagepub.com/doi/10.1177/0003122418784909
Fragen beantworten:
Juniorprof. Dr. Volker Ludwig
TU Kaiserslautern / Fachbereich Sozialwissenschaften
Tel.: 0631-2055786
E-Mail: ludwig@sowi.uni-kl.de
Professor Dr. Josef Brüderl
Ludwig-Maximilians-Universität
Tel.: 0170-6610025
E-Mail: bruederl@lmu.de
Wissenschaftliche Ansprechpartner:
Juniorprof. Dr. Volker Ludwig
TU Kaiserslautern / Fachbereich Sozialwissenschaften
Tel.: 0631-2055786
E-Mail: ludwig@sowi.uni-kl.de
Professor Dr. Josef Brüderl
Ludwig-Maximilians-Universität
Tel.: 0170-6610025
E-Mail: bruederl@lmu.de
Originalpublikation:
American Sociological Review: „Is There a Male Marital Wage Premium? New Evidence from the United States“
DOI: https://doi.org/10.1177/0003122418784909
Quelle: idw
Sicherer Auto fahren ohne Grauen Star: Geringeres Unfallrisiko nach Linsenoperation
Lisa-Marie Ströhlein Pressestelle
Deutsche Ophthalmologische Gesellschaft
Patienten, die einen Grauen Star operieren lassen, haben ein um 9 Prozent geringeres Risiko, als Autofahrer einen schweren Verkehrsunfall zu verursachen. Zu diesem Ergebnis kommt eine aktuelle Studie, die kürzlich im Fachjournal JAMA Ophthalmology erschien. Die DOG – Deutsche Ophthalmologische Gesellschaft weist vor diesem Hintergrund darauf hin, dass schlechtes Sehen das Unfallrisiko im Straßenverkehr erhöhen kann. Vor allem ältere Menschen ab dem 60. Lebensjahr sollten ihre Augen deshalb regelmäßig auf Anzeichen eines Grauen Stars untersuchen und, wenn nötig, operieren lassen.
Die Autoren beobachteten über 500 000 Menschen im durchschnittlichen Alter von 76 Jahren über einen Zeitraum von dreieinhalb Jahren bevor und ein Jahr nachdem sie wegen eines Grauen Stars (Katarakt) operiert wurden. Nach dem Eingriff verzeichneten die Studienautoren 9 Prozent weniger Verkehrsunfälle, die durch ihre Patienten verursacht wurden. Die Autoren notierten nur Unfälle, bei denen der Fahrer mit schweren Verletzungen in der Notaufnahme behandelt werden musste. Nach Schätzung der DOG wechseln deutsche Augenärzte mindestens 800 000 Augenlinsen pro Jahr und verhindern dadurch – glaubt man der Studie – rund 200 schwere Verkehrsunfälle. Professor Dr. med. Bernd Lachenmayr von der Verkehrskommission der DOG und des Berufsverbands der Augenärzte erklärt: „Angesichts der hohen Sterblichkeit und der Tatsache, dass Senioren sich meist nicht vollständig von einem Unfall erholen, ist jede Maßnahme, die das Unfallrisiko verringert, ein Schritt in die richtige Richtung.“
Ab dem 60. Lebensjahr kann die menschliche Augenlinse trüb werden. Bei fast 10 Millionen Menschen in Deutschland schreitet die Trübung so weit voran, dass das Sehen dadurch stark eingeschränkt wird. „Besonders im Straßenverkehr, wo es auf gutes Sehvermögen ankommt, kann der Graue Star zu Unfällen führen“, betont Lachenmayr. Dadurch, dass die Trübung oft schleichend verläuft, merken viele Patienten nicht, dass sie schlechter sehen, ergänzt der Münchener Ophthalmologe: „Viele Betroffene sehen noch ausreichend, um einen Fahreignungstest zu bestehen – aber beim Autofahren können auch kleine Einschränkungen schon zu einem Unfall führen.“ Damit sie nicht unentdeckt in dieser Grauzone bleiben, sollten Menschen ab dem 60. Lebensjahr regelmäßig zur Kontrolluntersuchung beim Augenarzt gehen.
Die Katarakt-Operation ist ein Routineeingriff, der fast immer ohne Komplikationen verläuft. Dabei tauscht der Augenarzt die getrübte Linse gegen eine künstliche Linse aus, mit der der Patient wieder scharf sehen kann. Die Kosten dafür trägt die Krankenkasse.
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 7.200 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste augenärztliche Fachgesellschaft der Welt und die älteste fachärztliche Gesellschaft Deutschlands.
Weitere Informationen:
http://www.dog.org
Quelle: idw
Durchbruch bei industrieller CO2-Nutzung
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Professor Arne Skerra von der Technischen Universität München (TUM) ist es zum ersten Mal gelungen, in einer biotechnischen Reaktion gasförmiges CO2 als einen Grundstoff für die Produktion eines chemischen Massenprodukts zu verwenden. Es handelt sich um Methionin, das als essentielle Aminosäure vor allem in der Tiermast in großem Maßstab eingesetzt wird. Das neu entwickelte enzymatische Verfahren könnte die bisherige petrochemische Produktion ersetzen. Die Ergebnisse wurden nun in der Zeitschrift „Nature Catalysis“ veröffentlicht.
Die heute gängige industrielle Herstellung von Methionin erfolgt in einem 6-stufigen chemischen Prozess aus petrochemischen Ausgangsstoffen, bei der unter anderem hochgiftige Blausäure benötigt wird. Im Rahmen einer Ausschreibung lud das Unternehmen Evonik Industries – einer der weltweit größten Hersteller von Methionin – im Jahr 2013 Hochschulforscherinnen und -forscher ein, neue Verfahren vorzuschlagen, mit dem sich die Substanz gefahrloser herstellen lässt. Im Laufe des bisher verwendeten Prozesses entsteht das technisch unproblematische Zwischenprodukt Methional, das in der Natur als Abbauprodukt von Methionin vorkommt.
„Ausgehend von der Überlegung, dass Methionin in Mikroorganismen von Enzymen unter Abgabe von CO2 zu Methional abgebaut wird, versuchten wir diesen Prozess umzukehren“, erklärt Professor Arne Skerra, Inhaber des Lehrstuhls für Biologische Chemie an der TUM. „Denn jede chemische Reaktion ist im Prinzip umkehrbar, allerdings oft nur unter hohem Einsatz von Energie und Druck.“ Mit diesem Konzept beteiligte sich Skerra an der Ausschreibung. Evonik prämierte die Idee und förderte das Projekt.
Zusammen mit dem Postdoc Lukas Eisoldt begann Skerra, die Rahmenbedingungen für den Herstellungsprozess zu ermitteln und die nötigen Biokatalysatoren (Enzyme) herzustellen. Die Wissenschaftler unternahmen erste Versuche und erprobte, welcher CO2-Druck nötig wäre, um in einem biokatalytischen Prozess Methionin aus Methional herzustellen. Überraschend ergab sich eine unerwartet hohe Ausbeute schon bei relativ niedrigem Druck – etwa entsprechend dem Druck in einem Autoreifen von zirka zwei Bar.
Aufgrund der bereits nach einem Jahr erzielten Erfolge verlängerte Evonik die Förderung, und nun untersuchte das Team, verstärkt durch die Doktorandin Julia Martin, die biochemischen Hintergründe der Reaktion und optimierte mit Hilfe von Protein-Engineering die beteiligten Enzyme.
Effizienter als die Photosynthese
In mehrjähriger Arbeit gelang es schließlich, die Reaktion im Labormaßstab nicht nur bis zu einer Ausbeute von 40 Prozent zu verbessern, sondern auch die theoretischen Hintergründe der biochemischen Abläufe aufzuklären.
„Im Vergleich zur komplexen Photosynthese, in der die Natur ebenfalls auf biokatalytischem Wege CO2 als Baustein in Biomoleküle einbaut, ist unser Verfahren hochelegant und einfach“, berichtet Arne Skerra. „Die Photosynthese verwendet 14 Enzyme und hat eine Ausbeute von nur 20 Prozent, während unsere Methode bloß zwei Enzyme benötigt.“
Das Grundmuster dieser neuartigen biokatalytischen Reaktion kann künftig auch Vorbild für die industrielle Herstellung anderer wertvoller Aminosäuren oder von Vorprodukten für Arzneimittel sein. Das Team von Professor Skerra wird das inzwischen patentierte Verfahren durch Protein-Engineering nun so weit verfeinern, dass es sich für die großtechnische Anwendung eignet.
Damit könnte es zum ersten Mal einen biotechnologischen Herstellungsprozess geben, der gasförmiges CO2 als unmittelbaren chemischen Grundstoff nutzt. Bisher scheiterten Versuche, das klimaschädliche Treibhausgas stofflich zu verwerten, an dem äußerst hohen Energieaufwand, der dazu nötig ist.
Weitere Informationen:
Methionin ist eine Aminosäure, also ein Grundbaustein von Eiweißstoffen, der für viele Lebewesen – vor allem den Menschen – essentiell ist, aber von diesen nicht selbst produziert werden kann. Diese Aminosäure muss deshalb mit der Nahrung aufgenommen werden. Ähnlich wie Mineraldünger das Wachstum von Pflanzen beschleunigt, verbessert Methionin das Wachstum von Masttieren wie etwa Geflügel oder Fisch. Die Jahresproduktion von Methionin beträgt derzeit etwa eine Million Tonnen weltweit.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Arne Skerra
Technische Universität München
Lehrstuhl für Biologische Chemie
Tel.: +49 (0)8161 71-4351
E-Mail: skerra@tum.de
Originalpublikation:
Martin, J., Eisoldt, L. & Skerra, A.: Fixation of gaseous CO2 by reversing a decarboxylase for the biocatalytic synthesis of the essential amino acid L-methionine, Nature Catalysis 1, 555-561, 07/2018. DOI 10.1038/s41929-018-0107-4
Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/detail/article/34836/
Quelle: idw
Forschungsoffensive zu regenerativen Kraftstoffen
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Der von fossilen Kraftstoffen getriebene Verkehr trägt durch den CO2-Ausstoß wesentlich zum Klima-wandel bei. Synthetische Kraftstoffe – „reFuels“ – lassen sich auch aus nicht-fossilen Kohlenstoffquellen wie bio-genen Reststoffen in Kombination mit der direkten Umwandlung von CO2 und erneuerbarem Wasserstoff herstellen. Das KIT will mit Partnern aus der Automobil-, Automobilzuliefer- und Mineralölindustrie und mit Unterstützung der Landesregierung Baden-Württembergs die Chancen, die diese Kraftstoffe für Gesellschaft, Wirtschaft und Umwelt bieten, in einem breit angelegten Programm erforschen. Eine entsprechende Absichtserklärung wurde heute in Stuttgart unterzeichnet.
Beim Projekt „reFuels – Kraftstoffe neu Denken“ sollen Verfahren, mit denen Otto- und Dieselkraftstoffe aus nachhaltig zugänglichen Rohstoffen wie etwa Pflanzenteilen auch in großem Maßstab produziert werden können, betrachtet werden. Untersucht werden soll außerdem, wie sich die regenerativen Kraftstoffe auf den Schadstoffausstoß der bestehenden Flotte und auf die Funktion der Fahrzeuge sowie einzelner Komponenten auswirken. Schließlich wollen die Projektpartner bei Gesellschaft und Verbrauchern schon heute Akzeptanz für die neuartigen Treibstoffe schaffen. All dies haben Landesregierung und KIT heute am Rande des Jahrestreffens des Strategiedialogs „Automobilwirtschaft“ in Stuttgart vereinbart.
„Um die vorgegebenen Klimaziele zu erreichen, benötigen wir einen intelligenten Mix aus unterschiedlichen alternativen Antrieben. Effiziente synthetische Kraftstoffe aus nachhaltigen Quellen können dabei mittel- und langfristig eine mögliche klimaneutrale Perspektive für den Verbrennungsmotor sein“, sagte Ministerpräsident Winfried Kretschmann. „Indem wir nun gemeinsam mit den Partnern aus der Automobil- und Zulieferindustrie, der Mineralölwirtschaft und der Zivilgesellschaft die Forschung dazu intensivieren, gehen wir einen wichtigen Schritt auf dem Weg hin zu klimafreundlicher Mobilität.“
Verkehrsminister Winfried Hermann sagte: „Synthetische Kraftstoffe aus regenerativen Energiequellen könnten in Zukunft einen wichtigen Beitrag zur dringend notwendigen Verringerung des CO2-Ausstoßes im Verkehrssektor darstellen. Nur wenn wir alle Instrumente für den Klimaschutz im Verkehrssektor nutzen, können wir die international vereinbarten Ziele von Paris erreichen. Ich freue mich daher, dass wir mit dem Projekt reFuels die Effizienz solcher Kraftstoffe in Baden-Württemberg weiterentwickeln und sinnvolle Anwendungsbereiche ausloten können.“
„reFuels sind ein wichtiger Schritt hin zum Wirtschaften in einem geschlossenen CO2-Kreislauf“, sagte der Präsident des KIT, Professor Holger Hanselka. „Mit dem Klimawandel geht das KIT nicht nur eines der drängendsten gesellschaftlichen Probleme an. Regenerative Kraftstoffe können entlang der gesamten Wertschöpfungskette zukünftig auch ganz neue Geschäftsfelder eröffnen“, so Hanselka weiter.
„Da Effizienzgewinne bei Benzin- und Dieselmotoren in den vergangenen Jahren durch die Zunahme des Verkehrs ausgeglichen wurden, aber Verbrennungsmotoren bei der Beförderung schwerer Lasten und weiten Strecken auf absehbare Zeit weiter eine wichtige Rolle spielen werden, können umweltfreundliche und motorenverträgliche synthetische Kraftstoffe einen substantiellen Beitrag für einen nachhaltigeren Verkehr leisten“, sagte Professor Thomas Hirth, Vizepräsident des KIT für Innovation und Internationales.
Mit „bioliq“ und dem „Energy Lab 2.0″ verfügt das KIT schon jetzt über zwei Plattformen für die Herstellung von „reFuels“. Für das bioliq-Verfahren, mit dem hochwertige Kraftstoffe aus biogenen Roh- und Reststoffen wie etwa Stroh erzeugt werden können, existiert eine Pilotanlage, die bereits Musterkraftstoffe liefert. Das Energy Lab 2.0, das gerade aufgebaut wird, ist ein Anlagenverbund, der unterschiedliche Technologien zur Erzeugung und Nutzung elektrischer, thermischer und chemischer Energie wie beispielsweise Gasturbinen, Power-to-Methan und Wasserelektrolyse verknüpft und unterschiedliche Kraftstoffkomponenten wie Dieselkraftstoffe oder Jetfuels produzieren kann.
Folgende Partner (in alphabetischer Reihenfolge) haben bereits ihre Mitwirkung an dem Projekt „reFuels“ zugesagt:
AUDI AG, Caterpillar Energy Solutions GmbH (MWM), Daimler AG, Eberspächer GmbH & Co. KG, Freudenberg Sealing Technologies GmbH & Co. KG, KS Kolbenschmidt GmbH, Mahle GmbH, Mann + Hummel GmbH, Dr. Ing. h.c. F. Porsche AG, Robert Bosch GmbH, Rolls-Royce Powersystems AG (MTU) sowie ENBW AG und MiRO GmbH & Co. KG mit Unterstützung des Mineralölwirtschaftsverbandes (MWV).
Weitere Materialien:
Bilder von der Unterzeichnung in Kürze hier: http://www.kit.edu/kit/pi_2018_088_forschungsoffensive-zu-regenerativen-kraftsto…
Weiterer Kontakt:
Dr. Felix Mescoli, Redakteur/Pressereferent, Tel.: +49 721 608-48120, E-Mail: felix.mescoli@kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Anhang
Forschungsoffensive zu regenerativen Kraftstoffen
https://idw-online.de/de/attachment66154
Quelle: idw
Risikofaktor für Darmkrebs entschlüsselt
Dr. Annegret Burkert Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Stoffwechselforschung
Kölner Forscher klären Zusammenhang zwischen Übergewicht und Tumorwachstum auf
Laut Deutschem Krebsforschungszentrum zählt Darmkrebs hierzulande bei Männern zur dritt- und bei Frauen zur zweithäufigsten Tumorerkrankung. Auch bei Neuerkrankungen liegt Deutschland im internationalen Vergleich mit an der Spitze. Dabei scheinen vor allem die Ernährungs- und Lebensgewohnheiten eine grundlegende Rolle zu spielen, denn Übergewichtige haben ein erhöhtes Risiko zu erkranken. Wissenschaftler vom Max-Planck-Institut für Stoffwechselforschung in Köln entschlüsselten nun die detaillierten Zusammenhänge dieses Phänomens und liefern damit die Grundlage für neue Therapieansätze.
„Wenn der Körper immer mehr überschüssiges Fett speichern muss, entsteht im Fettgewebe eine Stressreaktion“, erklärt Forschungsgruppenleiter und Privatdozent Dr. Thomas Wunderlich. Die Stressreaktion alarmiert die körpereigene Immunabwehr, die wiederum im Fettgewebe eine Entzündung auslöst. Anhaltendes Übergewicht versetzt den Körper in Dauerstress und die Entzündung breitet sich über das Blut im ganzen Körper aus. Dies führt letztlich zu einer Umprogrammierung von Zellen der Immunabwehr, die dadurch Krebszellen nicht mehr bekämpfen, sondern ihr Überleben fördern und so das Tumorwachstum unterstützen.
Diese neuen molekularbiologischen Erkenntnisse veröffentlichten die Wissenschaftler kürzlich in der Fachzeitschrift Nature Communications. Erstautorin Dr. Claudia Wunderlich, die einen Großteil der Forschungsarbeit leistete, betont aber: „Nur weil man dick ist, erkrankt man noch lange nicht an Krebs. Doch sollten entartete Zellen im Körper vorhanden sein, begünstigt Übergewicht das Tumorwachstum.“
Die Studie gibt aber nicht nur Aufschluss darüber, wie Übergewicht und Darmkrebs zusammenhängen. „Anhand von Mausmodellen konnten wir spezifische Angriffspunkte für mögliche Therapieansätze beim Menschen herausarbeiten“, erläutert Dr. Claudia Wunderlich. In übergewichtigen Mäusen konnten die Forscher das Erkrankungsrisiko bereits senken. Hierzu eliminierten sie zum einen spezielle Immunzellpopulationen, zum anderen veränderten sie die Genetik der Tiere so, dass bestimmte Immunzellen trotz fettreicher Ernährung nicht mehr umprogrammiert werden konnten. In beiden Fällen schwächte sich die Entzündung ab, entartete Zellen wurden wieder bekämpft und die Darmkrebsentwicklung vermindert.
Wissenschaftliche Ansprechpartner:
Dr. Thomas Wunderlich
Max-Planck-Institut für Stoffwechselforschung, Köln
+49 221 47260 678
thomas.wunderlich@sf.mpg.de
Originalpublikation:Claudia M. Wunderlich, P. Justus Ackermann, Anna Lena Ostermann, Petra Adams-Quack, Merly C. Vogt, My-Ly Tran, Alexei Nikolajev, Ari Waisman, Christoph Garbers, Sebastian Theurich, Jan Mauer, Nadine Hövelmeyer, F. Thomas Wunderlich.
Obesity exacerbates colitis-associated cancer via IL-6-regulated macrophage polarisation and CCL-20/CCR-6-mediated lymphocyte recruitment.
Nature Communications, 2018.
Quelle: idw
Erneuerbarer Kraftstoff aus der Kläranlage
Monika Landgraf Strategische Entwicklung und Kommunikation – Gesamtkommunikation
Karlsruher Institut für Technologie
Einen wichtigen Schritt zu einem geschlossenen Kohlendioxid-Kreislauf gehen die Ausgründung des Karlsruher Instituts für Technologie (KIT) INERATEC und das spanische Energieunternehmen GAS NATURAL FENOSA: Im katalonischen Sabadell haben sie eine Anlage errichtet, die aus klimaschädlichem Kohlendioxid (CO2) und erneuerbarem Wasserstoff synthetisches Erdgas erzeugt. Das Verfahren basiert auf der Herstellung von Wasserstoff durch Elektrolyse und deren Reaktion mit CO2 aus biogenen Quellen – zum Beispiel aus Klärschlamm.
In der Kläranlage der 200.000-Einwohner-Stadt Sabadell im Großraum Barcelona sind die Grundstoffe reichlich vorhanden, wie INERATEC-Geschäftsführer Tim Böltken erläutert. „Der Prozess nutzt Energie aus erneuerbaren Quellen und speichert diesen im chemischen Energieträger Methan. Spanien hat in den vergangenen vier Jahren bereits 40 Prozent seiner Elektrizität aus erneuerbaren Energiequellen – meist Windkraft – erzeugt“, sagt Böltken, Alumnus des KIT. Das Power-to-Gas-Verfahren wandelt nun überschüssigen oder dezentral anfallenden Strom aus erneuerbaren Quellen wie Sonnen- oder Windkraft in Methan um.
Ziel ist, erneuerbare Gase zu produzieren, die mit der bestehenden Erdgasversorgung in Spanien kompatibel sind. Der große Vorteil: Das erneuerbare Gas kann in der bestehenden Gasinfrastruktur gespeichert und in Gebiete in ganz Spanien transportiert werden. Die Gasspeicherkapazität in Spanien beträgt etwa 30 Terawattstunden, was bedeutet, dass der in dortigen Windkraftanlagen erzeugte Strom ein halbes Jahr lang gespeichert werden kann.
Bislang war solch eine dezentrale Produktion nicht wirtschaftlich möglich, weil für das chemische Verfahren normalerweise extrem teure, großtechnische chemische Anlagen nötig sind. Den Ineratec-Gründern gelang der Durchbruch, indem sie eine passende chemische Reaktortechnologie entwickelten, die zum Beispiel in einen Schiffscontainer passt. Die fertig montierten, modularen Kompaktanlagen sind nach dem Baukastensystem konzipiert, sodass sich die Kapazität ganz nach Bedarf erweitern lässt.
Die Pilotanlage in Sabadell soll vorerst 100 Kubikmeter Gas pro Tag produzieren. Sie ist zusätzlich mit einem Katalysator ausgestattet, der vom katalonischen Institut für Energieforschung (IREC) für die Umsetzung von CO2 aus biogenen Quellen entwickelt wurde. Die Anlage ist Teil des spanischen Projekts Synthetic Fuels – Combustibles Sintètics (CoSin), das vom Europäischen Fonds für regionale Entwicklung gefördert wird.
Weiterer Kontakt:
Dr. Felix Mescoli, Redakteur/Pressereferent, Tel.: +49 721 608 48120, E-Mail: felix.mescoli@kit.edu
Details zum KIT-Zentrum Energie: http://www.energie.kit.edu
Als „Die Forschungsuniversität in der Helmholtz-Gemeinschaft“ schafft und vermittelt das KIT Wissen für Gesellschaft und Umwelt. Ziel ist es, zu den globalen Herausforderungen maßgebliche Beiträge in den Feldern Energie, Mobilität und Information zu leisten. Dazu arbeiten rund 9 300 Mitarbeiterinnen und Mitarbeiter auf einer breiten disziplinären Basis in Natur-, Ingenieur-, Wirtschafts- sowie Geistes- und Sozialwissenschaften zusammen. Seine 25 500 Studierenden bereitet das KIT durch ein forschungsorientiertes universitäres Studium auf verantwortungsvolle Aufgaben in Gesellschaft, Wirtschaft und Wissenschaft vor. Die Innovationstätigkeit am KIT schlägt die Brücke zwischen Erkenntnis und Anwendung zum gesellschaftlichen Nutzen, wirtschaftlichen Wohlstand und Erhalt unserer natürlichen Lebensgrundlagen.
Diese Presseinformation ist im Internet abrufbar unter: http://www.sek.kit.edu/presse.php
Wissenschaftliche Ansprechpartner:
felix.mescoli@kit.edu
http://www.energie.kit.edu
http://www.sek.kit.edu/presse.php
Anhang
Erneuerbarer Kraftstoff aus der Kläranlage
https://idw-online.de/de/attachment66095
Quelle: idw
Die richtige Bluthochdruckeinstellung, auch im Urlaub!
Dr. Bettina Albers Geschäftsstelle
Deutsche Hochdruckliga
Eine optimale Blutdruckeinstellung ist wichtig – auch im Urlaub. Eine wichtige Botschaft, denn manche Patienten machen auch einfach „Medikamentenferien“, was regelrecht gefährlich werden kann. Die richtige Bluthochdruckeinstellung ist aber nicht nur eine Frage der inneren Einstellung, sondern auch der Information und Organisation: Was ist bei einem Langstreckenflug zu beachten? Und wie verhält sich der Blutdruck bei hohen Temperaturen? Was muss ich bei der Tabletteneinnahme im Sommer beachten? So kommen Blutdruckpatienten „ohne Druck“ und gesundheitliche Komplikationen durch den Hochsommer und die Feriensaison.
Bei hohen Temperaturen im Sommer ist der Blutdruck in der Regel niedriger als in den Wintermonaten: Die Blutgefäße erweitern sich bei Hitze, es kommt zu vermehrten Verlusten von Kochsalz und Wasser beim Schwitzen und in der Folge fällt der Druck ab. Das kann zur Folge haben, dass bei einigen Patienten die „normale“ Dosis der blutdrucksenkenden Medikamente bei Hitzeperioden zu hoch ist und es unter Umständen zu Schwindel, Müdigkeit und Schwäche kommen kann. Wenn sich eines dieser Symptome bei Hochdruckpatienten im Sommer einstellt, ist die Wahrscheinlichkeit hoch, dass die Blutdruckmedikamente für die Jahreszeit zu stark dosiert sind. „Mit der täglichen Blutdruckmessung haben die Patienten den Werteverlauf im Blick und sehen, wenn der Blutdruck stärker als sonst abgefallen ist, obwohl sie die Medikamente wie gewohnt eingenommen haben. Das ist der Grund, warum wir die tägliche Selbstmessung vor allem in den Sommermonaten empfehlen“, erklärt Professor Bernhard Krämer, Präsident der Deutschen Hochdruckliga e.V. DHL® | Deutsche Gesellschaft für Hypertonie und Prävention. Ist der Blutdruck deutlich niedriger als üblich bei gleicher Medikamenteneinnahme, empfiehlt Prof. Krämer den Gang zum Hausarzt. Der kann dann einen neuen Dosierungsplan für die heißen Tage erstellen. „Patienten sollten es erst gar nicht so weit kommen lassen, dass ihr Blutdruck im Sommer (oder im Urlaub) unter normaler Dosierung zu stark abfällt, dass sich Symptome wie Schwindel entwickeln“, so der Experte. Gerade wenn ein Urlaub in warmen Gefilden geplant ist, sollte das vorab mit dem Hausarzt besprochen werden. „Vor Ort ist es immer schwierig, einen Arzt zu finden, zumal oft auch Verständigungsschwierigkeiten dazu kommen. Außerdem möchte man den Urlaub ja auch genießen und nicht beim Arzt sitzen“. Daher empfiehlt es sich also, vorher mit den Arzt zu sprechen und einen reduzierten Einnahmeplan dabei zu haben, für den Fall, dass der Blutdruck unter der normalen Blutdruckmedikation zu weit abfällt. „Ein Blutdruckmessgerät gehört bei Patienten mit Bluthochdruck sowieso ins Reisegepäck“, so der Experte, „denn Bluthochdruck macht keine Ferien!“
Will man keine gefährlichen Folgekrankheiten wie Schlaganfall oder Herzinfarkt riskieren, muss der Blutdruck ganzjährig gut eingestellt sein. „Die tägliche Kontrollmessung ist dafür wichtig, aber auch die regelmäßige Einnahme der Tabletten, und zwar ohne Pause. Patienten sollten sicherstellen, dass sie ihre Medikamente im Urlaub dabeihaben – und zwar in ausreichender Menge. Wenn´s knapp wird, lieber noch schnell ein Rezept beim Hausarzt anfordern und gut vorbereitet auf die Reise gehen, als dass es einem im Urlaub schlecht geht.
Beim Thema „Langzeitflüge“ muss darüber hinaus beachtet werden, dass es durch die Zeitverschiebung zu Änderungen kommen kann. Grundsätzlich sind alle Flüge, die zu einem Zeitunterschied von bis zu 3 Stunden führen, problemlos, da muss bei der Einnahme nichts geändert werden. Wer seine Blutdruckmedikamente morgens um 9 Uhr einnimmt, kann sie dann auch im Urlaubsziel zur Ortszeit 9 Uhr einnehmen.
Bei Langstreckenflügen, die zu einem Zeitunterschied von mehr als 3 Stunden führen, kommt es darauf an, in welche Richtung man fliegt. Eine Zeitverschiebung von mehr als 3 Stunden bei Flügen in Richtung Osten führt dazu, dass der Reisetag deutlich verkürzt ist. Bleibt man an dem Tag beim normalen Einnahmeschema, kann das zu einer Überdosierung der Medikamente führen, eine Reduktion der Standardmedikation oder Verschiebung des Einnahmezeitpunktes sollte also erwogen werden. Umgekehrt kommt es bei langen Flügen in Richtung Westen zu einer Verlängerung des Tages, die eventuell eine Zusatzdosis notwendig macht. Vor einem Langstreckenflug sollten sich Bluthochdruck-Patienten von ihrem Hausarzt beraten lassen, wie sie während des Flugs und auf der Reise ihre Medikamente einnehmen sollten.
Wichtiger Tipp zum Schluss: Nehmen Sie Ihre Medikamente immer im Handgepäck mit. Denn sollte einmal der Koffer verloren gehen, ist sichergestellt, dass Sie das Wichtigste, Ihre Medikamente, bei sich haben! Da einige Länder restriktive Zoll-Einfuhrbestimmungen haben, empfiehlt es sich auch, eine Bescheinigung des Arztes mitzuführen, die bestätigt, dass die Medikamente für den eigenen Gebrauch sind. Der ADAC bietet ein entsprechendes mehrsprachiges Formular an, dass vorm Urlaub vom Arzt ausgefüllt werden muss, siehe: https://www.adac.de/_mmm/pdf/Formular-Aerztliches-Attest_Texteingabe_290174.pdf
Kontakt/Pressestelle
Dr. Bettina Albers
albers@albersconcept.de
Telefon: 03643/ 776423
Mobile: 0174/ 2165629
Weitere Informationen:
https://www.hochdruckliga.de/
Quelle: idw
Brustimplantate mit Tomaten-DNA fälschungssicher kennzeichnen
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Jahrelang hat ein französisches Unternehmen Brustimplantate aus billigen Industrie-Silikonkomponenten verkauft. Der Skandal, der 2010 erstmals für Schlagzeilen sorgte, beschäftigt bis heute die Gerichte. Ein Forscherteam des Fraunhofer-Instituts für Angewandte Polymerforschung IAP hat jetzt ein Verfahren entwickelt, das derartigen Betrug verhindert. Künftig können Hersteller Implantate fälschungssicher kennzeichnen – mit Hilfe von verkapselter Tomaten-DNA.
Produktfälschungen erweisen sich im Zuge der Globalisierung als wachsendes Problem für Hersteller. Für den Verbraucher wird es riskant, wenn Fälscher sensible Produkte wie Medizintechnik und Medikamente ins Visier nehmen. Die Plagiate sind meist minderwertig und können die Gesundheit der Patienten erheblich beeinträchtigen oder sich sogar als lebensgefährlich erweisen. Dies hat der Skandal um Brustimplantate einer französischen Firma gezeigt, die bei der Herstellung der Implantate nicht zugelassene Silikone zugemischt hatte, um die Produktionskosten zu senken (siehe Kasten »So werden Brustimplantate hergestellt«).
Die unerlaubte Manipulation nachzuweisen, ist nachträglich kaum möglich. Ob minderwertiges Silikon verwendet wurde, lässt sich im Nachhinein nur mit erheblichem analytischen Aufwand aufdecken. »In der Regel kaufen die Fälscher hochwertige Einzelkomponenten von renommierten Lieferanten und strecken diese mit billigem Silikon, das einen Bruchteil des erstklassigen Materials kostet. Der finanzielle Gewinn der Produktpiraten ist immens«, weiß Dr. Joachim Storsberg, Wissenschaftler am Fraunhofer IAP in Potsdam und Gutachter in Gerichtsverfahren, die Brustimplantate betreffen. Eine Methode, die eine nachträgliche Manipulation einer oder mehrerer Komponenten sowohl qualitativ als auch quantitativ nachweist, wäre ideal.
Keine Chance für Produktpiraterie
Ein solches Verfahren haben Storsberg und sein Team – dem unter anderem Marina Volkert von der Beuth Hochschule für Technik Berlin angehört – entwickelt, es ist bereits patentiert. Die Idee: Mithilfe von DNA-Sequenzen könnten Implantate permanent und identitätssicher markiert werden. Hersteller hätten so die Möglichkeit, Produkte fälschungssicher zu kennzeichnen und so für mehr Patientensicherheit zu sorgen. Der Clou: Als Marker nutzen die Forscher Tomaten-DNA, die sich in diversen Experimenten als ideales Markierungsmaterial erwies. »Wir haben aus Tomatenblättern genomische DNA (gDNA) isoliert und in die Silikonmatrix eingebettet. Dabei haben wir zum Herstellen von Brustimplantaten zugelassene Siloxane, Bausteine für Silikonprodukte, verwendet«, erläutert Storsberg. In Modellversuchen konnten die Forscherinnen und Forscher die Temperaturbeständigkeit der extrahierten DNA demonstrieren. Hierfür wurde das Silikon, in dem sich die gDNA befindet, über einen Zeitraum von fünf Stunden bei 150 Grad vulkanisiert, und anschließend per PCR, einer Technik zur Vervielfältigung der DNA, und einem speziellen Analyseverfahren, der Gelelektrophorese, überprüft. Das Ergebnis: Die DNA wurde nicht abgebaut, sie blieb stabil.
»Brustimplantate bestehen aus Komponenten, sprich aus mehreren Silikonpolymeren, die vernetzt werden und ein Gel bilden. Der Hersteller der Komponenten hat nun die Möglichkeit, gleich beim Produktionsprozess die Silikone mit der verkapselten Tomaten-DNA-Sequenz zu markieren. Die eingesetzte DNA sowie deren Konzentration sind nur ihm bekannt. Erst dann werden die Komponenten an den Produzenten des eigentlichen Implantats verkauft. Streckt dieser nun die Komponenten nachträglich mit minderwertigen Materialien oder verwendet er eine niedrigere Konzentration, so lässt sich dies per PCR nachweisen. Das funktioniert im Prinzip wie ein Vaterschaftstest«, führt Storsberg aus. Der Vorteil der Tomaten-DNA: Sie ist quasi kostenlos und eignet sich zum Kennzeichnen vieler polymerbasieren Implantate, also beispielsweise auch zum fälschungssicheren Markieren von Linsenimplantaten.
Die Ergebnisse der IAP-Forscher wurden bereits in der Fachzeitschrift »Plastische Chirurgie« veröffentlicht.
Weitere Informationen:
https://www.fraunhofer.de/de/presse/presseinformationen/2018/august/brustimplant…
Quelle: idw
Designerzellen schlucken das Klimagas CO2
Christina Mühlenkamp Stabsstelle Hochschulkommunikation
Philipps-Universität Marburg
Marburger Forschergruppe erhält 1,5 Millionen Euro der VolkswagenStiftung zur Erforschung neuer CO2-Umwandlungswege
Im Projekt „BRILIANCE“ (BRinging Inorganic carbon to LIfe with Artificial CO2-fixation in a minimal Cell) sollen Designerzellen so umprogrammiert werden, dass sie einen komplett neuen Stoffwechselweg entwickeln, mit dem sie das Klimagas CO2 binden und umwandeln können. Hierfür kooperieren in Marburg am Zentrum für Synthetische Mikrobiologie (Synmikro) die Arbeitsgruppen von Prof. Dr. Roland Lill (Institut für Zytobiologie der Philipps-Universität) und Dr. Tobias Erb (Max-Planck-Institut für terrestrische Mikrobiologie) mit dem J. Craig Venter Institute in den USA. Das Konsortium erhält im Rahmen der Förderlinie „Leben? – Ein neuer Blick der Naturwissenschaften auf die grundlegenden Prinzipien des Lebens“ 1,5 Millionen Euro der VolkswagenStiftung über einen Zeitraum von fünf Jahren.
Der neue Weg der CO2-Umwandlung kann als Alternative zu natürlich entstandenen CO2-Umwandlungswegen dienen, wie sie etwa während der Photosynthese bei Pflanzen vorkommen. Durch die neuen Synthesewege von CO2 sollen organische Verbindungen leicht hergestellt werden können, die wir im täglichen Leben benötigen – etwa für die Produktion von Nahrungsmitteln, Treibstoffen und Pharmazeutika direkt aus CO2. Die fundamentale Eigenschaft des Lebens, unbelebten Kohlenstoff in organische Verbindungen umzuwandeln, soll somit genau erforscht, nachgeahmt und neu erfunden werden.
Insgesamt wurden 95 Anträge bei der VolkswagenStiftung eingereicht. Davon werden nun sieben Projekte mit einer Gesamtsumme von 9,8 Millionen Euro gefördert. Alle geförderten Projekte widmen sich der fundamentalen Frage nach den Grundprinzipien des Lebens. Die wissenschaftlichen Vorhaben haben beispielsweise die Bildung von mehrzelligen Lebewesen aus Einzelzellen oder die Herkunft der ersten Eiweiße in der Zelle zum Thema.
Wissenschaftliche Ansprechpartner:
Prof. Dr. Roland Lill
Institut für Zytobiologie
Fachbereich Medizin
Philipps-Universität Marburg
Tel.: 06421 28-66449
E-Mail: lill@staff.uni-marburg.de
Website: www.uni-marburg.de/fb20/cyto
Dr. Tobias J. Erb
Department für Biochemie & Synthetischer Metabolismus
Max Planck Institut für terrestrische Mikrobiologie
35043 Marburg
Tel.: 06421 178-700
E-Mail: toerb@mpi-marburg.mpg.de
Website: http://www.mpi-marburg.mpg.de/erb
Weitere Informationen:
http://www.volkswagenstiftung.de/leben
Quelle: idw
Erfahrungen mit Essstörungen
Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Die Website www.krankheitserfahrungen.de präsentiert ein neues Modul zum Thema Anorexie und Bulimie
Erfahrungen, Informationen, Unterstützung: Das neue Modul „Essstörungen: Anorexie und Bulimie“ auf der Website www.krankheitserfahrungen.de ist veröffentlicht. Auf der Internetplattform erzählen Menschen von ihrem Leben zwischen Gesundheit und Krankheit. Die verschiedenen Krankheitsbilder und Erfahrungen mit dem Gesundheitssystem werden wissenschaftlich aufbereitet und präsentiert. Im Mittelpunkt stehen die Schilderungen von betroffenen Menschen in Form von Video-, Audio- und Textausschnitten.
Das neue Modul bedeutet für das Projekt ein Jubiläum: Mit der Veröffentlichung ist nun der zehnte Erfahrungsbereich auf der Internetplattform verfügbar. Das Modul berichtet von Erfahrungen mit einer Essstörung – von Betroffenen für Betroffene, Angehörige sowie Professionelle. Beteiligt haben sich 19 Frauen zwischen 18 und 63 Jahren, die zwischen einem Jahr und 40 Jahren mit einer Essstörung leben oder gelebt haben. Zum Zeitpunkt der Interviews waren sie in unterschiedlichen Krankheitsstadien: Einige waren akut betroffen, andere haben die Erkrankung komplett hinter sich gelassen. Die Berichte der Erzählerinnen umfassen unter anderem den Beginn ihrer Essstörung, deren Auswirkungen auf den Alltag sowie verschiedene Erfahrungen mit Hilfsangeboten. Die Nutzerinnen und Nutzer der Website können Ausschnitte zum jeweiligen Thema aus den Interviews anschauen, anhören oder lesen.
Die Internetplattform www.krankheitserfahrungen.de gibt es seit nunmehr acht Jahren. Sie ist ein Projekt der Abteilung Rehabilitationspsychologie und Psychotherapie am Institut für Psychologie der Universität Freiburg und des Instituts für Allgemeinmedizin der Universität Göttingen in Kooperation mit dem Institut für Public Health der Berliner Universitätsmedizin Charité.
Zur Website
www.krankheitserfahrungen.de
Kontakt:
Dr. Lisa Schäfer-Fauth
Institut für Psychologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-3041
lisa.schaefer@psychologie.uni-freiburg.de
Weitere Informationen:
https://www.pr.uni-freiburg.de/pm/2018/erfahrungen-mit-essstoerungen?set_languag…
Quelle: idw
Materialien für eine Nachhaltige Wasserwirtschaft – MachWas-Konferenz in Frankfurt am Main
Dr. Christine Dillmann Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.
Die Fördermaßnahme MachWas des Bundesministeriums für Bildung und Forschung (BMBF) fördert Werkstoff- und Materialentwicklungen, um wirkungsvolle Impulse für eine nachhaltige Wasserwirtschaft durch Minimierung des Wasserverbrauchs, Maximierung der Wasserverfügbarkeit sowie Technologien zur Wasseraufbereitung und -gewinnung zu erzeugen.
Auf der MachWas-Konferenz Ende Mai.2018 in Frankfurt am Main stellten die Verbundprojekte ihre Fortschritte und Ergebnisse vor. Experten aus der Materialforschung für nachhaltige Wasserwirtschaft trafen sich bei dieser öffentlichen Veranstaltung zum Austausch und Diskurs über die neuen Erkenntnisse und Entwicklungen aus den geförderten Projekten.
Zusätzlich lud der MachWas-Marktplatz mit Postern und Exponaten dazu ein, sich weitergehend zu informieren. In ihrem Grußwort betonte MinR’in Liane Horst vom BMBF die Wichtigkeit, im Hinblick auf bestehende Herausforderungen wie z.B. übermäßige Wassernutzung, Schadstoffen und Plastikmüll in Gewässern mit Forschung zu Materialinnovationen für den Einsatz in der Wasserwirtschaft einen Beitrag zum Schutz der wertvollen Ressource Wasser zu leisten.
In MachWas entwickeln Akteure aus Wissenschaft, Wirtschaft und Praxis in 13 Verbundprojekten in vier Themenfeldern technologische Lösungen und neue Materialkonzepte.
Projekte aus dem Themenfeld „Materialien für Membranverfahren“ beschäftigen sich mit Mikro-, Ultra- und Nanofiltration sowie Umkehrosmose, welche sich als Alternativen zu konventionellen Trennverfahren in der Wasserreinigung etablieren konnten und mittlerweile als Schlüsseltechnologien auch für die betriebliche Wasserkreislaufschließung und Wertstoffrückgewinnung gelten.
Das zweite Themenfeld befasst sich mit oxidativen und reduktiven Verfahren, welche auf eine Umwandlung von kritischen Substanzen abzielen. Mittels chemischer Reaktionen sollen diese Substanzen in weniger kritische Substanzen überführt und zum Teil dauerhaft immobilisiert werden. Aufgrund der in Prozess-, Ab- und Grundwasser in der Regel vorhandenen großen Anzahl verschiedener Substanzen ist die Selektivität der oxidativen und reduktiven Verfahren von hoher Bedeutung, um einen gezielten Abbau im Wasser zu ermöglichen.
Das Themenfeld „Adsorptionsmaterialien“ zeigt auf, dass neben der Filtration die Adsorption eine bedeutende Rolle in der Wasserreinigung und -aufbereitung spielt. Besonders die Gewässerbelastung mit organischen, endokrinen und persistenten Stoffen (z. B. Medikamente und deren Metabolite) bereitet zunehmend Besorgnis. Adsorptionsmaterialien können dabei helfen, diese Stoffe zu binden und auf diesem Weg aus dem Wasserkreislauf zu entfernen.
Darüber hinaus werden in einem vierten Themenfeld Materialentwicklungen für weitere Anwendungen in der Wassertechnik gefördert. Fokus dieser Projekte sind die Reduzierung bzw. Entfernung von Mikroplastik in Wasserkreisläufen; Beschichtungen zur Verringerung von Fouling oder Scaling sowie die Umweltverträglichkeit von Hilfsstoffen.
Die in den Projekten angestrebten neuen Materialkonzepte bilden die Grundlage für weitere Fortschritte in der Entwicklung einer modernen und nachhaltigen Wassertechnologie.
Die DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. unterstützt mit dem wissenschaftlichen Begleitvorhaben MachWasPlus die BMBF-Fördermaßnahme durch die fachliche Begleitung und Vernetzung der geförderten Verbundprojekte. Darüber hinaus werden die Verbundprojekte bei der Identifizierung von Anwendungsfeldern und dem Transfer der Ergebnisse über die Wertschöpfungskette Materialien – Wassertechnologie – Anwendungsfelder in die Praxis unterstützt.
Wissenschaftliche Ansprechpartner:
Dr. Thomas Track (thomas.track@dechema.de)
Katja Wendler (katja.wendler@dechema.de)
Alexander Frey (alexander.frey@dechema.de)
Weitere Informationen:
http://www.machwas-material.de – weitere Informationen zum Projekt
Quelle: idw
Nach unten treten: Studie zeigt, wie Mitarbeiter zukünftige Rivalen kleinhalten
Kristina Brümmer Presse- und Öffentlichkeitsarbeit
Kühne Logistics University – Wissenschaftliche Hochschule für Logistik und Unternehmensführung
Wettbewerb unter Kollegen führt nicht immer zu den besten Ergebnissen. Ist das Arbeitsklima zu kompetitiv, beginnt der Konkurrenzkampf unter den Mitarbeitern. Dabei sabotieren sie nicht nur Chefs und Mitarbeiter mit höherem Ansehen und Status, sondern verhindern auch den beruflichen Aufstieg von Kollegen, die sie in Zukunft überflügeln könnten. Zu diesem Ergebnis kommen Wissenschaftler der Kühne Logistics University (KLU) in einer aktuellen Studie.
Es beginnt mit flapsigen Sprüchen, damit, dass man „vergisst“, wichtige Informationen weiter zu geben, und reicht bis zur Sabotage einer Karriere: Social Undermining lautet der Fachbegriff, der ein subtiles negatives Verhalten gegenüber Kollegen beschreibt. In vielen Unternehmen ist dieses Verhalten an der Tagesordnung und schadet auf lange Sicht dem beruflichen Erfolg der Opfer. Bisher ging man davon aus, dass der Konkurrenzkampf vor allem zwischen Kollegen auf der gleichen Hierarchieebene tobt oder sich gegen Mitarbeiter mit höherem Status richtet. Zu Unrecht, wie eine aktuelle Studie zeigt. „Neid und daraus folgendes negatives Verhalten können sich auch auf Personen beziehen, die eigentlich auf einer niedrigeren beruflichen Ebene stehen“, erklären Susan Reh, Christian Tröster und Niels Van Quaquebeke von der KLU. Die Doktorandin hat zusammen mit den beiden Professoren für Leadership and Organizational Behavior Vergleichsprozesse in Unternehmen und daraus resultierendes Verhalten untersucht. Für ihre Studie haben sie verschiedene Experimente durchgeführt.
„Wenn ich sehe, dass ein Kollege sich in der Vergangenheit besonders schnell beruflich entwickelt hat, nehme ich an, dass er das auch in Zukunft tun wird und mir damit meine Position streitig machen könnte.“ Grund genug für manche Mitarbeiter, den aufstrebenden Kollegen auf subtile Art zu sabotieren. „Aus Angst um meine eigene Position versuche ich, die Weiterentwicklung des anderen zu behindern“, fasst Tröster das Phänomen zusammen.
Dieses Verhalten lässt sich nicht nur in bestehenden Teams beobachten. Es kann sogar Auswirkungen auf die Auswahl neuer Mitarbeiter haben. „Ein Vorgesetzter, der auf seinem Gebiet sehr gut ist, erwartet auch viel von seinen Mitarbeitern und wird nur Top-Leute in sein Team holen“, erklärt Van Quaquebeke. „Ein Chef mit geringerem Potential wird dagegen eher Mitarbeiter einstellen, deren Fähigkeiten noch unter seinen eigenen liegen. Aus Angst, von kompetenteren Mitarbeitern überflügelt zu werden, arbeitet er lieber mit einem mittelmäßigen Team.“
Besonders häufig kommen die Sabotageversuche laut den Wissenschaftlern in Unternehmen mit einem ausgeprägten Wettbewerb unter den Mitarbeitern vor. Der kann zum Beispiel durch leistungsbasierte Bonussysteme angefacht werden. „Wenn alle nur nach dem Bonus schielen, führt das zu Vergleichen, Konkurrenz und Missgunst untereinander. Dann geht es nur noch darum, den eigenen Vorteil zu wahren. Auf Kosten der Kollegen.“ sagt Van Quaquebeke.
Aus ihren Ergebnissen ziehen die Wissenschaftler verschiedene Schlüsse. „Unternehmen sollten gut überlegen, ob und in welcher Form sie Bonussysteme einführen“, gibt Doktorandin Reh zu bedenken. Manager und Personalverantwortliche müssten sich die Frage stellen, wie viel Konkurrenz dem Team gut tut. „Sonst werden die mühsam geförderten High Potentials von den eigenen Kollegen sabotiert und an der Karriere gehindert.“
Auch für Mitarbeiter hat Reh eine Empfehlung: Sich möglichst leistungsstarke Chefs und Kollegen zu suchen. „Auf den ersten Blick scheint es anstrengender zu