Unstatistik des Monats: Lebenselixier Kaffee
Katharina Fischer Kommunikation
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.
Die Unstatistik des Monats November ist die in verschiedenen Medien verbreitete Meldung, Kaffeetrinken befördere ein langes Leben. So titelte beispielsweise das Hamburger Abendblatt am 18. November „Kaffee soll das Leben verlängern“. Auch die Augsburger Allgemeine berichtete am 19. November: „Kaffee verlängert das Leben“.
Das klingt gut in den Ohren leidenschaftlicher Kaffeetrinker. In Wahrheit hatte aber die diesen Meldungen zugrundeliegende, in der Fachzeitschrift „Circulation“ erschienene Studie „Association of Coffee Consumption with Total and Cause-Specific Mortality in Three Large Prospective Cohorts“ nur eine Korrelation notiert, also einen Zusammenfall von Kaffeekonsum und höherer Lebenserwartung. Ein Kausalzusammenhang, dass der Kaffeekonsum ursächlich für die höhere Lebenserwartung ist, wurde jedoch nicht festgestellt: „The association between consumption of caffeinated and decaffeinated coffee and risk of mortality remains inconclusive“ („Der Zusammenhang zwischen Kaffeekonsum und Todesrisiko ist weiter ungeklärt“). Vielleicht verhält es sich ja auch genau umgekehrt: Menschen, die aktiv im Leben stehen und deshalb auch länger leben, trinken gerne Kaffee.
Verschiedene Medien wie der Spiegel wiesen in diesem Kontext auf den zentralen Unterschied zwischen Korrelation und Kausalität ausdrücklich hin. Anderen Medien wie dem Hamburger Abendblatt und der Augsburger Allgemeinen scheint dieser leider immer noch nicht bekannt.
Wie groß wäre denn die Wirkung von Kaffee, wenn diese Korrelation wirklich kausal wäre? Lebt jeder länger, der Kaffee trinkt? Die Größe eines Effekts ist ja entscheidend, nur darüber wurde so gut wie nie berichtet. Die Antwort ist: Im besten Fall würde Kaffeetrinken jedes Jahr das Leben einer von je 1 000 Personen retten. Also vielleicht doch lieber abwarten und Tee trinken?
Ansprechpartner:
Prof. Dr. Walter Krämer, Tel.: 0231-7553125
Weitere Informationen:
http://www.unstatistik.de – Weitere Informationen, Kontakte & Archiv
Anhang
Pressemitteilung im PDF-Format
https://idw-online.de/de/attachment46123
Quelle: idw
Wenn man am Feiertag, am Wochenende und im Urlaub krank wird
Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier
Stark gestresste Menschen klagen am häufigsten über Poststress-Symptome
Gestresste Zeitgenossen kennen das: Endlich Wochenende, Urlaub oder Feiertag, man will sich erholen – und wird krank. Diese Beschwerden nennt man Poststress-Symptome. Besonders typisch sind Infekte, Erschöpfungszustände, Migräne und Rückenschmerzen. Forscher der Universität Trier haben nun erstmals an Patienten mit stressbezogenen Beschwerden untersucht, wie häufig sie über Poststress-Symptome berichten. Dabei kommen sie zu dem Ergebnis, dass stark gestresste und erschöpfte Menschen, die eigentlich Erholung am nötigsten hätten, besonders häufig über Poststress-Symptome klagen. Ein neues Diagnostikverfahren der Trierer Wissenschaftler und entsprechende Maßnahmen können die Beschwerden lindern.
In der Fachzeitschrift „Psychotherapy and Psychosomatics“ schreiben Sandra Waeldin und Kollegen, dass Poststress-Symptome bei gesunden Probanden, die nicht über besondere Stressbelastung klagen, eher selten sind (2,9 Prozent). Demgegenüber findet man bei Patienten, die wegen stressbezogener Beschwerden ihren Hausarzt (20 Prozent) oder eine Fachklinik aufsuchen (34,6 Prozent), eine deutliche Zunahme an Poststress-Symptomen. Je größer die Stressbelastung und die nachfolgende Erschöpfung sind, desto häufiger werden Poststress-Symptome genannt.
An der Universität Trier beschäftigt sich die Arbeitsgruppe um Prof. Dirk Hellhammer seit vielen Jahren mit der Frage, wie es dazu kommen kann, dass gerade in Erholungsphasen psychische und körperliche Beschwerden auftreten. „Stressbelastung mobilisiert besonders stark den Botenstoff Noradrenalin in unserem zentralen und autonomen Nervensystem. Sind die Anforderungen besonders intensiv und dauerhaft, dann übersteigt der Verbrauch an Noradrenalin die Neusynthese. In Ruhephasen wird dann zu wenig Noradrenalin freigesetzt und es kommt zu einer Balancestörung von Funktionen im Nerven- und Immunsystem, welche Poststress-Symptome hervorrufen“, erklärt Professor Hellhammer.
Mit „Neuropattern“, einem neu entwickelten Diagnostikverfahren der Trierer Wissenschaftler, lassen sich solche Fehlregulationen heute zuverlässig messen. Sind derartige Beschwerden nachweisbar, kann eine individualisierte Zusammenstellung von Medikamenten und Nahrungsergänzungsmitteln mit Stress- und Pausenmanagement hilfreich sein.
Die Veröffentlichung ist online verfügbar: http://www.karger.com/Article/Pdf/438866
Kontakt:
Sandra Waeldin
Universität Trier/Abteilung für Biologische und Klinische Psychologie
Mail: waeldin@uni-trier.de
Tel. 0651/201-3211
Quelle: idw
Mondfische in der Ostsee: Anzeiger für einströmendes Nordseewasser
Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Thünen-Institut bittet Fischer und Angler um Meldung exotischer Fische in der Ostsee
Ein neuer Salzwasser-Einstrom hat wieder Mondfische aus dem Kattegat in die westliche Ostsee gespült. Das Auftreten der Exoten fällt damit zum zweiten Mal innerhalb eines Jahres mit einem massiven Einstrom großer Mengen salz- und sauerstoffhaltigen Wassers ins größte Brackwassermeer der Welt zusammen.
Junge Mondfische sind am letzten Wochenende gleich zweimal gesichtet worden. Am Freitag hatte der Fischer Frank Warnke mit dem Kutter SO1 „CHRISTIANE“ ein totes Exemplar in seinem Schleppnetzfang aus der Mecklenburger Bucht. Am Samstag wurde ein Exemplar am Rostocker Strand gefunden. Die Fische sind rund 2 Wochen nach einem starken Salzwasser-Einstrom Mitte November verendet. „Die Tiere wurden wahrscheinlich mit dem Einstromwasser im November aus dem südlichen Kattegat durch den Großen Belt in die Mecklenburger Bucht gespült“, vermutet Dr. Uwe Krumme, stellvertretender Leiter des Thünen-Instituts für Ostseefischerei. „Hier können die Tiere kurze Zeit überleben, aber dann setzen ihnen Nahrungsmangel, verringerter Salzgehalt und die niedrigen Temperaturen zu“.
Der Mondfisch, lateinisch Mola mola, wird auch Klumpfisch genannt und wirkt mit dem hochrückigen und seitlich zusammengedrückten Körper wie ein schwimmender Kopf. Mondfische treiben mit den Strömungen unterhalb der Wasseroberfläche, tauchen aber auch regelmäßig mehrere Hundert Meter in die Tiefe. Mit ihrem schildkrötenartigen Schnabel fressen sie hauptsächlich Flügelschnecken oder Quallen, aber auch Tintenfische und kleinere Fische. Ein Weibchen legt bis zu 300 Millionen Eier. Der Mondfisch ist eigentlich eine Hochseeart, die in allen tropischen und subtropischen Meeren unserer Erde anzutreffen ist. Die Tiere gelangen mit dem Golfstrom auch bis in die Nordsee.
Die Ostsee hängt am Tropf der Nordsee. Durch die Flachwassergebiete des dänischen Insel-Archipels gelangt frisches Salzwasser nur bei seltenen Wetterlagen in die abgeschottete Ostsee. Nur wenn auf eine starke Ostwindphase (Ausstrom) unmittelbar starke Westwindphasen folgen, kann salz- und sauerstoffreiches Frischwasser einströmen. Diese Einstromereignisse belüften die tiefen Becken der Ostsee und versorgen die Bodenlebewesen dort mit dem lebenswichtigen Sauerstoff. Nach Jahren der Stagnation ereignete sich im Dezember 2014 der größte Salzwassereinstrom seit 60 Jahren. Bereits kurz nach Weihnachten 2014 gingen Mondfische Fischern in die Netze und wurden an Stränden gefunden. Der diesjährige November-Einstrom ist laut ersten Abschätzungen des Leibniz-Instituts für Ostseeforschung (IOW) ungefähr halb so stark wie der letztjährige und wird den Zustand der Ostsee weiter verbessern – und wieder treten Mondfische gehäuft auf. Da Mondfische nur träge Schwimmer sind, steht ihr Auftreten in der Ostsee mit dem Transport größerer Wassermassen in Verbindung. Mondfische sind ansonsten im vergangenen Jahr und auch in den Jahren davor nicht vermehrt aufgetreten, sie könnten daher als wichtige Indikatorart für Salzwassereinströme gelten.
Mit knapp 10 kg Gesamtgewicht und 60 cm Durchmesser handelt sich bei den Mondfischen aus diesem Dezember um Jungtiere, denn ein erwachsener Mondfisch kann mehr als 1000 kg auf die Waage bringen und einen Durchmesser von 3 m erreichen. Mondfische sind damit die größten Knochenfische der Welt. Die Fische besitzen ein stark verknorpeltes Skelett als gewichtssparende Anpassung an ein Leben im ozeanischen Freiwasser. Fischereilich sind sie nicht von Bedeutung. Der Einstrom trieb anderen Fischern deutlich schmackhaftere Exoten ins Netz. Dokumentiert ist bisher in der Kieler Förde ein Thunfischartiger, ein polnischer Fischer vor Swinemünde fing einen Schwertfisch.
Das Thünen-Institut für Ostseefischerei ruft Fischer, Angler und Strandbesucher zur Mitarbeit bei dem Nachweis weiterer seltener Fischarten der Ostsee auf. Falls Sie einen Exoten fangen oder finden, wenden Sie sich bitte an das Thünen-Institut für Ostseefischerei, of@ti.bund.de, Telefon 0381 8116-102. Benötigt werden folgende Informationen: Fangort, Fangdatum und Fanggerät sowie am besten der ganze Fisch zur eindeutigen Artbestimmung. „Lagern Sie das Tier nach Möglichkeit kühl“, rät Uwe Krumme. „Unsere Mitarbeiter können die Exemplare nach Rücksprache abholen.“ Fotos sollten eine Größenreferenz enthalten sowie den Fisch von möglichst vielen verschiedenen Perspektiven zeigen.
Quelle: idw
Sport wirkt entzündungshemmend
Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln
Neue Studie belegt: Sport führt zu einem Anstieg von entzündungshemmenden Immunzellen
In einer großangelegten Studie über die Effekte von Sport auf das menschliche Immunsystem haben Forscher der Deutsche Sporthochschule Köln und der Uniklinik Köln (Klinik I für Innere Medizin) gezeigt, dass Sport eine entzündungshemmende Wirkung besitzt.
Die Kölner Forscher konnten nachweisen, dass intensive, regelmäßige sportliche Betätigung zu einem Anstieg von entzündungshemmenden Immunzellen, den sogenannten regulatorischen T-Zellen führt. Im Rahmen der Studie untersuchten sie Blutproben von jungen Eliteathleten – unter anderem auch der deutschen Hockey-Olympiamannschaft – und verglichen diese mit Proben von jungen und gesunden, aber untrainierten Probanden. Die Analyse der Daten ergab, dass die Frequenz der regulatorischen T-Zellen in Abhängigkeit von der körperlichen Fitness der Probanden zunahm. Diese Ergebnisse legen den Schluss nahe, dass körperliche Aktivität durch eine Steigerung regulatorischer T-Zellen entzündungshemmende Effekte erzielt.
Viele Erkrankungen in den Industrieländern, wie z.B. Herz- Kreislauferkrankungen, Krebs und Diabetes, entstehen unter anderem infolge chronischer Entzündungsprozesse. Seit längerem ist bekannt, dass körperliche Inaktivität und Übergewicht chronische Entzündungsprozesse fördern. Ein gesunder Lebensstil mit sportlicher Betätigung wirkt hingegen vorbeugend. Die dem zugrunde liegenden biologischen Mechanismen sind bisher nur teilweise bekannt. Die Forschungsergebnisse der Studie tragen daher entscheidend zum Verständnis der positiven Effekte körperlicher Aktivität für die Gesundheit des Menschen bei.
Die Studie wurde in der Zeitschrift „Journal of Allergy and Clinical Immunology“ veröffentlicht.
Die Daten wurden im Rahmen der vom Deutschen Forschungszentrum für Leistungssport Köln (momentum) durchgeführten Basischecks erhoben.
Kontakt:
Deutsche Sporthochschule
Institut für Kreislaufforschung und Sportmedizin / Abteilung molekulare und zelluläre Sportmedizin
Univ.-Prof. Dr. Wilhelm Bloch
Tel.: 0221/4982-5380
Mail: w.bloch@dshs-koeln.de
Weitere Informationen:
http://www.dshs-koeln.de
Quelle: idw
Gewässer stärker belastet als bislang angenommen
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Gewässer sind Senken und binden daher Schadstoffe besonders gut. Um auch geringe toxische Konzentrationen im Wasser nachzuweisen, sollten Wachstum und Schwimmverhalten von Kleinkrebsen und Mini-Schnecken für eine ökotoxikologische Bewertung hinzugezogen werden. Zu diesem Schluss kommt eine Wissenschaftlerin der TUM, die in Kooperation mit der Universität von Kalifornien in Davis mehrere Studien dazu durchgeführt hat. Sie belegt außerdem, dass es aussagekräftiger ist, mehrere Schadsubstanzen parallel an verschiedenen aquatischen Arten zu überprüfen als nur Einzeltoxizitätstests durchzuführen.
Wenn ein Ruderfusskrebs nicht richtig wächst, kann dies seine Fortpflanzung gefährden. Und wenn er sich nicht normal bewegen kann, flüchtet er nicht vor Feinden oder sich ändernden Temperaturen, was schlussendlich einen tödlichen Ausgang nimmt. Das nennt die Forschung subletale Effekte. Jedoch die gängigen Methoden der Pestizidanalysen und damit verbundene Risikobewertung betrachten weltweit nur die letalen (tödlichen) Effekte. Drei Studien, die in „Ecotoxicology“, „Environmental Science and Pollution Research“ und „Environmental Toxicology and Chemistry“ veröffentlicht wurden, zeigen erstmals die subletalen Effekte an Schwimmverhalten und Wachstum auf, die weit verbreitete Pestizide an den beobachteten Tieren hervorrufen. Die Ergebnisse weisen außerdem daraufhin, dass die Stoffe über Wochen die Unterwasserwelt beeinflussen, selbst wenn sie mit gängigen Methoden schon nicht mehr nachweisbar sind.
Pestizide sind erst im Kombi-Pack besonders toxisch
Weiterer Faktor ist die Mischung der Pestizide: „Wir haben die Insektizide nicht einzeln betrachtet, sondern als Mischung, um die Wechselwirkung untereinander zu untersuchen“, erklärt Erstautorin Dr. Simone Hasenbein. „Außerdem haben wir mehrere Arten in dem belasteten Gewässer beobachtet, auch die weniger gängigen bei solchen Tests wie etwa Mini-Schnecken und Ruderfusskrebse.“
Die Tests fanden über zehn Tage im Labor als auch über sechs Monate im Freiland statt. Für zwölf von 15 kleinen wirbellosen Tierarten und zehn von 16 Krebstierarten wurden schließlich signifikant negative Effekte durch die Kombination der Pestizidbelastung im Wasser festgestellt. „Zusätzlich wurde berücksichtigt, wie lange das Insektizid im Wasser nachgewiesen werden konnte“, erläutert Dr. Hasenbein die Methode – „so war einer der drei Stoffe noch nach sechs Wochen nachweisbar.“
Kombination von Studienreihen liefert eindeutiges Ergebnis
• Die Labortests lieferten einerseits den Hinweis, bei welchen Konzentrationen die Schadstoffe das Wachstum und Schwimmverhalten der Lebewesen beeinflussen.
• Die Freilandstudien konnten die Langzeiteffekte auf ein ganzes Ökosystem, sein Nahrungsnetz und seine Gesellschaftsstrukturen belegen.
Erst in der Kombination aller Ergebnisse können die negativen Effekte auf aquatische Ökosysteme eingeordnet werden. Da die beobachteten Kleinstlebewesen weitaus länger von den Pestiziden beeinflusst werden, als diese Stoffe nachweisbar sind, lässt dies zudem die Folgerung zu, dass die Gewässer weitaus stärker belastet sind, als bislang immer nachgewiesen werden konnte.
Subletale Effekte als Alarmsignale
Ein wichtiger Indikator dafür sind die an Schwimmverhalten, Wachstum oder Gewicht festzustellenden Veränderungen der Tiere, die am Ende zu ihrem Tod führen (subletal). Doch eine dafür gültige Skala, ab welchem Punkt beispielsweise eine Wachstumsverzögerung für das Tier tödlich endet, gibt es bislang nicht. Studienautorin Dr. Hasenbein fordert daher genau das: „Es müssen subletale Endpunkte in die Methoden der Gewässer- und Pestizidüberwachung einfließen, um auch bei niedrigen Pestizidkonzentrationen in Gewässern die langfristigen negativen Auswirkungen auf aquatische Ökosysteme rechtzeitig zu detektieren“, sagt die Wissenschaftlerin.
„Eine Krebs-Population, die einer geringen Schadstoffbelastung ausgesetzt ist, könnte anfälliger sein für invasive Arten, eine sich ändernde Wassertemperatur oder einen anderen Salzgehalt, weil die permanente geringe Pestizidbelastung den Stress der Tiere erhöht.“ Dies ist besonders vor dem Hintergrund des Klimawandels ein wichtiger Aspekt, und sollte daher zukünftig in ökotoxikologischen Bewertungen berücksichtigt werden.
Publikationen:
Hasenbein S, Lawler SP, Geist J, Connon RE.: A long-term assessment of pesticide mixture effects on aquatic invertebrate communities. Environmental Toxicology and Chemistry, 13.11.2015. DOI: 10.1002/etc.3187
http://onlinelibrary.wiley.com/doi/10.1002/etc.3187/full
Hasenbein S, Connon RE, Lawler SP, Geist J.: A comparison of the sublethal and lethal toxicity of four pesticides in Hyalella azteca and Chironomus dilutus, Environmental Science and Pollution Research International, 2015 Aug;22(15):11327-39. doi: 10.1007/s11356-015-4374-1. http://link.springer.com/article/10.1007%2Fs11356-015-4374-1
Hasenbein S, Lawler SP, Geist J, Connon RE: The use of growth and behavioral endpoints to assess the effects of pesticide mixtures upon aquatic organisms. Ecotoxicology 24:746-759, 29.01.2015. DOI: 10.1007/s10646-015-1420-1
http://www.ncbi.nlm.nih.gov/pubmed/25630500
Kontakt:
Dr. Simone Hasenbein
Technische Universität München
Lehrstuhl für Aquatische Systembiologie/
University of California Davis, Dept. of Anatomy, Physiology and Cell Biology
Tel: +1 530 752 3141
E-Mail: shasenbein@ucdavis.edu
Prof. Dr. Jürgen Geist
Lehrstuhl für Aquatische Systembiologie
Department für Ökologie und Ökosystemmanagement
Mühlenweg 22
D-85354 Freising
Tel.: +49/8161/71.3947
E-Mail: geist@wzw.tum.de
Weitere Informationen:
http://www.tum.de/die-tum/aktuelles/pressemitteilungen/kurz/article/32771/
Quelle: idw
Studienteilnehmer ohne Zahnbeschwerden gesucht
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Wissenschaftler der Neurologischen Universitätsklinik Heidelberg untersuchen Früherkennung von Zahnerkrankungen mittels Kernspintomographie
Für eine Studie der Abteilung Neuroradiologie, Neurologische Universitätsklinik Heidelberg, werden ab sofort Frauen und Männer im Alter von 30 bis 70 Jahren gesucht, die gesunde Zähne oder aktuell keine Zahnbeschwerden haben. Die Probanden sollten bereit sein, sich einer Magnetresonanztomographie (MRT) des Kopfes unter Einsatz eines gut verträglichen Kontrastmittels zu unterziehen. Zuvor wird die Mundgesundheit in einer zahnärztlichen Routineuntersuchung überprüft. Wer an beiden Untersuchungen teilnimmt, erhält eine Aufwandentschädigung von 50 Euro. Für die Zahnuntersuchung gibt es auf Wunsch einen Stempel in das Bonusheft der Krankenkasse.
Die MRT ist ein Bildgebungsverfahren ohne Belastung durch Röntgenstrahlen, das dazu genutzt werden könnte, Zahnerkrankungen frühzeitig zu erkennen. So wäre eine Behandlung möglich, bevor irreparable Schäden entstehen. Im Rahmen der Studie sollen nun u. a. Bilddaten zahngesunder Probanden gewonnen werden, um gesunde und im frühen Stadium erkrankte Zähne präzise unterscheiden bzw. Auffälligkeiten im MRT-Bild besser einschätzen zu können.
Die Studienteilnehmer sollten keine Zahnfleischerkrankungen (Parodontitis) und keinen aktuell behandlungsbedürftigen Karies haben. Füllungen oder bisher unbemerkter Karies im Anfangsstadium, sogenannter Initialkaries, der keine Beschwerden verursacht, stellen kein Problem dar. Implantate, kieferorthopädische Zahnstabilisatoren (Retainer) oder Zahnspangen schließen von der Studienteilnahme aus. Wer sich nicht sicher ist, ob er für die Studie in Frage kommt, kann gerne einen Termin zur Zahnkontrolle vereinbaren.
Bei Interesse oder Fragen wenden Sie sich bitte an:
E-Mail: dental.mrt@gmail.com
Dr. med. Alexander Heil
Abteilung für Neuroradiologie
Neurologische Universitätsklinik Heidelberg
Tel.: 06221/5634732
Constanze Jelinek
Tel.: 0176/23491408
Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.600 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg. www.klinikum.uni-heidelberg.de
Quelle: idw
Tiermehl als Phosphorquelle
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Die Abfälle von Schlachthöfen werden zu Tiermehl verarbeitet und anschließend verfüttert oder verbrannt. Allerdings könnte man dieses Mehl besser nutzen: Es enthält Phosphor, ein knappes Mineral, das als Düngemittel dient. Eine neue Anlage verbrennt das Pulver so, dass die Asche als Rohstoff für Phosphordünger dienen könnte.
Leberwurst, Salami, Steak – die Deutschen essen viel Fleisch. Nicht alle Teile vom Rind und vom Schwein landen dabei auf dem Teller. Zähne, Hufe, Knochen, Augen etwa bleiben übrig und werden zu Tiermehl verarbeitet. Allein in Deutschland fallen mehr als 200 000 Tonnen jährlich an. Die gemahlenen Überbleibsel werden zum Teil wieder an Tiere verfüttert. Der Rest – der etwa aus Augen und Hirn besteht, die die Erreger von BSE enthalten könnten – wird in Müllverbrennungsanlagen gemeinsam mit anderem Abfall verbrannt.
Dünger für die Landwirtschaft
Forscher des Fraunhofer-Instituts für Fabrikbetrieb und -automatisierung IFF in Magdeburg schlagen einen anderen Weg vor: »Wir verbrennen das Tiermehl auf spezielle Weise, so dass wir daraus ein wichtiges Mineral zurückgewinnen können«, erläutert Patric Heidecke, Wissenschaftler am IFF. Denn der Rohstoff enthält etwa drei bis vier Prozent Phosphor, ein Mineral also, das nicht unbegrenzt zur Verfügung steht und teuer ist. Man braucht es vor allem als Dünger in der Landwirtschaft. In der Asche beträgt der Phosphoranteil bis zu 16 Prozent. Das ist so viel wie in natürlichen Lagerstätten, die sich vor allem in China, Marokko und den USA befinden. »Die Asche könnte – ebenso wie das phosphorhaltige Material, das in den Lagerstätten gewonnen wird – zu Düngemittel weiterverarbeitet werden«, sagt Heidecke. »Rein rechnerisch lässt sich damit rund fünf Prozent des jährlichen Phosphat-Düngemittelbedarfs in Deutschland ersetzen.«
Schwermetalle von der Asche trennen
Zwar wird das Tiermehl auch heute schon teilweise verbrannt. Allerdings mischt man es dafür mit anderen Brennstoffen. Das führt einerseits dazu, dass der Phosphor in der entstehenden Asche verdünnt ist, andererseits gelangen über die anderen Materialien auch unerwünschte Stoffe in die Asche. Ein weiteres Problem: Das Nebenprodukt enthält Schwermetalle wie Quecksilber und Blei, die später nicht mit auf dem Feld landen dürfen. In der Asche aus den Müllverbrennungsanlagen sind diese Schadstoffe jedoch enthalten.
All dies haben die Forscher bei ihrer Entwicklung berücksichtigt. Das Prinzip: Sie füllen das Tiermehl in eine 850 Grad Celsius heiße Wirbelschichtanlage. Von unten strömt kontinuierlich Luft in eine Brennkammer und vermischt das Mehl mit heißem Quarzsand. Die Masse zündet, und die organischen Partikel verbrennen vollständig. Die Wärme wird abgeführt, sie kann entweder direkt genutzt oder zu Strom umgewandelt werden. Das entstehende Verbrennungsgas, das aufgrund der Luftwirbel auch einen Großteil der Asche enthält, wird in den Ausbrandzyklon geleitet. Dieser trennt die gute, saubere Asche von der schlechten, in der sich die giftigen Schwermetalle befinden. Dafür bremsen die Forscher den Luftstrom ab. Die Asche sinkt auf den Boden, während die Schwermetalle und Ascheteilchen, die kleiner als einen Zehntel Millimeter sind, in der Luft verbleiben. Sie werden später abgeschieden und entsorgt.
Erste kommerzielle Anlage geplant
Welche Parameter müssen bei der Verbrennung eingestellt werden, damit einerseits möglichst viel Wärme erzeugt wird und sich andererseits keine unerwünschten Schadstoffe wie Stickoxide bilden? Dies haben die Forscher in einer breit angelegten Messreihe untersucht. Die Wissenschaftler nutzen eine Wirbelschichtanlage, die etwa vier Meter hoch ist und eine Leistung von 150 Kilowatt erbringt. »Es ließe sich jedoch auch problemlos eine Anlage von zehn Megawatt Leistung realisieren«, sagt Heidecke. Nun wollen sie die erste kommerzielle Anlage bei einem Praxispartner errichten. »In zehn Jahren«, da ist sich der Experte sicher, »wird sich dieses Konzept durchgesetzt haben, da es sich neben dem Brennstoff Tiermehl auch für Klärschlamm eignet.« Zwar ist es momentan noch erlaubt, Klärschlamm als Dünger auf den Feldern auszubringen. Doch der Schlamm enthält Schwermetalle sowie Nitrat, durch das Gewässer umkippen können.
Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2015/Dezember/tiermehl-al…
Quelle: idw
Noch etwas Puder? Glatte Haut macht seriös
Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH
Der erste Eindruck zählt. Nur eine Zehntelsekunde braucht das Gehirn, um ein Urteil über eine Person zu fällen, der man zum ersten Mal gegenübersteht. Doch was macht diesen ersten Eindruck aus? Neueste Untersuchungen von Dr. Elena Tsankova und Prof. Dr. Arvid Kappas von der Jacobs University in Bremen beweisen, wie selbst kleine Einzelheiten im Aussehen unser Urteil von unserem Gegenüber bestimmen.
Die Bremer Forscher untersuchten, wie kleine Makel der Haut – beispielsweise Muttermale, Hautrötungen oder Pickel – unsere persönliche Wirkung beeinflussen. Dabei zeigte sich: Das Hautbild ist sehr wichtig für den ersten Eindruck. Es bestimmt nicht nur darüber, ob wir gesund und attraktiv wahrgenommen werden, sondern auch glaubwürdig und kompetent. Den Ergebnissen zufolge, wirkt glatte Haut also vertrauenswürdig.
Doch wie kommt es, dass glatte Haut so einen guten Eindruck hinterlässt? „Es gibt einen direkten und einen indirekten Effekt“, erklärt Elena Tsankova. „Einerseits beeinflusst das Hautbild unsere Wahrnehmung direkt, indem glatte Haut gesünder wirkt als unreine Haut.“ Andererseits existiere aber auch eine indirekte Wirkung: Glatte Haut suggeriere Reife und Sachverstand, da im Umkehrschluss unreine Haut häufig mit Unreife (zum Beispiel durch Akne in der Pubertät) und Armut (zum Beispiel durch das Unvermögen, sich gute Hautpflegeprodukte zu leisten) verknüpft würde.
„Angesichts dieser Ergebnisse holen wir vielleicht vor dem nächsten Vorstellungsgespräch oder einer wichtigen Verabredung doch noch einmal den Abdeckstift oder Puder aus der Tasche“, so Tsankova. Mit diesem Wissen könnten wir aber auch uns selbst genauer auf die Finger schauen, meint die Psychologin. „Wenn uns bewusst ist, wie wichtig das Hautbild für die Bewertung einer Person ist“, fährt Tsankova fort, „können wir unser eigenes Urteil über Fremde kritisch hinterfragen.“ Es sei dringend geboten, den Druck auf Menschen mit Hautproblemen nicht weiter unnötig zu erhöhen, betonen die Forscher.
Für ihre Untersuchung nutzten Tsankova und Kappas Fotos von Gesichtern, die sie teilweise am Computer veränderten. Die Wissenschaftler entfernten alle Muttermale, Unreinheiten und sonstigen Schönheitsfehler der Haut. Die 130 Probanden bekamen die Gesichter dann entweder in ihrer natürlichen Erscheinung oder in makelloser Version zu sehen. Anschließend bewerteten sie die Glaubwürdigkeit, Kompetenz, Attraktivität und Gesundheit der abgebildeten Personen.
„Es gab schon früher Studien, die untersucht haben, wie das Aussehen unsere Glaubwürdigkeit beeinflusst“, erläutert Tsankova. „Diese haben aber immer mehrere Faktoren gleichzeitig betrachtet, zum Beispiel die Hautfarbe und Hautstruktur. Wir haben uns nun erstmals einen einzigen Teilaspekt ganz genau angesehen: Die Glätte der Haut.“ Die Ergebnisse wurden vom Fachjournal „Perception“ bereits online veröffentlicht. In weiterführenden Studien wollen die beiden Psychologen der Wirkung glatter Haut weiter nachspüren. Beispielsweise stellt sich die Frage, wie das Hautbild mit anderen Aspekten unserer Erscheinung zusammenwirkt.
Bildmaterial „Original skin – Manipulated skin“ (Jacobs University):
Wie ist Ihr erster Eindruck? Unbearbeitetes und manipuliertes Foto eines Gesichts, wie es auch in der nun vorliegenden Studie der Bremer Jacobs University benutzt wurde.
Link zur Veröffentlichung:
http://pec.sagepub.com/content/early/recent
Weitere Informationen unter:
http://akappas.user.jacobs-university.de
http://jacobs-university.de
Vorstellung der Focus Areas
– https://www.youtube.com/watch?v=yfSZKulWe7k
– https://www.youtube.com/watch?v=w5ta3rGUj7o
– https://www.youtube.com/watch?v=754MNuvQgv0
Fragen beantwortet:
Dr. Elena Tsankova | Postdoctoral Fellow Psychology & Methods
e.tsankova@jacobs-university.de | Tel.: +49 421 200- 3432
Über die Jacobs University:
Die Jacobs University ist eine private, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.
Quelle: idw
Neue Forschungseinrichtung für Aquakultur und CO2-Nutzung
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Das französische Forschungsinstitut zur Nutzung der Meere (Ifremer) und das Zentrum für internationale Zusammenarbeit in der Agrarforschung für Drittländer (CIRAD) haben in Palavas-les-flots (Languedoc-Roussillon) den Ausbau der Infrastruktur MeDITERA eingeweiht. Diese schon seit 1972 existierende Infrastruktur wurde erweitert, um die Forschungen im Bereich Aquakultur und CO2-Verwertung zu verstärken.
4 000 m2 der bereits existierenden Aquakulturhallen wurden saniert und um 2 000 m2 neue Freilandbecken erweitert. Hinzu kommen mehrere Inkubatoren, um die Fischeier bei der gewünschten Temperatur auszubrüten und um eine Desinfizierung zu gewährleisten. Es werden hauptsächlich unterschiedliche Arten von Seebarschen und Buntbarschen (für die Entwicklungsländer) untersucht.
Die Labore wurden mit neuen Forschungsinstrumenten ausgestattet: Mikroskope, Zentrifugen, Messgeräte für die Fische, Spektrometer für die chemisch-physikalische Analyse des Wassers etc. Mit diesen Geräten können auch ökotoxikologische Studien durchgeführt werden.
Konzepte zur CO2-Nutzung werden ebenfalls entwickelt: das Projekt Vasco 2, das teilweise am MeDITERA durchgeführt wird, wird diesen Aspekt der CO2-Verwertung untersuchen. Unternehmen wie Total, ArcelorMittal und Kem One wollen die Verwertung von industriellen Abgasen des Hafen- und Industriegebiets von La-Fos-sur-Mer (Provence-Alpes-Côte d’Azur) als Düngemittel für Mikroalgen mit den Anlagen von MeDITERA testen. Das Zentrum für Atomenergie und alternative Energien (CEA) wird dort die hydrothermale Verflüssigung von Algenbiomasse erproben, um Öl und biobasierte Produkte zu erzeugen.
Für die Erneuerung und den Ausbau der Plattform stand ein Budget von 2,3 Mio. € zur Verfügung. Der Europäische Fonds für regionale Entwicklung (EFRE) hat dieses Projekt ebenfalls unterstützt. Zudem wird MeDITERA auch internationalen Forschungspartnern offen stehen, um die Forschungskooperation europaweit zu fördern.
Weitere Informationen:
Webseite des Ifremer (auf Englisch, Französisch und Spanisch): http://wwz.ifremer.fr
Webseite des CIRAD (auf Englisch und Französisch): cirad.fr
Quelle:
„MeDITERA : de nouvelles infrastructures scientifiques et techniques en aquaculture, uniques en Europe“, Pressemitteilung des Ifremer, 13.10.2015 – http://wwz.ifremer.fr/mediterranee/content/download/90830/1113839/file/DP_Medite…
Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr
Weitere Informationen:
http://www.wissenschaft-frankreich.de
Quelle: idw
Riesenchance automatisiertes Fahren
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Studie ermittelt Potenziale des hochautomatisierten Fahrens für Deutschland
Laut einer Studie, die das Fraunhofer IAO mit weiteren Partnern im Auftrag des Bundesministeriums für Wirtschaft und Energie durchgeführt hat, wird hochautomatisiertes Fahren bereits vor 2020 technische Reife erlangen. Für das Jahr 2025 erwarten die Autoren eine Wertschöpfung am Standort Deutschland in Höhe von 8,8 Milliarden Euro. Die Schaffung der rechtlichen Rahmenbedingungen sowie der Ausbau der Infrastruktur stellen große Herausforderungen dar.
Hochautomatisiertes Fahren auf Autobahnen wird bis 2020 technisch möglich sein und bietet große Chancen für Wertschöpfung und Beschäftigung in Deutschland. Das sind die zentralen Ergebnisse des Gutachtens »Hochautomatisiertes Fahren auf Autobahnen – Industriepolitische Schlussfolgerungen«, die das Fraunhofer IAO gemeinsam dem Fraunhofer-Institut für offene Kommunikationssysteme FOKUS, der Unternehmensberatung mm1 sowie dem Institut für Klimaschutz, Energie und Mobilität (IKEM) im Auftrag des BMWi im Auftrag des Bundesministeriums für Wirtschaft und Energie (BMWi) durchgeführt hat.
Erhebliche Wertschöpfungs- und Beschäftigungspotenziale
Das Gutachten zeigt, dass die Einführung hochautomatisierter Fahrfunktionen auf Autobahnen spätestens bis 2020 technisch möglich ist. Fahrerlose Fahrzeuge sind hingegen auf öffentlichen Straßen erst weit nach 2020 zu erwarten. Wenn die heutigen Markt- und Standortanteile deutscher Fahrzeughersteller und Zulieferer gehalten werden können, sagen die Gutachter eine Wertschöpfung von knapp 2,3 Milliarden Euro im Jahr 2020 sowie von rund 8,8 Milliarden Euro 2025 voraus. Das entspricht dem 16-fachen der heutigen Wertschöpfung von etwa 546 Millionen Euro. Dies würde ca. 120 000 Arbeitsplätze induzieren. Etwa die Hälfte der Wertschöpfung und Beschäftigung wird auf den Bereich Software (Entwicklung von Funktionen und Algorithmen, Validierung, Datenanalysen) entfallen. Zudem gehen mit dem hochautomatisierten Fahren große Potenziale für das Verkehrssystem und die Reduzierung der externen Kosten des Straßenverkehrs einher.
Deutschland in sehr guter Ausgangsposition – Massiver Wettbewerbsdruck erwartet
Nach den Ergebnissen des Gutachtens ist die deutsche Automobilindustrie derzeit weltweiter Leitanbieter bei Fahrerassistenzsystemen und damit verbundener Technologien. Aufgrund der hohen Marktanteile im Bereich von Premium- und Oberklassefahrzeugen werden deutsche Hersteller zunächst auch bei hochautomatisierten Fahrzeugen Leitanbieter sein. Die hohe Anzahl an einschlägigen Patenten und Publikationen aus Deutschland sprechen zudem für die Innovationskraft des Standorts. Andererseits wird aufgrund von neuen Wettbewerbern und der industriepolitischen Aktivität in den Wettbewerbsländern ein massiver Konkurrenzdruck für den Automobilstandort Deutschland erwartet.
Koordiniertes Vorgehen von Industrie und Politik notwendig
Hürden auf dem Weg zum Regelbetrieb hochautomatisierter Fahrzeuge stellen laut der Studie vor allem die rechtlichen Fragen dar. Die Schaffung der rechtlichen Rahmenbedingungen gehört zu den drängenden Herausforderungen auf dem Weg zur Marktreife des hochautomatisierten Fahrens. Darüber hinaus ist es elementar, die Funktionssicherheit auch höherer Automatisierungsgrade zu erproben und die wesentlichen technischen Entwicklungsherausforderungen zügig anzugehen. Zu diesen Fragestellungen unterbreitet das Gutachten konkrete Handlungsempfehlungen.
Das Gutachten steht kostenlos zum Download unter http://s.fhg.de/8y4 bereit.
Kontakt:
Andrej Cacilo
Mobility Innovation
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon: +49 711 970-2307
E-Mail: andrej.cacilo@iao.fraunhofer.de
Weitere Informationen:
https://www.iao.fraunhofer.de/lang-de/ueber-uns/presse-und-medien/1671-riesencha…
http://s.fhg.de/8y4
Quelle: idw
Depressionen verstärken Symptome von Vorhofflimmern
Dr. Angelika Leute Geschäftsstelle
Kompetenznetz Vorhofflimmern e.V. (AFNET)
Vorhofflimmern geht häufig mit Depressionen, Schlafstörungen und körperlicher Inaktivität einher. Dabei verstärken Depressionen die körperlichen Symptome von Vorhofflimmern, wie eine Studie des Kompetenznetzes Vorhofflimmern (AFNET) herausgefunden hat. Unter Leitung des Psychosomatikers Prof. Karl-Heinz Ladwig vom Helmholtz Zentrum München wurden die psychische Verfassung und die Einschränkungen der Lebensqualität bei Patienten mit Vorhofflimmern erforscht.
Vorhofflimmern ist die häufigste Herzrhythmusstörung. Rund 1,8 Millionen Menschen in Deutschland sind davon betroffen. Die meisten Vorhofflimmerpatienten spüren typische Symptome wie Herzrasen, Luftnot oder Schwindel. Zusätzlich leiden viele der Betroffenen auch unter Depressionen, Schlafstörungen und anhaltender Müdigkeit.
Depressionen und Ängste wirken sich negativ auf den Verlauf von Krankheiten aus. Dies ist vielfach belegt. Bei Vorhofflimmern wurden diese Zusammenhänge bisher allerdings wenig erforscht. Prof. Ladwig, Dr. Alexander von Eisenhart Rothe, Helmholtz Zentrum München, und Kollegen haben die seelische Gesundheit von über 500 Patienten mit Vorhofflimmern in Deutschland im Rahmen von zwei klinischen Studien des Kompetenznetzes Vorhofflimmern untersucht. Die Daten von Patienten mit paroxysmalem (anfallsartigem) Vorhofflimmern stammen aus der ANTIPAF – AFNET 2 Studie, die von Patienten mit persisierendem (anhaltendem) Vorhofflimmern aus der Flec-SL – AFNET 3 Studie.
„Kardiologen machen ihre Entscheidung für eine mehr oder weniger aggressive Therapie normalerweise davon abhängig, wie stark das Vorhofflimmern den Patienten belastet. Dabei sollten allerdings nicht nur körperliche Symptome, sondern auch die psychische Verfassung und Lebensqualität des Patienten berücksichtigt werden.“ erklärt Prof. Ladwig. Denn die Studie hat gezeigt: Depressive Stimmungen beeinträchtigen nicht nur das psychische Wohlbefinden, sondern verstärken auch die körperlichen Beschwerden. Symptome wie Unruhe, Übelkeit oder Kurzatmigkeit werden von den Betroffenen schwerwiegender empfunden als von Vorhofflimmerpatienten ohne Depression. Dies gilt bei paroxysmalem Vorhofflimmern ebenso wie bei persistierendem. Diese Ergebnisse belegen, dass die Lebensqualität ein wichtiges Entscheidungskriterium für Therapieoptionen sein sollte.
Arzt und Patient beurteilen die psychische Verfassung von Vorhofflimmerpatienten oft unterschiedlich, wie Prof. Ladwig und Kollegen herausgefunden haben. Depression, Schlafstörung und geringe körperliche Aktivität werden von Ärzten weniger gravierend eingeschätzt als von den Betroffenen selbst. Deshalb empfiehlt Prof. Ladwig: „Ärzte sollten geschult werden, damit sie Depressionen bei ihren Patienten besser erkennen. Außerdem wäre ein gezieltes Depressions-Screening in Kliniken und Praxen, die Vorhofflimmern behandeln, notwendig.“ Weitere Studien sollen erforschen, ob solche Maßnahmen den Gesundheitszustand der Vorhofflimmerpatienten verbessern können.
Publikationen
von Eisenhart Rothe A, Hutt F, Baumert J, Breithardt G, Goette A, Kirchhof P, Ladwig KH. Depressed mood amplifies heart-related symptoms in persistent and paroxysmal atrial fibrillation patients: a longitudinal analysis-data from the German Competence Network on Atrial Fibrillation. Europace. 2015; 17:1354-62.
doi: 10.1093/europace/euv018
von Eisenhart Rothe A, Goette A, Kirchhof P, Breithardt G, Limbourg T, Calvert M et al. Depression in paroxysmal and persistent atrial fibrillation patients: a crosssectional comparison of patients enroled in two large clinical trials. Europace 2014; 16:812-9.
doi: 10.1093/europace/eut361
von Eisenhart Rothe A, Bielitzer M, Meinertz T, Limbourg T, Ladwig KH, Goette A. Predictors of discordance between physicians‘ and patients‘ appraisals of health-related quality of life in atrial fibrillation patients: Findings from the Angiotensin II Antagonist in Paroxysmal Atrial Fibrillation Trial. Am Heart J 2013; 166:589-96 e1.
doi: 10.1016/j.ahj.2013.05.020
Studien
ANTIPAF – AFNET 2 Studie http://clinicaltrials.gov/show/NCT00098137
Flec-SL – AFNET 3 Studie http://clinicaltrials.gov/show/NCT00215774
Kompetenznetz Vorhofflimmern e.V. (AFNET)
Das Kompetenznetz Vorhofflimmern e.V. (AFNET) ist ein interdisziplinäres Forschungsnetz, in dem Wissenschaftler und Ärzte aus Kliniken und Praxen deutschlandweit zusammenarbeiten. Ziel des Netzwerks ist es, die Behandlung und Versorgung von Patienten mit Vorhofflimmern in Deutschland und Europa durch koordinierte Forschung zu verbessern. Dazu führt das Kompetenznetz Vorhofflimmern e.V. wissenschaftsinitiierte klinische Studien (investigator initiated trials = IIT) und Register auf nationaler und internationaler Ebene durch. Der Verein ist aus dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Kompetenznetz Vorhofflimmern hervorgegangen. Seit Januar 2015 werden einzelne Projekte und Infrastrukturen des AFNET vom Deutschen Zentrum für Herz-Kreislauf-Forschung (DZHK) gefördert.
http://www.kompetenznetz-vorhofflimmern.de
Weitere Informationen:
http://www.kompetenznetz-vorhofflimmern.de – Kompetenznetz Vorhofflimmern e.V.
http://clinicaltrials.gov/show/NCT00098137 – ANTIPAF – AFNET 2 Studie
http://clinicaltrials.gov/show/NCT00215774 – Flec-SL – AFNET 3 Studie
Quelle: idw
Belastung durch Nährstoffeinträge im Vergleich: Der indische Fluss Pamba und die Weser
Dr. Susanne Eickhoff Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Marine Tropenökologie (ZMT)
Die Meeresverschmutzung durch Düngemittel nimmt rasant zu. Seit den 70er Jahren haben sich die weltweiten Flusseinträge von Stickstoff und Phosphor in die Ozeane verdreifacht und führen in vielen Küstenregionen zu exzessiven Algenblüten, die wertvolle Ökosysteme wie Korallenriffe gefährden. Ein Team des Leibniz-Zentrums für Marine Tropenökologie (ZMT) hat nun Messungen in einem stark bevölkerten Flussgebiet in Indien vorgenommen. Zur intensiven landwirtschaftlichen Nutzung des Hinterlandes kommt dort noch ein weiterer Verursacher von Wasserverschmutzung hinzu: das Sabarimala-Heiligtum, eine der größten Pilgerstätten der Welt. Die Forscher machten eine überraschende Entdeckung – der Fluss Pamba im südindischen Staat Kerala ist weniger stark mit Nährstoffen belastet als beispielsweise die Weser.
Hohe Bevölkerungsdichte, ungeklärte Abwässer, Einsatz von Düngemitteln auf intensiv genutzter Ackerfläche: südostasiatische Flüsse gelten als stark belastet mit Nährstoffen wie Stickstoff und Phosphor. Insbesondere in den Monsunmonaten tragen sturzflutartige Regengüsse große Mengen an Verunreinigungen in die Flüsse ein. Daten zur Meeresverschmutzung durch Flusseinträge sind in Industrienationen ausreichend vorhanden, in Entwicklungs- und Schwellenländern jedoch noch rar.
In Kerala, einem südindischen Staat mit rund 33 Millionen Einwohnern, untersuchten der Biogeochemiker Dr. Tim Jennerjahn und seine Doktorandin Shilly Elizabeth David die Belastung des Flusses Pamba mit Stickstoff und Phosphor. Die Ergebnisse ihrer Studie sind kürzlich in der Fachzeitschrift „Science of the Total Environment“ erschienen.
Der 176 km lange Pamba entspringt dem Gebirgszug der Westghats, durchzieht den Bundesstaat Kerala und verbreitert sich schließlich zu einem großen See, dem Vembanad, bevor er in das Arabische Meer mündet. Im Einzugsgebiet des Flusses leben im Schnitt 400 Menschen auf einem Quadratkilometer.
Die Forscher beprobten verschiedene Abschnitte des Flusses, die durch unterschiedlich genutzte Landschaften führten – durch Tee- und Kautschukplantagen, Siedlungen mit Gartenanbau, Reisplantagen und vorbei an der Pilgerstätte Sabarimala. Über 50 Millionen Hindus aus aller Welt suchen alljährlich das Heiligtum auf. Täglich steigen Pilgerscharen in die Fluten des Pamba, um sich von Sünden reinzuwaschen.
„Beim Tempel von Sabarimala fanden wir mit 3,1 kg pro Hektar und Jahr große Mengen an Ammoniumstickstoff im Fluss, der vor allem von menschlichen Ausscheidungen herrührt“, berichtet Tim Jennerjahn. „Auch die Menge an Phosphor aus Waschmitteln ist in der Nähe der Pilgerstätte hoch“. Mit bis zu 5,6 kg pro Hektar und Jahr war die Konzentration an Nitratstickstoff aus den Düngemitteln der Plantagen und Gärten in den entsprechenden Flussabschnitten ebenfalls beträchtlich.
„Zu unserer großen Überraschung sind diese Nährstoffmengen in einem so dicht besiedelten Gebiet jedoch eher gering im Vergleich zur Belastung eines deutschen Flusses wie zum Beispiel der Weser“, meint Tim Jennerjahn. „Niedersachsen hat ein Gülleproblem. Zu viel davon wird aus den Äckern in die Weser gewaschen.“
Während die Weser im Durchschnitt eine Stickstoffkonzentration von 12 kg pro Hektar und Jahr aufweist, enthält der Pamba durchschnittlich hingegen nur 3,5 kg. Im Mündungsgebiet des Pamba schließlich nehmen die Nährstoffkonzentrationen noch deutlich ab. Hier gedeihen Wasserhyazinthen im See Vembanad, die wie Klärwerke die Nährstoffe aus dem Flusswasser aufnehmen und in ihrem Stoffwechsel umsetzen.
„Unsere Studie zeigt, wie wichtig es ist, in dicht besiedelten tropischen Flusseinzugsgebieten detaillierte lokale Erhebungen durchzuführen, die unterschiedliche Arten der Landnutzung berücksichtigen“, betont Tim Jennerjahn. „Erst dann können einerseits globale Trends ermittelt und andererseits gezielt Maßnahmen für die Erhaltung gesunder Gewässer ergriffen werden.“
Publikation
David, S.E., Chattopadhyay, M., Chattopadhyay, S., Jennerjahn, T.C. (2015) Impact of human interventions on nutrient biogeochemistry in the Pamba River, Kerala, India. Science of The Total Environment 541, pp. 1420-1430.
Kontakt
Dr. Tim Jennerjahn
Leibniz-Zentrum für Marine Tropenökologie, Bremen
Tel: 0421 / 23800-44
Mail: tim.jennerjahn@zmt-bremen.de
Das LEIBNIZ-ZENTRUM FÜR MARINE TROPENÖKOLOGIE – ZMT in Bremen widmet sich in Forschung und Lehre dem besseren Verständnis tropischer Küstenökosysteme. Im Mittelpunkt stehen Fragen zu ihrer Struktur und Funktion, ihren Ressourcen und ihrer Widerstandsfähigkeit gegenüber menschlichen Eingriffen und natürlichen Veränderungen. Das ZMT führt seine Forschungsprojekte in enger Kooperation mit Partnern in den Tropen durch, wo es den Aufbau von Expertise und Infrastruktur auf dem Gebiet des nachhaltigen Küstenzonenmanagements unterstützt. Das ZMT ist ein Mitglied der Leibniz-Gemeinschaft.
Quelle: idw
Wie stark können Erdbeben an Verwerfungen werden?
Dipl.Met. Franz Ossing Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ
Wenn zwei tektonische Platten aneinander vorbei gleiten, spricht man von einer Verwerfung, die bekanntesten Beispiele sind die kalifornische San Andreas-Verwerfung und die Nordanatolische Verwerfung in der Türkei. Die bei der Verschiebung der Platten entstehenden Erdbeben können Stärken bis zu Magnitude M 8 erreichen, treten zudem meistens in geringen Tiefen von weniger als 20 Kilometern auf und bedrohen so große Städte wie Istanbul oder San Francisco. Für die Risikoabschätzung und die Entwicklung vorbeugender Maßnahmen ist es daher wichtig, die maximale Magnitude der Erdbeben zu kennen, die hier auftreten können. Erschwerend kommt hinzu, dass es Messaufzeichnungen von Erdbeben erst seit rund 150 Jahren gibt, an vielen Verwerfungszonen der Erde aber die Wiederkehrperioden von sehr starken Erdbeben viel länger sind.
Ein Team von Wissenschaftlern des Deutschen GeoForschungsZentrums hat in Zusammenarbeit mit der Universität von Süd-Kalifornien nun eine globale Studie vorgestellt, auf deren Basis sich die größten zu erwartenden Erdbeben entlang solcher Verwerfungen besser abschätzen lassen. Sie untersuchten alle großen Transformstörungen der Erde und stellten dabei fest, dass die Länge der Erdbebenbruchzone für Starkbeben, und damit die Magnitude, mit der Gesamtlänge der Verwerfungen korreliert: je länger die Verwerfungszone insgesamt ist, desto länger sind die einzelnen Segmente der Verwerfung, die bei einem Starkbeben brechen.
Bei diesem Bruch auftretende Erdbeben weisen eine maximal zu erwartende Magnitude auf, die in 75% der Fälle mit dem im Laufe von Jahrmillionen akkumulierten Versatz an den betreffenden Verwerfungen zusammenhängt. Bei Oberflächenbewegungen von einigen Millimetern pro Jahr kommen da im Laufe von Jahrmillionen Gesamtverschiebungen an den Verwerfungen von einigen zehner Kilometern zusammen. Für Verwerfungen mit einer derart großen Gesamtverschiebung wird dann ein direkter Zusammenhang zur größten Erdbebenmagnitude beobachtet.
Die verbleibenden 25% der Erdbeben allerdings sind insgesamt stärker und entstehen ausschließlich entfernt von Plattengrenzen an Orten, wo die Verschiebungen weniger als fünf Millimeter pro Jahr betragen und der Gesamt-Versatz weniger als zehn Kilometer beträgt. „Wir erklären die größeren Magnituden dieser Beben damit, dass sich während des Bruches eine höhere Spannung entlädt. Es wird mehr Energie in der gleichen Zeit freigesetzt was zu größeren Magnituden führt“ erklärt GFZ-Wissenschaftlerin Patricia Martínez-Garzón, Leitautorin der Studie.
Die Arbeitsergebnisse der Geoforscher sind für Millionen von Menschen wichtig, die in der Nähe dieser Verwerfungen wohnen, denn Vorbeugemaßnahmen wie erdbebensicheres Bauen, Katastrophenschutz oder Frühwarnsysteme müssen so ausgelegt sein, dass sie die maximal zu erwartende Stärke eines Bebens zu Grunde legen.
Patricia Martínez-Garzón, Marco Bohnhoff, Yehuda Ben-Zion, Georg Dresen: „Scaling of maximum observed magnitudes with geometrical and stress properties of strike-slip faults“, Geophysical Research Letters, DOI: 10.1002/2015GL066478
Foto in druckfähiger Auflösung:
https://media.gfz-potsdam.de/gfz/wv/05_Medien_Kommunikation/Bildarchiv/_Einzelbi…
Bildunterschrift: Blick über die Bucht von San Francisco, die in unmittelbarer Nähe zur San Andreas-Verwerfung in Kalifornien liegt. (Foto: P. Martínez-Garzón, GFZ)
Quelle: idw
Arbeiten 4.0: Neue Auswertung zeigt, wie Betriebsräte faire Regeln aushandeln
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Arbeitszeit, Recht auf Nichterreichbarkeit, Schutz vor Überwachung
Arbeiten 4.0: Neue Auswertung zeigt, wie Betriebsräte faire Regeln aushandeln
Der Einsatz moderner Technologien wird die Arbeit stark verändern. Umso wichtiger ist es, Arbeitnehmer und ihre Vertreter frühzeitig einzubeziehen. In manchen Unternehmen gibt es bereits Vereinbarungen zwischen Betriebsrat und Management, die zumindest Teilaspekte der digitalen Umwälzungen regeln. Betriebsräte sollten sich so früh wie möglich dafür einsetzen, den bevorstehenden Wandel zu gestalten. Zugleich müssen sie mit mehr Rechten ausgestattet werden. Das sind zentrale Ergebnisse einer neuen Untersuchung von Dr. Manuela Maschke und Nils Werner aus der Mitbestimmungsförderung der Hans-Böckler-Stiftung.* „Faire, transparente Regeln sind nicht nur im Interesse der Beschäftigten“, betont Maschke. „Sie sind Voraussetzung für motivierte, selbstverantwortliche Arbeit, ohne die moderne Unternehmen gar nicht funktionieren können.“
Dem von Maschke geleiteten Archiv für Betriebsvereinbarungen liegen insgesamt rund 2.500 Abkommen vor, die auf sehr unterschiedliche Weise den Einsatz von Technik regeln, wie etwa die Nutzung mobiler Geräte, Social Media oder Datenschutz. Darüber hinaus betrifft die Digitalisierung Themen wie Arbeitszeit, Arbeitsprozesse, Gesundheitsschutz oder Weiterbildung. Auch dazu gibt es bereits praktische Erfahrungen. Anhand von Beispielen zeigen die Experten, welche Praktiken sich bewährt haben und wo noch Handlungsbedarf besteht. Immerhin, so zeigt die Auswertung, werden Betriebs- und Personalräte heute tendenziell früher beteiligt als noch vor zehn bis 15 Jahren.
Die neuen technischen Möglichkeiten erlauben auf der einen Seite mehr Freiheiten und Flexibilität, auf der anderen Seite verlangen sie dem einzelnen Beschäftigten mehr ab: „Arbeiten ist zu jeder Zeit und an allen Orten möglich, wachsende Leistungsverdichtung und ständige Erreichbarkeit erzeugen so viel Druck, dass individuell Grenzen kaum gesetzt werden können“, so die Autoren.
Dass Betriebsräte einiges erreichen können, zeigen aktuelle Fälle: Bei Volkswagen vereinbarte man, dass Server außerhalb der vertraglichen Arbeitszeit für tariflich Beschäftigte abgeschaltet werden. Daimler richtete einen elektronischen Abwesenheitsassistenten namens „Mail on Holiday“ ein, der alle E-Mails, die während des Urlaubs eingehen, automatisch löscht. Die Botschaft: Man muss nicht im Urlaub arbeiten.
Der Betriebsrat von BMW handelte eine Vereinbarung zur Gestaltung der mobilen Arbeit aus. Beschäftigte sollen danach die Vorteile flexibler Arbeitszeiten und -orte nutzen können, ohne dass darunter die Freizeit leidet. Dies wird unter anderem durch das Recht auf Nichterreichbarkeit gewährleistet. Auch bei Bosch beschloss man, dass Arbeitszeit und -ort eigenverantwortlich und aufgabenbezogen gewählt werden können. Bedingung ist, dass die Arbeitszeit aufgezeichnet und entsprechend vergütet wird. „Wenn die allgegenwärtige Erreichbarkeit eingehegt wird und über die vereinbarte Arbeitszeit hinausgehende Leistung auch bezahlt wird, dann wird der Nutzen des Arbeitens unabhängig von Zeit und Ort wachsen“, erklärt Maschke.
Bislang kaum geregelt ist, wer die Hoheit über die wachsenden Datenmengen hat und wie sich die Überwachung von Beschäftigten eindämmen lässt. So ist es beispielsweise technisch machbar, jederzeit zu kontrollieren, was die Beschäftigten tun und wo sie sich aufhalten. Alle Zugriffe über mobile Geräte können lückenlos aufgezeichnet werden. Je nach Freigabe kann der Arbeitgeber sogar bei Telefonaten mithören. Dies alles eröffnet völlig neue Möglichkeiten der Verhaltens- und Leistungskontrolle – die sich jedoch durch neue Betriebsvereinbarungen eingrenzen lassen. Einige bereits bestehende Vereinbarungen listen zulässige Auswertungen von Daten in allgemeiner Form auf. Jegliche darüber hinausgehende Nutzung ist dann verboten, auch die Weiterverarbeitung durch externe Dienstleister. „Wenn Betriebsrat und Datenschutzbeauftragte bei der Umsetzung von Beginn an mit am Tisch sitzen, dann können viele Widerstände bei der Einführung neuer Technologien von vornherein vermieden werden“, so Maschke.
„Heute ist noch offen, welche theoretisch denkbaren, politisch diskutierten und prognostizierbaren Szenarien tatsächlich Realität werden“, schreiben die Experten. Ob viele oder wenige Menschen von Digitalisierung profitieren, hänge davon ab, wie Sozialpartner und politisch Verantwortliche sich für Mitbestimmungsrechte stark machen. Mehr Rechte für Betriebsräte seien ein Gebot der Stunde, wenn die Vorteile neuer Technologien im Interesse aller genutzt werden sollen. Betriebsräte und Gewerkschaften müssten von Beginn an einbezogen werden. Dabei gehe es nicht darum, technische Neuerungen zu verhindern, sondern diese so zu gestalten, dass Beschäftigte keine Nachteile befürchten müssen und die Wettbewerbsfähigkeit erhalten bleibt.
*Manuela Maschke, Nils Werner: Arbeiten 4.0 – Diskurs und Praxis in Betriebsvereinbarungen, Mitbestimmungsförderung in der Hans-Böckler-Stiftung, Report Nr. 14, Oktober 2015. Download: http://www.boeckler.de/pdf/p_mbf_report_2015_14.pdf
Kontakt in der Hans-Böckler-Stiftung
Dr. Manuela Maschke
Leiterin Archiv betriebliche Vereinbarungen
Tel.: 0211-7778-224
E-Mail: Manuela-Maschke@boeckler.de
Weitere Informationen:
http://www.boeckler.de/hbs_showpicture.htm?id=62641&chunk=1
Infografik zum Download im neuen Böckler Impuls 19/2015
Quelle: idw
Arbeit im Freien: Wie schützt man sich richtig vor der Sonne?
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Die Studie „Schutzkomponenten bei solarer UV-Exposition“ der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) untersuchte die Effektivität, Praktikabilität und Akzeptanz von Schutzmaßnahmen insbesondere von Textilien. Dabei stellte sich unter anderem heraus, dass angemessener Sonnenschutz weder teuer noch aufwändig ist.
Dortmund – Im kalten, dunklen Winter sehnt sich so mancher nach Sommer und Sonne. Um einen ausreichenden Sonnenschutz machen sich hingegen weit weniger Gedanken. Dabei arbeiten 2,5 Millionen Menschen in Deutschland im Freien, zum Beispiel im Hoch- und Tiefbau. Seit Januar 2015 wird für diese Beschäftigten eine Hautkrebsart durch Sonnenstrahlung in der Berufskrankheiten-Liste (BK 5103) aufgeführt. Diese neue Berufskrankheit hat die Notwendigkeit von effektiven Präventionsmaßnahmen in den Blickpunkt gerückt. Doch trotz der Gesundheitsgefahren, die von UV-Strahlung ausgehen, schützen sich viele Menschen weder bei der Arbeit noch in der Freizeit ausreichend vor der Sonne. Dabei ist angemessener Sonnenschutz weder teuer noch aufwändig. Das ergab die Studie „Schutzkomponenten bei solarer UV-Exposition“ der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA). Die BAuA untersuchte die Effektivität, Praktikabilität und Akzeptanz von Schutzmaßnahmen insbesondere von Textilien. Dabei stellte sich unter anderem heraus, dass es in unseren Breitengraden keiner speziellen UV-Schutzkleidung bedarf, sondern herkömmliche Kleidung vollkommen ausreicht.
Im Freien Beschäftigte sind durchschnittlich übers Jahr einer fünfmal höheren UV-Dosis ausgesetzt als Arbeitnehmer, die überwiegend in Innenräumen tätig sind. Auswertungen der Daten aus dem deutschen UV-Messnetz über einen Zeitraum von zehn Jahren zeigen, dass an rund drei Viertel der Tage zwischen März und September ein mittlerer UV-Index von drei vorliegt. An wenigen Tagen im Jahr sogar ein Wert von acht. Die Erhebung dieser Messdaten war die Grundlage für ein Schutzkonzept vor Sonnenstrahlung, das die Anforderungen an einzelne Schutzkomponenten beschreibt.
Bereits ein UV-Index von drei kann einen Sonnenbrand verursachen. Deshalb empfiehlt die Weltgesundheitsorganisation entsprechende Schutzmaßnahmen. Dabei kann es sich sowohl um technische, organisatorische als auch persönliche Maßnahmen handeln. Starke Sonneneinstrahlung wie in der Mittagszeit sollte unbedingt gemieden werden. Gut geschützt ist aber nur, wer auch an persönliche Schutzmaßnahmen wie ausreichende Kleidung kombiniert mit Kopfbedeckung und Sonnenschutzbrille denkt.
In der Praxis werden Schutzmaßnahmen jedoch oft nur unzureichend getroffen. Befragungen von Arbeitgebern und Beschäftigten haben ergeben, dass ein deutlicher Informationsbedarf über die Wirksamkeit von Schutzkomponenten besteht. Der Bericht stellt heraus, dass die Qualität der Unterweisungen durch zielgruppenspezifisches Informations- und Schulungsmaterial verbessert werden kann. Dazu wurde für die betriebliche Praxis eine Handlungshilfe zum sicheren und gesundheitsgerechten Verhalten beim Arbeiten in der Sonne erstellt, die der Bericht enthält.
„Schutzkomponenten bei solarer UV-Exposition“; Peter Knuschke, Günter Ott, Andrea Bauer, Marco Janßen, Kristin Mersiowsky, Andrea Püschel, Henriette Rönsch; 1. Auflage; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2015; ISBN: 978-3-88261-154-0; 207 Seiten. Eine Version im PDF-Format gibt es im Internetangebot der BAuA unter http://www.baua.de/publikationen.
Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 600 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de
Weitere Informationen:
http://www.baua.de/dok/6964350
Direkter Link zum BAuA-Bericht „Schutzkomponenten bei solarer UV-Exposition“
Quelle: idw
„Feuer sucht Eis“: Freiwillige Feuerwehren für neuen Klimaschutz-Wettbewerb gesucht
Romy Klupsch Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie
Freiwillige Feuerwehren, Jugendfeuerwehren und Feuerwehrfördervereine können sich jetzt registrieren / Mitglieder der Feuerwehren sammeln ineffiziente Kühl- und Gefrierschränke ein / Bewerbung noch bis 31.01.2016 möglich
Zwei Kühlschränke im Single-Haushalt, eine fast leere Gefriertruhe im Keller: Laut Statistischem Bundesamt waren 2013 rund 22,5 Millionen deutsche Haushalte mit mehr als einem Kühl- und/oder Gefriergerät ausgestattet. Diese Zweitgeräte werden oft nicht benötigt und verbrauchen unnötig Strom – besonders, wenn es sich um ältere Geräte handelt. Ändern will das jetzt die Internetplattform für ökologische Spitzenprodukte EcoTopTen mit dem bundesweiten Wettbewerb „Feuer sucht Eis“ (http://www.feuer-sucht-eis.de/).
Die Idee: Mitglieder von freiwilligen Feuerwehren, Jugendfeuerwehren und Feuerwehrfördervereinen sammeln in enger Abstimmung mit dem zuständigen öffentlich-rechtlichen Entsorgungsträger ineffiziente Kühlgeräte in den Privathaushalten ihrer Gemeinden ein und entsorgen diese fachgerecht. Neben der Chance auf attraktive Preise zeigen die Feuerwehren mit ihrer Teilnahme am Wettbewerb auch Engagement für die Region. Die beiden Gruppen, die die meisten Zweitgeräte relativ zur Einwohnerzahl oder das älteste Kühlgerät sammeln, gewinnen.
Gefördert wird das Projekt vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB) im Rahmen der Nationalen Klimaschutzinitiative, umgesetzt wird es vom Öko-Institut und der gemeinnützigen co2online GmbH. Ab sofort können sich interessierte Feuerwehren auf http://www.feuer-sucht-eis.de/mitmachen für den Wettbewerb registrieren und ein Zeichen für den Klimaschutz setzen.
Geld sparen, CO2 vermeiden und Gemeinschaftsgefühl im Ort stärken
Verbraucher, die sich von ihrem veralteten Kühl- oder Gefrierschrank trennen, können viel sparen: „Wird ein 15 Jahre altes Gerät ersatzlos entsorgt, liegt das Einsparpotenzial bei rund 375 kWh pro Jahr. Wird der alte Stromfresser gegen ein effizientes Neugerät ersetzt, werden immerhin noch 210 kWh eingespart. Das sind zwischen 60 und 100 Euro im Jahr“, so Dr. Dietlinde Quack vom Öko-Institut.
Im Rahmen des Wettbewerbs sollen deutschlandweit mindestens 4.000 Geräte eingesammelt werden. Damit ließen sich über fünf Jahre insgesamt 9.000 Tonnen CO2 vermeiden. Neben der Umwelt profitieren auch die teilnehmenden Gemeinden von „Feuer sucht Eis“: „Mit unserer Aktion möchten wir die Menschen verbinden und zeigen, dass Klimaschutz in Gemeinschaft richtig Spaß machen kann“, erklärt Dr. Quack. Auf der Suche nach einem effizienten Neugerät werden Verbraucher nicht allein gelassen: EcoTopTen hat auf http://www.ecotopten.de/ eine praktische Einkaufshilfe für strom- und geldsparende Haushaltsgeräte zusammengestellt und erleichtert so die Kaufentscheidung. Mit der App ecoGator (http://www.ecogator.de/) ist klimafreundliches Shoppen auch mobil möglich.
Informationen zu Aktion und Wettbewerb auf der Website „Feuer sucht Eis“
http://www.feuer-sucht-eis.de/
Über EcoTopTen
EcoTopTen ist eine Internetplattform des Öko-Instituts, auf der Verbraucher und Beschaffer Empfehlungen für ökologische Spitzenprodukte in den zehn Produktclustern Beleuchtung, Wärme, Strom, große Haushaltsgeräte, kleine Haushaltsgeräte, Fernseher, Computer/Büro, Mobilität, Lebensmittel und Textilien finden. EcoTopTen wird für die nächsten drei Jahre im Rahmen des Projekts „Die Produktauszeichnung EcoTopTen – Schwerpunkt SEK Stromsparen“ von der Nationalen Klimaschutzinitiative (NKI) des Bundesumweltministeriums gefördert. Zusätzlich dazu wird EcoTopTen in diesem Zeitraum auch im Rahmen des Projekts „ToptenAct“ im EU Programm Horizon2020 gefördert.
http://www.ecotopten.de/ | https://twitter.com/ecotopten
Über das Öko-Institut
Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.
http://www.oeko.de/ | https://twitter.com/oekoinstitut
Über die Nationale Klimaschutzinitiative
Mit der Nationalen Klimaschutzinitiative initiiert und fördert das Bundesumweltministerium seit 2008 zahlreiche Projekte, mit denen Energie effizienter genutzt und Emissionen gemindert werden können. Ihre Programme und Projekte decken ein breites Spektrum an Klimaschutzaktivitäten ab: von der Entwicklung langfristiger Strategien bis hin zu konkreten Hilfestellungen und investiven Fördermaßnahmen. Diese Vielfalt ist Garant für gute Ideen. Die Nationale Klimaschutzinitiative trägt zu einer Verankerung des Klimaschutzes vor Ort bei. Von ihr profitieren Verbraucherinnen und Verbraucher ebenso wie Unternehmen, Kommunen oder Bildungseinrichtungen.
Weiterführende Informationen zur Nationalen Klimaschutzinitiative des Bundesumweltministeriums finden Sie unter: http://www.klimaschutz.de/
Ansprechpartnerin bei co2online:
Stephanie Schropp
Managerin Kampagnen
co2online gemeinnützige GmbH
Hochkirchstraße 9, 10829 Berlin
Tel.: +49 30 7809665-14
E-Mail: stephanie.schropp@co2online.de | http://www.co2online.de/
Ansprechpartnerin am Öko-Institut:
Dr. Dietlinde Quack
Senior Researcher im Institutsbereich
Produkte & Stoffströme und Leiterin EcoTopTen
Öko-Institut e.V., Geschäftsstelle Freiburg
Tel.: +49 761 45295-248
E-Mail: d.quack@oeko.de
Quelle: idw
Fußball: Drei-Punkte-Regel animiert nicht zu Sturmläufen – weltweit detaillierteste Studie
Juliane Albrecht Presse- und Informationsstelle
Westfälische Wilhelms-Universität Münster
Nicht unbedingt der Gewinn zählt für Fußballteams so sehr, dass sie bis zum Schluss aufs gegnerische Tor stürmen, sondern das deutlich defensivere „Hinten reinstellen“ ist wichtiger, um eine Niederlage zu vermeiden. Das belegt eine Studie, in der Wissenschaftler der Universität Münster die 1995/96 weltweit eingeführte so genannte Drei-Punkte-Regel mit der früheren Zwei-Punkte- Regel verglichen. Fazit: Die Zahl der Unentschieden nahm nicht in dem Maße ab, wie es sich die FIFA erhofft hatte.
Der Sieg ist für Fußballteams offenbar nicht so wichtig, dass sie bis zum Schluss aufs gegnerische Tor stürmen. Für sie steht vielmehr im Vordergrund, eine Niederlage zu vermeiden – enstprechend defensiv sind sie oft ausgerichtet. Das belegt eine aktuelle Studie, in der Wissenschaftler der Westfälischen Wilhelms-Universität Münster (WWU) die in der Saison 1995/96 weltweit eingeführte so genannte Drei-Punkte-Regel in 24 Ländern mit der früheren Zwei-Punkte-Regel verglichen haben. Fazit: Die Zahl der Unentschieden nahm nicht in dem Maße ab, wie es sich der Fußball-Weltverband FIFA erhofft hat.
Die Wissenschaftler veröffentlichten die Studie mit dem Titel „Why the Three-Point Rule Failed to Sufficiently Reduce the Number of Draws in Soccer“ jetzt im nordamerikanischen Fachmagazin „Journal of Sport and Exercise Psychology“.
„Der erhoffte Anreiz mit der Einführung der Drei-Punkte-Regel ist deutlich hinter den Erwartungen zurückgeblieben, die aus statistischer Sicht abgeleitet werden können“, betont Dennis Riedl. Der Doktorand des Sportpsychologen Prof. Dr. Bernd Strauß verfasste die Arbeit gemeinsam mit dem derzeitigen Dekan des Fachbereichs Chemie und Pharmazie, Prof. Dr. Andreas Heuer, einem passionierten Fußball-Statistiker. Die FIFA wollte mit der Vergabe von drei statt zwei Punkten für einen Sieg (ein Punkt wie bisher für ein Remis) eine offensivere Spielweise hervorrufen und die in den 1990er Jahren gestiegene Zahl an Unentschieden verringern. Nach Auswertung der Daten stellten die Wissenschaftler allerdings fest, dass sich die Zahl der Remis nicht wie erwartet verringert hat. „Das Vermeiden einer Niederlage hat immer noch höhere Priorität als der Wunsch zu gewinnen“, urteilt Bernd Strauß.
Die drei WWU-Forscher beziehen sich mit ihren Schlussfolgerungen besonders auf die sogenannte „Prospect-Theorie“, eine psychologische Theorie, für die Daniel Kahneman vor einigen Jahren den Nobelpreis für Wirtschaftswissenschaften erhalten hat. Kahnemann stellte fest, dass für viele Menschen nicht das Gewinnen, sondern das Vermeiden von Verlusten die entscheidende Motivation darstellt.
Dank der Analyse konnten die WWU-Forscher ableiten, dass ein „4-1-0-Punktesystem“ (vier Punkte für einen Sieg, ein Punkt für ein Remis, kein Punkt bei einer Niederlage) notwendig wäre, damit Gewinnen attraktiver als das Nicht-Verlieren wird. „Erst damit würden psychologische Anreize zu einer übermäßigen Spielsicherung abgebaut“, meint Bernd Strauß.
In der jüngsten Studie analysierten die Wissenschaftler die Ergebnisse von Erstligaspielen aus 24 Ländern über jeweils 20 Saisons (zehn Jahre vor und zehn Jahre nach Einführung der 3-Punkte-Regel) – insgesamt sammelten sie die Daten aus 118.148 Spielen. Die drei Wissenschaftler stellten fest, dass die Unentschieden nach wie vor deutlich häufiger vorkommen als statistisch erwartet. Zwar war der Anteil der Unentschieden in Zeiten der 2-Punkte-Regel (29,7%) höher als in Zeiten der 3-Punkte-Regel (17,6%). Insofern habe die Einführung der 3-Punkte-Regel zwar weltweit – allerdings nicht in der deutschen Liga – zu einer gewissen Reduktion der Unentschieden geführt. „Dies reicht aber nicht aus, damit in der letzten Spielphase die Offensivbemühungen der Teams nicht nachlassen, wenn es Unentschieden steht“, betont Andreas Heuer.
Die Forscher untersuchten zudem früher nur kurzzeitig eingesetzte Varianten auf ihrer Wirksamkeit. Am besten funktionierte ein sehr eigenwilliges System, das in der bulgarischen Liga von 1984 bis 1987 versuchsweise galt. Dort gab es zwar auch die 2-1-0 Regel, aber mit der entscheidenden Ausnahme, wonach bei einem 0:0 kein Team einen Punkt erhielt. Die Folge: Es gab deutlich weniger 0:0-Spiele, und es fielen erheblich mehr Tore. Man führte dies damals allerdings nicht weiter, „wahrscheinlich, weil es ein zu unübersichtliches System war“, meint Dennis Riedl.
Originalquelle:
Riedl, D., Heuer, A. & Strauss, B. (2015). Why the Three-Point Rule Failed to Sufficiently Reduce the Number of Draws in Soccer: An Application of Prospect Theory. Journal of Sport and Exercise Psychology, 37, 316-326.
Weitere Informationen:
http://www.uni-muenster.de/forschungaz/person/6759 – Forschung A-Z / Prof. Dr. Bernd Strauss
http://www.uni-muenster.de/forschungaz/person/6376 – Forschung A-Z / Prof. Dr. Andreas Heuer
Anhang
Original der Studie
https://idw-online.de/de/attachment47176
Quelle: idw
Lebensmitteleinzelhandel sieht im Bereich Nachhaltigkeit Nachholbedarf bei der Lebensmittelindustrie
Jan Vestweber Pressestelle
Universität Witten/Herdecke
Forscher der Universität Witten/Herdecke: „Nachhaltige Lebensmittelproduktion wird immer mehr zum strategischen Wettbewerbsvorteil“
Inwieweit beeinflussen Nachhaltigkeitsaspekte das unternehmerische Handeln der Konsumgüterbranche? Worin werden die größten Hürden bei der Umsetzung im Unternehmen gesehen? Wo die Perspektiven? Und wie groß schätzen Handel und Industrie das aktuelle Nachhaltigkeitsengagement ihrer Branche ein? Diese und weitere Fragen stellten das ZNU – Zentrum für Nachhaltige Unternehmensführung der Universität Witten/Herdecke und die Lebensmittel Zeitung an Unternehmensvertreter aus Handel und Konsumgüterindustrie. Insgesamt 347 Führungskräfte haben sich an der Umfrage beteiligt.
„Grundsätzlich unterstreichen die Ergebnisse die Einschätzung, dass das Thema Nachhaltigkeit in der Branche angekommen ist und sich immer stärker zum strategischen Wettbewerbsfaktor entwickelt“, erläutern die ZNU-Leiter Dr. Axel Kölle und Dr. Christian Geßner die Resultate der Umfrage. „Sowohl bei Händlern als auch bei Herstellern fließt der Nachhaltigkeitsgedanke verstärkt über das Unternehmensleitbild in die Firmen-DNA ein und führt zu einer zunehmenden Integration von Nachhaltigkeitsstrategien in die klassischen Geschäftsstrategien.“ So sehen beispielweise über 80 Prozent der Händler und Hersteller Nachhaltigkeit als Thema an, das wesentlich zur Zukunftssicherung des Unternehmens beiträgt. Die größten Chancen durch Nachhaltigkeit sehen beide Seiten im Anstoß von Innovationen auf Unternehmens- und Produktebene (Handel 62 Prozent, Hersteller 70 Prozent).
Jeweils drei Viertel der Hersteller und Händler sehen die Transparenz bei der Produktion und in der Lieferkette als wichtigstes Kriterium bei der Lieferantenauswahl des Handels. Einhaltung und Förderung von Sozialstandards in den Erzeuger- und Produktionsländern werden ebenfalls als wichtige Auswahlkriterien genannt.
Zur Bewertung, wie relevant das Thema Nachhaltigkeit auf beiden Seiten ist, haben Handel und Hersteller jedoch deutlich abweichende Meinungen. Während rund 60 Prozent der befragten Hersteller zu der Einschätzung kamen, dass das Thema sowohl im Handel als auch in der Industrie eher stark bis sehr stark ausgeprägt ist, schätzen die Vertreter des Handels die Situation deutlich anders ein. Hier herrschte die Meinung vor, dass Nachhaltigkeit auf Handelsebene deutlich ausgeprägter ist (57 Prozent) als bei der Konsumgüterindustrie (38 Prozent). „Offensichtlich besteht hier eine Diskrepanz in der Wahrnehmung“, sagt Projektleiterin Verena Diekmann. „Es wird deutlich, dass der Austausch zwischen Hersteller und Handel zum Thema Nachhaltigkeit verstärkt werden kann. Die Studie zeigt, dass die Hersteller den Händlern in der Umsetzung von Nachhaltigkeit eher auf Augenhöhe begegnen.“ Einig sind sich mehr als zwei Drittel der Händler und Hersteller hinsichtlich der Überzeugung, dass Konsumenten bevorzugt von Herstellern mit „nachhaltigem Image“ kaufen.
Die größten Hürden bei der Umsetzung von Maßnahmen für mehr Nachhaltigkeit im Unternehmen sehen die Befragten in den hohen Umsetzungskosten (Hersteller 34 Prozent, Handel 28 Prozent), Schwierigkeiten bei der Wirksamkeitsmessung (Hersteller 31 Prozent, Handel 35 Prozent) und mangelndem Kundeninteresse (Hersteller 28 Prozent, Handel 32 Prozent).
„Der Begriff ‚Nachhaltigkeit‘ wird in jüngerer Zeit recht inflationär verwendet und läuft Gefahr, zu einem Modewort zu verkommen“, so Geßner und Kölle. „Umso wichtiger ist es, hier eine stichhaltige Definition zu liefern. Für uns bedeutet nachhaltiger Wirtschaften, auf Unternehmens- und auf Produktebene schrittweise mehr Verantwortung für Mensch und Natur zu übernehmen – vom Unternehmensstandort über die Wertschöpfungskette bis hin zur Gesellschaft. Hierbei gilt es, sowohl das globale Nord-Süd-Gefälle als auch die zukünftigen Generationen im Blick zu haben. Nachhaltiger Wirtschaften ist ein mittel- bis langfristiger Lernprozess, der einen offenen Dialog mit den Anspruchsgruppen des Unternehmens voraussetzt.“
Die aktuelle Studie zum kostenlosen Herunterladen finden Sie unten auf der Seite www.uni-wh.de/universitaet/presse/presse-details/artikel/lebensmitteleinzelhandel-sieht-im-bereich-nachhaltigkeit-nachholbedarf-bei-der-lebensmittelindustrie/
Weitere Informationen: www.uni-wh.de/znu
Kontakt: Alicia Seifer, 02302-926545, alicia.seifer@uni-wh.de
Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 2.200 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.
Das ZNU – Zentrum für Nachhaltige Unternehmensführung ist ein anwendungsorientiertes Forschungsinstitut innerhalb der Fakultät für Wirtschaftswissenschaft. Als Nachhaltigkeitsinitiative von Wirtschaft und Wissenschaft arbeitet das ZNU in den Bereichen Forschung, Lehre, Weiterbildung, Konferenzen daran, Nachhaltigkeit für Führungskräfte von heute und morgen greifbar zu machen und für die Chancen Nachhaltiger Unternehmensführung zu begeistern.
Witten wirkt. In Forschung, Lehre und Gesellschaft.
Quelle: idw
Deutsches Forschungsprojekt zur Auswirkung der Atlantikzirkulation auf Klima und Küstenschutz setzt
Eberhard Scholz Pressestelle
Universität Bremen
BMBF fördert Forschungsverbund RACE mit 4,4 Millionen Euro. Die Koordination liegt bei der Umweltphysikerin Professorin Monika Rhein von der Uni Bremen.
Der deutsche Forschungsverbund RACE „Regionale Atlantikzirkulation im Globalen Wandel“ erforscht seit 2012 die klimarelevanten Strömungen im Atlantik vom Arktischen Ozean bis in die Tropen. Im Fokus stehen dabei die möglichen Auswirkungen auf das atlantische Klimasystem, auf den europäischen Schelfbereich und auf den Küstenschutz in Deutschland. Die Wissenschaftlerinnen und Wissenschaftler setzen dabei auf eine Kombination aus effizienten Beobachtungen in Schlüsselregionen des Atlantiks und realitätsnaher Modellierung. Fünf große Klimaforschungsinstitute und das Bundesamt für Seeschifffahrt und Hydrographie sind am Forschungsverbund beteiligt. Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt das Forschungsprojekt in den kommenden drei Jahren mit 4,4 Millionen Euro. Der Verbund wird ab Januar 2016 von Professorin Monika Rhein vom Zentrum für Marine Umweltwissenschaften (MARUM) und dem Institut für Umweltphysik (IUP) der Universität Bremen koordiniert.
In Westeuropa spielen Meeresströmungen und ihre Änderungen für das Klima eine große Rolle, da sie Wärme aus den Tropen nach Norden transportieren. Die bekannteste Strömung im Nordatlantik, der Golfstrom, gilt als Warmwasserheizung der mittleren und hohen Breiten des Nordatlantiks, und leistet einen signifikanten Beitrag zum milden Klima Nord- und Westeuropas. „Systematische lang anhaltende Zirkulationsänderungen im Atlantik können zu grundlegenden klimatischen Veränderungen in Deutschland und den angrenzenden Regionen führen mit Konsequenzen für die Umwelt und die Wirtschaft“, betont die Bremer Ozeanographin Monika Rhein.
Es wird erwartet, dass sich die Ozeanzirkulation in einer wärmeren Welt erheblich verändern wird. Die in RACE gewonnenen Erkenntnisse werden dazu beitragen, die Schwankungen in der Atlantikzirkulation und ihre Rolle im Klimasystem besser zu verstehen und vorhersagen zu können. Außerdem wird RACE zum sechsten Sachstandsbericht des Weltklimarats IPCC (Intergovernmental Panel on Climate Change) beitragen.
Schwankungen in der Atlantik-Zirkulation beeinflussen aber nicht nur das Klima, sondern auch die Erwärmung und den Meeresspiegelanstieg an den Küsten Westeuropas und haben somit Einfluss auf den Küstenschutz. Deshalb ist neben fünf Forschungsinstituten auch das Bundesamt für Seeschifffahrt und Hydrographie (BSH) am Verbund beteiligt.
Die Partner in RACE
– AWI Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
– BSH Bundesamt für Seeschifffahrt und Hydrographie, Hamburg
– CEN Centrum für Erdsystemforschung und Nachhaltigkeit, Universität Hamburg
– GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
– MPI-Max-Planck-Institut für Meteorologie Hamburg
– MARUM-IUP Zentrum für Marine Umweltwissenschaften – Institut für Umweltphysik, Universität Bremen
Weitere Informationen
Universität Bremen
IUP-MARUM
Prof. Dr. Monika Rhein
Tel: 0421-218-62160
E-Mail: mrhein@physik.uni-bremen.de
Quelle: idw
Wassermangel kann sowohl Konflikte schüren als auch Frieden stiften
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Welche Rolle Wasserknappheit für die internationale Sicherheit spielt, hat das Team um Prof. Dr. Pierre Thielbörger vom Institut für Friedenssicherungsrecht und Humanitäres Völkerrecht der Ruhr-Universität Bochum untersucht. Im Wissenschaftsmagazin RUBIN berichten die Forscher, dass Wassermangel sowohl Konflikte stiften als auch Friedensprozesse fördern kann. Sie erklären außerdem, warum sich der UN-Sicherheitsrat mit dem Thema befassen sollte.
Wasserkriege kamen in der Geschichte praktisch nie vor
In den Medien hört man immer wieder, dass die Kriege der Zukunft unter anderem um Wasser geführt werden. Wasserkriege im eigentlichen Sinne gibt es aber derzeit nicht; auch in der Geschichte kamen sie praktisch nie vor. Denn „Krieg“ ist eine umgangssprachliche Bezeichnung für internationale bewaffnete Konflikte. Wenn zwei oder mehr Gruppen um Zugang zu Wasser kämpfen, geschieht das aber innerhalb der Grenzen eines Landes, also auf nationaler Ebene. Zu diesem Ergebnis kamen die Forscherinnen und Forscher im Projekt „Water Scarcity as Driver for Armed Conflict or Peaceful Cooperation?“, indem sie Ergebnisse aus verschiedenen Studien zusammentrugen und auswerteten.
Konflikte um Wasser finden derzeit nur auf nationaler Ebene statt
Der Klimawandel verschärft den Wassermangel an einigen Orten der Welt – laut Pierre Thielbörger ein Sicherheitsproblem, mit dem sich der Sicherheitsrat der Vereinten Nationen befassen sollte. Er ist der einzige internationale Akteur, der Staaten durch rechtsverbindliche Resolutionen verpflichten kann. Allerdings ist der Sicherheitsrat nur zuständig, wenn der Weltfrieden bedroht ist; derzeit zeigen sich die Auswirkungen des Klimawandels aber in nationalen Konflikten. Mit seinem Team hat der RUB-Forscher eine Argumentation entwickelt, mit der sich juristisch rechtfertigen ließe, dass sich der Sicherheitsrat mit dem Klimawandel und insbesondere der daraus resultierenden Wasserknappheit befasst.
Lösung des Problems liegt ausschließlich auf internationaler Ebene
Die Auswirkungen des Klimawandels zeigen sich zwar innerhalb von Staatsgrenzen, aber die Ursachen und die mögliche Lösung liegen auf der internationalen Ebene. „Kein Staat kann den Klimawandel allein bekämpfen“, erklärt Thielbörger. Für jedes einzelne Land ist es außerdem teuer und nachteilig, Klimaschutzmaßnahmen zu ergreifen, wenn andere Länder nichts tun. „Daher brauchen wir eine neue starke internationale Institution“, so der Jurist. „Solange wir die nicht haben, kann das nur der Sicherheitsrat sein.“
Wassermangel in der Nigerregion als Friedensvermittler
Wassermangel birgt aber nicht nur Konflikt-, sondern auch Friedenspotenzial, wie etwa die afrikanischen Anrainerstaaten am Niger zeigen. Dort regelt die Nigerbecken-Kommission eine gerechte Verteilung der knappen Ressourcen und bringt alle Akteure an einen Tisch – und wenn man schon einmal zusammensitzt, werden auch andere Probleme besprochen.
Ausführlicher Beitrag in RUBIN
Ein ausführlicher Beitrag inklusive Bildmaterial findet sich im Onlinemagazin RUBIN, dem Wissenschaftsmagazin der RUB: http://rubin.rub.de/de/wasserknappheit. Text und Bilder aus dem Downloadbereich dürfen unter Angabe des Copyrights für redaktionelle Zwecke frei verwendet werden. Sie möchten über neu erscheinende RUBIN-Beiträge auf dem Laufenden bleiben? Dann abonnieren Sie unseren Newsfeed unter http://rubin.rub.de/feed/rubin-de.rss.
Förderung
Die Europäische Kommission fördert das Projekt „Water Scarcity as Driver for Armed Conflict or Peaceful Cooperation?“.
Weitere Informationen
Prof. Dr. Pierre Thielbörger, Institut für Friedenssicherungsrecht und Humanitäres Völkerrecht (IFHV) der Ruhr-Universität Bochum, Bochumer Fenster, Massenbergstraße 9 B, 44787 Bochum, Tel. 0234/32-27934, E-Mail: ifhv@rub.de
Angeklickt
Institut für Friedenssicherungsrecht und Humanitäres Völkerrecht
http://www.ifhv.de
Quelle: idw
Herbst-Stürme bringen erneut Salz in die Ostsee: Dritter Salzwassereinbruch in 1,5 Jahren
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Vom 14. bis 22. November strömten erneut große Mengen sauerstoffhaltigen Nordseewassers in die Ostsee. Ausgelöst wurde dieses Ereignis durch eine Abfolge von 12 Sturmtiefs, die seit Anfang November über den Ostseeraum hinwegzogen. Nach ersten Berechnungen passierte in der Haupteinstromphase ein Wasservolumen von etwa 76 km³ mit Salzgehalten zwischen 17-22 g/kg die flachen Schwellen der westlichen Ostsee. Aktuell sammelt es sich im Arkona Becken in 45-25 m Wassertiefe. Der Salztransport entspricht rund 1,4 Gigatonnen. Das Ereignis lässt sich als „Major Baltic Inflow“ mittlerer Intensität einordnen.
Nach dem Jahrhundertereignis vom Dezember 2014, das insgesamt 3,98 Gt Salz transportierte und zusammen mit drei kleineren Einstrompulsen im Winter-Frühjahr 2014 erstmalig seit 2003 das Tiefenwasser der zentralen Ostsee belüfteten, ist dies der dritte Salzwassereinbruch in Folge. Davor herrschten über zehn Jahre lang stagnierende Bedingungen im Tiefenwasser der zentralen Ostsee, gepaart mit Sauerstoffarmut und der Bildung von toxischem Schwefelwasserstoff.
Wieder waren es die automatischen Dauermessungen, die das IOW in Auftrag des Bundesamtes für Seeschifffahrt und Hydrographie an der MARNET-Station Darsser Schwelle durchführt, die den Warnemünder Ozeanographen frühzeitig das beginnende Ereignis anzeigten. Dr. Michael Naumann, am IOW für die hydrophysikalischen Beobachtungen zuständig, hatte die Entwicklung dauernd im Blick: „Wir haben natürlich immer ein Auge auf den Witterungsbedingungen und den Meeresspiegel-änderungen. Zusammen mit den Daten des Umweltmessnetzes MARNET sind wir so bestens gerüstet, um auch rasche Mengen-Abschätzungen durchführen zu können.“ Wie sich dieser erneute Einstrom auf das Ökosystem der Ostsee auswirkt, wird Gegenstand weiterer Untersuchungen sein.
Ergänzung vom 25.11.2015
Kontakt:
Dr. Michael Naumann, Sektion Physikalische Ozeanographie, Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 267
Dr. Günther Nausch, Sektion Meereschemie, Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 332
Dr. Barbara Hentzsch, Öffentlichkeitsarbeit, Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 102
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 17.200 MitarbeiterInnen, davon sind ca. 8.200 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,5 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr. (www.leibniz-gemeinschaft.de)
Quelle: idw
Zahl der Fernpendler deutlich gestiegen, Arbeitswege werden länger
Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Immer mehr Beschäftige pendeln in die großen Städte in Deutschland. Die Zahl der sozialversicherungspflichtig Beschäftigten, die mehr als 150 Kilometer Arbeitsweg zurücklegen, ist zwischen 2003 und 2013 von 1 Million auf 1,2 Millionen Menschen gestiegen. In den sieben größten deutschen Städten Berlin, Köln, Hamburg, Frankfurt am Main, München, Stuttgart und Düsseldorf liegt der Anteil der Fernpendler zwischen fünf und zehn Prozent aller sozialversicherungspflichtig Beschäftigten. Zu diesen Ergebnissen kommt eine Auswertung des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR).
Die Wissenschaftler haben Daten zur Entwicklung der Pendeldistanzen der sozialversicherten Beschäftigten von 1999 bis 2013 auf Gemeindeebene ausgewertet. Danach stieg die durchschnittliche Länge der Arbeitswege von 14,6 Kilometer im Jahr 1999 auf 16,6 Kilometer im Jahr 2013. Besonders lang sind die Distanzen zu den Arbeitsmarktzentren in den dünn besiedelten Räumen abseits der Ballungsräume. In großen Teilen Mecklenburg-Vorpommerns, Brandenburgs und Sachsen-Anhalts müssen Beschäftigte im Durchschnitt mehr als 30 Kilometer auf dem Weg zur Arbeit zurücklegen.
„Unsere Auswertungen zeigen, dass Wohnen und Arbeiten für immer mehr Menschen nicht mehr auf eine Gemeinde beziehungsweise das Umland beschränkt sind“, sagt BBSR-Direktor Harald Herrmann. „Flexibilisierung und Spezialisierung haben zur Folge, dass sich Arbeitsplätze für hochqualifizierte Beschäftigung immer stärker konzentrieren. Viele Beschäftigte sind bereit, für eine ihrer Qualifikation entsprechende Anstellung längere Distanzen in Kauf zu nehmen und nur über das Wochenende zuhause zu sein. Die Ballungsräume sind gut vernetzt. Das fördert die Mobilität auch über große Distanzen“, so Herrmann.
Der Anteil derjenigen Beschäftigten, die innerhalb einer Gemeinde pendeln, nahm von 46,5 Prozent im Jahr 1999 auf 41 Prozent im Jahr 2013 ab. In den letzten Jahren hat sich dieser Trend jedoch abgeschwächt. Einen Grund sehen die Wissenschaftler in der positiven Entwicklung auf dem Arbeitsmarkt. Das Auto bleibt für viele Pendler das dominante Verkehrsmittel. 65 Prozent aller Pendler nutzen den PKW für den Weg zur Arbeit.
Die Analyse ist unter www.bbsr.bund.de abrufbar. Die Printversion ist kostenfrei beim BBSR erhältlich (gabriele.bohm@bbr.bund.de). Das BBSR veröffentlicht seine regional differenzierten verkehrsstatistischen Analysen in unregelmäßiger Folge unter dem Titel „Verkehrsbild Deutschland“. Im Mittelpunkt der Betrachtung stehen die Zusammenhänge von Raum- und Siedlungsstruktur einerseits und dem Verkehrsgeschehen andererseits.
BBSR-Analysen KOMPAKT 15/2015: Verkehrsbild Deutschland – Pendlerströme
http://www.bbsr.bund.de/BBSR/DE/Service/Medien/2015/analysen_pendeln.pdf
Karte (reprofähig): Pendeldistanzen 2013
http://www.bbsr.bund.de/BBSR/DE/Service/Medien/2015/pendeln_Karte.pdf
Kontakt
Christian Schlag
Stab Direktor
Tel. :+49 228 99401-1484
christian.schlag@bbr.bund.de
Thomas Pütz
Digitale Stadt, Risikovorsorge und Verkehr
Tel.: +49 228 99401-2300
thomas.puetz@bbr.bund.de
Folgen Sie dem BBSR auf Twitter: twitter.com/bbsr_bund
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.
Quelle: idw
Kinder: Bei Verdacht auf Legasthenie erst zum Augenarzt
Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft
München – Nicht jede Leseschwäche bei Schulkindern ist zwangsläufig eine Lese- und Rechtschreibstörung (LRS), auch Legasthenie genannt. Oft liegt es an den Augen und eine Brille kann die Fehlsichtigkeit ausgleichen. Die Deutsche Ophthalmologische Gesellschaft (DOG) rät deshalb bei Verdacht auf eine LRS zu einer augenärztlichen Untersuchung. Auch bei einer bestehenden Legasthenie kann eine Sehstörung die Symptome zusätzlich verstärken. Empfehlungen für die Diagnostik und Behandlung einer LRS gibt eine Leitlinie, an der die DOG mitgewirkt hat.
„Beim Verdacht auf eine Lese- und Rechtschreibstörung sollte immer ein Augenarzt untersuchen, ob die Augen die Ursache dafür sind“, betont Professor Dr. med. Susanne Trauzettel-Klosinski von der Universitäts-Augenklinik Tübingen, die für die DOG an der Leitlinie mitgearbeitet hat. Schon einfache Tests zeigen, ob eine Sehschwäche der Grund für die vielen Rechtschreibfehler im Diktat ist: Liegt der Fehler beim Sehen, verbessert sich die Lesefähigkeit mit Hilfe geeigneter Sehhilfen sofort deutlich, weiß die Expertin. „Scharfes Sehen ist eine wichtige Voraussetzung, um Lesen und Schreiben zu lernen“, erklärt die Leiterin der Forschungseinheit für Visuelle Rehabilitation. So können Weitsichtigkeit, schielende Augen oder eine verminderte Naheinstellung der Augenlinse dazu führen, dass Buchstaben und Wörter nicht scharf auf der Netzhaut abgebildet werden. Oft reicht dann schon eine Brille, um die Lesefähigkeit deutlich zu verbessern. Aber auch Kinder mit einer bestehenden LRS sollten regelmäßig ihre Augen untersuchen lassen. Denn schlechtes Sehen kann diese verstärken.
Zwei bis vier Prozent der deutschen Schulkinder leiden an einer schweren Lese- und Rechtschreibstörung. Trotz durchschnittlicher Intelligenz geraten sie im Vergleich zu ihren Klassenkameraden in Rückstand beim Lesen und Schreiben. Die Ursachen dafür sind nicht endgültig geklärt. Studien weisen aber auf eine fehlerhafte Verarbeitung von sprachlichen Informationen im Gehirn hin. Den Kindern fällt es zum Beispiel schwer, die Buchstaben beim Lesen in Laute umzuwandeln. Die Behandlungsempfehlung der Leitlinie lautet darum auch, diesen Umwandlungsvorgang mit den Betroffenen zu üben – zum Beispiel durch gemeinsames Vorlesen. Hinzu kommen Rechtschreibtrainings und eventuell Übungen zum Textverständnis. Therapieansätze mit Medikamenten, Prismengläsern oder Brillen mit Farbfiltern dagegen sind nicht wissenschaftlich untersucht und können den Betroffenen sogar schaden.
Das Wichtigste sei, die LRS frühzeitig zu erkennen und zu behandeln, so Trauzettel-Klosinski. „Je früher die Betroffenen gezielte Förderung erhalten, desto mehr Chancen haben sie, ihre Defizite aufzuarbeiten“, betont die Expertin. Unbehandelt manifestiert sich die Legasthenie als dauerhafte Störung, die sowohl die schulische und berufliche Laufbahn als auch das persönliche Wohlbefinden stark einschränkt.
Literatur:
Diagnostik und Behandlung von Kindern und Jugendlichen mit Lese- und/oder Rechtschreibstörungen, Deutsche Gesellschaft für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie e. V. (DGKJP)
Zur Leitlinie: http://www.kjp.med.uni-muenchen.de/forschung/leitl_lrs.php
Weitere Informationen:
http://www.dog.org
Quelle: idw
Medizin aus dem Meer
Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH
Man sieht, spürt, riecht sie nicht. Und doch sind in jedem Tropfen Meerwasser Millionen von ihnen enthalten. Ein von der EU finanziertes Projekt erforscht die Vielfalt der Mikroorganismen – und ihre Eignung zur Gewinnung neuer Wirkstoffe. Erste Ergebnisse liegen jetzt vor.
Gut 2000 Röhrchen, jedes kaum größer als ein Finger, gefüllt mit prallem maritimen Leben. Gesammelt weltweit zur Sommersonnenwende am 21. Juni 2014 und 2015, nach einheitlichen Standards in den Küstengewässern dieser Welt, vom Nordpolarmeer bis hin zu tropischen Regionen. Geschickt per Post nach Bremen. Was genau ist da drin? Wie wird es von der Umwelt beeinflusst? Und: Wie lässt es sich nutzen?
Der „Ocean Sampling Day“ war zentraler Bestandteil des von der EU geförderten Projekts „Micro B3″ (Mikrobielle Diversität, Bioinformatik und Biotechnologie). 2014 strömten erstmals weltweit Wissenschafter aus, um Wasserproben zu nehmen. In diesem Jahr stießen „Bürgerwissenschaftler“ hinzu, um sich an der Probennahme zu beteiligen. So entstand ein einmaliger, globaler Schnappschuss der mikrobiologischen Diversität.
„Erstmals erfassen wir in diesem Projekt mit molekularen Techniken die genetische Vielfalt der marinen Mikroorganismen weltweit und untersuchen, wie sich die biologische Diversität verändert“, sagt Projekt-Koordinator Prof. Frank Oliver Glöckner von der Jacobs University und dem Max-Planck-Institut für Marine Mikrobiologie in Bremen. Insbesondere der Einfluss des Menschen auf die Kleinstlebewesen, die Entwicklung von Resistenzen gegenüber Antibiotika, die etwa über die Landwirtschaft ins Meer gelangen, interessiert die Wissenschaftler. Aber auch ihre kommerzielle Verwertbarkeit ist für die 32 Partner aus 14 europäischen Ländern von Belang.
Mikroorganismen sind ein zentraler Bestandteil der marinen Nahrungskette. Sie bauen totes biologisches Material ab und führen es dem Nährstoffkreislauf wieder zu. Sie produzieren Biomasse, Sauerstoff und vertilgen Kohlendioxid. Ist das Meer aus dem Tritt, dann auch deshalb, weil die kleinsten Meeresbewohner beeinträchtigt sind.
Die Kleinstlebewesen sind aber auch Träger von genetischen Informationen, die für industrielle Zwecke genutzt werden können. „Das Meer ist das größte Ökosystem der Erde“, sagt Prof. Glöckner. „Von der Wasseroberfläche bis hin zur Tiefesee umfasst es eine riesige Bandbreite von teils extremen Lebensformen, die sich an die unterschiedlichsten Habitate angepasst haben. Von dem dort vorhandenen genetischen Material kennen wir nur einen Bruchteil.“
Schon heute stammen viele Enzyme aus dem Meer und extremen Habitaten. So zum Beispiel die lukrative „Taq-Polymerase“, die im Labor zur Vervielfältigung von DNA eingesetzt wird und aus einem Bakterium gewonnen wurde, das in den heißen Quellen des Yellowstone Parks lebt. Oder das Medikament „Zovirax“, eine Lippenherpescreme. Insbesondere die Waschmittelindustrie ist an Enzymen interessiert, die Verunreinigungen, wie zum Beispiel Eiweiß, bei niedrigen Waschtemperaturen abbauen können. Mehr als 18.000 Naturstoffe und 4900 Patente sind nach Angaben von Prof. Glöckner bereits aus marinen Organismen entstanden.
Mindestens zwei weitere Patente kommen durch Micro B3 hinzu. Zum einen geht es um ein Enzym, das den Phosphatausstoß in der Tierhaltung reduzieren soll. Und zum zweiten um ein neues Antibiotikum, das zunächst in der Fischzucht eingesetzt werden soll, womöglich aber auch für medizinische Anwendungen geeignet ist.
Noch ist die Auswertung der Proben in vollem Gange. Als erste „Hotspots“ für den sichtbaren Einfluss des Menschen, angezeigt durch ein erhöhtes Vorkommen von Antibiotikaresistenzen, haben sich die Azoren, der Golf von Mexiko bei New Orleans sowie die Küste vor Montevideo erwiesen. „Warum das so ist, wissen wir noch nicht. Wir sind erst am Anfang, die Rolle der Mikroorganismen zu verstehen“, sagt Prof. Glöckner. Ende des Jahres läuft Micro B3 aus. Der Bioinformatiker und Molekularbiologe versucht mit seinen Kollegen derzeit, Gelder einzusammeln. „Das Interesse der Forscher und Bürger an einer Fortsetzung des Ocean Sampling Days“, sagt Glöckner, „ist ungebrochen.“
Weitere Informationen unter:
http://www.microb3.eu
Fragen beantwortet:
Prof. Dr. Frank Oliver Glöckner | Professor für Bioinformatik und Micro B3 Koordinator
f.gloeckner@jacobs-university.de | Tel.: +49 421 200- 3167
Über die Jacobs University:
Die Jacobs University ist eine private, unabhängige, englischsprachige Universität in Bremen. Hier studieren junge Menschen aus der ganzen Welt in Bachelor-, Master- und PhD-Programmen. Internationalität und Transdisziplinarität sind die besonderen Kennzeichen der Jacobs University: Forschung und Lehre folgen nicht einem einzigen Lösungsweg, sie gehen Fragestellungen aus der Perspektive verschiedener Disziplinen an. Dieses Prinzip macht Jacobs Absolventen zu begehrten Nachwuchskräften, die erfolgreich internationale Karrierewege einschlagen.
Kontakt:
Kristina Logemann | Brand Management, Marketing & Communications
k.logemann@jacobs-university.de | Tel.: +49 421 200- 4454
Quelle: idw
Gluten oder nicht Gluten? Überempfindlichkeit auf Weizen kann unterschiedliche Ursachen haben
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Viele Menschen klagen über eine Unverträglichkeit auf Getreideprodukte. Doch nicht immer verbirgt sich dahinter eine Gluten-Intoleranz, und nicht jede vermeintliche Gluten-Intoleranz ist auf Gluten zurückzuführen.
Warum immer mehr Menschen nach dem Verzehr von Getreideprodukten über Bauchschmerzen, Blähungen, Durchfall oder Verstopfung klagen, ist nicht genau bekannt. „Als mögliche Ursache wird zum einen die Hochzüchtung der modernen Getreidesorten diskutiert, die mit einem erhöhten Gehalt von Gluten und anderen Substanzen verbunden ist“, berichtet Professor Dr. med. Yurdagül Zopf, eine Expertin für klinische und experimentelle Ernährungsmedizin am Universitätsklinikum Erlangen. Aber auch das zunehmende öffentliche Interesse an einer Gluten-freien Ernährung dürfte die Aufmerksamkeit auf eine Erkrankung gelenkt haben, die medizinisch nur schwer fassbar ist.
Die Symptome ähneln sehr denen einer Zöliakie oder einer Weizenallergie, den beiden anderen Formen einer Getreideunverträglichkeit. Anders als bei der Zöliakie, die oft im Kindesalter beginnt, finden die Ärzte bei Menschen mit NZNWWS bei einer Darmspiegelung keine Veränderungen der Dünndarmschleimhaut. Und die Antikörper im Blut, die auf eine Weizenallergie hinweisen, fehlen ebenfalls. Der einzige diagnostische Hinweis sind die Beschwerden, die innerhalb von wenigen Stunden nach dem Verzehr von Gluten-haltigen Lebensmitteln auftreten und sich unter Einhalten einer glutenfreien Diät innerhalb weniger Tage und Wochen wieder bessern. „Eine Zöliakie entwickelt sich dagegen meistens langsam“, erläutert Professor Zopf: „Zur Besserung kommt es erst, wenn sich die Darmschleimhaut erholt hat.“
Dass tatsächlich das Klebereiweiß Gluten der alleinige Auslöser ist, wird laut Professor Zopf von der Wissenschaft zunehmend bezweifelt. „Weizenmehl enthält noch andere Bestandteile, die bei empfindlichen Menschen Beschwerden verursachen können“, sagt die Expertin. Zu den verdächtigen Substanzen zählen Amylase-Trypsin-Inhibitoren. „Diese Proteine, mit denen Pflanzen Schädlinge abwehren, kommen vor allem in den modernen und hochgezüchteten Getreidesorten vor“, sagt Professor Zopf. Der menschliche Darm könne Amylase-Trypsin-Inhibitoren nicht abbauen. Bei einem Kontakt mit der Schleimhaut komme es kurzfristig zur Aktivierung des Immunsystems.
Weizenmehle enthalten auch eine Reihe von Kohlenhydraten, die als FODMAP – „fermentierbare Oligo-, Di-, Monosaccharide und Polyole“ – zusammengefasst werden. „FODMAPs werden vom Darm nicht resorbiert. Beim Fermentieren entstehen Gase und die Bindung von Wasser kann eine abführende Wirkung haben“, erläutert Professor Zopf: „Dies erklärt plausibel die von den Patienten beschriebenen Blähungen und Durchfälle.“
Da die Forschung nicht sicher ist, welche Bestandteile des Mehls für die Überempfindlichkeit verantwortlich sind, wird der Begriff Gluten-Intoleranz gemieden. Deshalb die Bezeichnung: „Nicht-Zöliakie-Nicht-Weizenallergie-Weizensensitivität“ oder NZNWWS. Professor Zopf äußert dazu: „Damit wird zum Ausdruck gebracht, dass andere Ursachen wie Zöliakie oder Weizenallergie erst ausgeschlossen werden müssen, bevor die Diagnose gestellt werden kann.“ Eine Therapie haben die Mediziner noch nicht gefunden. Für viele Betroffene ist die Vermeidung von Gluten-haltigem Mehl die einzige Möglichkeit, sich zu schützen.
Quelle: idw
Schlüssel für eine erfolgreiche Energiewende: Die Informations- und Kommunikationstechnologien
Mareike von Frieling Pressearbeit
Münchner Kreis
Die Energiewende führt zu einem dezentralen Energiesystem, das auf einer – im Vergleich zu unserem heutigen Energiesystem – deutlich größeren Anzahl von jedoch weniger steuerbaren Erzeugungseinheiten basiert. Zur Erreichung eines nachhaltigen, sicheren und wirtschaftlichen Energiesystems und für den intelligenten Umgang mit der zunehmenden Komplexität ist der Einsatz von Informations- und Kommunikationstechnologien (IKT) in großem Ausmaß erforderlich. Darüber waren sich die Teilnehmer des vom MÜNCHNER KREIS veranstalteten Berliner Gesprächs „Wichtige Schritte auf dem Weg zur erfolgreichen Energiewende“ am 14. Oktober in den EIT ICT Labs einig.
Nun ist es an der Politik, einen koordinierten Masterplan zur Schaffung der richtigen Rahmenbedingungen zu erarbeiten, damit eine sichere Energieversorgung auf Basis erneuerbarer Energien erreicht werden kann. Dieser Masterplan sollte den steigenden Bedarf der IKT abbilden und alle wichtigen Akteure in einem partizipativen Prozess einbinden.
Dr. Christoph Reichle vom Bundesministerium für Wirtschaft und Energie machte in seiner Auftaktrede deutlich, dass nicht nur Deutschland mitten in der Energiewende steckt, sondern weltweit 164 Länder die Ziele und Politik der erneuerbaren Energien verfolgen. Als Besonderheiten der deutschen Energiewende identifizierte er sowohl die schnellen Zuwachsraten bei den erneuerbaren Energien, die Deutschland in das Energiesystem integrieren muss, als auch den stetig sinkenden Energieverbrauch. Die Herausforderung besteht seiner Meinung nach darin, die verschiedenen Handlungsfelder der Energiewende (u.a. Übertragungsnetze, Verteilnetze, Ausbau der erneuerbaren Energien sowie Digitalisierung), die bisher nebeneinander verliefen, zu verknüpfen. Den Kern der Energiewende bildet der Netzausbau, der aber gleichzeitig aufgrund mangelnder gesellschaftlicher Akzeptanz auch deren Achillesferse ist. Hier müssen die Verbraucher frühzeitig einbezogen werden.
Höhere Komplexität als das Internet
Bereits heute speisen über 1,5 Millionen Erzeugungseinheiten in unser Energiesystem ein, Tendenz steigend. Die Versorgungssicherheit in einem solch komplexen System kann nur durch verlässliche IKT stabilisiert und letztlich garantiert werden. „Die Komplexität unseres zukünftigen Energiemanagementsystems wird höher sein als die des Internets“, sagte Prof. Dr. Dieter Rombach, Technische Universität Kaiserslautern und Fraunhofer IESE. „Heute können wir ein solch komplexes Energiemanagementsystem nicht verlässlich bauen. Die Energiewende zwingt uns aber dazu dieses bisher komplexeste Artefakt der Menschheit zu entwickeln.“ Unternehmen bieten heute zwar Einzellösungen; für eine zuverlässige Energieversorgung sind aber integrierte Lösungen mit klaren Schnittstellen notwendig, auch auf europäischer Ebene. Für eine intelligente Steuerung der Energieversorgung ist das Thema Big Data unerlässlich. Rombach wies darauf hin, dass ein Kompromiss zwischen Datenschutz und den Chancen für neue Geschäftsmodelle, die auf der Sammlung von Daten basieren, gefunden werden muss, um die Akzeptanz in der Gesellschaft sicherzustellen. Transparenz spielt dabei eine wichtige Rolle, denn die Gesellschaft steht der Erfassung von Daten grundsätzlich skeptisch gegenüber. Die IKT muss künftig auf Augenhöhe mit der Energiebranche stehen. Doch Rombach sieht auch die Energieversorger in der Pflicht: „Sie sollten sich Gedanken über ihre Zukunft machen und neue Geschäftsmodelle im Dienstleistungsbereich hervorbringen, wenn sie dieses Feld nicht den Googles dieser Welt überlassen wollen.“
Dr. Benedikt Römer, Siemens AG und MÜNCHNER KREIS, sieht in der Energiewende eine große Chance für die deutsche Volkswirtschaft, denn neue Geschäftsmodelle und neue Lösungen schaffen Wert und Arbeitsplätze. „Durch die Förderungen von Innovationen im Bereich intelligenter Energie kann sich Deutschland als Vorreiter etablieren, die Modernisierung des Energiesystems in Europa vorantreiben und weltweit neue Produkte und Lösungen vermarkten“, so Römer. Wichtig ist in der Umsetzung ein zielgerichteter Einsatz von Technologie- und Prozessinnovationen. Best Practice Beispiele und gut geplante Transformationsprojekte können hierbei wichtige Unterstützung leisten, um aus den vielfältigen Informations- und Kommunikationstechnologien die richtigen auszuwählen und möglichst wertschaffend zu nutzen.
Deutschland droht Anschluss zu verlieren
Ein völliges Umdenken forderte Johannes Kempmann, Präsident des Bundesverband der Energie- und Wasserwirtschaft e.V (BDEW). „Mit Blick auf die zunehmende Volatilität der Einspeisung und anstehende Dekarbonisierung in den kommenden Jahrzehnten brauchen wir dringend eine ganzheitliche Vernetzung der Energiewende und müssen die Bundesländer dazu bringen, an einem Strang zu ziehen. Momentan haben wir in Deutschland gleichzeitig 16 Energiewenden, Abstimmung sucht man vergebens. Und auch im Bereich Innovationen gibt es viel Luft nach oben: Die Investitionen in Forschung und Entwicklung, zum Beispiel im Bereich Energiespeicher, sind zu gering. Länder wie Frankreich und Spanien sind uns hier weit voraus, Deutschland droht den Anschluss zu verlieren“, so Kempmann.
Dr. Hermann Falk, Hauptgeschäftsführer des Bundesverband Erneuerbare Energien e.V (BEE), wies in seinem anschließenden Impulsvortrag darauf hin, dass bei allen Forderungen nach Innovationen nicht das Spannungsverhältnis zwischen neuen innovativen Geschäftsmodellen und dem Bedürfnis der Menschen nach Datensicherheit und Datenschutz außer Acht gelassen werden darf. Für Barbie Kornelia Haller von der Bundesnetzagentur ist der Netzausbau der Flaschenhals der Energiewende, der zusätzliche Investitionen erfordert. Einsparpotentiale in diesem Bereich können mithilfe der Digitalisierung realisiert werden. Die IKT-Wirtschaft sieht sie insbesondere im Bereich der intelligenten Messtechnik in der Pflicht (Stichwort: Smart Meter) und fordert die Belohnung innovativer Technologieentwicklung.
Synergien zwischen Forschungsbereichen bleiben oft ungenutzt
In der abschließenden Paneldiskussion wurde deutlich, dass in der Forschung und Entwicklung die drängendsten Energiefragen in den unterschiedlichen Bereichen (Smart Cities, Smart Grid etc.) separat angegangen werden – ein „waste of energy“. Die Diskussionen finden vertikal, in abgetrennten Forschungsgebieten statt. Wertvolle Synergien bleiben bisher ungenutzt. Es sollte über Domänengrenzen hinweg die horizontale Zusammenarbeit verstärkt und gefördert werden. Die Energiewende als Generationenprojekt war ein weiteres Thema, das aufgeworfen wurde. Hier lautet die Devise: Konsequenz. Wir müssen beispielsweise an der Offshore Windenergie festhalten, auch wenn sie augenblicklich ein Kostentreiber ist. Eine Verlagerung der Kosten auf die nachfolgenden Generationen kann nicht der richtige Weg sein. Einig waren sich alle Teilnehmer, dass über die Durchführung praktischer Projekte gezeigt werden muss, wie die Energiewende funktionieren kann, und diese Projekte ebenfalls einen enormen Beitrag zur gesellschaftlichen Akzeptanz leisten.
Übergabe des Positionspapiers an Bundesminister Gabriel
Am Donnerstag, den 23. Oktober übergab Prof. Dr. Dieter Rombach, Leiter des Arbeitskreis Energie des MÜNCHNER KREIS, dem Bundesminister für Wirtschaft und Energie Sigmar Gabriel bei einem Treffen am Fraunhofer IESE in Kaiserslautern das Positionspapier „50 Empfehlungen für eine erfolgreiche Energiewende“.
Der MÜNCHNER KREIS wird als unabhängige Plattform zwischen Politik, Wirtschaft und Wissenschaft die Diskussion mit allen Stakeholdern fortsetzen und so den Prozess der Energiewende konstruktiv begleiten und zu Entscheidungsfindungen beitragen.
Weitere Informationen:
http://www.muenchner-kreis.de
http://www.muenchner-kreis.de/download/Empfehlungen_fuer_eine_erfolgreiche_Energ…
Anhang
Pressemitteilung Berliner Gespräch Energiewende
https://idw-online.de/de/attachment45778
Quelle: idw
Klimawandel verändert europäische Vogelwelt
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Wissenschaftler des Senckenberg Biodiversität und Klima Forschungszentrums (BiK-F) haben gemeinsam mit internationalen Kollegen die Veränderungen der europäischen Vogelwelt im Zuge des Klimawandels untersucht. Das Team definiert einige Gewinner, aber auch zahlreiche Arten, die von den Folgen des Klimawandels bedroht sind. Grundlage der Studie waren Beobachtungen von über 50.000 Bürgerwissenschaftlern in einem Zeitraum von 18 Jahren. Die Studie ist kürzlich im renommierten Fachjournal „Global Change Biology“ erschienen.
Den Birkenzeisig (Carduelis flammea) erkennt man leicht an seinem charakteristischen roten Fleck oberhalb des Schnabels – antreffen kann man den kleinen Vogel in Island, Skandinavien, Irland, Schottland und im Alpenraum. Im Winter kommen die Zeisige aus dem Norden nach Mittel- und Osteuropa. „Wie lange der Birkenzeisig noch zu uns kommt, wissen wir nicht“, sagt Prof. Dr. Katrin Böhning-Gaese, Direktorin des Senckenberg Biodiversität und Klimaforschungszentrums und fährt fort: „Wir haben herausgefunden, dass diese kleinen Vögel es bedingt durch den Klimawandel zukünftig schwerer haben werden.“
Böhning-Gaese ist Zweitautorin einer unter der Leitung des dänischen „Center for Macroecology, Evolution and Climate“ entstandenen Studie zu den Auswirkungen des Klimawandels auf die europäische Vogelwelt. In dieser konnte das internationale Team Gewinner und Verlierer des Klimawandels definieren: Wärmere Winter wirken sich beispielsweise positiv auf so genannte „Standvögel“ wie Gartenbaumläufer oder Türkentauben aus; von längeren Frühjahren und damit auch Brutzeiten profitieren Kurzstrecken-Zieher, wie der Stieglitz oder die Heidelerche.
„Überwiegend wird sich der Klimawandel aber wohl negativ auf die europäische Vogelwelt auswirken“, erläutert Böhning-Gaese. Vor allem Vögel mit Verbreitungen in kälteren Regionen wie der Haussperling, die Raben- und Nebelkrähe, der Wiesenpieper und verschiedene Zeisigarten sind bedroht. Erschwerend kommt die Intensivierung der Landwirtschaft in vielen europäischen Ländern hinzu – besonders für Zugvögel, die zum Teil zwei Kontinente durchqueren, fehlen zunehmend Orte, an denen sie rasten können.
„Die ‚Langstreckenzieher‘ sind überhaupt eine spannende Gruppe“, fügt die Frankfurter Biologin hinzu. Langstreckenzieher, die spät im Jahr in Europa ankommen – wie der Steinschmätzer oder der Gartenrotschwanz – profitieren nämlich von den wärmeren Jahreszeiten. Sie sind aber gleichzeitig auch vom Klimawandel in Afrika betroffen und damit die am wenigsten vorhersehbare Gruppe. „Ein Rückgang der Artenzahl innerhalb der Langstreckenzieher kann aber schon mit den Daten dokumentiert werden. Die Vögel benötigen daher besonderen Schutz“, empfiehlt Böhning-Gaese.
Die Studie zeigt zudem, dass die Auswirkungen des Klimawandels eng mit den Brutzeiten der verschiedenen Vogelarten zusammenhängen. Böhning-Gaese hierzu: „Um solche Zusammenhänge zu verstehen, sind Langzeit-Studien genauso wichtig wie kurzfristige, jahreszeitliche Trends.“
Das Wissenschaftler-Team konnte über die internationalen Organisationen „BirdLife International“ und „European Bird Census Council“ auf Datensätze von 50.000 freiwilligen Vogelbeobachtern zurückgreifen und so die Veränderung von 51 Vogelarten aus 18 europäischen Ländern zwischen den Jahren 1990 und 2008 untersuchen. „Ein Paradebeispiel, wie gut die Zusammenarbeit von ‚Citizen Science‘ und akademischer Wissenschaft funktionieren kann“, freut sich Böhning-Gaese.
Kontakt
Prof. Dr. Katrin Böhning-Gaese
Senckenberg Biodiversität und
Klima Forschungszentrum
Tel. 069- 7542 1890
katrin.boehninggaese@senckenberg.de
Publikation
Peter Søgaard Jørgensen , Katrin Böhning-Gaese, Kasper Thorup, Anders P. Tøttrup, Przemyslaw Chylarecki, Frédéric Jiguet, Aleksi Lehikoinen, David G. Noble, Jiri Reif, Hans Schmid, Chris van Turnhout, Ian J. Burfield, Ruud Foppen Petr Voříšek, Arco van Strien, Richard D. Gregory and Carsten Rahbek (2015): Continental-scale global change attribution in European birds – combining annual and decadal time scales. Global Change Biology (2015), doi: 10.1111/gcb.13097
Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.
Weitere Informationen:
Pressemitteilung und Bildmaterial finden Sie auch unter www.senckenberg.de/presse
Quelle: idw
„Jugendlicher“ Blutdruck im Alter schützt auch vor Schlaganfall
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Gemeinsame Presseinformation der Deutschen Schlaganfall-Gesellschaft (DSG) und der Deutschen Gesellschaft für Neurologie (DGN)
Die meisten Menschen, die einen Schlaganfall erleiden, hatten zuvor über viele Jahre einen erhöhten Blutdruck. Eine konsequente Blutdruckkontrolle ist deshalb die beste Präventivmaßnahme, um Behinderungen zu reduzieren oder einen vorzeitigen Tod durch einen Schlaganfall zu verhindern, empfehlen die Deutsche Schlaganfall-Gesellschaft (DSG) und die Deutsche Gesellschaft für Neurologie (DGN). Die jetzt veröffentlichten Ergebnisse der US-amerikanischen SPRINT-Studie zeigen, dass auch ältere Menschen einen „jugendlichen“ Blutdruck anstreben sollten.
Ein gesunder jüngerer Mensch hat einen Blutdruck von 120 zu 80 mm Hg. Bei den meisten Menschen steigen mit zunehmendem Alter die Blutdruckwerte langsam an. Das lässt sich mit Medikamenten ausgleichen. „Früher galt die Regel, dass der obere Wert 100 plus dem Lebensalter entsprechen darf“, sagt DSG-Pressesprecher, Professor Dr. med. Joachim Röther, Chefarzt an der Asklepios Klinik in Hamburg-Altona: „Für einen 60-Jährigen wurde deshalb ein oberer Wert von 160 mm Hg als normal, ja sogar gesund angesehen.“ Auch in den Leitlinien werden relativ hohe Werte toleriert. Das „Joint National Committee“ (JNC 8), das in den USA Leitlinien zur Blutdruckkontrolle herausgibt, vertrat noch im vergangenen Jahr die Ansicht, dass bei Menschen über 60 ein Blutdruck bis 150/90 mm Hg toleriert werden sollte. „Die Begründung lautete, dass die Blutdrucksenkung im Alter schwierig und der Nutzen einer aggressiven Blutdrucksenkung nicht belegt sei“, erinnert sich Professor Röther. Diese Haltung wird nach Ansicht des Experten jetzt durch die Ergebnisse der SPRINT-Studie relativiert.
An der Studie hatten mehr als 9000 Hochdruckpatienten im Alter über 50 Jahre teilgenommen (keine Diabetiker). Bei der Hälfte strebten die Ärzte eine Blutdrucksenkung auf den Wert von 120 mm Hg an, bei der anderen Hälfte waren 140 mm Hg der Zielwert. Die jetzt auf der Jahrestagung der American Heart Association in Orlando/Florida vorgestellten Ergebnisse zeigen, dass die intensivere Blutdruckkontrolle bereits nach wenigen Jahren die Zahl der Herz-Kreislauf-Ereignisse um 25 Prozent und die Zahl der Herz-Kreislauf-Todesfälle um 43 Prozent vermindert hat. Zwar kam es in der Patientengruppe mit niedrigem Blutdruck zu einer höheren Rate an Hypotension (niedrigem Blutdruck), Synkopen (plötzlicher Bewusstlosigkeit) und Nierenfunktionsstörungen, aber die positiven Effekte waren so eindrucksvoll, dass die Studie vorzeitig beendet wurde. Professor Röther: „Dies wird in den USA und sicherlich auch in Deutschland zu einer Veränderung der Empfehlungen führen.“
„Die konsequente Normalisierung der Blutdruckwerte wird langfristig auch die Zahl der Schlaganfälle senken“, vermutet Professor Dr. med. Hans-Christoph Diener, Direktor der Klinik für Neurologie am Uniklinikum Essen. „In der SPRINT-Studie nahm die Zahl der Schlaganfälle zwar nur um 11 Prozent ab und der Unterschied war statistisch nicht signifikant“, berichtet der Pressesprecher der Deutschen Gesellschaft für Neurologie. Dieser geringe Einfluss könnte jedoch mit der kurzen Beobachtungszeit von etwas über drei Jahren zusammenhängen, so Professor Diener: „Die meisten Schlaganfälle sind die Folge einer allmählichen Gefäßverkalkung in den Hals- und Hirnarterien, die sich über viele Jahre entwickelt. Viele Langzeitstudien zeigen, dass ein normaler Blutdruck der beste Schutz vor einem Schlaganfall ist.“
Zwar wurden Schlaganfallpatienten nicht in die SPRINT-Studie eingeschlossen, dennoch vermutet Professor Röther, dass sich niedrigere Zielwerte langsam durchsetzen werden. „Es wird sicher nicht gleich eine generelle Empfehlung für einen Zielwert unter 120 mm Hg systolisch geben, aber die JNC 8 Empfehlung, Patienten älter als 60 Jahre erst ab einem Blutdruck von 150 mm Hg zu behandeln, dürfte wieder vom Tisch sein. Wir werden die Patienten allerdings auch überzeugen müssen, mehr Wirkstoffe als bisher einzunehmen“, sagt der DSG-Pressesprecher. Am langfristigen Nutzen ist aus Sicht der beiden Experten nicht zu zweifeln. In den Industrieländern, in denen die Blutdruckkontrolle sehr ernst genommen wird und entsprechend weit verbreitet ist, sei die Zahl der Schlaganfälle gesunken.
Literatur:
The SPRINT Research Group: A Randomized Trial of Intensive versus Standard Blood-Pressure Control. NEJM, November 9, 2015DOI: 10.1056/NEJMoa1511939 http://www.nejm.org/doi/pdf/10.1056/NEJMoa1511939
Fachlicher Kontakt bei Rückfragen:
Prof. Dr. med. Joachim Röther
Pressesprecher der Deutschen Schlaganfall-Gesellschaft (DSG)
Chefarzt Neurologische Abteilung, Asklepios Klinik Altona, Paul-Ehrlich-Straße 1, 22763 Hamburg
Tel.: +49 (0)40-181881-1401, E-Mail: j.roether@asklepios.com
Prof. Dr. med. Hans-Christoph Diener
Pressesprecher der Deutschen Gesellschaft für Neurologie (DGN)
Direktor der Neurologischen Universitätsklinik Essen, Hufelandstr. 55, 45122 Essen
Tel.: +49 (0)201-7232460, E-Mail: h.diener@uni-essen.de
Weitere Informationen:
http://www.dsg-info.de
Quelle: idw
UDE: Studie zur Einkommensungleichheit in Deutschland – Auch Arbeitszeit vergrößert die Kluft
Katrin Koster Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Die wachsende Einkommenskluft in Deutschland wird nicht nur durch niedrige Löhne, sondern auch durch geringe Arbeitszeiten verursacht. Viele Haushalte rutschen wegen Teilzeit in die unterste Einkommensschicht, während andere aufgrund langer Arbeitszeiten mit zwei Vollverdienern nach ganz oben aufrücken können – selbst mit mittleren Stundenlöhnen. Das zeigen aktuelle Untersuchungen des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen (UDE).
„Die Arbeitszeiten sind zunehmend ungleich verteilt“, stellt IAQ-Direktor Prof. Dr. Gerhard Bosch fest. Vor allem in den unteren Einkommensschichten hat die Vollzeitbeschäftigung abgenommen. Hier haben nur noch 42 Prozent der Haushalte einen Vollverdiener; das sind 20 Prozentpunkte weniger als vor 15 Jahren. In der Oberschicht sind es hingegen stabile 78 Prozent.
Mit wachsendem Einkommen steigt die Zahl der bezahlten Arbeitsstunden, wie die Studie zeigt: Der durchschnittliche Stundenlohn in der Oberschicht war zwischen 2011 und 2013 mit 38,62 Euro rund fünfmal höher als der in der Unterschicht. Und die Arbeitszeiten der besser gestellten Haushalte liegen im Durchschnitt um 2.000 Stunden pro Jahr über denen, die am schlechtesten verdienen.
Mit höheren Stundenlöhnen verändern sich die Optionen: Haushalte können es sich eher leisten, dass zwei Verdiener nur Teilzeit arbeiten oder einer die Familie alleine ernährt. Die höchsten Stundenlöhne in der Oberschicht hatten mit 51 Euro die Alleinernährer und mit 52 Euro die Haushalte mit zwei Teilzeitbeschäftigten.
Der Wunsch der Wenigverdiener, ihr Gehalt durch längere Arbeitszeiten aufzubessern, ist allerdings selten erfolgreich. Ihnen wird oft wegen geringer Qualifikation nur Teilzeitarbeit angeboten oder sie sind unfreiwillig arbeitslos. „Die Chancen, Arbeits- und Erwerbswünsche auch tatsächlich zu realisieren, sind sehr unterschiedlich“, so Prof. Bosch. Die Wünsche nach mehr Arbeit nehmen mit steigendem Einkommen pro Haushalt ab. In der untersten Schicht würden fast 44 Prozent länger arbeiten, während es in der Oberschicht knapp 21 Prozent sind. Besonders ausgeprägt ist dieses Bestreben bei den Teilzeitbeschäftigten und den Minijobbern.
Nach Einschätzung von Professor Bosch muss die Beschäftigungs- und Wirtschaftspolitik darauf zielen, die Ungleichheit bei den Markteinkommen zu verringern. „Die Fehlanreize für Beschäftigte, nur kurz zu arbeiten, und für Unternehmen, nur Minijobs anzubieten, müssen beseitigt werden.“ Gleichzeitig müssen die Arbeitszeitoptionen gering Qualifizierter durch Nachqualifizierung verbessert werden.
Weitere Informationen:
http://www.iaq.uni-due.de/iaq-forschung/2015/fo2015-01.pdf
Prof. Dr. Gerhard Bosch, Institut Arbeit und Qualifikation, gerhard.bosch@uni-due.de, Tel. 0203/379-1827
Redaktion: Claudia Braczko, Tel. 0170/8761608, claudia.braczko@uni-due.de
Quelle: idw
Holz statt Erdöl: Neuer Weg zur Herstellung chemischer Verbindungen aus nachwachsendem Material
Petra Giegerich Kommunikation und Presse
Johannes Gutenberg-Universität Mainz
Wissenschaftler gründen neue internationale Forschergruppe, um an der Entwicklung einer nachhaltigen chemischen Infrastruktur zu arbeiten
Bei der Herstellung chemischer Stoffe könnte Erdöl vielleicht schon bald durch Holz ersetzt werden. Die Forschungen zum Ersatz von Erdöl durch nachwachsende Rohstoffe in der Chemie sind jedenfalls einen bedeutenden Schritt vorangekommen. Wissenschaftler der Johannes Gutenberg-Universität Mainz (JGU) und der University of Alabama in Tuscaloosa haben zwei Wirkstoffe aus holzbasierten Ausgangsmaterialien hergestellt und gezeigt, dass sich die üblicherweise auf Erdölprodukten beruhenden Synthesen ohne wirtschaftliche Verluste ersetzen lassen. „Unsere Idee ist es, dass wir Alltagsprodukte aus erneuerbaren Ressourcen herstellen, ohne dass wir dadurch die Umwelt schädigen, aber trotzdem wirtschaftlich konkurrenzfähig bleiben“, erklärte Univ.-Prof. Dr. Till Opatz von der JGU dazu. Die Forschungsarbeit wurde in dem renommierten Fachmagazin Angewandte Chemie veröffentlicht und von der Redaktion als Titelbeitrag ausgewählt.
Am Institut für Organische Chemie der JGU beschäftigt sich die Gruppe um Till Opatz im Rahmen des Forschungsverbundes Chemische Biomedizin (ChemBioMed), gefördert durch die Carl-Zeiss-Stiftung, mit der Synthese von Wirkstoffen, die unter anderem das Wachstum von Tumorzellen hemmen. Die US-Forscherkollegen unter Leitung von Prof. Dr. Anthony J. Arduengo III waren hingegen an der Verwendung von Holzinhaltsstoffen für die nachhaltige Herstellung einer breiten Palette chemischer Grundstoffe, etwa für die Produktion von Autolacken, interessiert. Auf einer Fachtagung in Goslar vor zwei Jahren stellten die beiden Forscher fest, dass sich ihre Ansätze hervorragend ergänzen würden, wenn man sie in geeigneter Weise kombiniert. Seither fand ein intensiver Austausch von Wissenschaftlern und Studierenden zwischen Mainz und Tuscaloosa statt, um diese Zusammenarbeit zu befeuern.
Gemeinsam konnten die beiden Teams nun zeigen, dass sich die üblicherweise auf Erdölprodukten basierenden Synthesen der verschiedenen Wirkstoffe so abändern lassen, dass die Kohlenstoffgerüste ihrer Moleküle ausschließlich aus holzbasierten Ausgangsmaterialien aufgebaut werden. Dabei gab es im Falle einer Zielverbindung, des Naturstoffes Ilicifolin B, keine Vergleichsmöglichkeit mit klassischer Petrochemie, da es sich um die erste Synthese dieser Substanz überhaupt handelte. Im Falle von Derivaten des natürlichen Schmerzmittels Morphin übertraf jedoch die Effizienz der xylochemischen Synthese sämtliche zuvor bekannten petrochemischen Varianten deutlich.
„Dies zeigt, dass die Verwendung von Holz als nachwachsender Ressource nicht mit einer Reduktion der Wirtschaftlichkeit verbunden sein muss“, so Daniel Stubba, Erstautor der Veröffentlichung von der JGU. „Die Xylochemie, also die chemische Synthese aus Holz, könnte einen wichtigen Beitrag zum Ersatz der endlichen und auch klimaschädlichen Erdöl- und Erdgasnutzung in der chemischen Produktion leisten.“ Weitere Untersuchungen sollen nun andere Fragestellungen aus dem gleichen Themenkreis adressieren. Dazu wurde eine internationale Forschergruppe mit dem Namen STANCE (Sustainable Technology for a new Chemical Economy) gegründet. Sie bringt Wissenschaftler aus den USA, Deutschland, Japan und Kanada zusammen, die gemeinsam an der Entwicklung einer alternativen, nachhaltigen chemischen Infrastruktur arbeiten, welche nicht auf endlichen Ressourcen beruht, ökologische Ungleichgewichte vermeidet und dennoch kostengünstig ist.
Holz beinhaltet eine Palette von möglichen Ausgansstoffen, die aufgrund ihrer chemischen Struktur für viele Anwendungen besser geeignet sind als Erdölprodukte. Letztere müssen oft erst aufwändig umgewandelt werden, um die gleiche Funktionalität zu erreichen. „Holz als erneuerbare und einfach zugängliche Ressource ist ein ideales Ausgangsmaterial. Seine Inhaltsstoffe gleichen einem Baukasten, aus dessen Bausteinen Produkte für eine modere Gesellschaft hergestellt werden können“, sagte Opatz mit einem Hinweis darauf, dass gerade Alabama und Deutschland, wie auch Kanada, über reiche Holzvorkommen verfügen.
Veröffentlichung:
Daniel Stubba et al.
Xylochemie – Naturstoffsynthese aus Holz
Angewandte Chemie, 21. Oktober 2015
DOI: 10.1002/ange.201509446
Weitere Informationen:
Univ.-Prof. Dr. Till Opatz
Institut für Organische Chemie
Johannes Gutenberg-Universität Mainz (JGU)
55099 Mainz
Tel. +49 6131 39-22272 oder 39-24443
Fax +49 6131 39-22338
E-Mail: opatz@uni-mainz.de
http://www.chemie.uni-mainz.de/OC/AK-Opatz/index.php
Weitere Links:
http://onlinelibrary.wiley.com/doi/10.1002/ange.201509446/abstract (Abstract und Titelbild)
http://www.wiley-vch.de/util/hottopics/suschem/
Quelle: idw
Kupferkorrosion in Trinkwasserleitungen: Konsens über bundesweite Datenerhebung
Stephan Berends Strategie & Kommunikation / Presse
VDI Verein Deutscher Ingenieure e. V.
Die Problematik tauchte bereits vor einigen Jahren auf: Nach wenigen Betriebsjahren entsteht aus ungeklärten Gründen Kupfer-Lochkorrosion in Trinkwasserleitungen. Experten rätseln über die Ursache. Einige sehen das Trinkwasser selbst als Auslöser für die Leitungslöcher, andere geben Materialmängeln, Lager- oder Einbaufehlern die Schuld. Um dem Problem auf den Grund zu gehen und eine neutrale Plattform für Gespräche zu bieten, veranstaltete der VDI am Donnerstag, 19.11.2015, ein Expertengespräch, zudem u.a. Vertreter aus Forschung, Handwerk sowie Gas- und Wasserwirtschaft kamen.
Die Ursache des Lochfraßes in Trinkwasserleitungen soll mit einer bundesweiten Datenerhebung und -auswertung analysiert werden. Darauf verständigten sich Experten und Fachleute. Der Bundesindustrieverband Technische Gebäudeausrüstung (BTGA), das Deutsche Kupferinstitut (DKI), der Deutscher Verein des Gas- und Wasserfaches (DVGW), die Versicherungswirtschaft, die Handwerksverbände und betroffene Handwerksbetriebe schickten Vertreter, um an dem vom VDI organisierten Expertengespräch teilzunehmen.
Zunächst soll das Auftreten von Kupfer-Lochkorrosionen aufgezeichnet und überprüft werden, ob die Schäden mit bekannten Vorgängen zu erklären sind. Das DKI erklärte sich bereit, dieses Vorgehen mit Eigenleistungen zu unterstützen. Danach ist zu prüfen, welche weiteren Untersuchungen notwendig sind.
Dipl.-Ing., Dipl.-Chem. Rainer Kryschi, stellvertretender Vorsitzender des Fachausschusses Sanitärtechnik in der VDI-Gesellschaft Bauen und Gebäudetechnik, stellt klar: „Die auftretenden Fälle müssen im Moment als völlig ungeklärt betrachtet werden. Aus der Tatsache, dass das Wasser der Trinkwasserverordnung und den anerkannten Regeln der Technik entspricht und die Werkstoffe geprüft und zertifiziert sind, lässt sich z. B. nicht ableiten, dass die Ursache für Schadenfälle zwingend in der Verarbeitung liegen muss.“
Daher fordert der VDI, dass die Ursache der zahlreichen Fälle von Kupfer-Lochkorrosion positiv identifiziert wird und nötigenfalls die anerkannten Regeln der Technik aktualisiert werden. Damit kann planenden und ausführenden Betrieben die Sicherheit gegeben werden, dass sie auf Basis der geltenden Regeln eine sichere und zuverlässige Trinkwasser-Installation erstellen können.
Weitere Informationen:
https://www.vdi.de/presse/artikel/kupferkorrosion-in-trinkwasserleitungen/
Quelle: idw
Aus Koksofengas wird Backpulver: Weltweit erste Versuchsanlage bei ThyssenKrupp in Duisburg
Erik Walner Media Relations Steel
ThyssenKrupp AG
Aus Kohle Kekse zu machen – das ist theoretisch mit einer völlig neuartigen Technologie möglich, die im Rahmen eines Gemeinschaftsprojekts von der Kokerei Schwelgern (KBS), dem Anlagenbauer ThyssenKrupp Industrial Solutions und der Technischen Universität Berlin entwickelt wurde. Auf dem Werkgelände von ThyssenKrupp Steel Europe in Duisburg ist eine Pilotanlage in Betrieb gegangen, die eine Substanz produziert, die tatsächlich auch als Backpulver einsetzbar ist. Das Versuchsaggregat nutzt Prozessgase, die bei der Herstellung von Koks entstehen, und wandelt diese in vermarktbare Stoffe wie Düngemittel und Treibmittel für die Chemieindustrie um, gleichzeitig wird der CO2-Ausstoß vermindert.
Bahnbrechende Technologie wandelt Prozessgas in verwertbare Stoffe um
Im Vordergrund bei der weltweit ersten Anlage ihrer Art steht nicht, mit der Herstellung des sogenannten Hirschhornsalzes in die Lebensmittelindustrie einzusteigen. „Kokereien gibt es auf der ganzen Welt. Wir wollen mit dem neu entwickelten Verfahren den Betreibern die Chance bieten, ihre Prozessgase sinnvoll weiterzuverwenden und die Produktivität ihrer Anlagen zu steigern“, erläutert Dr. Holger Thielert von ThyssenKrupp Industrial Solutions: „Hierfür haben wir ein Verfahren entwickelt und patentiert, das Koksofengase ressourcenschonend in verwertbare Stoffe umwandelt. Dieses Verfahren können wir weltweit vermarkten oder auch in bestehenden Anlagen installieren.“
Am Anfang des neuen Verfahrens steht die Produktion von Koks, neben Eisenerz der Haupteinsatzstoff zur Herstellung von Roheisen im Hochofen. „Dabei wird in der Kokerei Kohle unter hohen Temperaturen ‚gebacken‘. Die in diesem Prozess entstehenden heißen Gase führen eine Reihe von Stoffen mit sich. In der Versuchsanlage wird nun in ein einem komplexen Verfahren das Koksofengas gewaschen. Unter Beigabe von Kohlenstoffdioxid entsteht Ammoniumbikarbonat – umgangssprachlich Hirschhornsalz“, erklärt Dr. Thielert. Die entstehenden Endprodukte sind vielfältig einsetzbar: als Stickstoffdünger, als Treib- und Schäumungsmittel für Kunststoffe oder poröse Keramiken und letztlich auch in der Nahrungsmittelindustrie.
Auf dem Weg zum Einsatz im Großmaßstab
Nach erfolgreichen Testläufen unter Laborbedingungen wurden zwei Forscher der Technischen Universität Berlin mit dem Bau der Pilotanlage in Duisburg beauftragt. „Die entscheidenden Versuche können nur unter realen Bedingungen stattfinden“, erläutert Sebastian Riethof, Wissenschaftler von der TU Berlin. Für die Testphase bietet die Kokerei Schwelgern als Teil des integrierten Hüttenwerks von ThyssenKrupp Steel Europe in Duisburg optimale Bedingungen. „Läuft hier auf der Kokerei alles wie geplant, kann das neue Verfahren auch im Großmaßstab angewendet werden“. Die ersten Ergebnisse waren vielversprechend: „95 Prozent des im Koksofengases enthaltenen Ammoniaks können genutzt werden. Aus 15 Kubikmetern Koksofengas und zwei Kubikmetern Kohlenstoffdioxid entstehen so pro Stunde 15 Kilogramm Feststoffe“, erläutert Riethof die Effizienz der Anlage. Die Chemieprodukte können so zu marktfähigen Kosten hergestellt werden.
Pilotanlage verringert umweltschonend CO2-Emissionen
Laufen die Tests weiter erfolgreich, wäre dies ein echter Durchbruch in Sachen Produktivität und Ressourceneffizienz – auch für die Kokerei Schwelgern: „Schon jetzt werden hier in Duisburg nahezu alle anfallenden Prozessgase möglichst effizient verwertet“, erklärt KBS-Geschäftsführer Peter Liszio. „Gelingt es uns jetzt noch langfristig, sowohl aus den Koksofengasen am Markt absetzbare Produkte für andere Industriezweige herzustellen und zugleich den CO2-Ausstoß des Hüttenwerks zu senken, wäre das ein echter Mehrwert, der auch der Umwelt zugutekommt.“ Deshalb könnten Idee und Anlagentyp bei positivem Fortschritt künftig auch weltweit zum Einsatz kommen.
Kokerei versorgt Hochöfen im Duisburger Norden mit Koks
Die Kokerei Schwelgern stellt jährlich 2,6 Millionen Tonnen Brennstoff für die Duisburger Hochöfen her. Sie ist die modernste Anlage ihrer Art in Europa und besitzt die weltweit größten Öfen. Derzeit sind rund 300 Mitarbeiter dort beschäftigt. Der Betrieb der Kokerei erfolgt unter der zu ThyssenKrupp Steel Europe gehörenden Betriebsführungsgesellschaft Kokereibetriebsgesellschaft Schwelgern GmbH (KBS).
Weitere Informationen:
http://www.thyssenkrupp-steel-europe.com
Anhang
https://idw-online.de/de/attachment46020
Quelle: idw
Je verbitterter Menschen sind, umso eher machen sie sich Sorgen wegen Zuwanderung
Monika Wimmer Pressestelle
Sozio-oekonomisches Panel (SOEP)
Je verbitterter Menschen sind, desto höher ist die Wahrscheinlichkeit, dass sie sich wegen Zuwanderung nach Deutschland Sorgen machen. Das gilt für Frauen und Männer aus allen gesellschaftlichen Schichten. So lauten die zentralen Ergebnisse einer Studie auf der Basis von Daten der Langzeitstudie Sozio-oekonomisches Panel (SOEP), die Ökonomen des Ifo Instituts in München und der Helmut-Schmidt-Universität in Hamburg erstellt haben. Die Studie wurde jetzt als 800. SOEPpaper veröffentlicht.
Das Gefühl von Verbitterung wird in der Psychologie als eine Mischung aus Ärger und Hoffnungslosigkeit beschrieben, die daraus resultiert, dass Menschen sich von anderen Menschen oder vom Schicksal benachteiligt fühlen.
Um den Zusammenhang zwischen Verbitterung und einer kritischen Einstellung gegenüber Zuwanderung zu untersuchen, haben Panu Poutvaara vom Ifo Institut und Max Friedrich Steinhardt von der Helmut-Schmidt-Universität Daten von mehr als 16.000 Erwachsenen ausgewertet, die 2005 und 2010 in der repräsentativen Studie SOEP befragt worden waren. Zum einen hatten die Befragten auf einer Punkteskala angegeben, inwieweit sie glaubten, in ihrem Leben im Vergleich zu anderen nicht das erreicht zu haben, was sie verdienten. Die Antworten auf diese Frage dienten den Forschern als Indikator für den Grad der Verbitterung der Befragten. Zum anderen hatten die Befragten Angaben – unabhängig von der Frage zur Verbitterung – darüber gemacht, ob und wie sehr sie sich wegen der Zuwanderung sorgten.
Die Analyse der SOEP-Daten zeigt: Je verbitterter die Befragten waren, desto eher machten sie sich Sorgen wegen der Zuwanderung. Unter denjenigen Befragten, die sehr verbittert waren, machten sich 43 Prozent starke Sorgen. Unter denjenigen, die überhaupt nicht verbittert waren, waren es nur gut 15 Prozent.
Panu Poutvaara vom Ifo Institut warnt davor, dass eine in vielen europäischen Ländern infolge der Wirtschaftskrise steigende Verbitterung der Menschen zu wachsender Fremdenfeindlichkeit führen könnte. „Die Integration von Zuwanderern würde so weiter erschwert – sowohl für die Migranten selbst, als auch für die Aufnahmegesellschaft.“
Worin liegt der Grund für diesen Zusammenhang? „Eine mögliche Erklärung besteht darin, dass verbitterte Menschen tief vom Leben enttäuscht sind und daher auch anderen Menschen – Migranten eingeschlossen – kein besseres Leben gönnen“, sagt Max Friedrich Steinhardt.
Die Forscher hatten auch andere mögliche Erklärungen mit Hilfe verschiedener statistischer Verfahren überprüft. Ihre Berechnungen zeigen jedoch: Weder der Bildungsgrad noch die Arbeitssituation der Befragten, weder Angst vor Kriminalität noch ihre individuelle Lebenszufriedenheit können vollständig erklären, warum verbitterte Menschen sich stärker als andere wegen der Zuwanderung sorgen. Der Grad der Verbitterung ist deswegen erklärungskräftig.
STICHWORT SOEP:
Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP im DIW Berlin wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft von Bund und Ländern gefördert. Für das SOEP werden seit 1984 jedes Jahr vom Umfrageinstitut TNS Infratest Sozialforschung mehrere tausend Menschen befragt. Zurzeit sind es etwa 30.000 Befragte in etwa 15.000 Haushalten. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung, Gesundheit und Lebenszufriedenheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.
DIE STUDIE:
Poutvaara, Panu and Max Friedrich Steinhardt (2015): Bitterness in life and attitudes towards immigration. SOEPpaper Nr. 800
Link zur Studie: http://www.diw.de/documents/publikationen/73/diw_01.c.519191.de/diw_sp0800.pdf
KONTAKT ZU DEN FORSCHERN:
Prof. Panu Poutvaara, Ph.D.
Tel: +49(0)89/9224-1372, E-mail: poutvaara@ifo.de
Dr. rer. pol. Max Friedrich Steinhardt
Tel: +49(0)40/6541-2616, E-Mail: steinhardt@hsu-hh.de
Weitere Informationen:
http://www.diw.de/documents/publikationen/73/diw_01.c.519191.de/diw_sp0800.pdf Link zur Studie
http://www.diw.de/soep Das Sozio-oekonomische Panel (SOEP)
http://www.facebook.com/SOEPnet.de Das Sozio-oekonomische Panel (SOEP) auf Facebook
Quelle: idw
Deutscher Umweltpreis 2015: Weckruf zum Schutz der Erde
Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
DBU fordert mit Ehrung der Forscher Latif und Rockström von UN-Klimakonferenz entschlossenes Handeln – Bundespräsident übergab Preise – Ehrenpreis an Succow
Essen. Der Deutsche Umweltpreis der Deutschen Bundesstiftung Umwelt (DBU) ist zum 23. Mal vergeben. Aus den Händen von Bundespräsident Joachim Gauck und der DBU-Kuratoriumsvorsitzenden und Parlamentarischen Staatssekretärin im Bundesumweltministerium, Rita Schwarzelühr-Sutter, nahmen heute in Essen der Klima- und Meeresforscher Prof. Dr. Mojib Latif (61, Kiel) und der global agierende Nachhaltigkeitswissenschaftler Prof. Dr. Johan Rockström (49, Stockholm) den höchstdotierten, unabhängigen Umweltpreis Europas in Empfang. Die DBU will mit der Auszeichnung der Klimaexperten im Vorfeld der Ende November in Paris stattfindenden Klimakonferenz der Vereinten Nationen einen Appell an die internationale Staatengemeinschaft richten, entschlossen zu handeln und so die Zukunft des Planeten Erde zu sichern. Latif und Rockström erhalten je 245.000 Euro. Mit dem bisher viermal von der DBU zusätzlich vergebenen, mit 10.000 Euro dotierten Ehrenpreis wurde Prof. em. Dr. Michael Succow (78, Greifswald) für sein lebenslanges Naturschutz-Engagement geehrt.
Die DBU würdigte Latif als einen der herausragenden Klimaforscher Deutschlands. Er weist unter anderem darauf hin, dass der Planet Erde ohne intakte Ozeane für Menschen unbewohnbar zu werden drohe. In zahlreichen Büchern und fachwissenschaftlichen Beiträgen richtet Latif sich an Experten und ein breites Zielpublikum, auch an Kinder und Jugendliche. Er zeige damit seinen hohen wissenschaftlichen Anspruch und Ehrgeiz, Bücher so zu schreiben, dass sich ihre Inhalte einer breiten Öffentlichkeit leichter erschließen.
Rockström habe die biophysischen Grenzen für den Planeten festgesetzt, innerhalb derer eine verträgliche sozio-ökologische Entwicklung möglich bleibe. Gemeinsam mit namhaften Experten habe er weltweit verfügbare Daten zum Zustand der Erde zusammengeführt, gewichtet und auf Basis konkreter Messgrößen Belastungsgrenzen für die Erde definiert, die den Planeten von seinem jetzigen, für den Menschen wünschenswerten, stabilen Zustand abbringen könnten – wie zum Beispiel beim Ziel der internationalen Klimapolitik, die globale Erwärmung auf weniger als eineinhalb bis zwei Grad gegenüber dem Niveau vor Beginn der Industrialisierung zu begrenzen. Er habe einen konkreten und wichtigen Rahmen für Politik, Wirtschaft und Gesellschaft geschaffen.
Ehrenpreisträger Succow gelte national wie international als Ausnahmepersönlichkeit im Naturschutz, unterstrich die DBU. Sein Engagement für große Wildnisge¬biete in Deutschland sei einmalig. Innerhalb kürzester Zeit sei es Succow zum Zeitpunkt der deutschen Wiedervereinigung gelungen, mit dem Nationalparkpro¬gramm für den Osten Deutschlands auf einen Schlag fast 18 Prozent der Landesfläche der ehemaligen DDR für die Natur zu sichern. Bis heute habe dieses Herzstück ostdeutschen Naturschutzes auf¬grund seiner wegweisenden Konzeption Beispielwirkung auch für den Umwelt¬schutz und die naturverträgliche Landnutzung in Westdeutschland und ganz Europa.
Die Preisträger selbst machten in Filmen, die während des Festaktes eingespielt wurden, ihre Positionen und Einstellungen noch einmal deutlich. Latif unterstrich die Bedeutung der Ozeane als „Klimamotoren“. Änderten sich Meeresströmungen, schlage sich das auch auf das Klima nieder. Das Leben der Menschen hänge vom Wohlergehen der Meere ab – auch deswegen dürften sie nicht als Mülldeponien missbraucht und in dem Maße überfischt werden, wie das zurzeit schon der Fall sei. Latif: „Wir müssen aufhören, die Meere zu überfordern.“ Global und generell müssten die Emissionen etwa auf dem heutigen Stand eingefroren werden. Die Warnsignale, die schon jetzt auszumachen seien, müssten ernstgenommen werden. Latif: „Wenn das Klima eine Bank wäre, hätten wir es schon längst gerettet!“ Der Dynamik der erneuerbaren Energien wies Latif eine zentrale Bedeutung zu. Sie könnten so schnell Auswirkungen auf die Klimaentwicklung zeigen, dass Klimaverhandlungen auf politischer Ebene gar nicht mehr gebraucht würden.
Auch Rockström unterstrich im Film die Bedeutung des Wassers als entscheidend für das Leben. Der Umgang mit ihm bestimme in hohem Maße, ob es Hunger gebe, Armut oder sogar Kriege. Mit Blick auf die globalen Kohlendioxid-Emissionen unterstrich Rockström, dass nur noch fünf bis zehn Jahre blieben, sie „radikal zu reduzieren“. Rockström: „Die Menschen wollen das, aber die Politiker entscheiden zu langsam.“ Deshalb sei der anstehende UN-Klimagipfel „wahrscheinlich der wichtigste Klimagipfel, den es je gab. Er ist unsere beste und letzte Chance auf eine sichere Zukunft für das Klima. Die Frage sollte nie wieder sein, ob wir den Klimaschutz angehen, sondern nur: wie schnell.“ Auch sein Modell der planetaren Grenzen, in das die Themen Klimawandel, Versauerung der Ozeane, Ozonloch und Luftverschmutzung eingeflossen sind, werde von den Menschen verstanden, „weil es dem Wachstum keine Grenzen setzt“. Denn wirtschaftliches Wachstum und Entwicklung müssten nicht beschnitten werden, um das Klima zu retten.
„Ehrenpreisträger Succow unterstrich im Film, die Menschen müssten begreifen, „dass Natur, die wir nicht nutzen, die wir nicht zerstören, etwas Fundamentales ist. Denn dieses ökologisch gebaute Haus braucht eben diesen ungestörten Naturhaushalt. Die Rahmenbedingungen für unsere Zivilisation setzt die Natur.“ Er kritisierte, „immer alles als Fortschritt zu deklarieren, was eigentlich zerstörerisch ist.“ Deshalb seien „Erhalten, Haushalten und Innehalten das, wie wir alle leben können, ohne dabei unglücklicher zu werden.“
Zum Hintergrund: Mit dem 2015 zum 23. Mal verliehenen Deutschen Umweltpreis der DBU – dem unabhängigen, mit 500.000 Euro höchstdotierten Umweltpreis Europas – werden Leistungen von Personen ausgezeichnet, die vorbildlich zum Schutz und Erhalt der Umwelt beigetragen haben oder in Zukunft zu einer deutlichen Umweltentlastung beitragen werden. Es können Projekte, Maßnahmen oder Lebensleistungen einer Person prämiert werden. Kandidaten für den Deutschen Umweltpreis werden der DBU vorgeschlagen. Berechtigt dazu sind etwa Arbeitgeberverbände und Gewerkschaften, Kirchen, Umwelt- und Naturschutzverbände, wissenschaftliche Vereinigungen und Forschungsgemeinschaften, Medien, das Handwerk und Wirtschaftsverbände. Selbstvorschläge sind nicht möglich. Eine vom DBU-Kuratorium ernannte Jury, besetzt mit unabhängigen und herausragenden Experten aus Wirtschaft, Wissenschaft, Technik und gesellschaftlichen Gruppen, empfiehlt dem DBU-Kuratorium die Preisträger für das jeweilige Jahr. Das DBU-Kuratorium fällt die Entscheidung. Mit dem nur sporadisch vergebenen DBU-Ehrenpreis wurden bisher nur Michail Gorbatschow, Professor Dr. Hannelore „Loki“ Schmidt (†), Professor Heinz Sielmann (†) und Hubert Weinzierl ausgezeichnet.
Weitere Informationen:
https://www.dbu.de/123artikel36492_2362.html
Quelle: idw
Ausbau der Windenergie gefährdet Schreiadler
Eva Goris Kommunikation
Deutsche Wildtier Stiftung
Die Windenergie eilt in Deutschland von Rekord zu Rekord und dringt immer weiter in naturnahe Gebiete vor, in denen gefährdete Wildtiere zu Hause sind. Während sich die Branche in dieser Woche zu den „24. Windenergietagen“ im mecklenburgischen Linstow trifft, werden in den Brutgebieten der letzten Schreiadler zahlreiche neue Flächen für Windenergieanlagen geplant.
Das ergab eine Analyse der aktuellen Planungen in Mecklenburg-Vorpommern und Brandenburg durch die Deutsche Wildtier Stiftung. In Deutschland gibt es derzeit nur 110 Brutpaare dieser hochbedrohten Art.
Im östlichen Teil Mecklenburg-Vorpommerns und in Nordbrandenburg, wo noch Schreiadler leben, sind momentan insgesamt 140 Eignungsgebiete für Windenergieanlagen geplant, davon liegen 63 Gebiete weniger als sechs Kilometer von Schreiadler-Brutplätzen entfernt – 13 sogar weniger als drei Kilometer. Mehrere dieser Eignungsgebiete gefährden mehr als ein Schreiadlerpaar. Die Entscheidungen über diese Gebiete fallen in Kürze.
„In der Planungsregion Vorpommern ist die Gefahr für Schreiadler besonders groß“, so Prof. Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. „Dass Windenergieanlagen diese Vögel gefährden, wissen auch die Verantwortlichen in den jeweiligen Landesregierungen.“ Daher hätten Mecklenburg-Vorpommern und Brandenburg eine besondere Verantwortung und müssten entsprechend handeln. „Die Umsetzung dieser Pläne wäre ein Beispiel für Ignoranz und mangelnde Achtung vor der Natur“, so Vahrenholt.
Nach den Recherchen der Deutschen Wildtier Stiftung standen schon zu Jahresbeginn 691 Windkraftanlagen weniger als sechs Kilometer von Schreiadlerbrutplätzen entfernt, davon 168 sogar weniger als 3 km. In vielen Fällen handelt es sich um Altanlagen, die nach Ablauf der Genehmigung zurückgebaut werden müssten.
Schreiadler können durch Windenergieanlagen nicht nur ihren angestammten Lebensraum verlieren, sondern auch ihr Leben. Allein in Deutschland sind bisher vier Schreiadler mit Rotoren kollidiert, weitere Opfer sind aus Polen, Rumänien und Griechenland bekannt. Bei der Genehmigung von Windenergieanlagen gilt in Mecklenburg-Vorpommern und Brandenburg bereits seit Jahren eine Tabuzone von drei Kilometern um den Brutplatz. Fachleute der Länderarbeitsgemeinschaft der Vogelschutzwarten halten jedoch eine Tabuzone von mindestens sechs Kilometern für erforderlich.
Die Deutsche Wildtier Stiftung fordert zum Schutz des Schreiadlers beim Ausbau der Windenergie:
* Mindestabstand von sechs Kilometern zu Schreiadler-Brutvorkommen
* Schutzmaßnahmen für Schreiadler-Brutplätze im Abstand von weniger als sechs Kilometern zu bestehenden Anlagen. Die Wirksamkeit der Maßnahmen muss durch eine Erfolgskontrolle belegt werden.
* Um eine dauerhaft gesicherte Zukunft von Schreiadlerpopulation zu sichern, sind ausreichende Flächen von Windenergieanlagen freizuhalten, auch wenn dort aktuell keine Schreiadler siedeln. Solche Vorranggebiete für den Schutz des Schreiadlers müssen möglichst bald in beiden Bundesländern ausgewiesen werden.
Die Karte zeigt, wie viele bestehende Windkraftanlagen und zusätzlich geplante Gebiete den Schreiadler gefährden.
Weitere Informationen:
Für Rückfragen: Dr. Jochen Bellebaum, 040 9707869-25
Eva Goris
Pressesprecherin
Telefon: 040 9707869-13
E.Goris@DeWiSt.de
http://www.DeutscheWildtierStiftung.de
Quelle: idw
Knorpelersatz kann Gelenkbeschwerden im Knie häufig lindern
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Düsseldorf – Wenn die Knorpelschicht, die für eine reibungsfreie Bewegung im Kniegelenk sorgt, beschädigt ist, können Orthopäden heute gleich auf mehrfache Weise helfen. Ein Experte stellt auf der MEDICA EDUCATION CONFERENCE 2015, die vom 16. bis 19. November in Düsseldorf stattfindet, die aktuellen Therapiemöglichkeiten vor, nennt aber auch Grenzen der Behandlung.
Der Gelenkknorpel ist ein empfindliches Gewebe, das leicht beschädigt werden kann. „Bei Kniespiegelungen finden wir bei zwei von drei Patienten mindestens eine Läsion“, berichtet Privatdozent Dr. Justus Gille, Oberarzt an der Klinik für Orthopädie und Unfallchirurgie am Universitätsklinikum Schleswig-Holstein: „Bei jedem fünften Patienten sind die Defekte so tief, dass der Knochen zu sehen ist.“
Früher galten Beschädigungen am Gelenkknorpel als nicht reparierbar, weil das Knorpelgewebe nur eine sehr begrenzte Fähigkeit hat, sich selbst zu erneuern. Im Verlauf wurden jedoch gleich mehrere Behandlungsverfahren entwickelt. PD Dr. Gille teilt sie in zwei Gruppen: Bei der ersten wird versucht, die Selbsterneuerung durch Anfrischen des Knorpeldefektes anzuregen. Bei der zweiten Gruppe werden Knorpelstücke von gesunden, wenig benutzten Abschnitten entweder direkt verpflanzt oder entnommene Knorpelzellen im Labor vermehrt und dann in einer zweiten Operation implantiert.
„Eine Auffüllung des Defektes mit Knorpelersatzgewebe kann durch die Stimulation des Knochenmarks unterhalb des Knorpeldefekts erreicht werden“, erklärt PD Dr. Gille. Der Orthopäde und Unfallchirurg entfernt zunächst die geschädigten Knorpelanteile. Danach gibt es zwei Verfahren. Entweder sticht der Operateur mit einer speziellen Ahle an mehreren Stellen durch die Knochenschicht bis ins Knochenmark. Dies wird als Mikrofrakturierung bezeichnet. Alternativ kann der Arzt auch mehrere Löcher in den Knochen bohren. Beide Male kommt es zu einer Blutung. „In dem Knorpeldefekt bildet sich ein Gerinnsel, das neben roten Blutzellen auch Stammzellen enthält“, so der Experte: „Diese Stammzellen bilden dann einen Ersatzknorpel.“
Das neue Gewebe erreiche jedoch nicht die Qualität des ursprünglichen Gelenkknorpels, berichtet PD Dr. Gille. Deshalb wurde nach einer Optimierung dieser Verfahren gesucht, die nun als innovative Verfahren zur Verfügung stehen. Hierbei wird durch ein zusätzliches Einbringen einer Matrix in den Defekt die Qualität des Ersatzknorpels verbessert. Eine weitere Möglichkeit ist eine Transplantation. „Der Gelenkknorpel überdeckt nicht nur die Regionen, in denen die Knochen miteinander in Kontakt treten“, sagt Dr. Gille: „Menschen verfügen über Reserven an nicht belasteten Stellen. Diese können für eine Transplantation genutzt werden“. Auch hier gibt es mehrere Verfahren. Bei der Knorpel-Knochentransplantation werden kleine Zylinder aus den gesunden unbelasteten Bereichen herausgestanzt, um sie dann in den Knorpeldefekten einzupflanzen. Dieses Verfahren wird auch als Mosaikplastik bezeichnet. Sie kann bei einer einzelnen Kniespiegelung durchgeführt werden. Bei der zweiten Methode, der autotologen Chondrozytentransplantation sind zwei Eingriffe erforderlich. Im ersten Eingriff wird während einer Kniespiegelung gesundes Knorpelgewebe entfernt. Im Labor werden dann die lebenden Zellen (Chondrozyten) aus dem Knorpel isoliert und in Zellkulturen vermehrt. In einem zweiten Eingriff werden die angezüchteten Zellen in den Knorpeldefekt implantiert, wo diese dann einwachsen.
Welche Methode die besten Ergebnisse liefert, ist laut Dr. Gille derzeit nicht bekannt. „Die bisherigen Studien haben gezeigt, dass viele Verfahren zur Knorpeldefektbehandlung in den ersten Jahren gute Ergebnisse liefern“, berichtet der Experte. Langzeitvergleiche lägen aber noch nicht für alle Verfahren vor. Klar sei auch, dass die Knorpelersatztherapie nicht für alle Patienten geeignet ist. „Die besten Ergebnisse werden bei jüngeren Menschen mit kleineren Knorpeldefekten erzielt. Wenn es bei älteren Menschen zu ausgedehnten Verschleißerscheinungen gekommen ist, ist es für die Knorpelersatztherapie in der Regel zu spät“, resümiert der Referent der Düsseldorfer MEDICA EDUCATION CONFERENCE 2015. Am Thementag Chirurgie und neue operative Techniken am 16. November 2015 geht es dort um Technische Verfahren zur Behandlung von Defekten an Knorpel und Knochen.
***********************************************************************
Pressekonferenz der DGIM zur MEDICA EDUCATION CONFERENCE „Geriatrie, Palliativ- und Ernährungsmedizin“
Termin: 18. November 2015, 12.00 bis 13.00 Uhr
Ort: Messe Düsseldorf, Stockumer Kirchstraße 61, 40474 Düsseldorf, Congress Center Düsseldorf (CCD Süd), Raum 5, 1. OG
Themen/Referenten:
Ernährungsmedizin – aktuelle Aspekte: Gluten or not gluten?
Prof. Dr. Yurdagül Zopf, Bereichsleiterin Klinische und Experimentelle Ernährungsmedizin, Fachärztin für Innere Medizin an der Medizinischen Klinik I, Universitätsklinikum Erlangen
Ernährungsmedizin im Alter – Ethische Herausforderung am Lebensende
Professor Dr. Cornel Sieber, Leiter des Instituts für Biomedizin des Alterns der Universität Erlangen-Nürnberg, Nürnberg
Früherkennung und Behandlung der Demenz
PD Dr. Judith Alferink, Oberärztin an der Klinik für Psychiatrie und Psychotherapie des Universitätsklinikums Münster
Gerontotechnologie – Status quo und Zukunftsperspektiven
PD Dr. Jürgen Bauer, Klinikdirektor der Universitätsklinik für Geriatrie Oldenburg
Moderation: Anne-Katrin Döbler, DGIM-Pressestelle, Stuttgart
***********************************************************************
Pressekonferenz der DGIM zur MEDICA EDUCATION CONFERENCE „Infektiologie, Entzündung und Labormedizin“
Termin: 19. November 2015, 12.00 bis 13.00 Uhr
Ort: Messe Düsseldorf, Stockumer Kirchstraße 61, 40474 Düsseldorf, Congress Center Düsseldorf (CCD Süd), Raum 5, 1. OG
Themen/Referenten:
MEDICA EDUCATION CONFERENCE 2015: Eine erste Bilanz und Ausblick
Professor Dr. med. Dr. h.c. Hendrik Lehnert,
Konferenzpräsident der MEDICA EDUCATION CONFERENCE 2015, Präsident der Universität zu Lübeck
Infektionsrisiken durch Ultraschallsonden – ein unterschätztes Problem
Dr. med. univ. Sebastian Werner, Facharzt für Hygiene und Umweltmedizin, Geschäftsführer des akkreditierten Prüflabors für Medizinproduktesicherheit HygCen Germany GmbH, Schwerin
Multiresistenz bei gramnegativen Bakterien – was ist wichtig?
Professor Dr. med. Mariam Klouche, Fachärztin für Laboratoriumsmedizin, Geschäftsführerin und Ärztliche Leiterin Transfusionsmedizin, Mikrobiologie und Infektionsepidemiologie am Laborzentrum Bremen
Sinnvolle Labordiagnostik
Prof. Dr. Jan Kramer, Ärztliche Leitung und Geschäftsführung LADR GmbH, Geschäftsführung ISG Intermed Service GmbH & Co. KG, Facharzt für Laboratoriumsmedizin und Innere Medizin, Hämostaseologie, Geesthacht
S3-Leitlinie – Screening und Diagnose alkoholbezogener Störungen
Prof. Friedrich Wurst, Zentrum für interdisziplinäre Suchtforschung der Universität Hamburg,
Paracelsus Medizinische Privatuniversität, Salzburg
Moderation: Anne-Katrin Döbler, DGIM-Pressestelle, Stuttgart
***********************************************************************
Ihr Kontakt für Rückfragen:
Pressestelle DGIM/MEDICA EDUCATION CONFERENCE
Anne-Katrin Döbler/Stephanie Priester
Postfach 30 1 20
70451 Stuttgart
Telefon: 0711 8931-605
Telefax: 0711 8931-167
E-Mail:priester@medizinkommunikation.org
Quelle: idw
Sensor entdeckt Kabelbrand, bevor es brennt
Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie
Feuer entstehen häufig durch schmorende Elektrokabel. Neuartige Sensortechnologie hilft solche Schwelbrände frühzeitig zu entdecken, indem sie die Kunststoff-Ausdünstungen überhitzter Isolierkabel analysiert. Wissenschaftler am KIT und der Hochschule Karlsruhe sind maßgeblich an der Einwicklung von Hybrid-Sensoren beteiligt, die Messprozesse und deren informationstechnologische Auswertung kombinieren. Darüber berichten sie in der aktuellen Ausgabe des Fachmagazins Sensors & Transducers journal.
Dass ein Kabel schmort, lässt sich mit Glück bemerken, bevor es brennt: Die Kunststoffummantelung verfärbt sich und es riecht brenzlig. Hybrid-Sensoren könnten die Gefahr von Kabelbränden allerdings noch früher erkennen, schon bevor Auge und Nase sie wahrnehmen: Sie spüren Gase auf, die sich durch die Erwärmung aus der Kunststoff-Ummantelung lösen und bieten eine zuverlässige Identifikation und Analyse, um welches Gasgemisch es sich handelt und wie hoch die Konzentration des Gasgemisches ist.
Darüber hinaus können sie auch Störgase wie zum Beispiel Propen oder Kohlenmonoxid erkennen und somit Fehlalarme ausschließen. Möglich wird dies, weil die Hybrid-Sensoren nicht nur über einen Gas detektierenden Sensorchip, sondern auch über Rechenleistung und Algorithmen für die Auswertung der Messdaten verfügen. „Die Kombination des intelligenten Auswertungsverfahrens mit der physikalischen Messung ist Kern der Entwicklung“, erläutert Dr. Hubert Keller, Projektleiter Simulation und Messtechnik am Institut für Angewandte Informatik des KIT.
Die sehr empfindlichen und dadurch höchst zuverlässigen Hybrid-Sensoren könnten die Sicherheit in Kabelschächten erhöhen. Ihre Fähigkeit, Gasgemische aufzuspüren und Einzelgas-Konzentrationen zu bestimmen, ließe sich aber auch nutzen, um in der Lebensmittelüberwachung giftige Schimmelpilzgase nachzuweisen, um in Düngemittelsilos vor dem Auftreten explosiver Gase zu warnen oder um Leckagen an Erdgasleitungen zu entdecken. „Hybrid-Sensoren lassen sich universell als einzelnes Sensorsystem oder als Netzwerk und auch kombiniert mit klassischen Sicherheitsansätzen wie Infrarotkameras einsetzen“, betont Keller.
„Für die Entwicklung des Sensors nutzen wir den Effekt, dass vielerlei Gase in Abhängigkeit der Temperatur ganz unterschiedlich mit gassensitiven Metalloxiden reagieren“, sagt Professor Dr. Heinz Kohler vom Institut für Sensorik und Informationssysteme (ISIS) an der Hochschule Karlsruhe – Technik und Wirtschaft. „Auf diesen Effekt haben wir einen eigenbeheizten, temperaturgeregelten Sensorchip mit vier Einzelsensoren – Sensorarray – aufgebaut.“ Das Sensorarray wird zyklisch erhitzt und wieder abgekühlt und liefert bei simultaner Messung des elektrischen Wiederstands oder des Leitwertes vier verschiedene, spezifische Leitwert-Signaturen, deren Auswertung Aufschluss über die Zusammensetzung und Konzentration des Gases gibt. In der aktuellen Ausgabe des Fachmagazins Sensors & Transducers Journal berichten die Wissenschaftler über ihre zukunftsweisende Forschung zur Hybrid-Sensortechnologie.
Die Verschmelzung von Sensortechnologie und Analysemethode haben die Informatiker und Mathematiker des KIT und der Hochschule Karlsruhe – Technik und Wirtschaft sowie zwei Industriepartnern im Zuge des vom Bundesministerium für Bildung und Forschung über drei Jahre mit rund 1,3 Millionen Euro geförderten Projekts Hybrid-Sensor-Plattform entwickelt. Das weltweit beachtete Verfahren wurde bereits zweimal auf internationalen Konferenzen mit einem Best Paper Award für herausragende Forschungsbeiträge ausgezeichnet.
Rolf Seifert, Hubert B. Keller, Navas Illyaskutty, Jens Knoblauch, Heinz Kohler: Numerical Signal Analysis of Thermo-Cyclically Operated MOG Gas Sensor Arrays for Early Identification of Emissions from Overloaded Electric Cables. Sensors & Transducers Journal, Vol. 193, Issue 10, October 2015.
http://www.sensorsportal.com/HTML/DIGEST/P_2738.htm
Weiterer Kontakt:
Kosta Schinarakis, PKM – Themenscout, Tel.: +49 721 608 41956, Fax: +49 721 608 43658, E-Mail: schinarakis@kit.edu
Das Karlsruher Institut für Technologie (KIT) vereint als selbständige Körperschaft des öffentlichen Rechts die Aufgaben einer Universität des Landes Baden-Württemberg und eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft. Seine drei Kernaufgaben Forschung, Lehre und Innovation verbindet das KIT zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 24 500 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
Weitere Informationen:
http://www.sensorsportal.com/HTML/DIGEST/P_2738.htm
Anhang
Sensor entdeckt Kabelbrand, bevor es brennt
https://idw-online.de/de/attachment45933
Quelle: idw
Was Arbeitnehmer wünschen: Gutes Arbeitsklima und eigenverantwortliches Arbeiten
Dr. Christian Sonntag Referat Presse- und Öffentlichkeitsarbeit
Hochschule Niederrhein – University of Applied Sciences
Die Deutschen wünschen sich bei ihrer Arbeit in erster Linie ein angenehmes Betriebsklima. Das Gehalt rangiert nur auf Rang drei. Wichtiger ist Arbeitnehmern eine kompetente Unternehmensleitung. Bei alledem gibt es signifikante Unterschiede zwischen den Generationen und Geschlechtern. Das sind – auf einen Blick – die wichtigsten Erkenntnisse einer repräsentativen Studie des Masterkurses „Human Resource Management“ im Sommersemester 2015 unter Leitung von Prof. Dr. Alexander Cisik am Fachbereich Wirtschaftswissenschaften der Hochschule Niederrhein.
Die zehn Studierenden hatten sich mit der Frage beschäftigt, was Arbeitgeber attraktiv macht – und dazu über soziale Netzwerke, SMS und Email 475 Arbeitnehmer gefragt, was ihnen an einem Arbeitgeber generell wichtig ist, wie sie ihre aktuellen Arbeitgeber bewerten und wo die größten Abweichungen zwischen Anspruch und Wirklichkeit liegen.
„Der Kampf um die besten Köpfe wird immer härter geführt. Dabei bestimmt die Attraktivität eines Arbeitgebers, für welches Unternehmen Bewerber sich entscheiden und bei welchem Mitarbeiter längerfristig bleiben“, erklärt Prof. Dr. Alexander Cisik, der an der Hochschule Niederrhein Wirtschafts-, Organisations- und Arbeitspsychologie lehrt, die Relevanz der Studie. Als attraktiv gilt ein Arbeitgeber, wenn die subjektiven Erwartungen der Mitarbeiter an den Arbeitgeber (Soll) mit deren wahrgenommener Realität beim Arbeitgeber (Ist) übereinstimmen.
Weniger wichtig bei der Arbeitgeberattraktivität sind den Deutschen Maßnahmen zur Gesundheitsförderung, Größe des Unternehmens und – zuletzt – die Internationalität des Unternehmens. Dabei gibt es durchaus Unterschiede zwischen den Generationen. Generation Y (bis 30 Jahre) sind Betriebsklima und Aufstiegsmöglichkeiten wichtiger als Generation X (31-50 Jahre). Die Bewertung des derzeitigen Arbeitsplatzes ist dagegen relativ einheitlich. Auffallende Unterschiede gibt es bei der Bewertung der Maßnahmen zur Gesundheitsförderung, der Vereinbarkeit von Privatleben und Beruf sowie bei der Arbeitszeitgestaltung. Diese Punkte bewertet die Generation Y deutlich negativer als Generation X.
Die Studierenden schauten sich auch an, wo die Lücke zwischen Anspruch und Wirklichkeit besonders groß ist. Und hier geht es dann doch wesentlich ums Geld. In der Kategorie „angemessenes Gehalt“ ist die Differenz zwischen Wunsch und Realität nämlich am Größten. Es liegen fast eineinhalb Schulnoten zwischen der Einschätzung, wie wichtig dieser Bereich für die Attraktivität ist und wie sich die Situation beim derzeitigen Arbeitgeber darstellt. Eine große Kluft besteht auch bei den Themen Aufstiegsmöglichkeiten, Arbeitsabläufe und Unternehmensleitung.
Aber: Insgesamt sind die Deutschen durchaus zufrieden mit ihrer Arbeit. So stimmen Anspruch an den Arbeitgeber und tatsächliche Situation zu 86,9 Prozent überein. „Das ist grundsätzlich ein zufriedenstellender Wert, der aber ausbaufähig erscheint“, bilanziert Alexander Cisik. Die Ergebnisse implizierten aber kein Patentrezept, wie Unternehmen ihre Beliebtheit steigern könnten, so der Experte. Vielmehr müssten die Maßnahmen die Bedürfnisse der Bewerber und Mitarbeiter gezielt in den Blick nehmen.
Das Management Summary kann direkt über Prof. Cisik (alexander.cisik@hs-niederrhein.de) bezogen werden.
Quelle: idw
Forschung und Wasserwirtschaft vernetzen
Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Die Bundesanstalt für Gewässerkunde leitet das Vernetzungs- und Transfervorhaben ReWaMnet
Die Bundesanstalt für Gewässerkunde (BfG) führt im Rahmen der BMBF-Fördermaßnahme „Regionales Wasserressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland“ (ReWaM) das Vernetzungs- und Transfervorhaben ReWaMnet durch. Ziel des bis Ende 2018 laufenden Projekts ist die Vernetzung von Akteuren aus Forschung, Wirtschaft, Gesellschaft und öffentlicher Verwaltung. Ein weiteres Anliegen von ReWaMnet ist der Transfer von wissenschaftlichen Erkenntnissen in die wasserwirtschaftliche Praxis.
Um neue Ansätze im Bereich Wasserwirtschaft modellhaft zu erforschen, zu erproben und zu etablieren, startete das Bundesministerium für Bildung und Forschung (BMBF) die dreijährige Fördermaßnahme „Regionales Wasserressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland (ReWaM)“. Die Fördermaßnahme ist breit aufgestellt: In 14 Verbundprojekten mit 97 Teilprojekten engagieren sich 38 Forschungseinrichtungen, 32 Unternehmen sowie 27 Verbände, Behörden und Kommunen. ReWaM ist Teil des Förderschwerpunktes „Nachhaltiges Wassermanagement (NaWaM)“ im Förderprogramm „Forschung für Nachhaltige Entwicklung (FONA3)“ des BMBF. Ziel von ReWaM ist es, Wissenslücken zu schließen und neue Werkzeuge für die Wasserwirtschaft bereitzustellen.
Damit Erkenntnisse aus ReWaM in der Praxis ankommen, müssen die Forschungsergebnisse übersetzt und kommuniziert werden. Deshalb hat das BMBF das Vernetzungs- und Transfervorhaben ReWaMnet auf den Weg gebracht. Das von der Bundesanstalt für Gewässerkunde geleitete Vorhaben fördert zum einen die Zusammenarbeit der Verbundprojekte untereinander, indem es Fachgespräche zu verbundübergreifenden Themen organisiert und moderiert. Zum anderen werden die Forscher bei der Übertragung ihrer wissenschaftlichen Erkenntnisse in die wasserwirtschaftliche Praxis unterstützt. Dazu sollen anwendungsorientierte Lösungen entwickelt und zielgruppengerecht aufbereitet werden. Um den Dialog mit der Bevölkerung anzuregen, präsentiert ReWaMnet die Fördermaßnahme auch in der Öffentlichkeit.
Neben Vernetzung und Transfer leistet die BfG außerdem in drei ReWaM-Verbundprojekten eigene Forschungsbeiträge:
• NiddaMan – Entwicklung eines nachhaltigen Wasserressourcen-Managements am Beispiel des Einzugsgebiets der Nidda; die BfG lenkt das Modul „Stoffliche Belastungen“ und entwickelt ein innovatives Konzept zur Gewässerüberwachung am Beispiel der Nidda
http://www.bafg.de/DE/07_Aktuell/20151012_niddaman.html
• FLUSSHYGIENE – Hygienisch relevante Mikroorganismen und Krankheitserreger in multifunktionalen Gewässern und Wasserkreisläufen – Nachhaltiges Management unterschiedlicher Gewässertypen Deutschlands; die BfG übernimmt die Leitung des Teilprojekts „Prognoseinstrumente“. Ziel der Forscher ist es, ein kurzfristiges Prognose- sowie ein langfristiges Wirkmodell zu erarbeiten und den zuständigen Behörden zur Verfügung zu stellen
http://www.bafg.de/DE/07_Aktuell/20151022_flusshygiene.html
• RESI – River Ecosystem Service Index; die BfG engagiert sich bei der Koordination des Verbundprojekts und stellt wichtige Grundlagendaten aus seiner Makrozoobenthos- sowie der Chemie- und Schwebstoffdatenbank zur Verfügung
http://www.bafg.de/DE/07_Aktuell/20151019_resi.html
Weiterführende Informationen zu ReWaM sind unter folgendem Link abrufbar: http://www.bmbf.nawam-rewam.de/
Weitere fachliche Informationen:
Alexia Krug von Nidda, Fon: 0261/1306 5331, Mail: rewamnet@bafg.de
sowie Dr. Sebastian Kofalk, Fon: 0261/1306 5330, Mail: kofalk@bafg.de
beide: Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz
zur Bundesanstalt für Gewässerkunde:
Die Bundesanstalt für Gewässerkunde (BfG) ist eine Bundesoberbehörde im Geschäftsbereich des Bundesministeriums für Verkehr und Digitale Infrastruktur (BMVI). Sie ist das wissenschaftliche Institut des Bundes für wasserbezogene Forschung, Begutachtung und Beratung insbesondere in den Bereichen Hydrologie, Gewässernutzung, Gewässerbeschaffenheit, Ökologie und Gewässerschutz. Die Arbeit der BfG erstreckt sich in erster Linie auf die schiffbaren Flüsse, Kanäle und Küstengewässer (Bundeswasserstraßen), die durch die Wasser- und Schifffahrtsverwaltung des Bundes (WSV) verwaltet werden. Als Ressortforschungseinrichtung ist die BfG Teil der deutschen Wissenschaftslandschaft.
Weitere Informationen:
http://www.bmbf.nawam-rewam.de/
Quelle: idw
Neue Software für die Umweltbewertung von Kläranlagen
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Das nationale Forschungsinstitut für Agrar- und Umwelttechnik (IRSTEA) hat eine neue Software, ACV4E, zur Bewertung der Umweltbelastungen von Kläranlagen entwickelt [1].
Ziel der Software ist es, 18 mögliche, durch Kläranlagen verursachte Umweltbelastungen zu identifizieren und zu quantifizieren. Mit Hilfe von ACV4E können Modelle gebaut und Szenarien von Kläranlagen erstellt und anschließend bewertet werden. Die Informatiker des IRSTEA haben vier Anwendungsbereiche für die Software definiert:
– Auswahl zwischen mehreren Alternativen (eine zentrale oder mehrere dezentrale Anlagen?)
– umweltgerechte Gestaltung: frühzeitige Identifizierung der Umweltbelastungen
– umweltgerechte Nutzung: Identifikation von Prozessen mit der höchsten Umweltbelastung
– Benchmarking: Vergleich von Lösungen mit Hilfe einer Datenbank von bereits existierenden Systemen und Simulationsmodellen.
Zwischen 2012 und 2014 wurde die Software bereits in sieben Gemeinden getestet, darunter kleinere wie Sarrians und Puguet-ville, aber auch größere wie Montpellier. Dank der mit Hilfe der Software erhaltenen Ergebnisse war es leichter eine Entscheidung darüber zu treffen, welche Art von Kläranlage sich am besten für die jeweilige Gemeinde eignet – eine zentralisierte (alle Einwohner sind an die selbe Station angeschlossen) oder eine dezentralisierte. ACV4E kommt derzeit in mehreren Ingenieurbüros für letzte Tests zur Anwendung. Auf diese Weise werden Feedbacks von potenziellen Kunden für die spätere Vermarktung gewonnen.
Die Software hat bei der Umweltfachmesse World Efficiency in Paris einen Preis der französischen Organisation für Umwelt- und Energiewirtschaft (ADEME) bekommen, der die Exzellenz des Vorhabens und der Forschung belohnt.
[1] ACV4E steht für (auf Französisch) „Analyse Cycle de Vie – 4E Evaluation Environnementale Epuration Eau“: Lebenszyklusanalyse – Umweltbewertung der Wasseraufbereitung
Weitere Informationen:
– Webseite des IRSTEA (auf Englisch und Französisch): www.irstea.fr
– Webseite von World Efficiency (auf Englisch und Französisch): www.world-efficiency.com
Quelle: „Evaluer l’impact environnemental des systèmes d’assainissement : un logiciel primé“, Pressemitteilung des IRSTEA, 16.10.2015 – http://www.irstea.fr/toutes-les-actualites/departement-ecotechnologies/logiciel-…
Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr
Weitere Informationen:
http://www.wissenschaft-frankreich.de/
Quelle: idw
Jahrhundertprojekt Energiewende
Robert Emmerich Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Die Energiewende stellt auch aus rechtlicher Sicht eine gewaltige Herausforderung dar. In einem neuen Forschungsprojekt arbeiten Juristen der Universität Würzburg in den kommenden zwei Jahren an einer Analyse der Situation. Die Fritz-Thyssen-Stiftung fördert das Projekt.
Im Jahr 2011 hat die Bundesregierung die Energiewende ausgerufen. Nicht nur nach Ansicht von Experten stellt dieses Vorhaben eine der bedeutendsten Herausforderungen der Gegenwart dar und wird daher zu Recht als Jahrhundertprojekt bezeichnet. Seine Umsetzung erweist sich in naturwissenschaftlich-technischer, gesellschaftspolitischer, ökonomischer und nicht zuletzt juristischer Hinsicht als ambitioniert.
Zahlreiche Widerstände
Zunehmend rücken auch die Schattenseiten der Energiewende ins Bewusstsein. Prägnante Beispiele bilden die Klageflut der Energieversorger gegen den Atomausstieg, die Widerstände in der Bevölkerung gegen den Stromnetzausbau, die Sorge um die Versorgungssicherheit oder die den Strompreis in die Höhe treibende EEG-Umlage. Die hieraus resultierenden völker-, europa- und verfassungsrechtlichen Probleme sind vielfältig und in erheblichem Maße interdisziplinär geprägt.
Eine wissenschaftlich fundierte und interdisziplinär geprägte Gesamtanalyse der Situation wird nun an der Universität Würzburg erstellt. Initiator ist Professor Markus Ludwigs, Inhaber des Lehrstuhls für Öffentliches Recht und Europarecht. Das Projekt „Das Recht der Energiewende“ ist zunächst auf zwei Jahre angelegt; die Fritz-Thyssen-Stiftung fördert es finanziell. Eine erste Tagung zum Thema „Der Kernenergieausstieg und die Folgen“ ist für das Frühjahr 2016 geplant.
Die zentralen Elemente der Energiewende
Zwar ist der Begriff „Energiewende“ schon 1980 vom Freiburger Öko-Institut als Chiffre verwendet worden, um Szenarien für eine alternative Energiezukunft zu propagieren. Endgültig etabliert hat sich die Idee aber erst drei Jahrzehnte später unter dem Eindruck der Atomkatastrophe von Fukushima. Als Reaktion darauf ist in Deutschland ein radikaler Wandel in der Klima- und Energiepolitik erfolgt, für den drei miteinander verbundene Elemente prägend sind.
Erstens wurde mit der 13. Atomgesetznovelle vom 31. Juli 2011 der vollständige und beschleunigte Ausstieg aus der Kernenergie bis Ende 2022 fixiert. Zugleich ist die bereits Anfang 2011 eingeführte Brennelemente-Steuer beibehalten und die Suche nach dem geeigneten Standort für ein Atommüll-Endlager intensiviert worden.
Zweitens erfolgte eine beschleunigte Abkehr von fossilen Energieträgern und ein forcierter Ausbau der erneuerbaren Energien. Bis zum Jahr 2050 soll der sogenannte Ökostrom mindestens 80 Prozent am Bruttostromverbrauch ausmachen. Um dies kosteneffizient und europarechtskonform zu gewährleisten, hat der Gesetzgeber mit dem Erneuerbare-Energien-Gesetz (EEG) 2014 einen Paradigmenwechsel weg von festen Einspeisetarifen und hin zu stärker wettbewerblich geprägten Fördermechanismen, wie dem Ausschreibungsverfahren, vollzogen.
Drittens ergeben sich aus der Kombination von Kernenergieausstieg und Ausbau der erneuerbaren Energien elementare Folgeprobleme, die zu lösen sind. Dabei gilt es zum einen zu garantieren, dass der Ökostrom die Verbraucher auch erreicht. Voraussetzung hierfür ist ein Ausbau der Stromnetze, die den im windreichen Norden auf See oder an Land erzeugten Strom in den Süden transportieren. Zum anderen stellt die Gewährleistung der Versorgungssicherheit eine Herausforderung dar. Um die Rentabilität der hierfür benötigten konventionellen Kraftwerke sicherzustellen, wird aktuell ein neues Strommarktdesign diskutiert.
Kontakt
Prof. Dr. Markus Ludwigs, Lehrstuhl für Öffentliches Recht und Europarecht, Universität Würzburg, T +49 931 31-89979, markus.ludwigs@uni-wuerzburg.de
Quelle: idw
Grippe: Sinkflug der Impfraten in Deutschland gestoppt / Handlungsbedarf in den alten Bundesländern
Barbara Ritzert Pressestelle Versorgungsatlas – ProScience Communications
Versorgungsatlas
(Berlin) In der Grippesaison 2013/2014 haben sich die Influenza-Impfraten in Deutschland stabilisiert. Diese waren seit 2009 stetig gesunken. In einigen Regionen verzeichnen die Wissenschaftler vom Versorgungsatlas in einer aktuellen Studie sogar einen leichten Anstieg. Die von der WHO und der Europäischen Kommission empfohlene Durchimpfungsrate von 75 Prozent bei den über 60-Jährigen wird nur etwa zur Hälfte erreicht.
Seit Jahren wird in Deutschland konsequent das Ziel der WHO verfehlt, bei älteren Menschen eine Durchimpfungsrate gegen die Influenza von 75 Prozent zu erreichen. Schlimmer noch: Nach einer aktuellen Untersuchung der Wissenschaftler vom Versorgungsatlas ist die bundesweite Impfrate von 47 Prozent in der Saison 2009/2010 auf 38 Prozent in der Saison 2013/2014 gesunken. Nur im Vergleich mit der vorausgegangenen Saison 2012/2013 zeigte sich ein geringfügiger Anstieg von 37 auf 38 Prozent. „Dies spricht dafür, dass sich die Impfraten zumindest stabilisiert haben“, erklärt Dr. Jörg Bätzing-Feigenbaum, der Erstautor der Studie und Leiter des Versorgungsatlas.
Ost-West-Gefälle.
Wie bei nahezu allen Impfungen variiert das Impfverhalten auch bei der Immunisierung gegen Influenza regional. Es besteht ein deutliches Ost-West-Gefälle. In den neuen Bundesländern ließen sich in der Saison 2009/2010 61 Prozent der über 60-Jährigen impfen, in den alten Bundesländern waren dazu nur 43 Prozent der Senioren bereit. In der Saison 2013/14 waren die Raten in den neuen Bundesländern auf 54 Prozent und in den alten auf 33 Prozent gesunken. Die niedrigsten Impfraten finden sich in Baden-Württemberg und Bayern. Auf Kreisebene zeigten sich extreme Unterschiede der Impfraten, die in 2013/14 zwischen 13,5 und 65 Prozent lagen. Bundesweiter Vorreiter war 2009 die Kreisfreie Stadt Frankfurt/Oder mit einer Impfrate von 71 Prozent. In der Saison 2013/14 führt der Kreis Demmin in Mecklenburg-Vorpommern die Liste an.
Mögliche Ursachen.
Gründe für den rückläufigen Trend lassen sich aus der Datenanalyse nicht herauslesen. Allerdings belegen Umfragen, dass die Influenza von vielen Menschen nicht mehr als schwere Krankheit wahrgenommen wird. Hinzu kommen Zweifel an der Sicherheit und Wirksamkeit der Impfung. Außerdem haben in den vergangenen Jahren Rabattverträge zwischen Krankenkassen und bestimmten Herstellern immer wieder zu Lieferengpässen bei Grippeimpfstoffen geführt.
Impfraten verbessern.
„Krankenkassen, Ärzte und der Öffentliche Gesundheitsdienst sollten gemeinsam zielgerichtete Maßnahmen ergreifen, um die Impfraten deutlich zu verbessern“, betont Dr. Bätzing-Feigenbaum. Und sein Appell an die Bürger lautet: „Die jährliche Influenzawelle setzt in Deutschland meist nach der Jahreswende ein. Es dauert 10 bis 14 Tage, bis sich der Impfschutz nach der Immunisierung aufgebaut hat. Deshalb ist es auch jetzt noch nicht zu spät, sich gegen die Influenza zu wappnen. Neben Menschen ab 60 ist dies auch für Patienten wichtig, die aufgrund bereits bestehender chronischer Krankheiten besonders stark von der Grippe betroffen sein können, etwa für Patienten mit Asthma, Diabetes oder Herz-Kreislauf-Erkrankungen.“
Für ihre Untersuchung hat das Wissenschaftler-Team des Versorgungsatlas die vertragsärztlichen Abrechnungsdaten der Jahre 2009 bis 2014 ausgewertet und jene Patienten betrachtet, die älter als 60 Jahre waren. In diesen Daten ist jede gesetzlich krankenversicherte Person erfasst, die im entsprechenden Abrechnungszeitraum mindestens einen ambulanten Kontakt mit einem Vertragsarzt hatte.
INFLUENZA. Jährlich sterben weltweit 250.000 bis 500.000 Menschen an der Influenza, allein in Deutschland zwischen 5000 bis 10000. Besonders Ältere und chronisch kranke Patienten sind überdurchschnittlich häufig betroffen. Die ständige Impfkommission (STIKO) empfiehlt darum Älteren sowie chronisch kranken Patienten und medizinischem Personal eine jährliche Influenza-Impfung.
DER VERSORGUNGSATLAS. www.versorgungsatlas.de ist eine Einrichtung des Zentralinstituts für die kassenärztliche Versorgung (Zi). Er wurde institutionalisiert als öffentlich zugängliche Informationsquelle mit Studien zur medizinischen Versorgung in Deutschland. Schwerpunkt der Studien sind regionale Unterschiede in der Versorgung sowie deren unterschiedliche Strukturen und Abläufe. Die Analysen sollen Anhaltspunkte liefern, wie die Versorgung verbessert werden kann. In Diskussionsforen kann jeder Beitrag öffentlich diskutiert werden. Die Analysen der Wissenschaftler des Versorgungsatlasses basieren auf den bundesweiten Abrechnungsdaten der vertragsärztlichen Versorgung in Deutschland. Die Internet-Plattform steht aber auch anderen Forschergruppen zur Verfügung, die ihre Untersuchungen nach einem Peer-Review veröffentlichen können.
Weitere Informationen:
http://www.versorgungsatlas.de/themen/alle-analysen-nach-datum-sortiert/?tab=6&a…
Anhang
Entwicklung der saisonalen Influenzastandardimpfraten: Eine Trendanalyse auf regionaler Ebene für den Zeitraum 2009/2010 bis 2013/2014
https://idw-online.de/de/attachment45877
Quelle: idw
Phosphat-Angeln auf dem Prüfstand
Julia Kovar Stabsstelle Kommunikation
Baden-Württemberg Stiftung
Wissenschaftler aus Stuttgart, Karlsruhe und Würzburg haben im Auftrag der Baden-Württemberg Stiftung ein Verfahren entwickelt, um den Rohstoff Phosphat mithilfe magnetischer Mikropartikel aus dem Abwasser zu fischen. In einer aktuellen Studie stellen die Forscher zwei Materialien vor, die sich besonders gut für die Beschichtung der Partikel eignen.
Phosphat ist für alle Lebewesen ein essenzieller Nährstoff. Mit wachsender Weltbevölkerung steigt auch der Bedarf an phosphathaltigen Düngemitteln, für die gut 80% des weltweit geförderten Phosphats verbraucht werden. Während der Vorrat an Rohphosphat zunehmend verknappt, reichert sich der Nährstoff im Abwasser an – mit negativen Folgen für die Umwelt, wie zum Beispiel dem unerwünschten Wachstum von Algen in stehenden Gewässern.
Die meisten gängigen Verfahren zur Rückgewinnung von Phosphat aus dem Abwasser sind mit einem hohen Verbrauch an Chemikalien verbunden. Eine Ausnahme bildet ein Verfahren namens „SuPaPhos“, in dessen Entwicklung die Baden-Württemberg Stiftung im Rahmen ihres über 4 Millionen Euro schweren Programms „Umwelttechnologieforschung“ investiert. Um den Nährstoff unter minimalstem Chemikalieneinsatz aus dem Wasser zu fischen, haben die Wissenschaftler hinter dem Projekt spezielle, 20 Mikrometer große Partikel entwickelt, die sich auf zweifache Weise auszeichnen: Zum einen sind die Partikel magnetisierbar. Dadurch lassen sie sich mithilfe eines Magneten jederzeit auf einfache Weise wieder aus dem Wasser entfernen. Zum anderen ist die Hülle der Kügelchen so konstruiert, dass sich das Phosphat gut daran anlagern, aber auch wieder abgelöst werden kann. Dies ermöglicht einen wiederholten Einsatz der Partikel im Klärbecken (siehe Grafik).
Großes Interesse am Verfahren
Das Verfahren, bei dem Ingenieure vom Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) der Universität Stuttgart und des Karlsruher Instituts für Technologie mit Chemikern vom Fraunhofer Institut für Silicatforschung in Würzburg und Bronnbach kooperieren, hat bereits viel Aufmerksamkeit auf sich gezogen: Im vergangenen Jahr erhielt Dr. Karl Mandel, der im Rahmen seiner Promotion entscheidend zur Entwicklung der Mikropartikel beigetragen hat, hierfür den mit 25.000 Euro dotierten Studienpreis der Körber-Stiftung. Die Baden-Württemberg Stiftung sieht in der Technologie so großes Potenzial, dass sie diese gleich in mehreren Ländern zum Patent angemeldet hat.
Gute Ergebnisse bei Versuchen im großen Maßstab
Die Wissenschaftler stehen aktuell vor der Herausforderung, das Verfahren zu optimieren und zu demonstrieren, dass es auch im großen Maßstab funktioniert. Im Zuge der Optimierung hat Asya Drenkova-Tuhtan am Stuttgarter ISWA mit ihren Kollegen aus einer Reihe von Metallhydroxiden diejenigen identifiziert, die sich am besten für die Beschichtung der Mikropartikel eignen. „Insgesamt hatten wir über 50 Verbindungen im Test“, sagt Frau Drenkova-Tuhtan. „Auf Basis der Stabilität und der Phosphoreliminationsleistung haben wir 13 dieser Materialien ausgewählt, um sie genauer zu untersuchen.“
Sowohl mit destilliertem Wasser, das sie mit Phosphat angereichert hatten, als auch mit kommunalem Abwasser testeten die Wissenschaftler, wie schnell diese Materialien welche Mengen an Phosphat aufnehmen. Je nach Zusammensetzung des Materials hafteten bei neutralem pH-Wert innerhalb einer Stunde zwischen 32 und 47 Milligramm Phosphor pro Gramm Adsorber an.
Die beste Leistung zeigten dabei zwei Materialien, die den Schlüsselbestandteil Zink enthielten, und zwar Zink-Eisen-Zirkon- und Calcium-Zink-Eisen-Zirkon-haltige Hydroxide. An diesen haftete das Phosphat nicht nur verhältnismäßig spezifisch in großen Mengen an. In einem Bad aus verdünnter Natronlauge löste sich das Phosphat auch gut wieder ab. So konnten die Wissenschaftler den Prozess über 50mal wiederholen, ohne dass es zu einem Materialverschleiß kam.
Als nächstes planen die Forscher am ISWA, mit einem Kilogramm Zink-Eisen-Zirkon-Hydroxid-beschichteter Partikel einen Pilotversuch durchzuführen. Damit lassen sich über 400 Liter Abwasser von ihrer Phosphatfracht befreien. Um die Phosphat-beladenen Partikel wieder aus dem Abwasser zu entfernen, steht bereits ein Magnet-Trommelabscheider am Stuttgarter ISWA.
„Wenn die Aufskalierung des Verfahrens funktioniert, könnte man es in kommunalen Kläranlagen einsetzen und damit den Phosphatgehalt des Abwassers unter die Bestimmungsgrenze senken“, sagt Asya Drenkova-Tuhtan. „Darüber hinaus eignet sich die Methode sogar für Industrieabwässer, die über 50 mal mehr Phosphat enthalten können als kommunales Abwasser.“
Im Jahresbericht der Baden-Württemberg Stiftung (http://www.bwstiftung.de/uploads/tx_news/Jahresbericht_2013_final_01.pdf) erklärt Ingenieur Carsten Meyer, warum es so wichtig ist, das Phosphat aus dem Abwasser zurück zu gewinnen.
Einen anschaulichen Bericht über die Strategie der Phosphat-Fischer finden Sie in der „bild der wissenschaft“ Sonderpublikation „Weitblick“. (http://www.bwstiftung.de/uploads/tx_news/BdW-WeitBlick.pdf).
Weitere Informationen:
http://authors.elsevier.com/a/1Rxh53IywTyHs4
Quelle: idw
Warum graben Tiere Wasserlöcher in Flussnähe?
Gesine Wiemer Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
Berliner Wissenschaftler zeigten im Ruaha-Nationalpark in Tansania, Afrika, dass Wildtiere in den Trockenperioden bereits dann Wasserlöcher graben, wenn noch Wasser im Flussbett vorhanden ist. Trocknet der Fluss aus und hört auf zu fließen, sinkt die Wasserqualität in den verbleibenden Tümpeln, welche mit Kot und Bakterien verseucht werden. Um an sauberes Trinkwasser zu gelangen, müssen die Tiere sich neue Wasserquellen erschliessen. Die Studie wurde in der wissenschaftlichen Fachzeitschrift „Mammalian Biology“ veröffentlicht.
WissenschaftlerInnen des Berliner Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) untersuchten den Zusammenhang zwischen Wasserlöchern, die von Wildtieren gegraben wurden, und der Wasserverfügbarkeit sowie dessen Qualität im Ruaha-Nationalpark in Zentraltansania. Im Lebensraum des „Miombo“-Buschgebiets im östlichen und südlichen Afrika bedeckt das Ruaha Ökosystem mit dem Nationalpark und seinen benachbarten Schutzgebieten über 50.000 km2 und ist damit eines der größten Schutzgebiete in dieser Region. Die Beobachtungen fanden entlang des Großen Ruaha-Flusses über den Zeitraum von drei Trockenperioden von Juni bis November 2011 – 2013 statt. Dabei zeigte sich, dass Wildtiere nicht nur Wasserlöcher graben, wenn der Fluss komplett ausgTiere graben etrocknet ist, sondern bereits dann, wenn der Fluss aufhört zu fließen. Das in den restlichen Tümpeln verfügbare Wasser wies eine hohe Belastung durch Bakterien und Kot auf.
Die ForscherInnen führten ihre Untersuchungen auf einem Abschnitt von insgesamt 130 km entlang des Flusses durch. Dabei konnten sie Elefanten, Steppenzebras, Warzenschweine und Steppenpaviane beobachten, wie sie Wasserlöcher gruben. Andere Arten bedienten sich an den bereits gegrabenen Löchern, die bis zu zwei Wochen genutzt wurden. Neben den Tümpeln waren die gegrabenen Wasserlöcher bisweilen die einzige verfügbare Wasserquelle in einem Radius von fünf Kilometern. Vermutlich ermöglichen die Wasserlöcher einigen Arten, in Gebieten zu verweilen, die sie sonst während der Trockenzeit verlassen müssten.
Der Große Ruaha Fluss, der als Namensgeber des Nationalparks dient, trocknet seit vielen Jahren über Zeiträume von bis zu drei Monaten aus. Wasser ist lebensnotwendig, weshalb sich die Tiere im Ruaha Nationalpark in Zeiten des Wassermangels anpassen müssen. Die Ergebnisse lassen vermuten, dass das Graben von Wasserlöchern eine solche Anpassung darstellt. Vermutlich verringern Wildtiere damit die Infektionsgefahr, die durch die Aufnahme von potentiellen Krankheitserregern entsteht. Viele Erreger, darunter auch Bakterien, nutzen Wasser als Übertragungsweg zwischen verschiedenen Wirten.
Die Resultate betonen die entscheidende Rolle des Großen Ruaha Flusses als bedeutende Wasserquelle für Wildtiere im Ruaha-Nationalpark während der Trockenzeit. Die Verschlechterung der Wasserqualität während der Trockenperiode ist einerseits auf den Stillstand des Flusses zurückzuführen; Verunreinigungen können nicht abfließen. Andererseits werden zurückbleibende Tümpel durch die hohe Frequentierung durch Wildtiere durch diese z. B. mit Kot und Urin verunreinigt. Umso wichtiger ist es, den Wasserfluss auch während der Trockenperiode aufrecht zu erhalten. Der Fluss kommt erst seit den 90er Jahren zum Stillstand, was auf eine starke Nutzung des Wassers durch die Landwirtschaft zurück zu führen ist, die flussaufwärts vom Nationalpark betrieben wird.
Hintergrundinformation:
Das IZW ist Mitglied im Leibniz-Forschungsverbund „Infections ´21″ zur Bekämpfung von Infektionskrankheiten im 21. Jahrhundert. Im Rahmen des Verbundes untersucht das IZW im Forschungsprojekt „AQUAVIR – Wasser als Übertragungsweg“ für neu auftretende Krankheiten. Es gibt vermehrt Hinweise darauf, dass Wasser oft als Übertragungsweg übersehen wurde. Es wird vermutet, dass in Wasser eingebrachte Krankheitserreger unter optimalen ökologischen Bedingungen einen Fitnessvorteil erhalten, indem sie Merkmale entwickeln, die ihnen sowohl die Beibehaltung ihrer Infektiosität im Wasser, als auch eine Reduktion der Wirtsspezifität erlauben.
Publikation:
Stommel C, Hofer H, Grobbel M, East ML (2015): Large mammals in Ruaha National Park, Tanzania, dig for water when water stops flowing and water bacterial load increases. MAMM BIOL; doi:10.1016/j.mambio.2015.08.005
Kontakt:
Leibniz-Institut für Zoo und Wildtierforschung (IZW)
im Forschungsverbund Berlin e.V.
Alfred-Kowalke-Str. 17
10315 Berlin
Marion East
Tel.: +49 30 5168-512
east@izw-berlin.de
Steven Seet (Presse)
Tel.: +49 30 5168-125
seet@izw-berlin.de
Quelle: idw
Ozeanversauerung – das andere CO2-Problem
Eva Söderman Presse- und Öffentlichkeitsarbeit
Deutsches Klima-Konsortium e.V.
Meereswissenschaftler betonen im Vorfeld der Pariser Weltklimakonferenz die Bedeutung der Ozeane
Ambitionierte Klimaziele und Treibhausgasreduktionen sind nötig, um die Zukunft unseres Planeten und des Ozeans zu sichern. Darauf weisen die Meereswissenschaftler Prof. Dr. Hans-Otto Pörtner und Prof. Dr. Ulf Riebesell im Vorfeld der Pariser Weltklimakonferenz beim Klima-Frühstück des Deutschen Klima-Konsortiums (DKK) und des Konsortiums Deutsche Meeresforschung (KDM) hin.
Professor Dr. Hans-Otto Pörtner, Biologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, und neu gewählter Ko-Vorsitzender der Arbeitsgruppe II des kommenden Sechsten Sachstandsberichts des Weltklimarates IPCC, zeigte die durch den Klimawandel verursachten und zu erwartenden Risiken für die Ozeane auf: Erwärmung, Meeresspiegel-Anstieg sowie vor allem die Ozeanversauerung. Neben den tropischen Korallenriffen gelten dabei die Meereisgebiete der Arktis als die verwundbarsten Ökosysteme. Im aktuellen Weltklimabericht wurden erstmals kritische Veränderungsschwellen für Organismen und Ökosysteme und die damit verbundenen Risiken analysiert und auf Temperaturen zurückgerechnet. „Wir können klar sagen, dass die menschlich verursachte Erwärmung auf deutlich unter 2°C Grad – eher noch 1,5°C Grad – begrenzt werden muss“, erklärte Hans-Otto Pörtner. Die Empfindlichkeit der Korallenriffe erfordert sogar eine noch stärkere Begrenzung, wie Pörtner deutlich machte: „Nach Modellrechnungen können fünfzig Prozent der Korallenriffe erhalten werden, wenn wir den Temperaturanstieg auf etwa 1,2°C Grad begrenzen. Hierbei sind aber zusätzliche Risiken etwa durch Ozeanversauerung noch nicht einbezogen.“
Ozeanversauerung: Wie ein Treibhausgas die Meere verändert
Zu den größten Klimarisiken für die Ozeane zählt die Versauerung: 24 Millionen Tonnen Kohlendioxid (CO2) nimmt der Ozean jeden Tag auf. Er hat bisher etwa ein Drittel des seit Beginn der Industrialisierung freigesetzten CO2 absorbiert und so die Auswirkungen des Klimawandels abgemildert. Durch die CO2-Aufnahme ist der Säuregrad des Ozeans heute im Mittel um 28 Prozent höher als zu vorindustrieller Zeit. Bei ungebremsten CO2-Emissionen wird sich der Säuregehalt bis zum Ende dieses Jahrhunderts mehr als verdoppeln. Je stärker die Ozeane versauern, desto weniger zusätzliches Kohlendioxid können sie aus der Atmosphäre aufnehmen. „Die Geschwindigkeit der prognostizierten Ozeanversauerung ist beispiellos in der Erdgeschichte“, betonte Professor Dr. Ulf Riebesell, Leiter der Forschungseinheit Biologische Ozeanographie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. „Vor allem kalkbildende Organismen gehören zu den Verlierern der Ozeanversauerung, darunter neben Korallen auch Muscheln, Schnecken, Seeigel und Seesterne sowie viele Kalkbildner im Plankton.“
GEOMAR-Feldexperiment in Norwegen: Gewinner und Verlierer der Versauerung
Beim Klima-Frühstück stellte Ulf Riebesell erste Ergebnisse eines Feldexperiments vor, das im Frühjahr 2015 am norwegischen Raunefjord südlich von Bergen durchgeführt wurde. Dabei wurden die Auswirkungen der Versauerung in sogenannten Mesokosmen (teilgeschlossene experimentelle Anlagen im Fjord zur Simulation biologischer, chemischer und physikalischer Prozesse) über mehrere Monate untersucht. Im norwegischen Raunefjord zählten vor allem die Flügelschnecken und Kalkalgen zu den Verlierern. Zu den Gewinnern hingegen gehörte das Pikoplankton – Kleinstorganismen an der Basis des Nahrungsgefüges. „Kleine Veränderungen im Ökosystem können riesige Konsequenzen haben, die nicht nur das Nahrungsnetz im Meer umkrempeln, sondern die auch Aquakulturen und die Fischerei beeinträchtigen“, so Ulf Riebesell, der das vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Verbundprojekt BIOACID (Biological Impacts of Ocean Acidification) am GEOMAR koordiniert.
Klimawandel und Ozeanversauerung
Die Ozeanversauerung ist eine direkte Folge des Kohlendioxidausstoßes durch den Menschen. Das Zusammenwirken der Klimafaktoren auf die Meeresorganismen und mit anderen menschengemachten Veränderungen wie Überdüngung und Verschmutzung führt zu komplexen Veränderungen in den Ökosystemen, zur Abwanderung von Arten und zu einer insgesamt abnehmenden Artenvielfalt. Die Ozeane sind also vielfältigen Belastungen ausgesetzt, deren Folgen die Wissenschaft erst zu verstehen beginnt.
Eine junge Wissenschaft steht vor großen Herausforderungen
Die Erforschung der Ozeanversauerung steht als junge Wissenschaft vor besonderen Herausforderungen. Es sei nötig, die verschiedenen Ebenen der Veränderung – Umweltfaktoren, Interaktionen zwischen den Organismen des Nahrungsnetzes und die Anpassung auf längeren Zeitskalen – zusammenzuführen, betonte Ulf Riebesell. „Da die Zeit drängt, sollte nun besonderes Augenmerk auf die gesellschaftlich relevanten Aspekte gelegt werden. Das sind vor allem die Fischerei, die Aquakultur, der Tourismus und der Küstenschutz. Diesen Themen müssen wir uns verstärkt zuwenden, um die notwendigen Handlungsoptionen für politische Entscheidungen und Management-Strategien zu entwickeln.“
Bei Rückfragen wenden Sie sich bitte an
Eva Söderman, Referentin für Presse- und Öffentlichkeitsarbeit
Deutsches Klima-Konsortium e.V. (DKK)
Wissenschaftsforum, Markgrafenstraße 37, 10117 Berlin
Tel.: +49 (0)30 76 77 18 69-4 | Fax: +49 (0)30 76 77 18 69-9
E-Mail: eva.soederman@klima-konsortium.de
Weitere Informationen:
http://www.deutsches-klima-konsortium.de
http://www.deutsche-meeresforschung.de
http://www.awi.de
http://www.geomar.de
Quelle: idw
Begehrter US-Umweltpreis für eine Thüringer Partnerschaft
DC Katrin Schwarz Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Keramische Technologien und Systeme IKTS
Das Fraunhofer IKTS und die inopor GmbH aus Veilsdorf erhalten für ihre gemeinsame Entwicklung keramischer Nanofiltrationsmembranen den Corporate Environmental Achievement Award 2015 der Amerikanischen Keramischen Gesellschaft (ACerS).
Die Filterung und Aufbereitung von Wasser wird weltweit immer bedeutender. Mit porösen Membranen können, abhängig von der Porengröße, beispielsweise Mikroorganismen, gelöste organische Bestandteile oder Salze aus Abwässern abgetrennt werden, energiesparend und ganz ohne zusätzliche Chemikalien. Dem Fraunhofer IKTS gelang nun die Entwicklung der weltweit ersten Nanofiltrationsmembran aus Keramik mit einer Porengröße von unter 1 nm. Gemeinsam mit der inopor GmbH wurde die Fertigung im industriellen Maßstab aufgebaut und bereits zahlreiche Applikationen realisiert.
Die Innovation
Die neue Qualität des Ansatzes liegt in der einzigartigen Verbindung von Nanotechnologie und Umwelttechnik. Mit der Sol-Gel-Technik setzte das Team auf eine gut bekannte Methode der Präparation von Nanopulvern und Nanoschichten. Mit ihr werden bereits Hartstoffbeschichtungen, »Easy-to-Clean«- oder »Antifogging«-Schichten industriell hergestellt. Den Preisträgern gelang nun die Weiterentwicklung der Sol-Gel-Technik und ihre erfolgreiche Anwendung zur Abscheidung definiert poröser, sehr dünner aber dennoch defektfreier Schichten auf porösen keramischen Trägern. Die Dicke der keramischen Nanofiltrationsmembranen beträgt dabei nur 50 Nanometer – also ein Tausendstel eines menschlichen Haares – bei einer Porengröße von kleiner als 1 Nanometer. Darüber hinaus verfügt die Membran über eine außerordentlich hohe Mikroporosität von etwa 30 % und gewährleistet somit, dass 100 bis 200 Liter Wasser pro Quadratmeter und Stunde die Trennschicht passieren können. Dieses hervorragende Ergebnis wurde durch die Optimierung der Membranzusammensetzung erreicht, die aus Titaniumoxid und Zirkoniumoxid besteht. Somit lassen sich nicht nur gelöste organische Bestandteile sondern auch technische Salze aus dem Wasser entfernen.
Trotz der kleinen Poren und hohen Mikroporosität sind die keramischen Membranen stabil in Säuren und Laugen und zeichnen sich durch eine sehr lange Lebensdauer von mehr als zehn Jahren aus. Keramische Nanofiltrationsmembranen ermöglichen u. a. eine produktionsintegrierte Abwasserreinigung. Da Keramiken beständig gegen Hitze sind, können auch heiße Abwässer – wie in der Textilindustrie – gereinigt in Produktionskreisläufe zurückgeführt werden. Durch die deutliche Verfeinerung der Porengrößen werden nun auch die Trennung von Produkten in der chemischen und pharmazeutischen Industrie, die Entsalzung und Aufbereitung von Trinkwasser oder die effiziente Abwasserreinigung im Umfeld der Öl- und Gasgewinnung möglich.
Der Preis
Der ACers Corporate Environmental Achievement Award 2015 wird jährlich im Rahmen der ACerS-Jahrestagung verliehen. Frühere Preisträger waren u. a. namhafte Firmen wie Osram, Toyota, Unifrax und Schott. »Der Preis hat einen enormen Stellenwert in der Fachwelt und erfüllt uns mit Stolz. Diese Auszeichnung ist eine große Anerkennung für die jahrelange gemeinsame Forschung und Entwicklung von inopor und dem Fraunhofer IKTS und zugleich Ansporn, an diesem Thema weiterzuarbeiten«, sagt Dr. Ingolf Voigt, Leiter des Fraunhofer IKTS am Standort Hermsdorf.
Das Fraunhofer-Institut für Keramische Technologien und Systeme IKTS betreibt anwendungsorientierte Forschung für Hochleistungskeramik. Die drei Institutsteile in Dresden und Hermsdorf (Thüringen) formen gemeinsam das größte Keramikforschungsinstitut Europas. Als Forschungs- und Technologiedienstleister entwickelt das Fraunhofer IKTS moderne keramische Hochleistungswerkstoffe, industrierelevante Herstellungsverfahren sowie prototypische Bauteile und Systeme in vollständigen Fertigungslinien bis in den Pilotmaßstab. Die Entwicklung von keramischen Membranen für die Flüssigfiltration sowie die Gastrennung einschließlich Membranverfahrenstechnik gehören zu den Kernkompetenzen des IKTS am Standort Hermsdorf.
Die inopor GmbH ist eine 100%ige Tochtergesellschaft der Firma Rauschert. Rauschert ist ein deutsches Familienunternehmen mit über 110 Jahren Erfahrung in der Herstellung von Hochleistungskeramik. Das Unternehmen beschäftigt 1200 Mitarbeiter in 12 Ländern. Im Jahr 2009 erweitere Rauschert erfolgreich seine Unternehmensausrichtung auf erneuerbare Energien und dezentrale Energiesysteme mit einem klaren Fokus auf Industriekunden. Die inopor GmbH wurde gegründet, um die Herstellung keramischer Nanofiltrationsmembranen, die gemeinsam mit dem Fraunhofer IKTS entwickelt wurden, im industriellen Maßstab voranzutreiben.
Quelle: idw
Wie intelligente Systeme die Arbeitswelt verändern
Sebastian Dreher Pressestelle
Rheinisch-Westfälische Technische Hochschule Aachen
Das Bundesministerium für Bildung und Forschung, kurz BMBF, unterstützt den Aufbau einer RWTH-Arbeitsgruppe, die das Zusammenspiel zwischen sozialen und technischen Innovationen untersucht. Das Projekt unter der Leitung von Dr. Yves-Simon Gloy vom Institut für Textiltechnik, kurz ITA, erhält innerhalb von fünf Jahren 2,5 Millionen Euro.
In einer Halle des Instituts für Textiltechnik, kurz ITA genannt, rattern mehrere Webmaschinen. An ihnen werden viele technische Details und Vorgänge getestet, auch die Steuerungen. Dr.-Ing. Yves-Simon Gloy demonstriert an einer Maschine die bisher gängige Bedienung. Hier müssen erst vielfach Tasten gedrückt werden, um die gewünschten Parameter zu erhalten. „Das geht einfacher und besser“, sagt Gloy und zeigt eine weitere Maschine mit zwei Studierenden an einem kleinen Bediener-Tablet. Das Menü besteht aus übersichtlichen und leicht verständlichen Symbolen, die Mitarbeiterinnen und Mitarbeiter müssen nicht mehr selbst die Parameter für den Webprozess auswählen. Ein Assistenzsystem gibt die optimalen Einstellungen vor, die zum Material und der Maschine passen. Sie werden dann nur noch per Knopfdruck bestätigt.
In der Textilbranche führen intelligente Systeme und die zunehmende Automation zu Veränderungen für die Beschäftigten in vielen Bereichen. Unter der Projektleitung von Gloy untersucht eine Arbeitsgruppe das Zusammenspiel zwischen sozialen und technischen Innovationen. Mit seinem Konzept war der Bereichsleiter am ITA und Adjunct-Professor der Clemson University in South Carolina in einem Förderwettbewerb des Bundesforschungsministeriums erfolgreich. Während der nächsten fünf Jahren wird der Aufbau einer Forschungsgruppe zum Thema „Soziotechnische Systeme in der Textilbranche“ mit 2,5 Millionen Euro gefördert.
Technik schließt Mensch nicht aus
Interdisziplinär und in Kooperation mit Industrie- und Forschungspartnern wird an Hand von Demonstratoren der Einsatz von vorhandenen Lösungen im Rahmen von Industrie 4.0 in die Textiltechnik überprüft. Ein Ziel ist, einer älter werdenden Belegschaft mehr Bedienungsfreundlichkeit zu ermöglichen. Es gehe aber nicht nur um die Generation, die noch mit analogen Maschinensystemen groß geworden ist, sondern um alle Altersstufen, betont Jacqueline Lemm. Sie arbeitet als Soziologin und wissenschaftliche Mitarbeiterin in dem Projekt mit: „In der Textilmaschinenbranche ist das Durchschnittsalter der Belegschaften mit über 50 Jahren zwar deutlich höher als in anderen Branchen. Hinzu kommt aber ein hoher Anteil an Leiharbeitern und Migranten, die Sprachbarrieren überwinden müssen.“ An Arbeitsplätzen mit Assistenzsystemen können die individuellen Kompetenzen berücksichtigt und jeder in die Lage versetzt werden, sich in den komplexeren Arbeitsinhalten zurechtzufinden. Lemm kennt die Argumente der Kritiker: „Viele befürchten, dass die zunehmende Automatisierung von Produktionsprozessen Arbeitsplätze vernichtet. Wir wollen zeigen, dass Technik Menschen nicht ausschließt.“
Soziotechnische Systeme
Der Forschungsverbund will Produktionsverfahren als soziotechnische Systeme initiieren, bei denen der Mensch mit seinen Bedürfnissen und Kompetenzen im Mittelpunkt steht. Dazu gehören Barrierefreiheit und die Standortunabhängigkeit der Maschinen. Sinnvoll sind nach Ansicht der Aachener Forscher auch Details wie eine individuelle Anpassung von Schriftgrößen, Piktogramme oder die Einbindung von Fotos und Videos, die einzelne Arbeitsschritte erklären.
„Von den Textilmaschinenherstellern haben wir bereits viele positive Rückmeldungen erhalten“, berichtet Gloy. Das ist auch begründet im Wettbewerbsdruck der Branche, die international nur über Innovationen konkurrenzfähig bleibt. In Deutschland ist die Textilindustrie mit rund 65.000 Beschäftigten ein wichtiger Arbeitgeber. Deshalb werden die Aachener auch die Kontakte zur Industrie nutzen, um die Alltagstauglichkeit ihrer entwickelten Systeme zu testen.
Text: Helga Hermanns
Kontakt:
Dr.-Ing. Yves-Simon Gloy
Institut für Textiltechnik (ITA)
Telefon: +49 241 80 23470
E-Mail: Yves.Gloy@ita.rwth-aachen.de
Weitere Informationen:
http://www.ita.rwth-aachen.de
Quelle: idw
Vom Klärwerk zum Kraftwerk
Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)
Das Kompetenzzentrum Wasser Berlin koordiniert das im Juli 2015 gestartete Europäische Forschungs- und Demonstrationsvorhaben POWERSTEP.
Das Ziel: Wie können bestehende Kläranlagen vom Energieverbraucher zum -erzeuger umgerüstet werden?
Der Energieinhalt von Abwasser ist eine bisher wenig beachtete Energiequelle, die es zu nutzen gilt.
Unter diesem Motto ist im Juli 2015 unter der Leitung des Kompetenzzentrums Wasser Berlin das europäische Verbundforschungsvorhaben POWERSTEP gestartet. 15 europäische Partner, führende Forschungseinrichtungen und Unternehmen, arbeiten hier gemeinsam an einem Ziel: Kläranlagen, die bisher zur Abwasserreinigung noch Energie benötigen, zu Energieerzeugern zu machen. Selbstverständlich soll dies nicht auf Kosten der Reinigungsleistung gehen.
Kombination von bewährter Technik mit Innovationen.
Kernaktivität des Projektes ist die Implementierung bewährter aber auch neuer Technologien auf großen konventionellen Kläranlagen in Deutschland, Schweden, Dänemark, Österreich und der Schweiz ab Mitte 2016:
– Abtrennung von energiereichem organischen Kohlenstoff aus dem Rohabwasser (Mikrosiebung oder Biosorption)
– Anwendung von innovativen Verfahren der Stickstoffentfernung (Deammonifikation im Hauptstrom, Wasserlinsen-Bioreaktor)
– Steigerung der Biogasausbeute mit „Power-to-Gas-Technologie“ und Netzanbindung über „smart grids“
– Energiegewinnung aus Abwärme (thermoelektrische Systeme zur Energierückgewinnung in BHKWs, Dampf-Kreislauf nach Rankine, Wärmespeicherkonzepte)
– Innovative Prozesswasseraufbereitung (Nitritation, Membranstrippung).
Die Umrüstung von Kläranlagen ist wirtschaftlich sinnvoll.
Eine Umrüstung der Abwassertechnik führt letztlich zu einer Steigerung der regionalen Energieerzeugungskapazitäten. Derzeit sind Klärwerke für ungefähr 1 % des gesamten Stromverbrauchs in Europa verantwortlich und haben meist den größten Anteil an den Stromkosten von kommunaler Infrastruktur (über 30%). Mit einer umfassenden Umrüstung aller europäischen Klärwerke und einer Nutzung des chemischen Energiepotenzials von 87.000 GWh pro Jahr in Europa könnte mit den POWERSTEP-Konzepten Strom in der Größenordnung von bis zu 12 großen Kraftwerken erzeugt werden.
POWERSTEP: Projektvolumen € 5.2 Millionen – 15 Partner – Laufzeit: 2015-2018
POWERSTEP wird gefördert im Europäischen Programm für Forschung und Innovation „Horizon 2020″ unter dem Förderkennzeichen n°641661.
Koordinator:
Christian Loderer – Christian.Loderer@kompetenz-wasser.de
Kompetenzzentrum Wasser Berlin gGmbH
+49 30 53653 806
Weitere Informationen:
http://www.powerstep.eu
http://www.kompetenz-wasser.de
Quelle: idw
Blauer Eisenhut, Engelstrompete und Wunderbaum – das Risiko akuter Vergiftungen durch Pflanzen
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Broschüre „Ärztliche Mitteilungen bei Vergiftungen 2011-2013″ dokumentiert unter anderem Vergiftungsunfälle mit Pflanzen
Kleinkinder sind, gerade jetzt im Herbst, durch die versehentliche Einnahme von giftigen Blüten, Samen oder Früchten in besonderem Maße gefährdet. Dies legen von Ärztinnen und Ärzten, Krankenhäusern und Giftinformationszentren an das Bundesinstitut für Risikobewertung (BfR) gemeldete Vergiftungsfälle nahe, die zusammengefasst in der Broschüre „Ärztliche Mitteilungen bei Vergiftungen 2011-2013″ beschrieben sind. Hierunter finden sich Fälle mit Blauem Eisenhut, Engelstrompete und den Ricinussamen des Wunderbaums. Allgemein sind die meisten Vergiftungsmeldungen zwar auf den Umgang mit chemischen Produkten zurückzuführen, doch werden rund 10 Prozent der Fälle durch giftige Pflanzen oder Pilze ausgelöst. In den Jahren 2011-2013 hat das BfR insgesamt 13.225 Vergiftungen dokumentiert. Der Bericht „Ärztliche Mitteilungen bei Vergiftungen“ gibt einen informativen Überblick über alle Meldungen aus dieser Zeit – von exotischen Fällen wie Ciguatera-Vergiftungen nach dem Verzehr von Schnapper-Fischfilets, allergischen Nebenwirkungen nach dem Stechen eines Tattoos bis hin zu Vergiftungen am Arbeitsplatz. „Die Meldungen und Auswertungen von Vergiftungen“, so BfR-Präsident Professor Dr. Dr. Andreas Hensel, „führen dazu, dass Vergiftungsrisiken für die Bevölkerung schneller erkannt werden. Sie tragen so dazu dabei, dass die Sicherheit von Produkten stetig verbessert wird.“
In den „Ärztlichen Mitteilungen bei Vergiftungen 2011-2013″ werden Fälle in Verbindung mit dreien der giftigsten Gartenpflanzen skizziert: Blauer Eisenhut, Engelstrompete und Wunderbaum (Ricinus). Der Blaue Eisenhut trägt sogar den unrühmlichen Titel der „giftigsten Pflanze Europas“. Sämtliche Teile der Pflanze enthalten Aconitin, das giftiger ist als das aus Krimis wohlbekannte Strychnin. Für den erwachsenen Menschen sind bereits etwa zwei bis sechs Milligramm reines Aconitin tödlich. Schon in der Folge des Hautkontakts beim Pflücken der imposanten, tiefblauen Blüten können sich Symptome zeigen. Häufig kommt es jedoch zu Vergiftungen, weil die Knolle des Eisenhuts mit Sellerie- oder Meerrettichwurzeln verwechselt wird. Auch die Blätter landen, aus Unkenntnis oder in Verwechslung mit Petersilie, in Salaten.
Bei der Engelstrompete handelt es sich um ein bis zu fünf Meter hohes Ziergewächs mit auffällig großen, hängenden Trompetenblüten. Auch bei dieser Pflanze sind alle Teile giftig. Im Fall einer Vergiftung können die Symptome – insbesondere Verwirrtheit und Bewusstseinsverlust – bis zu zwei Tage lang andauern.
Zu den giftigsten Gartenpflanzen gehört darüber hinaus der Wunderbaum, der wegen seiner großen, tiefrot gefärbten Blätter als Zierpflanze kultiviert wird. Der Wunderbaum bildet rotbraune, mit weichen Stacheln besetzte Kapselfrüchte mit bohnenförmigen Samen aus, die gern gepflückt werden. Ricinussamen sind jedoch hochgiftig. Für eine tödliche Vergiftung mit Ricin reicht bei Kindern bereits eine Aufnahme von drei bis fünf gut zerkauten Samen aus. Nicht nur der Verzehr, sondern auch der Hautkontakt mit den Samen, besonders mit durchbohrten Samen – wie sie teilweise an Halsketten zu finden sind – können schwere Allergien auslösen. Da hier die feste Samenschale durchbohrt wird, können die Giftstoffe direkt in die Haut gelangen. Solcher Schmuck darf unter keinen Umständen in die Hände von Kindern gelangen.
Bei Unsicherheit, ob eine giftige Pflanze verzehrt wurde oder Kontakt bestand, hilft ein Anruf bei einer der acht deutschen Giftnotrufzentralen weiter. Auch die vielfach genutzte BfR-App „Vergiftungsunfälle bei Kindern“, die 2014 den Deutschen Preis für Onlinekommunikation erhielt, bietet Hinweise, wie sich Unfälle vermeiden lassen und gibt Informationen über Erste-Hilfe-Maßnahmen.
Die vorliegenden „Ärztlichen Mitteilungen bei Vergiftungen“ wurden als Sammelband für die Jahre 2011-2013 erstellt und schließen somit lückenlos an die letzten Mitteilungen aus dem Jahr 2010 an. Der Bericht gibt einen informativen Überblick über Vergiftungsrisiken sowie Schwerpunkte der ärztlichen Meldungen an das BfR. In der Broschüre, die sich besonders an Ärzte, Klinik- und Rettungspersonal richtet, beschreibt das BfR für ausgewählte Vergiftungsfälle ausführlich Symptome, Verlauf und Therapieansätze. Sie ist kostenlos beim BfR erhältlich: Fax +49-(0)30-18412-4970, E-Mail: publikationen@bfr.bund.de und steht unter www.bfr.bund.de zum Herunterladen zur Verfügung.
Weitere Informationen über die Meldepflicht bei Vergiftungen und unerwünschten Produktwirkungen nach § 16e des Chemikaliengesetzes finden Sie hier: http://www.bfr.bund.de/de/vergiftungen-7467.html
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Weitere Informationen:
http://www.bfr.bund.de/cm/350/aerztliche-mitteilungen-bei-vergiftungen-2011-2013…
Informationsbroschüre Ärztliche Mitteilungen bei Vergiftungen 2011-2013
Quelle: idw
Alternative Kraftstoffe: Kostengünstig und klimafreundlich aus dem Bioethanol-Reaktor
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
Wissenschaftler der Universität Hohenheim entwickeln neues kontinuierliches Verfahren zur effizienten Bioethanol-Herstellung / Ein Werkstattbericht
Biokraftstoffe könnten bis zu 20 Prozent des Treibstoffbedarfs der Menschen decken. Dass dies auch klimafreundlich, wirtschaftlich und ohne Tank-Teller-Diskussion geschieht, will ein Forschungsprojekt der Universität Hohenheim ermöglichen. Die Wissenschaftler um Prof. Dr. Ralf Kölling-Paternoga forschen an einem kontinuierlich arbeitenden Bioethanol-Reaktor, der die bisherigen Schwächen der Biokraftstoff-Produktion beheben soll. Die Fachagentur Nachwachsende Rohstoffe (FNR) unterstützt das Projekt mit gut 350.000 Euro. Damit zählt es zu den Schwergewichten der Forschung an der Universität Hohenheim.
Bioethanol – Treibstoff aus nachwachsenden Rohstoffen, klimaneutral und damit eine gute Alternative zu fossilen Brennstoffen. Soviel zur Theorie. In der Praxis ist die Bioethanol-Produktion bislang jedoch noch umstritten.
„Eine Konkurrenz zur Nahrungsmittelproduktion kann entstehen, wenn Ausgangsstoffe wie Getreide oder Zuckerrüben eingesetzt werden. Je nach Herstellungsprozess kann zudem die Klimabilanz relativ schlecht ausfallen. Verwendet man andere als die bislang üblichen Rohstoffe, ist die Produktion immer noch teuer und damit unwirtschaftlich“, umreißt Prof. Dr. Kölling-Paternoga von der Universität Hohenheim die Hindernisse.
Der Biotechnologe arbeitet mit seinem Team am Fachgebiet Hefegenetik und Gärungstechnologie daran, gleich alle drei Probleme mit einem Streich zu lösen. Ihr Ziel ist ein kontinuierliches Verfahren mit genveränderten Hefen, das eine erheblich kostengünstigere Bioethanol-Produktion ermöglicht.
Als Ausgangsstoff setzen die Wissenschaftler Cellulose aus Reststoffen wie Stroh ein – das vermeidet die Konkurrenz zu Nahrungsmitteln und sorgt für eine gute Klimabilanz mit Einsparungen von 80 bis 90 Prozent gegenüber Benzin aus fossilen Quellen.
„Wir stellen uns eine Art Bioethanol-Reaktor vor, ähnlich wie bei Biogas. Ein möglichst einfaches System, in das man die Ausgangsstoffe auf einer Seite hineingibt und auf der anderen Bioethanol herauskommt“, veranschaulicht Prof. Dr. Kölling-Paternoga das Ziel des Forschungsprojektes.
Hefepilze mit Sonderzubehör
Cellulose zur Produktion von Bioethanol hat einen Nachteil: Sie ist schwer aufzuschließen. Bisher führt man eine Vorbehandlung mit Dampf, Druck und zugesetzten Enzymen durch, um den Zucker in den Pflanzen freizusetzen. Erst dann kann Hefe zugegeben werden, die den Zucker zu Alkohol umwandelt.
Dieses Batch-Verfahren ist umständlich und kostenaufwendig. Die Forscher wollen es deshalb erheblich vereinfachen. „Wir möchten mit gentechnischen Methoden Hefen herstellen, die selbst diese Enzyme produzieren“, erklärt Prof. Dr. Kölling-Paternoga.
Dafür etablieren sie auf den Hefepilzen sogenannte Mini-Cellulosomen – Anhänge auf der Zelloberfläche, die alle zum Cellulose-Abbau nötigen Enzyme beinhalten. In der Natur findet man derartige Cellulosome vor allem in einigen Bakterien. „Die Hefen können dann an die Cellulose andocken und in parallelen Prozessen die Cellulose abbauen und mit der Bioethanol-Produktion starten“, so der Experte.
Kontinuierliche Bioethanol-Produktion: Einfach und kostengünstig
Sein Institutskollege PD Dr. Thomas Senn will diese Hefen in einem kontinuierlichen System nutzen. Er arbeitet parallel zur genetischen Entwicklung an der technischen Umsetzung.
Ziel der Forscher ist ein Prototyp einer solchen kontinuierlich arbeitenden Anlage am Ende der drei Förderjahre. Sie soll Biokraftstoffe der 2. Generation produzieren, also hergestellt aus Stoffen, die nicht für den menschlichen Verzehr geeignet sind.
Keine Konkurrenz zur Lebensmittelproduktion
Grundsätzlich könnten dazu unterschiedliche Materialien eingesetzt werden. „Denkbar wären auch zum Beispiel Biomüll oder Energiepflanzen aus Agroforstsystemen“, erläutert Prof. Dr. Kölling-Paternoga. „Berechnungen zufolge könnte man unter optimalen Voraussetzungen weltweit rund die Hälfte des Bedarfs an Kraftstoffen mit Bioethanol aus Reststoffen decken.“
Entscheidend wird jedoch die marktwirtschaftliche Seite sein. „Momentan liegen die Produktionskosten für Cellulose-Ethanol über den Herstellungskosten für Benzin“, stellt Prof. Dr. Kölling-Paternoga fest. „Unser neues System dürfte die Kosten ganz erheblich senken und die Effizienz steigern.“
Hintergrund des Forschungsprojektes
Das Projekt „Entwicklung eines kontinuierlichen Prozesses zur Herstellung von Cellulose-Ethanol auf der Basis von Cellulosom-Hefen“ ist auf drei Jahre ausgelegt und startete am 1.1.2015. Mit einer Summe von gut 350.000 Euro wird die Forschung an der Universität Hohenheim von der Fachagentur Nachwachsende Rohstoffe e.V. (FNR) gefördert. Damit gehört es zu den Schwergewichten der Forschung an der Universität Hohenheim.
Hintergrund: Schwergewichte der Forschung
Rund 30 Millionen Euro an Drittmitteln akquirierten Wissenschaftler der Universität Hohenheim 2014 für Forschung und Lehre. In loser Folge präsentiert die Reihe „Schwergewichte der Forschung“ herausragende Forschungsprojekte mit einem finanziellen Volumen von mindestens 250.000 Euro bei den Experimental- bzw. 125.000 Euro bei den Sozial- und Gesellschaftswissenschaften.
Text: Elsner / Klebs
Quelle: idw
Studie zum Gemeinwohl: dm, Edeka und ALDI Nord genießen höchstes Ansehen
MBA Volker Stößel Media Relations
HHL Leipzig Graduate School of Management
GemeinwohlAtlas 2015 http://www.gemeinwohlatlas.de
Der Drogerieriese dm hat die Nase im GemeinwohlAtlas 2015 der HHL Leipzig Graduate School of Management/Universität St. Gallen vorn. In einer repräsentativen Erhebung von mehr als 7000 Personen im gesamten Bundesgebiet zum Gemeinwohlbeitrag von insgesamt 127 Unternehmen, öffentlichen Institutionen und NGOs führt das größte deutsche Drogerie-Unternehmen in der Kategorie Einzelhandel vor Edeka und ALDI Nord. Studienleiter Prof. Dr. Timo Meynhardt kommentiert: „Die Bürgerinnen und Bürger differenzieren sehr genau, wenn es um ihre täglichen Einkäufe geht. Bemerkenswert ist unter anderem, dass heute auch ALDI in der Mitte der Gesellschaft angekommen ist. Wenn es um Gemeinwohlverträglichkeit geht, tun sich die Deutschen hingegen schwer mit Amazon.“
Laut der Studie steht das Gemeinwohl in Deutschland hoch im Kurs: 85% der Befragten sind besorgt, dass dem Thema in Deutschland zu wenig Beachtung geschenkt wird. Neun von zehn Befragten geben dabei an, eine klare Vorstellung davon zu haben, was unter Gemeinwohl zu verstehen ist. Fast ebenso viele sehen die Orientierung am Gemeinwohl für den langfristigen Erfolg einer Organisation als entscheidend an.
Prof. Dr. Timo Meynhardt sagt: „Der GemeinwohlAtlas 2015 zeigt ein klares Bild: Die Feuerwehr, die unser Schutz- und Sicherheitsbedürfnis befriedigt, wird von den Befragten mit Abstand als die gemeinwohlförderlichste Organisation eingestuft. Am unteren Ende rangiert mit Abstand die BILD-Zeitung. Sie steht für den polarisierenden Boulevardjournalismus. Diese beiden Pole spannen gewissermaßen den Bogen und definieren die Atlasränder.“
Über die HHL Leipzig Graduate School of Management
Die HHL ist eine universitäre Einrichtung und zählt zu den führenden internationalen Business Schools. Ziel der ältesten betriebswirtschaftlichen Hochschule im deutschsprachigen Raum ist die Ausbildung leistungsfähiger, verantwortungsbewusster und unternehmerisch denkender Führungspersönlichkeiten. Die HHL zeichnet sich aus durch exzellente Lehre, klare Forschungsorientierung und praxisnahen Transfer sowie hervorragenden Service für ihre Studierenden. Das Studienangebot umfasst Voll- und Teilzeit-Master in Management- sowie MBA-Programme, ein Promotionsstudium sowie Executive Education. 2013 und auch 2014 errang die HHL einen der drei ersten Plätze für die besten Gründerhochschulen in Deutschland innerhalb des vom Stifterverband für die Deutsche Wissenschaft und dem Bundesministerium für Wirtschaft und Energie (BMWi) herausgegebenen Rankings „Gründungsradar“. Laut der Financial Times liegt die HHL im Bereich Entrepreneurship innerhalb des M.Sc.- sowie des EMBA-Programms national auf Platz 1 bzw. global unter den Top 5. Die HHL ist akkreditiert durch AACSB International. http://www.hhl.de
Weitere Informationen:
http://www.gemeinwohlatlas.de
http://www.hhl.de
Quelle: idw
DBU: energieeffizientes Verfahren zur vollständigen Aufbereitung von Gärresten aus Biogasanlagen
Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Entwicklung eines energieeffizienten Verfahrens zur vollständigen Aufbereitung von Gärresten aus Biogasanlagen durch die Kombination von Fest-/ Flüssig-Separation und Membranverfahren
Die Biogaserzeugung zur Energiegewinnung durch die anaerobe Vergärung von Wirtschaftsdünger, nachwachsenden Rohstoffen (NawaRo), Bioabfällen und landwirtschaftlichen und industriellen Reststoffen ist Stand der Technik. 2012 waren in Deutschland 7.850 Biogasanlagen mit einer elektrischen Leistung von 3.540 MW installiert. Die Prognose des Fachverbands Biogas für 2014 betrug 7.944 Anlagen bei einer installierten Leistung von 3.860 MW. Biogasanlagen wandeln organisches Substrat durch anaerobe Vergärung in Biogas und einen Gärrest um. Dieser ist im Vergleich zu den als Substrat eingesetzten Wirtschaftsdüngern und Energiepflanzen ein sehr guter und geruchsreduzierter Dünger. Er besteht zu über 90 % aus Wasser und enthält eine Reihe von Nährstoffen wie Stickstoff, Phosphor und Kalium. Dabei entsteht zunehmend das Problem, dass die produzierten Gärrestmassenströme nicht auf die lokal vorhandenen Flächen ausgebracht werden können. Aufgrund hoher Transport-/Lagerkosten für die Rückführung beziehungsweise Lagerung der Gärreste werden für diese Anlagen neue Verfahrensweisen zur direkten und vollständigen Aufbereitung des Gärrestes gesucht.
Die Voll-Gärrestaufbereitung durch die Kombination aus Fest-/Flüssig-Separation und Membranverfahren ist eine Technologie, bei der die Nährstoffe in transport-, lagerungs- und verkaufsfähige Düngemittelprodukte überführt werden und die zu transportierende oder zu lagernde Masse durch den entzogenen Wasseranteil deutlich reduziert wird. Der Feststoff kann als Bodenhilfsmittel oder Kompost eingesetzt werden. Der entstehende Flüssigdünger dient als direkter Ersatz für Mineraldünger. Das abgetrennte Wasser wird auf Direkteinleiter- oder Prozesswasserqualität aufbereitet und somit wiederverwendet. Hierdurch entsteht eine Verminderung der Umweltbelastungen durch Emissionen bei Transporten von unbehandelten Gärresten.
Ziel des Gesamtprojektes ist es, einen wirtschaftlichen Einsatz der Voll-Gärrestaufbereitung zu verwirklichen. Das soll durch eine deutliche Effizienzsteigerung der energieintensivsten Stufe der Gärrestaufbereitung, der Ultrafiltrationsstufe, erfolgen. Das Projekt ist in zwei Phasen unterteilt. In der ersten Phase wurden 15 Gärreste im Hinblick auf ihre Fluideigenschaften und die Energieeffizienz der Aufbereitung untersucht und unterschiedliche Ansätze zur Modifikation des Verfahrens erfolgreich erprobt. In der zweiten Phase soll die Umsetzbarkeit der gesamten Prozesskette technisch abgesichert werden. Hierzu sind Versuche im halbtechnischen Maßstab an zwei realen Biogasanlagen geplant. Zwischen Januar und April 2016 werden hierzu Versuchsreihen in einer Biogasanlage in Bad Bentheim (Niedersachsen) stattfinden, ab Mai 2016 folgt dann die Beprobung einer weiteren Anlage.
Zwischenstand:
Die Deutsche Bundesstiftung Umwelt (DBU) stellte für die erste Phase (AZ 31276/01) 178.355 € Fördermittel zur Verfügung. Ausgehend vom derzeitigen Stand der Technik werden unterschiedliche Ansätze zur Modifikation des Verfahrens untersucht.
Die erste Phase enthielt die Arbeitspakete:
AP 1: Untersuchungen im Labormaßstab von 15 Gärresten und Dekanter-Zentraten (vorwiegend C, N und P) mit dem Ziel der Identifikation der für die hohe Viskosität verantwortlichen Stoffe.
Im Ergebnis wurde ein deutlicher Zusammenhang zwischen den rheologischen Eigenschaften der Flüssigphase des Gärrestes nach Fest-Flüssig-Trennung (entspricht dem Zulauf zur UF-Stufe) und der Trennleistung bzw. dem aufzubringenden Energieaufwand der UF gefunden.
AP 2: Testung von Prozessmodifikationen, die die Fluideigenschaften des Gärrest-Zentrist deutlich ändern, also die Fluid-Viskosität verringern:
o Zugabe von mineralischen Flockungshilfsmitteln zum Gärrest vor dem Dekanter;
o Zugabe von enzymatischen Hilfsstoffen zum Gärrest vor dem Dekanter sowie im Dekanter-Zentrat vor der UF-Stufe;
o Thermische Behandlung des Dekanter-Zentrats bei Temperaturen zwischen 60 und 220 °C;
o Chemische/ physikalische Behandlung des Dekanter-Zentrats,
o Oxidation,
o Mechanische Behandlung des Dekanter-Zentrats durch Vorsiebung, Vorfiltration.
Im Ergebnis sind sowohl die Zugabe von enzymatischen Hilfsstoffen als auch die Oxidation dazu geeignet, die Energieeffizienz der UF-Stufe und damit des gesamten Gärrest-Aufbereitungsverfahrens zu steigern.
Zielsetzung:
Gärreste und Gülle bestehen zu über 90 % aus Wasser. Ziel aller Strategien zur Aufbereitung von Gärresten ist die Reduzierung des unwirtschaftlichen, ökologisch bedenklichen Transportaufwandes. Bei der Teil- oder Vollaufbereitung von Gärresten wird der große Wasseranteil abgetrennt und ein kleiner Massenstrom hochwertigen und transportwürdigen Düngers direkt am Standort der Biogasanlagen erzeugt. Die Vollaufbereitung trennt den Gärrest in drei Stoffströme auf: den Feststoff, ein nährstoffreiches Konzentrat und eine einleitfähige Flüssigphase. Diese Art der Aufbereitung bietet folgende umweltrelevanten Vorteile: die zu transportierende oder zu lagernde Masse wird durch den entzogenen Wasseranteil deutlich reduziert; die Nährstoffe werden in transport-, lagerungs- und verkaufsfähige Produkte überführt; das abgetrennte Wasser wird auf eine Qualität zur Direkt-einleitung in ein Gewässer oder darüber hinaus auf Prozesswasserqualität aufbereitet.
Das zweiphasige Gesamtprojekt verfolgt im Vergleich mit den am Markt verfügbaren „MPS“-Verfahren (Multi-Phase-Separation) eine deutliche Reduzierung des Energieverbrauchs der Gärrestaufbereitung um 50 %. Die im Substrat der Biogasanlage enthaltenen Nährstoffe sollen wirtschaftlich effizient separiert und als hochwertiger Langzeitdünger zurückgewonnen werden. Ansatzpunkt für die Optimierung ist die energieintensivste Stufe, die Ultrafiltration (UF: Partikel-Abtrenngrenze 2 – 100 nm; 1 nm = 1 Millionstel Millimeter). In der Regel werden hier keramische Rohrmodule mit materialspezifischen Vorteilen eingesetzt.
In der zweiten Phase wird die Umsetzbarkeit der gesamten Prozesskette technisch abgesichert. Hierzu sind Versuche im halbtechnischen Maßstab (Faktor etwa 1:10 zur Realausführung) an zwei realen Biogasanlagen geplant. Diese Versuche erlauben neben der technischen Optimierung eine zuverlässige Bewertung der Wirtschaftlichkeit.
Folgende Arbeitspakete sind vorgesehen:
AP 3: Halbtechnische Versuche mit Messung und Bilanzierung aller Stoffströme, insbesondere im Hinblick auf die Düngerqualität (vorwiegend N, K) und der Wiederverwendbarkeit des aufbereiteten Wassers;
AP 4: Entwicklung hydrodynamisch optimierter getauchter Plattenmodule als Alternative zu den bislang eingesetzten UF-Rohrmodulen;
AP 5: Durchführung der Öffentlichkeitsarbeit (Vorträge, Veröffentlichungen) sowie die Analyse der
• Energieeinsparpotenziale,
• Wirtschaftlichkeit,
• Betriebssicherheit und Übertragbarkeit auf den großtechnischen Maßstab.
Einschätzung:
Die zu entwickelnde Technik bietet gute Chancen für eine Umweltentlastung in den Bereichen Gärrestaufbereitung, Düngemittelproduktion und Grundwasserschutz. Die Voll-Gärrestaufbereitung durch die innovative Kombination bekannter Prozessstufen ist ein vielversprechendes Verfahren, bei dem die Nährstoffe in transport-, lagerungs- und verkaufsfähige Düngemittelprodukte überführt werden. Die zu transportierende oder zu lagernde Masse wird durch den entzogenen Wasseranteil deutlich reduziert. Die große Hemmschwelle zum Einsatz der Voll-Gärrestaufbereitung liegt bislang in den noch hohen Investitions- und Betriebskosten im Vergleich zu LKW-Transporten. Übergeordnetes Ziel des Projektes ist es daher, einen wirtschaftlichen Einsatz der Voll-Gärrestaufbereitung zur Düngemittelrückgewinnung zu verwirklichen.
Quelle: idw
Studie zum Gemeinwohl: BVB schlägt Bayern München
MBA Volker Stößel Media Relations
HHL Leipzig Graduate School of Management
DFB im Sommer noch hoch angesehen. GemeinwohlAtlas 2015 (http://www.gemeinwohltas.de)
Borussia Dortmund hat die Nase im GemeinwohlAtlas 2015 von der HHL Leipzig Graduate School of Management/Universität St. Gallen vorn. In einer repräsentativen Erhebung von mehr als 7000 Personen im gesamten Bundesgebiet zum Gemeinwohlbeitrag von insgesamt 127 Unternehmen, öffentlichen Institutionen und NGOs steht der Dortmunder Bundesligaverein unter den Top-10 aller Unternehmen. In der Kategorie der Fußballclubs führt der BVB vor Bayer 04 Leverkusen, dem FC Bayern München, dem SV Werder Bremen, dem FC Schalke 04 und dem HSV.
Studienleiter Prof. Dr. Timo Meynhardt kommentiert: „Fußball entfaltet für vielen Menschen eine Kraft, die verbindet und tief in die Gesellschaft hinwirkt. Fußballklubs tragen effektiv zum Gemeinwohl bei. Bemerkenswert ist, dass auch hier der FC Bayern am stärksten polarisiert. Im Kerngeschäft leistet der Klub die beste Arbeit von allen, wird aber in der Anstandsdimension sehr kritisch betrachtet. Interessant auch: In der im Sommer 2015 durchgeführten Befragung wurde auch dem DFB eine sehr positive Rolle zugeschrieben, insbesondere wenn es um den Beitrag zum Zusammenhalt in Deutschland geht.“
Laut der Studie steht das Gemeinwohl in Deutschland hoch im Kurs: 85% der Befragten sind besorgt, dass dem Thema in Deutschland zu wenig Beachtung geschenkt wird. Neun von zehn Befragten geben dabei an, eine klare Vorstellung davon zu haben, was unter Gemeinwohl zu verstehen ist. Fast ebenso viele sehen die Orientierung am Gemeinwohl für den langfristigen Erfolg einer Organisation als entscheidend an.
Prof. Dr. Timo Meynhardt sagt: „Der GemeinwohlAtlas 2015 zeigt ein klares Bild: Die Feuerwehr, die unser Schutz- und Sicherheitsbedürfnis befriedigt, wird von den Befragten mit Abstand als die gemeinwohlförderlichste Organisation eingestuft. Am unteren Ende rangiert mit Abstand die BILD-Zeitung. Sie steht für den polarisierenden Boulevardjournalismus. Diese beiden Pole spannen gewissermaßen den Bogen und definieren die Atlasränder.“
Über die HHL Leipzig Graduate School of Management
Die HHL ist eine universitäre Einrichtung und zählt zu den führenden internationalen Business Schools. Ziel der ältesten betriebswirtschaftlichen Hochschule im deutschsprachigen Raum ist die Ausbildung leistungsfähiger, verantwortungsbewusster und unternehmerisch denkender Führungspersönlichkeiten. Die HHL zeichnet sich aus durch exzellente Lehre, klare Forschungsorientierung und praxisnahen Transfer sowie hervorragenden Service für ihre Studierenden. Das Studienangebot umfasst Voll- und Teilzeit-Master in Management- sowie MBA-Programme, ein Promotionsstudium sowie Executive Education. 2013 und auch 2014 errang die HHL einen der drei ersten Plätze für die besten Gründerhochschulen in Deutschland innerhalb des vom Stifterverband für die Deutsche Wissenschaft und dem Bundesministerium für Wirtschaft und Energie (BMWi) herausgegebenen Rankings „Gründungsradar“. Laut der Financial Times liegt die HHL im Bereich Entrepreneurship innerhalb des M.Sc.- sowie des EMBA-Programms national auf Platz 1 bzw. global unter den Top 5. Die HHL ist akkreditiert durch AACSB International. http://www.hhl.de
Weitere Informationen:
http://www.gemeinwohltas.de
http://www.hhl.de
Quelle: idw
Humanstudie belegt: Orangensaft ist gesünder als Orange
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
Wissenschaftler der Universität Hohenheim zeigen: Nährstoffe aus pasteurisiertem Orangensaft werden doppelt so gut vom Körper aufgenommen wie aus der frischen Frucht.
Erst am Modell, dann am Menschen: Bereits im März 2015 haben Forscher der Universität Hohenheim bei einer Studie mit einem in vitro-Modell im Labor festgestellt, dass der menschliche Körper Nährstoffe besser aus Orangensaft als aus der Orange aufnehmen kann. Nun haben sie ihre Ergebnisse mit einer Humanstudie bestätigt und sie in dem Fachjournal „Molecular Nutrition and Food Research“ veröffentlicht. Damit widerlegen sie die Ansicht vieler Kritiker, dass Orangensaft genauso ungesund sei wie Cola.
Die Orange ist ein wahres Nährstoff-Depot: Neben einer hohen Menge an Vitamin C enthält sie auch eine Vielfalt an Carotinoiden und Flavonoiden. Beide Nährstoffe werden damit in Verbindung gebracht, das Risiko von bestimmten Krebs- und Herzkreislauferkrankungen deutlich senken zu können. Denn als Antioxidantien schützen sie die Körperzellen vor schädlichen Umwelteinflüssen. Carotinoide spielen zudem aufgrund ihrer Provitamin A-Aktivität eine wichtige Rolle in unserer täglichen Ernährung.
Anders sieht es mit dem Ruf von Orangensaft aus. Vor allem sein natürlicher Zuckergehalt ist vielen Ernährungsberatern ein Dorn im Auge. Doch der Doktorand Julian Aschoff und Prof. Dr. Dr. Reinhold Carle vom Lehrstuhl Technologie und Analytik pflanzlicher Lebensmittel der Universität Hohenheim wollten es ganz genau wissen. Im März 2015 veröffentlichten sie eine Untersuchung mit einem in vitro-Modell, das nahelegte, dass Orangensaft eine bessere Quelle für Carotinoide darstellt als die Orange selbst. Nun haben die Wissenschaftler ihre Ergebnisse mit einer Humanstudie bestätigt.
Probanden mussten zwei Wochen auf Tomaten, Spinat & Co. verzichten
Zur Vorbereitung der randomisierten Crossover-Studie, in der nach dem Zufallsprinzip entweder zunächst die Orange oder der Orangensaft verzehrt wurde, mussten die zwölf Probanden zunächst zwei Wochen völlig auf Carotinoide verzichten. Im Verlauf des sogenannten „Wash-out“ waren grüne und rote Lebensmittel wie Tomaten, Karotten oder Spinat vom Speiseplan gestrichen und durften nicht verzehrt werden, damit die im Körper gespeicherten Carotinoide ausgewaschen werden.
Anschließend erhielten die Probanden einmal ein standardisiertes Frühstück mit Orangen und eines mit pasteurisiertem Orangensaft. Zwischen den beiden Testphasen lagen 14 Tage. Nach dem Frühstück entnahmen die Wissenschaftler den Probanden innerhalb von knapp zehn Stunden acht Blutproben und bestimmten anschließend den Carotinoid-Gehalt.
Doppelt so viele Carotinoide aus Saft wie aus Frucht
„In der Humanstudie hat sich unsere Hypothese aus der in vitro-Studie voll bestätigt. Orangensaft ist eine bessere Carotinoid-Quelle als eine Orange“, sagt Julian Aschoff. „Bei unseren Untersuchungen konnten wir feststellen, dass aus pasteurisiertem Orangensaft ungefähr doppelt so viele Carotinoide aufgenommen werden wie aus einer handelsüblichen Orange.“
Dies liege an der Herstellung des Saftes, so Prof. Dr. Dr. Reinhold Carle, Inhaber des Lehrstuhls für Technologie und Analytik pflanzlicher Lebensmittel und Initiator der Studie. „Bei der Herstellung des Orangensaftes werden Ballaststoffe wie beispielsweise Pektin oder auch Cellulose teilweise abgetrennt. Diese Stoffe hemmen die Absorption von Carotinoiden während der Verdauung. In der Orange sind mehr unverdauliche Ballaststoffe enthalten als im Saft, weshalb die Aufnahme der Carotinoide aus der Frucht stark vermindert ist.“
Orangensaft kann zu einer gesunden Ernährung beitragen
Auch die Konsistenz spiele bei der Nährstoffaufnahme eine Rolle, so Julian Aschoff weiter: „Beim Zerkauen einer Orange wird die Frucht nie komplett zerkleinert. Viele Zellen bleiben so intakt und schließen die Carotinoide ein. Das erschwert ihre Aufnahme und Verwertung.“
Im Vergleich zu Cola enthält Orangensaft zudem weder das für Kinder ungeeignete Koffein noch die allgemein bedenkliche Phosphorsäure. Außerdem wird Orangensaft im Vergleich zu Erfrischungsgetränken, zu denen auch Cola zählt, üblicherweise nicht zum Löschen des Durstes getrunken. „Der Verzehr von Obst und Gemüse in Deutschland liegt weit unter der Empfehlung der Deutschen Gesellschaft für Ernährung“, so die Wissenschaftler. „Kaum ein Konsument hat Zeit, täglich genug Gemüse oder Früchte zu sich zu nehmen. In Maßen konsumiert, also ein Glas mit 200 ml pro Tag, kann Orangensaft so zu einer gesunden Ernährung beitragen und uns mit den Nährstoffen versorgen, die unser Körper benötigt.“
Text: C. Schmid / Klebs
Quelle: idw
Der Umgang mit Hochwasserereignissen und ihren Folgen
Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)
Hochwasserereignisse sind ein unvermeidbares Element des komplexen Wettersystems unserer Erde. Beim Aufeinandertreffen von Wasser und Boden können verheerende Schäden entstehen. Ziel muss es daher sein, entweder das Wasser zu beherrschen, oder den Widerstand dagegen zu stärken. Dafür bieten Bauweisen mit Geokunststoffen zahlreiche Möglichkeiten.
Als Experte auf dem Gebiet des Bauens mit Geokunststoffen war Dr.-Ing. Michael Heibaum, Leiter der Abteilung Geotechnik der Bundesanstalt für Wasserbau (BAW), am 14. Oktober in London Gast bei der renommierten British Geotechnical Association. In seinem Vortrag mit dem Titel: „Flooding mitigation, including the use of geosynthetic construction methods“ stellte er Bauweisen vor, wie mit Hilfe von Geokunststoffen Überflutungen verhindert oder deren Auswirkungen begrenzt werden können.
Hochwasserschutz beginnt mit Erosionsverhinderung, wofür vielfältige geotextile Lösungen zur Verfügung stehen. Daneben können Geokunststoffe die Widerstandsfähigkeit und Standsicherheit von Hochwasserschutzbauwerken, wie Dämme, Deiche und Küstendünen, deutlich erhöhen.
Die im Anschluss an den Vortrag ausgiebig geführte Diskussion zeigte das besondere Interesse der 135 Veranstaltungsteilnehmer am Know-how der BAW.
Weitere Informationen:
http://britishgeotech.org/flooding-mitigation-including-the-use-of-geosynthetic-…
Quelle: idw
Medikamentenrückstände im Abwasser: Privathaushalte sind Hauptverursacher
Stefanie Hennig Universitätskommunikation
Leuphana Universität Lüneburg
Lüneburg. Privathaushalte sind für die Mehrheit der ins Abwasser eingeleiteten Medikamentenrückstände verantwortlich. Gesundheitseinrichtungen wie Krankenhäuser, Psychiatrien und Pflegeheime tragen dagegen lediglich lokal und mit nur wenigen Substanzen als nennenswerte Verursacher zu einer Verunreinigung des Abwassers durch Arzneistoffe – kurz: API – bei. Zu diesem Ergebnis sind Nachhaltigkeitswissenschaftler der Leuphana Universität Lüneburg in Zusammenarbeit mit dem Ortenau Klinikum Offenburg-Gengenbach in einer kürzlich in der Zeitschrift „Environment International“ veröffentlichten Studie gelangt.
Das Wissenschaftlerteam um Prof. Dr. Klaus Kümmerer analysierte Medikamentenverbrauchsdaten eines Krankenhauses, einer psychiatrischen Klinik und eines Pflegeheimes in Südwestdeutschland. Auf Basis der so ermittelten Verbrauchsmuster identifizierten die Forscher 50 häufig verabreichte Substanzen, die generell eine besondere Relevanz für den Abwassereintrag haben. Sie werden von den Patienten teils unverändert ausgeschieden und gelangen so ins Abwasser. Den über drei Jahre gemittelten gesamten Verbrauch dieser Medikamente durch die Gesundheitseinrichtungen verglichen die Wissenschaftler in einem zweiten Schritt mit dem jährlichen Gesamtverbrauch der ausgewählten Substanzen durch deutsche Privathaushalte. Dazu nutzten sie Daten aus dem jährlich veröffentlichten Arzneiverordnungs-Report (AVR), in dem alle Medikamente verzeichnet sind, die gesetzlich versicherten Patienten von deutschen Arztpraxen verschrieben werden.
Die Ergebnisse belegen für die überwiegende Zahl der untersuchten Substanzen im nationalen Vergleich einen deutlich höheren durchschnittlichen Verbrauch – und daraus abgeleitet eine höhere Emission – durch Privathaushalte als durch Einrichtungen des Gesundheitswesens. So ist der Verbrauch von Medikamenten, die den Verdauungstrakt oder das Herz-Kreislauf-System beeinflussen, in Krankenhäusern 15 bis 500 Mal niedriger als in Privathaushalten. In psychiatrischen Kliniken beläuft sich der Unterschied sogar bis auf den Faktor 2.500. Selbst der Verbrauch von Schmerzmitteln durch Krankenhäuser macht nur einen relativ kleinen Anteil am Gesamtverbrauch aus – bei Metamizol, dem Schmerzmittel mit dem größten Verbrauch, sind es lediglich 22 Prozent. Nennenswerte Verbrauchsmengen konnten nur für das Sedativum Clomethiazol in Krankenhäusern sowie für das Neuroleptikum Quetiapin und das Antidepressivum Moclobemid in Pflegeheimen aufgezeigt werden. Spezifische API wie diese können daher in regionaler Perspektive auf bestimmte Gesundheitseinrichtungen als Emissionsquellen zurückgeführt werden.
Anhand ihrer Studie konnten die Lüneburger Wissenschaftler erstmals belegen, dass bundesweit betrachtet auch psychiatrische Kliniken und Pflegeheime im Vergleich zu Privathaushalten nur einen geringen Anteil an der Einleitung von API ins kommunale Abwasser haben. In bisherigen Untersuchungen war dies lediglich für Allgemeine Krankenhäuser nachgewiesen worden. Auch die methodische Vorgehensweise der Wissenschaftler – die Vorhersage der Emission von API auf Basis von Verbrauchsmustern zu modellieren – ist neu. „Unsere Studie hat gezeigt, dass Verbrauchsmuster ein mindestens ebenso genaues Bild der Abwasserverschmutzung durch einzelne Substanzen ergeben wie Messungen im Abwasser selbst“, so Manuel Herrmann, Hauptautor der Studie. „Unsere Methode hat gegenüber der Messmethode allerdings den Vorteil, dass sie viel weniger aufwändig und kostenintensiv ist. So können Verunreinigungen sehr einfach vorhergesagt werden und Politik und Verwaltung können gezielt und zeitnah reagieren.“
Weitere Informationen:
Herrmann, Manuel; Olsson, Oliver; Fiehn, Rainer; Herrel, Markus; Kümmerer, Klaus (2015). The Significance of Different Health Institutions and Their Respective Contributions of Active Pharmaceutical Ingredients to Wastewater. Environment International 85, 61-76.
Kontakt:
Prof. Dr. Klaus Kümmerer
Leuphana Universität Lüneburg
Institut für Nachhaltige Chemie und Umweltchemie
Telefon +49.4131.677-2893
klaus.kuemmerer@leuphana.de
Apotheker Manuel Herrmann
Leuphana Universität Lüneburg
Institut für Nachhaltige Chemie und Umweltchemie
Telefon +49.4131.677-2896
manuel.herrmann@leuphana.de
Quelle: idw
Helicobacter pylori: Gastroenterologen empfehlen Behandlung des Magenkeims
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Berlin – Eine Infektion mit Helicobacter pylori kann zu lebensbedrohlichen Krankheiten wie Magenkrebs und Geschwüren führen. Meistens bleibt sie aber harmlos, und es gibt sogar Hinweise auf nützliche Effekte. Warum ein Befall mit dem Bakterium dennoch in jedem Fall therapiert werden sollte, erläuterten Experten auf dem Kongress „Viszeralmedizin 2015″ der Deutschen Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS), ihrer Sektion Endoskopie und der Deutschen Gesellschaft für Allgemein- und Viszeralchirurgie (DGAV). Die Tagung fand vom 16. bis 19. September in Leipzig statt.
Helicobacter pylori ist ein Bakterium der Extreme: Es kann sich trotz der Magensäure im Magen des Menschen einnisten, was lange Zeit als unmöglich galt. Und es ist dasjenige Bakterium, mit dem die meisten Menschen chronisch infiziert sind, nämlich rund die Hälfte der Weltbevölkerung. In Ländern mit hohem Lebensstandard, zum Beispiel Deutschland, beträgt der Anteil zirka ein Drittel.
„Eine Infektion mit Helicobacter kann zu einer Reihe von Erkrankungen führen“, erläutert Professor Dr. med. Joachim Labenz, Chefarzt am Jung-Stilling-Krankenhaus in Siegen und Kongresspräsident der DGVS. Zu den möglichen Folgeerkrankungen zählen Magenschleimhautentzündungen, Geschwüre im Magen oder im Zwölffingerdarm, Tumore im Lymphgewebe und Magenkrebs. Allerdings bleibt die Infektion in den meisten Fällen symptomfrei, nur bei etwa einem Fünftel der Betroffenen führt sie zu einer Erkrankung. Aus diesem Grund zögern Ärzte und Patienten bei der Diagnose häufig, die Infektion zu behandeln.
„Die Frage ‚behandeln oder nicht?‘ ist eindeutig zu beantworten: Jede Infektion sollte therapiert werden“, so Labenz. Zwar gebe es Hinweise darauf, dass das Bakterium vor bestimmten Erkrankungen schütze; beispielsweise hätten Fettleibigkeit, Sodbrennen und Speiseröhrenkrebs in Ländern mit abnehmender Helicobacter-Durchseuchung zugenommen. Ein direkter Zusammenhang sei aber bisher nicht erwiesen. Zudem sei es noch nicht möglich, zuverlässig eine möglicherweise harmlose von einer riskanten Infektion zu unterscheiden. „Nach kritischer Abwägung aller bisherigen Erkenntnisse, scheint das Risiko einer Infektion weit größer als deren Nutzen zu sein“, sagt Labenz. Schließlich könne ein Träger des Helicobacter jederzeit schwer erkranken. Außerdem reduziere eine erfolgreiche Therapie das Risiko für andere Menschen, ebenfalls von dem Keim befallen zu werden.
Die Behandlung einer Helicobacter-Infektion ist nicht immer einfach: Die bisher bevorzugte Methode einer sogenannten Tripel-Therapie, bestehend aus einem Magensäurehemmer, dem Antibiotikum Clarithromycin sowie einem der beiden Antibiotika Amoxicillin oder Metronidazol, versagt häufiger als bisher angenommen. Aus diesem Grund werden heute in vielen Situationen Vierfachtherapien bevorzugt. „In mehr als 90 Prozent der Fälle kann der Keim so eliminiert werden“, sagt Labenz. Noch in diesem Jahr wird die DGVS eine neue Leitlinie „Helicobacter pylori“ herausgeben, die Behandlungsempfehlungen entsprechend dem aktuellen Wissensstand zusammenfasst.
Weitere Informationen:
http://www.viszeralmedizin.com
http://www.dgvs.de
http://www.dgav.de
Quelle: idw
Ozeanversauerung – das andere CO2-Problem
Eva Söderman Presse- und Öffentlichkeitsarbeit
Deutsches Klima-Konsortium e.V.
Wie Treibhausgase die Meere verändern
Dass sich das Klima wandelt und die Menschen die Hauptverursacher sind, ist wissenschaftlich unstrittig. Dieser Befund wird von Regierungen weltweit akzeptiert und die Bereitschaft zu mehr Klimaschutz nimmt im Vorfeld der Pariser Weltklimakonferenz zu. In der politischen und öffentlichen Diskussion spielen auch die Auswirkungen der Treibhausgase auf die Ozeane eine zunehmende Rolle.
Die Wissenschaft konstatiert längst, dass der Klimawandel von einem Ozeanwandel begleitet wird, und zwar nicht nur über den Anstieg des Meeresspiegels. Was sich in den durchschnittlich 4.000 Meter tiefen Ozeanen abspielt, müssen Wissenschaftler mit großem technologischem Aufwand erforschen. Dabei sehen sie eine zwar allmähliche, aber tiefgreifende Umgestaltung der Weltmeere durch die menschlichen Einflüsse – und ein zweifaches CO2-Problem: Erwärmung und Versauerung. Der steigende CO2-Gehalt der Atmosphäre hat schon heute zu einem steigenden Säuregrad des Meerwassers geführt. Diese Versauerung der Meere hat weitreichende Konsequenzen, u.a. auf die Nahrungsketten im Ozean und die Ernährungssicherheit der Menschen. Das Ausmaß, die Folgen und Risiken der Ozeanversauerung werden erst seit kurzem systematisch erforscht.
Das Deutsche Klima-Konsortium (DKK) und das Konsortium Deutsche Meeresforschung (KDM) laden Sie zum Klima-Frühstück für Presse- und Medienvertreter ein, bei dem Prof. Dr. Ulf Riebesell und Prof. Dr. Hans-Otto Pörtner Ihnen aktuelle Ergebnisse aus der Meeresforschung vorstellen.
Wann: am Donnerstag, 29. Oktober 2015 von 9 bis 10:30 Uhr
Wo: in der Brasserie „Gendarmenmarkt“ im Wissenschaftsforum,
Taubenstr.30, 10117 Berlin-Mitte
http://goo.gl/maps/5swqc
Mit: Prof. Dr. Ulf Riebesell, Leiter der Forschungseinheit Biologische Ozeanographie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Koordinator des BMBF-Verbundprojektes BIOACID (Biological Impacts of Ocean Acidification),
Prof. Dr. Hans-Otto Pörtner, Biologe am Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung, Hauptautor beim Fünften Sachstandsbericht des Weltklimarats IPCC und neugewählter Ko-Vorsitzender der Arbeitsgruppe II des kommenden Sechsten Sachstandsberichts,
moderiert von Marie-Luise Beck, DKK-Geschäftsführerin, und Rolf Peinert, KDM-Geschäftsführer
Bitte melden Sie sich bis Mittwoch, 28. Oktober 2015 um 16 Uhr an – per E-Mail an eva.soederman@klima-konsortium.de
Bei Rückfragen wenden Sie sich bitte an
Eva Söderman, Referentin für Presse- und Öffentlichkeitsarbeit
Deutsches Klima-Konsortium e.V. (DKK)
Wissenschaftsforum, Markgrafenstraße 37, 10117 Berlin
Tel.: +49 (0)30 76 77 18 69-4 | Fax: +49 (0)30 76 77 18 69-9
E-Mail: eva.soederman@klima-konsortium.de
Das Deutsche Klima-Konsortium e. V. (DKK) vertritt führende Akteure der deutschen Klimaforschung und Klimafolgenforschung. Dazu gehören Universitäten, außeruniversitäre Forschungseinrichtungen und Bundesbehörden. Das DKK steht für wissenschaftsbasierte Politikberatung, greift aktuelle Klimathemen auf und liefert Hintergründe aus Expertensicht.
Im Konsortium Deutsche Meeresforschung (KDM) haben sich alle großen Forschungsinstitute, universitäre und außeruniversitäre Einrichtungen, Museen und eine Bundesbehörde zusammengeschlossen, die in der Meeres-, Polar- und Küstenforschung aktiv sind.
Weitere Informationen:
http://www.deutsches-klima-konsortium.de
http://www.deutsche-meeresforschung.de
Quelle: idw
Bezahlter Urlaub und Lohnfortzahlung im Krankheitsfall: In der Praxis Nachholbedarf bei Minijobbern
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Bei Minijobbern kommt es anders als bei anderen Beschäftigten häufiger vor, dass sie keinen bezahlten Urlaub oder keine Lohnfortzahlung bei Krankheit erhalten. Zugleich sind sie weniger gut über ihre Arbeitnehmerrechte informiert als andere Beschäftigte. Das zeigt eine Befragung von 7.500 Beschäftigten und 1.100 Betrieben durch das Institut für Arbeitsmarkt- und Berufsforschung (IAB).
Rund 35 Prozent der Minijobber berichten, keinen bezahlten Urlaub zu erhalten, ohne dass ein rechtlich zulässiger Grund dafür vorliegt. Von den Betrieben sagen etwa 15 Prozent ohne Angabe eines rechtlichen Grundes, dass ihre Minijobber keinen bezahlten Urlaub bekommen. Bei der Lohnfortzahlung im Krankheitsfall liegen die Anteile bei rund 46 bzw. rund 21 Prozent.
Beschäftigte, die in Vollzeit oder in sozialversicherungspflichtiger Teilzeit arbeiten, erhalten dagegen in aller Regel bezahlten Urlaub und Lohnfortzahlung im Krankheitsfall. Von ihnen berichten zwischen rund einem und knapp sechs Prozent, dass dies nicht der Fall ist, ohne dass dafür ein rechtlicher Grund besteht. Laut Betriebsbefragung erhalten 0,3 bis 1,3 Prozent der sozialversicherungspflichtig Beschäftigten diese Leistungen nicht.
Die IAB-Forscher haben auch untersucht, ob die Beschäftigten und die Betriebe die rechtlichen Regelungen zum bezahlten Urlaub und zur Lohnfortzahlung im Krankheitsfall kennen. Etwa zwei Drittel der Minijobber wissen über ihren Anspruch auf bezahlten Urlaub oder auf Lohnfortzahlung im Krankheitsfall Bescheid, bei den übrigen Beschäftigten sind es dagegen rund 95 Prozent.
Bei der Betriebsbefragung zeigt sich dagegen: Vier Fünftel der Befragten kennen die rechtlichen Regelungen bei Urlaub und Krankheit von Minijobbern. Fragen zur Kenntnis des Arbeitsrechts werden häufiger korrekt beantwortet, wenn es im Betrieb einen Betriebs- oder Personalrat gibt. Auch auf Seiten der Beschäftigten hängen arbeitsrechtliche Kenntnisse und das Vorhandensein von Mitarbeitervertretungen zusammen: „Beschäftigte in Betrieben mit Betriebsrat oder Tarifvertrag sind vergleichsweise gut über ihre Rechte informiert“, stellen die IAB-Forscher fest.
Bei Betrieben, deren Auskunftspersonen den Rechtsanspruch der Minijobber auf bezahlten Urlaub nicht kennen, ist die Häufigkeit, dass es für Minijobber keinen bezahlten Urlaub gibt, mehr als dreimal so hoch wie in den anderen Betrieben (33 Prozent bzw. zehn Prozent). Die Studie zeigt aber auch: Rund 50 Prozent der Betriebe, die angeben, ihren Minijobbern keinen bezahlten Urlaub zu gewähren, haben Kenntnis von der tatsächlichen Rechtslage. Bei der Lohnfortzahlung im Krankheitsfall fielen die Ergebnisse ähnlich aus, erklären die Forscher.
Die IAB-Studie bezieht sich auf die Situation in Betrieben mit mindestens elf Beschäftigten.
Weitere Informationen:
http://doku.iab.de/kurzber/2015/kb1815.pdf
Quelle: idw
Wertvoller Phosphor aus Klärschlamm: DBU fördert Pilotanlage der AVA cleanphos Technologie
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
Aus der Forschung in die Praxis: Forschungsarbeit von Universität Hohenheim und AVA cleanphos Technologie ist Basis der neuen Pilotanlage
Ein neues Verfahren, das wertvollen Phosphor aus HTC-Klärschlammkohle gewinnt: Um diese neue Technologie zu etablieren, fördert die Deutsche Bundesstiftung Umwelt (DBU) eine AVA cleanphos Pilotanlage mit Standort in Karlsruhe. Das auf der hydrothermalen Carbonisierung (HTC) basierende Verfahren wurde bereits im Labor von AVA-CO2 erfolgreich getestet. In den nächsten 12 Monaten wird die innovative Lösung bei der AVA-CO2 Forschung GmbH in Karlsruhe in Zusammenarbeit mit den Projektpartnern, der Universität Hohenheim und der Projektgruppe für Wertstoffkreisläufe und Ressourcenstrategie IWKS des Fraunhofer-Instituts für Silicatforschung ISC, im halbtechnischen Maßstab erprobt. Das Projekt soll zeigen, dass sich dank der AVA cleanphos Technologie ein pflanzenverfügbarer Recycling-Dünger aus Klärschlamm effizient und kostengünstig herstellen lässt.
Für die Industrie wird durch die erfolgreiche AVA cleanphos Pilotierung ein Durchbruch bei der Phosphor-Rückgewinnung, wie sie durch die Novelle der Klärschlammverordnung gefordert wird, erwartet. Das Verfahren hat nicht nur das Potenzial effizienter und kostengünstiger als andere, bestehende Verfahren zu sein. Denn über das HTC-Verfahren wird Klärschlamm zuerst auch in Kohle umgewandelt, ehe das Phosphat isoliert wird.
So entstehen gleich zwei wirtschaftlich interessante Produkte: Ein wertvoller Dünger und die phosphorfreie HTC-Klärschlammkohle, die auch in Zukunft als Ersatz für Braun- oder Steinkohle in der Mitverbrennung eingesetzt werden kann – was zu beträchtlichen Einsparungen von CO2-Emissionen führt. „Die HTC in Kombination mit der AVA cleanphos Lösung macht den Weg frei für eine echte, langfristige Klärschlammverwertung“, erklärt Thomas Kläusli, Chief Marketing Officer von AVA-CO2.
Auch für die Landwirtschaft bietet das Verfahren neue Möglichkeiten. „Obwohl Klärschlamm viel wertvolles Phosphat enthält, spricht vieles gegen eine landwirtschaftliche Verwertung. Der Schlamm kann Krankheitserreger mit sich führen und enthält zusätzlich viele Schwermetalle“, so Prof. Dr. Andrea Kruse, Agrartechnologin der Universität Hohenheim. Bisherige Technologien für die Phosphor-Rückgewinnung setzen zudem vor allem auf die Entsorgung in Monoverbrennungsanlagen, um dann aus der Asche das Phosphat zu gewinnen und als Dünger zu verarbeiten. Diese Verfahren sind aber teurer und deutlich aufwendiger als die HTC.“
Bisher, so Prof. Dr. Kruse weiter, schöpfe man das Phosphat zwar noch aus Mineralwerken in China, den USA und Marokko. „Diese Mineralwerke sind aber mittlerweile so ausgebeutet, dass immer tiefer abgebaut werden muss. Doch je tiefer gebohrt wird, desto mehr Schwermetalle wie Uran sind im Phosphat angereichert, der wiederum als Dünger auf die Felder kommt. Wir brauchen daher neue Phosphatquellen. Der Klärschlamm ist eine davon, und mit der HTC basierten AVA cleanphos Technologie kann er nutzbar gemacht werden.“
Auch die Fraunhofer-Projektgruppe IWKS begleitet das Projekt wissenschaftlich und wird detaillierte Analysen in Anlehnung an die Vorgaben der Düngemittelverordnung vornehmen.
Über AVA-CO2
Das Biotechnologie-Unternehmen AVA-CO2 ist führend beim Einsatz hydrothermaler Prozesse zur stofflichen und energetischen Nutzung von Biomassen. Zum Leistungsangebot gehört ein patentiertes Verfahren zur großtechnischen Herstellung der biobasierten Plattformchemikalie 5-HMF (5-Hydroxymethylfurfural). Diese dient als erneuerbares Substitut für erdölbasierte Ausgangsstoffe in der chemischen und pharmazeutischen Industrie. Für die feinchemische Industrie produziert die Tochtergesellschaft AVA Biochem bereits heute hochreines 5-HMF. Das Unternehmen ist auch führend beim Einsatz der hydrothermalen Carbonisierung (HTC) zur effizienten Verwertung von Klärschlämmen und anderen biogenen Reststoffen sowie zur Herstellung von Hochleistungskohlenstoffen wie Pulveraktivkohle oder Carbon Black. Als Technologieführer ermöglicht das Unternehmen mit dem eigens entwickelten HTC basierten Verfahren AVA cleanphos auch wirtschaftliche Lösungen für die Phosphorrückgewinnung.
Das Schweizer Unternehmen mit Sitz in Zug und Tochtergesellschaften in der Schweiz und Deutschland hat im Oktober 2010 in Karlsruhe mit der HTC-0 die weltweit erste HTC-Demonstrationsanlage im industriellen Massstab in Betrieb genommen. Im Februar 2014 wurde mit der Biochem-1 die weltweit erste Anlage zur kommerziellen Produktion von 5-HMF in Betrieb genommen.
Über Universität Hohenheim
Gegründet 1818 nach verheerenden Hungersnöten fühlt sich die Universität Hohenheim neben intensiver Grundlagenforschung immer auch der Tradition verpflichtet, innovative Lösungen auf drängende gesellschaftliche Fragen zu entwickeln. Anders als andere Universitäten besitzt die Universität Hohenheim dazu einen bundesweit einmaligen Fächerkanon.
Heute ist die Universität Hohenheim Deutschlands Nr. 1 in Agrarforschung und Food Sciences, sowie stark und einzigartig in Natur-, Wirtschafts-, Sozial-, und Kommunikationswissenschaften.
Text: Klebs
Prof. Dr. Andrea Kruse, Universität Hohenheim, Fachgebiet Konversionstechnologie und Systembewertung nachwachsender Rohstoffe, T +49 711 459-24700, Andrea_Kruse@uni-hohenheim.de
Quelle: idw
Wie die Ernährung die Demenz beeinflusst
Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Demenz ist ursächlich nicht heilbar. Trotzdem gibt es Möglichkeiten, den Krankheitsverlauf hinauszuzögern – auch durch die Ernährung. Die Chancen, aber auch die Grenzen abgestimmter Ernährung und mögliche Wechselwirkungen erläutert PD Dr. Werner Hofmann, Chefarzt der Klinik für Geriatrie und Frührehabilitation am Friedrich-Ebert-Krankenhaus Neumünster.
„Zusammenhänge zwischen Ernährung und Demenz sind sehr vielfältig“, sagt Dr. Hofmann. Dies scheinen Beobachtungen zu bekräftigen. So lässt sich bei der Hälfte der Demenzkranken im Rückblick feststellen, dass sie in den Jahren vor der Diagnose schleichend Gewicht verloren haben. „Es lässt sich durchaus sagen: Mangelernährung und Gewichtsverlust sind begleitende Faktoren bei der Entwicklung einer Demenz“, sagt er. Ob es eine Ursache und eine daraus ableitbare Wirkung gibt, hat sich bislang aber nicht klären lassen: „Das ist wie mit der Henne und dem Ei – da ist noch Spekulation im Spiel.“
Doch lässt sich zumindest der Krankheitsverlauf durch Ernährung beeinflussen? Hier scheint es mehr Hoffnung zu geben. Dr. Hofmann, der bis 2012 Präsident der Deutschen Gesellschaft für Geriatrie e.V. (DGG) war und sich intensiv mit der Ernährung alter Menschen beschäftigt, verweist auf zwei neue Studien (siehe unten). Deren Ergebnisse legen nahe, dass eine Kombination verschiedener Nahrungsstoffe – zum Beispiel Vitamine, Fette und Aminosäuren – die Einschränkungen bei einer Alzheimer Erkrankung mildern kann.
Ernährung als Schalthebel
„Man kann aber leider nicht schlussfolgern, dass eine wiederaufgenommene bessere Ernährung das Fortschreiten einer Demenzerkrankung aufhält“, schränkt er ein. „Dafür ist die Datenlage noch zu begrenzt.“
Trotzdem ist die Ernährung ein Schalthebel, um das Gesamtbefinden der Patienten wesentlich zu beeinflussen. So gelten exemplarisch diese drei Empfehlungen: mehr Proteine, um den Muskelabbau im Alter zu stoppen und die Sturzgefahr zu reduzieren. Mehr Kalorien, um den erhöhten Energieverbrauch durch Hyperaktivität auszugleichen. Und mehr individuell zubereitete Gerichte, auch finger food, um Leiden wie Schluckprobleme mit entsprechender Kost aufzufangen.
Weitere Informationen:
http://www.dggeriatrie.de/presse-469/1018-pm-wie-die-ern%C3%A4hrung-die-demenz-b…
Anhang
Pressemeldung DGG
https://idw-online.de/de/attachment45653
Quelle: idw
KIT koordiniert Netzwerk Wasserforschung in Baden-Württemberg
Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie
Wasser könnte der wichtigste Rohstoff des 21. Jahrhunderts werden: Weltbevölkerung, Urbanisierung und Wasserbedarf für die Energiebereitstellung sowie die industrielle Produktion nehmen stetig zu. Die immer größer werdende Lücke zwischen Wasserangebot und -nachfrage ist ein zentrales Thema der Umweltforschung. Die vielfältigen Aktivitäten der Universitäten des Landes auf diesem Gebiet stärker zu vernetzen, ist Ziel des Netzwerks Wasserforschung Baden-Württemberg, einer Initiative des Ministeriums für Wissenschaft, Forschung und Kunst (MWK). Die Geschäftsstelle des Netzwerks hat das MWK am Karlsruher Institut für Technologie (KIT) eingerichtet.
Sprecher für die ersten drei Jahre ist Professor Harald Horn. Das KIT ist zudem an einem Forschungsverbund zur Risikobewertung von Chemikalien in Gewässern beteiligt.
Mit der Geschäftsstelle am KIT wird für die Wissenschaft wie für die Gesellschaft eine zentrale Anlaufstelle für die Wasserforschung in Baden-Württemberg geschaffen. „Die Verbindung unterschiedlicher Disziplinen und Themenschwerpunkte in der Wasserforschung – wie sie sich auch unter dem Dach des KIT abbildet – bietet eine ausgezeichnete Basis, um das Netzwerk zu vertreten, komplementäre Ressourcen zu bündeln und weitere gemeinsame Forschungsperspektiven in Baden-Württemberg zu entwickeln“, so Professor Detlef Löhe, Vizepräsident des KIT für Forschung und Information.
Die Herausforderungen für die Wasserforschung sind dabei vielfältig: Die Lücke zwischen verfügbarem Wasserangebot und steigender Wassernachfrage wird größer. Ein Drittel der Weltbevölkerung, so die Global Water Partnership (GWP), lebt bereits heute unter „Wasserstress“, sowohl im Hinblick auf die Wassermenge als auch die Wasserqualität, Wasser ist damit auch eine Ressource mit Konfliktpotenzial. Wasser ist nicht zuletzt eines der vielfältigsten Umweltthemen. „Schon aus regional baden-württembergischer Perspektive spiegeln zahlreiche Umweltprobleme das komplexe Spannungsfeld zwischen der Nutzung der Ressource Wasser einerseits und deren Schutz andererseits“, so der Sprecher des Netzwerks Professor Harald Horn, verantwortlich für Wasserchemie und Wassertechnologie am Engler-Bunte-Institut des KIT. Oft seien Nutzungskonflikte die Folge, etwa zwischen Landwirtschaft und Trinkwasserversorgung wie bei Nitrat- und Pestizideinträgen in das Grundwasser, zwischen Raumplanung und Hochwasserschutz wie beim Bau von Poldern in Auen, oder zwischen Energieversorgung und Gewässerschutz wie bei der Kühlwassernutzung thermischer Kraftwerke während Hitzeperioden. „Durch ihre Breite erfordern diese Themen ein hohes Maß an interdisziplinärer Zusammenarbeit: Nur so können wir innovative Lösungsstrategien und Technologien für aktuelle und zukünftige Problemfronten in der Wasserforschung entwickeln und nachhaltig in die Praxis übertragen“, so Horn.
Netzwerk „Eff-Net“: Risikobewertung von Chemikalien in Gewässern
Drei standortübergreifende Projekte fördert das MWK nun für fünf Jahre als Forschernetzwerke mit jeweils rund zwei Millionen Euro. Das KIT ist gemeinsam mit den Universitäten Heidelberg (Sprecherhochschule) und Tübingen am Netzwerk „Eff-Net“ beteiligt (steht für: Effect Network in Water Research). Dabei geht es um Wirkungszusammenhänge für die Risikobewertung von vom Menschen in Gewässerökosysteme eingetragenen Chemikalien (Arzneimittel und Lebensmittelzusatzstoffe sowie deren Umwandlungsprodukt). Eff-Net verbindet naturwissenschaftliche Grundlagenforschung mit sozialwissenschaftlichen Ansätzen. Eine solch umfassende Risikobewertung stellt eine Notwendigkeit für weitere Entscheidungsprozesse dar. Dazu entwickeln die Forscherinnen und Forscher ein analytisches Netzwerk, das es ermöglicht, zunächst Lebensmittelzusatzstoffe (insbesondere künstliche Süßstoffe) und Medikamente (insbesondere Antidepressiva und Antidiabetika) sowie deren Umwandlungsprodukte in Gewässern zu identifizieren und zu quantifizieren. Außerdem werden die Wirkungen dieser Stoffe auf Lebewesen im Ökosystem Wasser auf der Ebene von Molekülen, Zellen und ganzer Organismen untersucht. Drei Arbeitsgruppen des KIT sind in diesem Projekt beteiligt. Sie beschäftigen sich mit den Wirkungen auf Stoffwechselwege in der Zelle (Rezeptoren und Signalwege) sowie auf bakterielle Gemeinschaften der Darmflora und damit Vitalität höherer Wasserorganismen. Ziel von Eff-Net ist es nicht nur, biologische Risiken zu identifizieren, sondern auch ihnen entgegenzuwirken. Dazu werden die Forschungsergebnisse gesellschaftlichen Interessengruppen (Konsumenten, politische Entscheidungsträger) vorgestellt und mit ihnen diskutiert, um darauf aufbauend Konzepte zur Steuerung von Konsumentenverhalten und für die Umweltgesetzgebung zu entwickeln.
Wasserforschung am KIT
Als Teil des KIT-Zentrums Klima und Umwelt deckt eine ganze Reihe an Arbeitsgruppen – mit insgesamt etwa 250 wissenschaftlichen Mitarbeiterinnen und Mitarbeitern – nahezu die gesamte Breite der Wasserforschung ab: von den Natur- und Ingenieurwissenschaften bis hin zur Technikfolgenabschätzung. Die Wissenschaftlerinnen und Wissenschaftler forschen zum gesamten regionalen Wasser- und Stoffkreislauf in natürlichen und vom Menschen geschaffenen Systemen von der Mikro- bis zur Flussgebietsskala. Das Themenspektrum reicht dabei von der Untersuchung von Transportprozessen im gesamten Wasserkreislauf über die Entwicklung numerischer und physikalischer Modelle für Grundlagenforschung und die wasserwirtschaftliche Praxis bis hin zur Entwicklung innovativer Technologien zur Wasseraufbereitung. Das KIT initiiert und bearbeitet auch international sichtbare Verbundvorhaben, darunter aktuell eine Forschergruppe der Deutschen Forschungsgemeinschaft (DFG) mit starker Beteiligung weiterer baden-württembergischer Universitäten. Über breite Erfahrung verfügen die Forscherinnen und Forscher des KIT auch im Integrierten Wasserressourcenmanagement (IWRM), entsprechende Verbundprojekte laufen seit mehreren Jahren unter KIT-Führung und -Beteiligung. Zielregionen für internationale Projekte in der Wasserforschung sind der südostasiatische Raum, die Region Israel, Jordanien und Palästina sowie Afrika und Südamerika.
Details zum KIT-Zentrum Klima und Umwelt:
http://www.klima-umwelt.kit.edu
Das Karlsruher Institut für Technologie (KIT) vereint als selbstständige Körperschaft des öffentlichen Rechts die Aufgaben einer Universität des Landes Baden-Württemberg und eines nationalen Forschungszentrums in der Helmholtz-Gemein-schaft. Seine Kernaufgaben Forschung, Lehre und Innovation verbindet das KIT zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 24 500 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
Das KIT ist seit 2010 als familiengerechte Hochschule zertifiziert.
Weitere Informationen:
Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu
Anhang
KIT koordiniert Netzwerk Wasserforschung in Baden-Württemberg
https://idw-online.de/de/attachment44959
Quelle: idw
Wie regional isst Hamburg? Studierende der ISM erforschen Kaufverhalten der Hamburger
Daniel Lichtenstein Marketing & Communications
International School of Management (ISM)
Immer mehr Verbraucher legen Wert auf Produkte aus ihrer Region. Doch oft verbirgt sich hinter vermeintlich frischer Ware aus der Region eine Mogelpackung. Wie die lokale Wertschöpfungskette von regionalen Erzeugern, Händlern und Verbrauchern in Zukunft gestärkt werden kann, erforschten Master-Studierende der International School of Management (ISM) in Kooperation mit der Hamburger Behörde für Wirtschaft, Verkehr und Innovation im Rahmen eines Consulting Projekts. Ihre Ergebnisse durften sie vor dem Wirtschaftssenator Frank Horch präsentieren.
„Für das Projekt mit der Hamburger Behörde für Wirtschaft, Verkehr und Innovation sollten die Studierenden herausfinden, inwieweit regionale Produkte tatsächlich von Verbrauchern nachgefragt werden und ob eine Initiative zur Vermarktung regionaler Produkte, besonders für den Einzelhandel, sinnvoll ist“, erklärt Prof. Dr. Ulrike Weber, Leiterin des Projekts.
Für die Studierenden der privaten Wirtschaftshochschule bedeutete das, die lokale Wertschöpfungskette genauer zu untersuchen. Dafür ging es für sie zunächst auf den Hamburger Großmarkt, um die regionalen Erzeuger als ersten Teil der Supply Chain kennenzulernen. Anschließend nahmen sie mit den großen Lebensmittelhändlern REWE und EDEKA Kontakt auf, um deren Perspektive zu hören. Um mehr über die Wünsche und Bedürfnisse der End-Verbraucher zu erfahren, interviewten die Studierenden diese direkt vor den Supermärkten. Zudem folgte eine Online-Umfrage mit dem Titel „Wie regional isst Hamburg?“.
Die Ergebnisse der Befragung durfte das Consulting-Team in einer Abschlusspräsentation vor dem Hamburger Wirtschaftssenator Frank Horch und weiteren Vertretern der Behörde vorstellen. „Wir sind zu dem Ergebnis gekommen, dass sich eine Förderung regionaler Produkte durchaus lohnt“, erklärt Raphaela Schedel, studentische Teamleiterin des Projekts. „Eine bessere und nachvollziehbare Kennzeichnung von regionalen Produkten würde sich positiv auf das Kaufverhalten der Befragten auswirken. Zudem sind die meisten Verbraucher bereit, für regionale Produkte mehr Geld auszugeben.“
Neben den Ergebnissen der Umfrage stellten die Studierenden verschiedene Ideen vor, wie eine Stärkung regionaler Produkte konkret aussehen könnte – zum Beispiel die Einführung eines „Pflück-Pfads“, einer Gartenroute, die besonders schöne Höfe in der Gegend zusammenführt.
Bei der Hamburger Behörde für Wirtschaft, Verkehr und Innovation stieß die Arbeit der Studierenden auf großen Zuspruch: „Es ist bemerkenswert, wie die Studierenden das Thema mit Begeisterung und höchst strukturiert angegangen sind. Innerhalb einer so kurzen Zeitspanne wurden viele kreative Ideen entwickelt. Wir werden diese auf jeden Fall ernsthaft prüfen und hoffen auf eine weitere so professionelle Zusammenarbeit“, so die Projektleiterin Birgit Maus.
Hintergrund:
Die International School of Management (ISM) zählt zu den führenden privaten Wirtschaftshochschulen in Deutschland. In den einschlägigen Hochschulrankings firmiert die ISM regelmäßig an vorderster Stelle.
Die ISM hat Standorte in Dortmund, Frankfurt/Main, München, Hamburg und Köln. An der staatlich anerkannten, privaten Hochschule in gemeinnütziger Trägerschaft wird der Führungsnachwuchs für international orientierte Wirtschaftsunternehmen in kompakten, anwendungsbezogenen Studiengängen ausgebildet. Alle Studiengänge der ISM zeichnen sich durch Internationalität und Praxisorientierung aus. Projekte in Kleingruppen gehören ebenso zum Hochschulalltag wie integrierte Auslandssemester und -module an einer der über 160 Partneruniversitäten der ISM.
Weitere Informationen:
http://www.ism.de
Quelle: idw
Die Zukunft des Wassers
Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Universität Freiburg beteiligt sich an zwei Netzwerken zur Erforschung von Dürreperioden und Stauseen
Welche sozialen und wirtschaftlichen Folgen haben Dürreperioden? Was kann die Politik zu einem nachhaltigen Wasserhaushalt beitragen? Und wie können Stauseen langfristig effizient funktionieren? Das Ministerium für Wissenschaft, Forschung und Kunst Baden-Württemberg (MWK) fördert zwei fächerübergreifende Projekte, an denen die Universität Freiburg beteiligt ist, mit insgesamt knapp vier Millionen Euro. Beide Verbünde sind an der Fakultät für Umwelt und Natürliche Ressourcen angesiedelt. Ziel des Projekts „Auswirkungen, Prozesse und Widerstandsfähigkeit im Zusammenhang mit Dürreperioden: Das Unsichtbare sichtbar machen“ (DRIeR) ist es, vor allem die nicht offensichtlichen Auswirkungen von Dürren zu untersuchen. Im Netzwerk „Herausforderungen des Stausee-Managements unter Berücksichtigung ökologischer und sozialer Aspekte“ (CHARM) erforschen Wissenschaftlerinnen und Wissenschaftler Probleme, die mit dem Betrieb von Stauseen einhergehen.
Ein Team um die Hydrologin Dr. Kerstin Stahl und ihren Kollegen Dr. Jens Lange möchte mit dem Projekt DRIeR Politik und Gesellschaft in Deutschland auf die Herausforderungen von Trockenperioden vorbereiten. Darunter fallen etwa Waldbrände, Trinkwasserknappheit, Fischsterben und reduzierte Ernteerträge. Die Forscherinnen und Forscher analysieren Informationen aus vergangenen Dürren sowie neu erhobene Daten und nutzen diese für Simulationen. Dabei sollen insbesondere die versteckten Auswirkungen von Trockenheit, beispielsweise auf Wasserqualität und Ökosysteme, sichtbar werden. Das Team will Modelle entwickeln, die zu einem zuverlässigen Wassermanagement in Baden-Württemberg beitragen. Als zentraler Knotenpunkt soll eine Onlineplattform entstehen, auf der die Wissenschaftler ihre Ergebnisse sammeln und sich vernetzen können. Akteurinnen und Akteure aus Wissenschaft, Politik und Gesellschaft können die Plattform als Informationsquelle nutzen. An DRIeR beteiligen sich Forscher aus den Professuren für Hydrologie, Waldbau, Forst- und Umweltpolitik sowie Physische Geographie der Universität Freiburg. Zudem sind die Universitäten Heidelberg und Tübingen Teil des Netzwerks.
Das Projekt CHARM, an dem ein Team um den Geographen Prof. Dr. Rüdiger Glaser vom Institut für Umweltsozialwissenschaften und Geographie der Universität Freiburg mitwirkt, beschäftigt sich mit zentralen Herausforderungen beim Betrieb von Stauseen: Sedimente lagern sich ab, mikrobielle Filme, Blaualgen und Methangasemissionen verbreiten sich, soziale Konflikte können entstehen. Da Stauseen wichtig für die Wasserversorgung und zur Energiegewinnung sind, soll die Forschung dazu beitragen, die Funktionsfähigkeit der Seen aufrechtzuerhalten. Sprecherhochschule von CHARM ist die Universität Stuttgart, beteiligt ist außerdem die Universität Konstanz.
Kontakt:
PD Dr. Jens Lange und PD Dr. Kerstin Stahl
Institut für Geo- und Umweltnaturwissenschaften
Professur für Hydrologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203- 3546 und 3532
E-Mail: jens.lange@hydrology.uni-freiburg.de, kerstin.stahl@hydrology.uni-freiburg.de
Prof. Dr. Rüdiger Glaser
Institut für Umweltsozialwissenschaften und Geographie
Professur für Physische Geographie
Albert-Ludwigs-Universität Freiburg
E-Mail: ruediger.glaser@geographie.uni-freiburg.de
Weitere Informationen:
http://www.pr.uni-freiburg.de/pm/2015/pm.2015-08-14.120
Quelle: idw
Bundesweite Studie zu Fußballfans im Stadion
Sandra Sieraad Pressestelle
Universität Bielefeld
Universität Bielefeld startet zweite Onlinebefragung
Wie leben Fußballfans ihre Leidenschaft für ihren Verein aus? Das wollen Wissenschaftler des Instituts für interdisziplinäre Konflikt- und Gewaltforschung (IKG) der Universität Bielefeld herausfinden. In dem deutschlandweiten Projekt „Bielefelder Fußballfan-Studie“ (BiFans) erforschen sie Fankulturen und die Identifikation von Fans mit Fußballvereinen der ersten bis dritten Liga. Für die Studie unter Leitung von Professor Dr. Andreas Zick werden Fußballfans gesucht, die Spiele in den Stadien dieser Ligen besuchen. Die Studie wird von der Deutschen Fußball Liga (DFL) und dem Deutschen Fußball-Bund (DFB) gefördert, ist jedoch wissenschaftlich unabhängig. Die zweite Onlinebefragung ist ab sofort freigeschaltet unter www.unipark.de/uc/bifans.
Zu Beginn der vergangenen Saison haben die Wissenschaftler in einer ersten Onlinebefragung die Identifikation von Fußballfans untersucht. Daran haben sich 7.708 Fans von Vereinen der ersten drei Fußballligen in Deutschland beteiligt. Rund 15 Prozent der Befragten sind Frauen und etwas mehr als die Hälfte der Befragten ist unter 30 Jahre alt. Zwei Drittel der Studienteilnehmer geben an, bei Spielen ihrer Mannschaft von einem Stehplatz aus mitzufiebern. Rund 84 Prozent der Fans gehen zu Spielen ihrer Mannschaft ins Stadion, weil es sehr unterhaltsam ist. Etwas weniger als 6 Prozent geben an, zu Spielen ihrer Mannschaft zu gehen, weil sie Auseinandersetzungen mit gegnerischen Fans mögen.
An der zweiten Erhebung zum Saisonbeginn 2015/16 können sowohl Fans mitmachen, die bis-her noch nicht teilgenommen haben, als auch Fans, die die Fragen der ersten Onlinebefragung vor einem Jahr bereits beantwortet haben. Durch eine wiederholte Teilnahme erfassen die Wissenschaftler, ob sich die Ergebnisse im Vergleich zum ersten Zeitpunkt verändert haben oder ob sie stabil geblieben sind.
Die Forscher laden alle Fans zur Studie ein, die vereinzelt oder regelmäßig Spiele der ersten drei Ligen im Stadion verfolgen. Es geht darum, die Sichtweisen vieler verschiedener Fans einzuholen, um die Vielfalt der Realität im Stadion möglichst präzise abbilden zu können. Der Online-Fragebogen ist auf der Internetseite www.unipark.de/uc/bifans freigeschaltet. Verantwortlich für die Studie ist die Fachstelle „Fußball und Konflikt“ des IKG. Die bundesweit einmalige Fachstelle berät unter anderem Fanprojekte und Fußballvereine, um Konflikte rund um den Fußball im Stadion und auf dem Bolzplatz zu verhindern und zu bewältigen.
Kontakt:
Prof. Dr. Andreas Zick, Universität Bielefeld
Institut für interdisziplinäre Konflikt- und Gewaltforschung
Telefon: 0521 106-2442
E-Mail: zick@uni-bielefeld.de
Andreas Grau, Universität Bielefeld
Institut für interdisziplinäre Konflikt- und Gewaltforschung
Telefon: 0521 106-3195
E-Mail: andreas.grau@uni-bielefeld.de
Martin Winands, Universität Bielefeld
Institut für interdisziplinäre Konflikt- und Gewaltforschung
Telefon: 0521 106-3105
E-Mail: martin.winands@uni-bielefeld.de
Weitere Informationen:
http://www.unipark.de/uc/bifans
http://www.uni-bielefeld.de/ikg/fussball.html
http://ekvv.uni-bielefeld.de/blog/ikgblog/entry/zwischenergebnisse_der_bielefeld…
http://www.facebook.com/bifans
Quelle: idw
Frankreich verabschiedet Gesetz zum Energiewandel
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Die französische Nationalversammlung hat am 22. Juli 2015 in letzter Lesung das Gesetz zum Energiewandel und für ein grünes Wachstum verabschiedet. Der französische Staatspräsident bezeichnete dieses Gesetz als eines der wichtigsten seiner fünfjährigen Amtszeit.
Es legt die wichtigsten mittel- und langfristigen Ziele des neuen französischen Energiemodells für die Energieproduktion und den Energieverbrauch fest:
-Reduzierung der Treibhausgasemissionen um 40 % bis 2030 (im Vergleich zu 1990);
-Reduzierung des Verbrauchs an fossilen Brennstoffen um 30 % bis 2030;
-Reduzierung des Anteils der Kernenergie am französischen Energiemix von 75 % auf 50 % bis 2025;
-Steigerung des Anteils erneuerbarer Energien am Endenergieverbrauch auf 32 % bis 2030;
-Reduzierung des Endenergieverbrauchs um 50 % bis 2050.
Auszüge aus der Rede von Ségolène Royale vor der Nationalversammlung:
[…] Ein Gesetz, das Frankreich zu einem besonders umweltfreundlichen Land machen soll, zu einem Motor für den Aufbau eines Europas der Energie, zu einer umweltfreundlichen Industrienation, die als Beispiel dafür steht, was sie sich auf internationaler Ebene vom Weltklimagipfel in Paris erwartet. […]
[…] Wir sind hier alle davon überzeugt, dass ein effizientes Vorgehen im Kampf gegen den Klimawandel und bei der Schaffung eines neuen französischen Energiemodells notwendig ist, um die Treibhausgasemissionen zu senken, Zukunftsbranchen zu entwickeln sowie neue Tätigkeitsbereiche und nachhaltige Arbeitsplätze zu schaffen, angefangen bei den 100.000 Arbeitsplätzen, die kurzfristig in den Industriezweigen des grünen Wachstums entstehen sollen, darunter im Baugewerbe für die Gebäudesanierung und in den Bereichen Energieeffizienz, erneuerbare Energien, saubere Mobilität und Kreislaufwirtschaft. […]
Übersetzerin: Jana Ulbricht, jana.ulbricht@diplomatie.gouv.fr
Quelle: idw
BAuA-Studie: Lichtwirkung blau-angereicherter Beleuchtung am Arbeitsplatz
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Dresden – Die innere Uhr bestimmt die Tagesrhythmik des Menschen. Neuere Erkenntnisse zeigen, dass Licht dabei eine bedeutende Rolle für Physiologie und Verhalten spielt. Eine Studie im Auftrag der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) untersuchte akute und mittelfristige Effekte von blau-angereicherter Beleuchtung in den Morgen- und Abendstunden. Die Forscher fanden heraus, dass gezielte Lichtveränderungen am Morgen das Potenzial besitzen, Störungen der inneren Uhr zu kompensieren. Der Bericht „Circadiane Wirksamkeit AmI-basierter Beleuchtungssysteme: Wirkungsfragen circadianer Desynchronisation“ ist jetzt erschienen.
Ziel der Untersuchung war es, die physiologischen Basismechanismen für Gestaltungsempfehlungen biologisch wirksamer Beleuchtung zu untersuchen. Im Mittelpunkt standen dabei die aktivierende Wirkung von blauem Licht und die Verschiebung der circadianen Rhythmik.
Für die innere Uhr spielen Intensität, Zeitpunkt und Zusammensetzung des Lichtes, dem wir ausgesetzt sind, eine große Rolle. Durch gezielte Auswertung und Analyse verschiedener Lichtsituationen sollten mögliche Risiken ermittelt werden. In der Studie wurden 18 junge, gesunde Probanden insgesamt acht Tage lang untersucht. Sie verbrachten die Abende, Nächte und Morgen im Schlaflabor. Sie wurden abends jeweils für 30 Minuten drei verschiedenen Beleuchtungsbedingungen ausgesetzt. Am darauffolgenden Morgen erfolgte für drei Stunden entweder eine effektive Bürobeleuchtung mit blau-angereichertem Licht oder eine Kontrollbeleuchtung durch eine warm-weiße Glühlampe. Dabei beobachteten die Forscher akute Lichtwirkungen wie Reaktionszeit, Wachheitsgrad sowie mittelfristige Effekte auf den Schlaf und die Verschiebung der inneren Uhr. Beispielsweise wurde mit Hilfe von Speichelproben, in denen die Konzentration des Hormons Melatonin bestimmt wurde, die individuelle innere Uhrzeit gemessen.
Im Ergebnis zeigte sich unter anderem, dass die gegenwärtige Aufmerksamkeit von den Beleuchtungsbedingungen der vorangegangenen Stunden beeinflusst wird. Beispielsweise wirkte die Beleuchtung der Morgenstunden auf die Aufmerksamkeit am darauffolgenden Abend nach. Insgesamt verdeutlichen die Ergebnisse, dass es zum jetzigen Zeitpunkt unrealistisch erscheint, konkrete Gestaltungsempfehlungen für eine biologisch wirksame Beleuchtung an Arbeitsplätzen abzuleiten.
Die Studie „Circadiane Wirksamkeit AmI-basierter Beleuchtungssysteme: Wirkungsfragen circadianer Desynchronisation“ gibt es im PDF-Format unter http://www.baua.de/publikationen.
„Circadiane Wirksamkeit AmI-basierter Beleuchtungssysteme: Wirkungsfragen circadianer Desynchronisation“; Dieter Kunz; 1. Auflage; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2015; ISBN 978-3-88261-148-9; 20 Seiten.
Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 700 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de
Weitere Informationen:
http://www.baua.de/dok/6270912 Direkter Link zum Bericht „Circadiane Wirksamkeit AmI-basierter Beleuchtungssysteme: Wirkungsfragen circadianer Desynchronisation“ im Internetangebot der BAuA
Quelle: idw
CO2 aus der Luft zurück zu holen kann die Ozeane nicht retten – wenn wir weiter Kohle, Öl verfeuern
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Treibhausgase aus dem Verbrennen von Kohle und Öl verursachen nicht nur eine rasche Erwärmung der Meere, sondern auch eine Versauerung des Wassers – und dies rascher als je in den vergangenen Jahrmillionen. Deshalb gibt es die Idee, künstlich CO2 aus der Luft zurück zu holen, um die Risiken für das Leben in den Ozeanen zu verringern. Geschieht dies aber zu spät, so nützt es kaum noch etwas, wie eine neue Studie auf der Grundlage von Computer-Simulationen jetzt zeigt.
Wenn die Emissionen in diesem Jahrhundert und darüber hinaus weiter wie bisher zunehmen, so bliebe der Ozean laut der Studie noch auf Jahrhunderte hin stark verändert – sogar wenn in der Atmosphäre die Menge von CO2 irgendwann in der Zukunft wieder auf das vor-industrielle Niveau heruntergebracht würde. Daher können solche Maßnahmen rechtzeitige Emissionsreduktionen nicht ersetzen, sondern nur ergänzen.
„Geo-Engineering, also eine großtechnische Manipulation des Erdsystems, wird derzeit als eine Art letzter Ausweg diskutiert, um die schlimmsten Folgen des Klimawandels zu vermeiden – für den Fall, dass sich die Politik nicht rechtzeitig auf die Minderung des CO2-Ausstoßes einigen kann, oder um den Umbau unseres Energiesystems zu verzögern“, sagt Leit-Autorin Sabine Mathesius vom GEOMAR Helmholtz Zentrum für Meeresforschung in Kiel und vom Potsdam-Institut für Klimafolgenforschung (PIK). „Wenn wir uns aber die Ozeane anschauen, dann zeigt sich, dass dieser Ansatz erhebliche Risiken birgt.“
In Szenarien mit frühzeitigen Emissionsreduktionen können diese durch das künstliche Entfernen von CO2 aus der Atmosphäre (Carbon Dioxide Removal genannt, kurz CDR) ergänzt werden. „Aber in einem Szenario mit zunächst unverminderten Emissionen wäre der Ozean, selbst wenn wir den CO2-Gehalt der Atmosphäre später wieder auf das vorindustrielle Niveau bringen könnten, dann dennoch viermal saurer als vor der Industrialisierung“, so Mathesius. „Es würde viele Jahrhunderte brauchen, um das Gleichgewicht von Ozean und Atmosphäre wiederherzustellen.“
***Korallen und Muscheln: Versauerung kann Ökosysteme schädigen***
Rund ein Viertel der vom Menschen verursachten CO2-Emissionen wurden bisher von den Ozeanen aufgenommen. Dies führt zu chemischen Reaktionen und damit zur Versauerung des Wassers. Langfristig kann dies Meereslebewesen wie Korallen oder Muscheln und Schnecken bedrohen, weil die Versauerung die Bildung von Kalkschalen und Skeletten beeinträchtigt. Dies würde die Artenvielfalt und die Nahrungsketten gefährden.
Deshalb wurde Hoffnung in CDR-Maßnahmen zum Entfernen von CO2 aus der Atmosphäre gesetzt. Dazu könnte man zum Beispiel schnell wachsende Pflanzen wie etwa Pappeln oder Gräser anbauen, die CO2 aus der Luft aufnehmen und den Kohlenstoff in Halme oder Stämme einbauen. Diese könnten dann in Kraftwerken verbrannt werden, bei denen das freiwerdende CO2 abgeschieden und unterirdisch gespeichert wird (CCS). Wie alle CDR-Technologien ist auch diese noch nicht im industriellen Maßstab erprobt, und sie müsste sorgfältig abgewogen werden gegen den Bedarf an Land für die Nahrungsproduktion.
***„In den Tiefen des Ozeans wird das chemische Echo noch Jahrtausende nachhallen“***
„Wir haben in einem Computer-Experiment simuliert, verschiedene Mengen von CO2 aus der Luft wieder zu entfernen – einmal in realistischer Größenordnung, und einmal mit 90 Milliarden Tonnen pro Jahr, was mehr als das Doppelte der derzeitigen jährlichen Emissionen und wahrscheinlich nicht machbar wäre“, sagt Ko-Autor Ken Caldeira von der Carnegie Institution for Science in Stanford, USA. Er hatte an der Studie während eines Forschungsaufenthalts am PIK gearbeitet. Das Experiment wurde unabhängig davon angelegt, welche konkrete Technologie für die Herausnahme des CO2 eines Tages tatsächlich verfügbar sind. „Interessanterweise zeigt sich, dass nach business-as-usual bis 2150 sogar das Herausholen enormer Mengen CO2 aus der Atmosphäre den Ozeanen nicht so viel helfen würde,“ so Caldeira. „Wenn das versauerte Wasser durch die großen Strömungen einmal in die Tiefe transportiert worden ist, ist es dort für viele Jahrhunderte außer Reichweite, ganz egal wie viel CO2 aus der Luft entfernt wird.“
Die Wissenschaftler untersuchten auch die Zunahme der Temperaturen in den Ozeanen, und die Abnahme gelösten Sauerstoffs. Sauerstoff ist für viele Organismen lebenswichtig. Die Erwärmung verlangsamt zudem die Ozean-Umwälzung und verringert die Durchmischung von Oberflächen- und Tiefenwasser, was den Transport von Nährstoffen behindert. Zusammen mit der Versauerung setzen diese Veränderungen die Lebewesen in den Meeren stark unter Druck. Früher in der Erdgeschichte haben solche Veränderungen zu Massenaussterben geführt. Wie sich in Zukunft die Kombination aller drei Faktoren – Sauerstoffmangel, Erwärmung, Versauerung – auf die Tiere und Pflanzen der Meere genau auswirkt, wissen die Forscher noch nicht.
„In den Tiefen des Ozeans wird das chemische Echo der heute verursachten CO2-Emissionen noch Tausende von Jahren nachhallen“, sagt Ko-Autor Hans Joachim Schellnhuber. „Wenn wir nicht rasch Emissionsreduktionen umsetzen, die der 2-Grad-Grenze entsprechen, dann wird es nicht möglich sein, die Ozeane der Welt so zu erhalten, wie wir sie heute kennen.“
Artikel: Mathesius, S., Hofmann, M., Caldeira, K., Schellnhuber, H. J. (2015): Long-term response of oceans to CO2 removal from the atmosphere. Nature Climate Change (online) [DOI:10.1038/nclimate2729]
Weblink zum Artikel sobald er veröffentlicht wird: http://dx.doi.org/10.1038/nclimate2729
Quelle: idw
Neue Bioindikatoren und Messverfahren für das Grundwasser
Susanne Eichacker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Wissenschaftler des Instituts für Grundwasserökologie (IGOE) am Helmholtz Zentrum München koordinieren das vom Bundesministerium für Bildung und Forschung (BMBF) mit mehr als 2 Millionen Euro geförderte Verbundprojekt GroundCare. Die Laufzeit des Projekts beträgt drei Jahre. Ziel ist es, neue ökologische Indikatoren zu finden und Methoden zu entwickeln, um die Grundwasserqualität zu bewerten und Ökosystemdienstleistungen nachhaltig zu nutzen.
Nachhaltiges Ressourcen-Management ist die Basis für einen verantwortungsvollen Umgang mit Grundwasser – stellt dieses doch die wichtigste Quelle für Trinkwasser dar. Derzeit fehlen jedoch standardisierte Indikatoren und Methoden zur Bewertung der ökologischen Funktionsfähigkeit und Stresstoleranz von Grundwasserökosystemen. Auch grundwasser-spezifische Ökotoxverfahren gibt es bis dato nicht. „Solche Methoden sind absolut nötig, um das Ökosystem Grundwasser an seinem jeweiligen Standort optimal bewirtschaften und schützen zu können“, erklärt Dr. Christian Griebler. Er ist der Koordinator des ReWaM-Projektes „Parametrisierung und Quantifizierung von Grundwasser-Ökosystem-Dienst¬leistungen als Grundlage für eine nachhaltige Bewirtschaftung (GroundCare)“ und Kommissarischer Direktor des IGOE. „In unserem Projekt versuchen wir, für die wasserwirtschaftliche Praxis geeignete Indikatoren zu identifizieren und zu standardisieren. Wir hoffen so, durch kostengünstige und zeitsparende Methoden den Zustand unseres Grundwassers in Zukunft besser überwachen zu können“.
Leitfaden für Umweltbehörden
Grundwasser ist sowohl durch zunehmende Einträge von Schadstoffen und Krankheitserregern als auch durch Extremwetterereignisse in seiner Qualität vielerorts gefährdet oder bereits beeinträchtigt. Für den langfristigen Schutz und die Verfügbarkeit von sauberem Grundwasser ist es daher von zentraler Bedeutung, neue Konzepte zur Beurteilung der Belastbarkeit und des Selbstreinigungsvermögens zur Anwendungsreife zu bringen. Für eine nachhaltige Bewirtschaftung sowie den Ökosystemschutz sind zudem Verfahren zur grundwasserspezifischen Stoffbewertung unter Nutzungsaspekten und aus ökotoxikologischer Sicht erforderlich. „Da diese derzeit nicht existieren“, so Griebler, „sollten die Erkenntnislücken unbedingt geschlossen werden“. Die gewonnenen Empfehlungen können den Umweltbehörden und der Wasserwirtschaft anschließend als Leitfäden für ein möglichst nachhaltiges und ökonomisches Grundwassermanagement dienen.
Weitere Informationen
Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören. http://www.helmholtz-muenchen.de/
DasVerbundprojekt GroundCare ist Teil der BMBF-Fördermaßnahme „Regionales Wasser-Ressourcen-Management für den nachhaltigen Gewässerschutz in Deutschland (ReWaM)“ im Förderschwerpunkt „Nachhaltiges Wassermanagement (NaWaM)“. Das in interdisziplinärer Zusammenarbeit von verschiedenen wissenschaftlichen Institutionen und Praxispartnern durchgeführte Projekt startete am 1. Juni 2015 und läuft bis zum 31. Mai 2018. Ziel von ReWaM ist die Erforschung, Erprobung und Etablierung neuer Ansätze in der Wasserwirtschaft.http://www.helmholtz-muenchen.de/igoe/forschung/drittmittelprojekte/groundcare/i…
An dem Projekt sind beteiligt:
• Bayerisches Landesamt für Umwelt (LfU), Augsburg
• Technologiezentrum Wasser (DVGW-TZW ), Karlsruhe
• Technische Universität Hamburg Harburg (DVGW-TUHH)
• Justus-Liebig-Universität Gießen (JLU)
• Boden und Grundwasserlabor GmbH (BGD), Dresden
• GELSENWASSER AG, Gelsenkirchen
• Institut für Grundwasserökologie GmbH, Landau
• Limco International GmbH (LimCo), Konstanz
• Westfälische Wasser- und Umweltanalytik, Gelsenkirchen
• Umweltforschungszentrum, Leipzig
• Universität Koblenz Landau, Landau
• Institut für Wasserforschung GmbH, Schwerte
• Trinkwasserversorger in Augsburg, Berlin, Dresden, Karlsruhe, Hannover und Würzburg
Weitere Informationen:
http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…
Quelle: idw
Institut für Arbeitsschutz der DGUV: Benzolbelastungen an Tankstellen unbedenklich
Elke Biesel Pressestelle
Deutsche Gesetzliche Unfallversicherung – DGUV
Das Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA) hat gemeinsam mit Berufsgenossenschaften und Unfallkassen die besondere Situation von Beschäftigten an Tankstellen untersucht und konnte zeigen: Die Belastung an Tankstellenarbeitsplätzen liegt inzwischen im Bereich der Konzentration, die durch Verteilung überall in der Atemluft vorhanden ist.
Benzol kann beim Menschen krebserzeugend wirken. Trotzdem lässt sich der Stoff nicht von allen Arbeitsplätzen verbannen. Insbesondere an Tankstellen können Belastungen auftreten, weil dort mit Ottokraftstoffen umgegangen wird, die immer noch geringe Mengen an Benzol enthalten dürfen. Das Institut für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA) hat gemeinsam mit Berufsgenossenschaften und Unfallkassen die besondere Situation von Beschäftigten an Tankstellen untersucht und konnte zeigen: Die Belastung an Tankstellenarbeitsplätzen liegt inzwischen im Bereich der Konzentration, die durch Verteilung überall in der Atemluft vorhanden ist.
Benzol ist eine Grundchemikalie. 2012 lag die Produktion weltweit bei über 57 Millionen Tonnen. In den meisten Fällen setzt die Industrie Benzol in geschlossenen Anlagen ein, Belastungen der Umgebungsluft sind damit ausgeschlossen. Arbeitsbereiche, in denen das nicht möglich ist, finden sich vor allem an Tankstellen: Betroffen sind Beschäftigte an Zapfsäulen, im Werkstattbereich und in Verkaufs- und Kassenräumen von Tankstellen.
Vor allem im Verkaufsbereich stellt sich mit Blick auf eine mögliche Benzolbelastung häufig die Frage, ob Schwangere hier tätig sein dürfen. „Die Voraussetzung ist, dass der Benzolwert am Arbeitsplatz sich nicht wesentlich vom Benzolwert in der Außenluft unterscheidet“, sagt Professor Dietmar Breuer, Gefahrstoffexperte im IFA. So lege es das baden-württembergische Merkblatt für werdende Mütter fest, auf das sich auch andere Länder beziehen. Das IFA hat für alle 13 untersuchten Tankstellen gezeigt, dass diese Voraussetzung erfüllt ist.
Breuer: „Damit wird selbstverständlich auch die so genannte Akzeptanzkonzentration, wie sie der Arbeitsschutz für Benzol an Arbeitsplätzen fordert, deutlich unterschritten.“ Selbst wenn in der Zukunft irgendwann ein noch niedrigerer Wert gelten sollte, wäre man an diesen Arbeitsplätze in puncto Arbeitsschutz immer noch auf der sicheren Seite.
Weitere Informationen
Das Institut für Arbeitsschutz der DGUV (IFA) gibt gemeinsam mit der Kommission Reinhaltung der Luft (KRdL) die Fachzeitschrift „Gefahrstoffe – Reinhaltung der Luft – Air Quality Control“ heraus. Den Artikel aus dem aktuellen Heft („Benzol – Messungen in verschiedenen Arbeitsbereichen mit Bezug zur Toleranz- und Akzeptanzkonzentration nach TRGS 910“) können Sie dort im Volltext als PDF-Datei finden.
Weitere Informationen:
http://www.dguv.de
Quelle: idw
POMPEJI – mit Spendengeldern Forschung den Erhalt des einzigartigen Kulturerbes unterstützen
Presse Institute Kommunikation
Fraunhofer-Gesellschaft
Das POMPEII SUSTAINABLE PRESERVATION PROJECT (PSPP) ist ein auf Fundraising basierendes Vorhaben. Direktes Sponsoring ist notwendig, um die Fördergelder unmittelbar der Forschung und Erhaltung von Pompeji zukommen zu lassen.
Mit dem konventionellen Weg der öffentlich geförderten Forschung ist das Projekt gerade wegen des neuen Ansatzes der Kombination von Restaurierungspraxis, Wissenschaft und Lehre nicht umsetzbar. Daher startet das Fraunhofer-Institut für Bauphysik IBP gemeinsam mit seinen Projektpartnern einen Spendenaufruf, um weiter für die Erhaltung von Pompeji arbeiten und forschen zu können.
Alles über das Projekt sowie zu Spendenmöglichkeiten finden Sie unter http://www.pompeii-sustainable-preservation-project.org/.
Weitere Informationen:
http://www.pompeii-sustainable-preservation-project.org
Quelle: idw
Geobee: Bienenschutz-Informationsplattform ist online
Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)
Forscher und Ingenieure haben mit http://geobee.jki.bund.de/ ein interaktives Bienenportal entwickelt. Zum Schutz von Bienen und Wildbienen können sich Imker und Landwirte über Pflanzenschutz, geeignete Standorte oder eine bienenfreundliche Gestaltung von Blühstreifen austauschen. Wildbienen-Steckbriefe sowie interaktive Karten zur Verteilung von Bienenvölkern in Brandenburg runden das Angebot ab.
Während der Projektlaufzeit führten die Forscher Erhebungen zu Wildbienen in Brandenburg durch. Die Ergebnisse zu den gefundenen Arten sind in Steckbriefen zusammen gefasst. Imker, Landwirte, Naturschützer und andere Bieneninteressierte können diese nun online abrufen. In dynamischen Kartenanwendungen sind die Verteilung der Imker und Bienenvölker, Wildbienengebiete und geeignete Trachtpflanzen in Brandenburg dargestellt.
Kooperationsbörse bietet Austausch für Praktiker
Eine „Kooperationsbörse“ ermöglicht Landwirten und Imkern einen Austausch untereinander. Landwirte können Pflanzenschutzanwendungen angeben und Imker auf potenzielle Gefahren hinweisen. Die Imker können die Bienenvölker daraufhin an geeigneten Standorten aufstellen oder auch anhand der eingegeben Trachtpflanzen geeignete Standorte für die Beuten ausfindig machen. Weiterhin können Landwirte Informationen zum Bienenschutz und zur Strukturierung der Agrarflächen mit beispielsweise Blühstreifen abrufen. Das Ingenieurbüro Leschke und das Julius Kühn-Institut für Kulturpflanzen in Kleinmachnow bündeln in ihrer innovativen Informations- und Kommunikationsplattform vorhandene Daten und verknüpfen diese regional. Zurzeit umfasst das Portal nur die Region Brandenburg. Eine Erweiterung auf andere Bundesländer wird angestrebt. Eine mobile WebApp als Anwendung für das Smartphone gibt es bereits.
Die Daten werden anonymisiert angegeben. Der genaue Standort von Bienenvölkern ist nicht ersichtlich. Zudem sind einige Anwendungen nur für registrierte Nutzer sichtbar.
Die Plattform ist unter dem Link http://geobee.jki.bund.de/ erreichbar.
Hintergrund
Bienen und Wildbienen sind mit ihrer Bestäubungsleistung essenziell für die Landwirtschaft. Jedoch ist eine erfolgreiche Bienenhaltung abhängig von Landschaftsnutzung und -management. Das Forschungsprojekt „Geobee“ sollte ein Internetangebot mit Informationen aus verschiedenen Fachbereichen hervorbringen. Das dreijährige Forschungsprojekt wurde im Innovationsförderprogramm des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) gefördert und von der Bundesanstalt für Landwirtschaft und Ernährung als Projektträger betreut.
Weitere Informationen:
http://geobee.jki.bund.de/
Quelle: idw
Zu viele Untersuchungen in der Schwangerschaft
Maria Droop Pressestelle
Bertelsmann Stiftung
Nahezu alle schwangeren Frauen (99 Prozent) erhalten mehr Untersuchungen als die Mutterschaftsrichtlinien vorsehen. Ob sie eine Risikoschwangerschaft haben oder einen völlig unauffälligen Schwangerschaftsverlauf: Werdende Mütter erfahren stets die nahezu gleiche Behandlung. Zu diesem Ergebnis kommt eine Untersuchung der Bertelsmann Stiftung.
Befragt wurden 1.293 Mütter, die im vergangenen Jahr ihr Baby zur Welt gebracht haben. Weil viele der von Ärztinnen oder Ärzten angebotenen oder von den Schwangeren gewünschten Leistungen nicht routinemäßig vorgesehen sind, mussten 80 Prozent der werdenden Mütter Zuzahlungen leisten. „Mehr ist nicht zwingend besser. Es gibt eine klare Überversorgung während der Schwangerschaft“, sagte Uwe Schwenk, Gesundheitsexperte der Bertelsmann Stiftung.
Fast alle Schwangeren wurden abweichend von den offiziellen Richtlinien behandelt. Beim sogenannten CTG (Kardiotokographie, erfasst Herztöne des Kindes und Wehen der Mutter) und bei der Ultraschall-Untersuchung wurden Risikoschwangerschaften genauso versorgt wie Frauen mit einem unauffälligen Schwangerschaftsverlauf. „Die Ausnahme Risikoschwangerschaft ist inzwischen zur Regel geworden“, sagte Schwenk.
Die Autorinnen der Studie gehen sogar noch einen Schritt weiter. Prof. Rainhild Schäfers von der Hochschule für Gesundheit in Bochum sagte: „Das Überangebot an Untersuchungen schürt die Angst der Frauen vor der Geburt und möglicherweise auch ihren Wunsch nach einer vermeintlich sicheren Kaiserschnitt-Entbindung.“
Jede zweite Frau gab an, von ihrem Arzt sehr gut beraten worden zu sein. Weitere 30 Prozent antworteten mit gut. Allerdings bedeutet dies auch, dass sich durchschnittlich nur die Hälfte der Befragten über die Aussagekraft beziehungsweise die Wirkungsweise einer Maßnahme sehr gut aufgeklärt fühlte. 95 Prozent der Frauen glauben, dass ein CTG zu den Routinemaßnahmen in der Schwangerschaft gehört – dabei ist es als solche in den Mutterschaftsrichtlinien nicht vorgesehen.
Nahezu jede Schwangere bekommt ein CTG, auch wenn die Schwangerschaft unauffällig verläuft. Bei Ultraschall-Untersuchungen erhalten 49 Prozent der Frauen mit normaler Schwangerschaft mehr als fünf Ultraschall-Untersuchungen. Laut Studie hatten weder das Alter als Risikofaktor noch Einkommen oder Bildungsabschluss der Schwangeren einen Einfluss darauf, ob Zusatzleistungen in Anspruch genommen wurden.
Zusatzinformationen
Die Inhalte der ärztlichen Schwangerenvorsorge sind durch die Mutterschaftsrichtlinien (MSR) geregelt. Dies sind Richtlinien, die der Gemeinsame Bundesausschuss veröffentlicht hat. Neben Beratung, besonderen Blutuntersuchungen, Gewichts-, Urin- und Blutdruckkontrollen, Kontrolle der kindlichen Herztöne und des Gebärmutterwachstums werden dort drei Basis-Ultraschall-Untersuchungen aufgeführt, die um die 10., 20. und 30. Schwangerschaftswoche gemacht werden sollen. Die MSR sehen zehn bis zwölf Vorsorgeuntersuchungen während der Schwangerschaft bis zum errechneten Geburtstermin vor, die anfangs im Abstand von vier Wochen, ab der 32. Woche im Abstand von zwei Wochen durchgeführt werden sollen.
Methodisches Vorgehen
Frauen, die zwischen November 2013 und Oktober 2014 ein Kind geboren haben, wurden im November 2014 postalisch zu der Schwangerschaft befragt. Es handelt sich dabei um eine Zufallsstichprobe aller bei der BARMER GEK versicherten Frauen, die in diesem Zeitraum ein Kind bekommen haben. Die Teilnehmerinnen wurden aufgefordert, Fragen zu dem Angebot und der Durchführung der oben beschriebenen Maßnahmen, der Motivation zur Durchführung und der Aufklärung über die genannten Maßnahmen zu beantworten. Um die Notwendigkeit einzelner Maßnahmen besser nachvollziehen zu können, wurden außerdem schwangerschaftsbezogene medizinische Befunde abgefragt.
Weitere Informationen:
http://www.bertelsmann-stiftung.de und www.gesundheitsmonitor.de
Quelle: idw
Gefährliche Kost: Regenwürmer schützen sich gegen schädliche Pflanzenstoffe
Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie
Naturstoff hilft jährlich Milliarden Tonnen Laub zu zersetzen
Regenwürmer kann man fast überall auf unserer Welt finden, vom Komposthaufen im eigenen Garten, in Wiesen- und Feldböden bis hin zu tropischen Regenwäldern. Die wichtigste Aufgabe der Regenwürmer ist die Rückgewinnung von Nährstoffen aus totem Pflanzenmaterial, von dem sie sich ernähren. Jetzt haben Forscher herausgefunden, wie die Würmer mit den giftigen Stoffen umgehen, die von Pflanzen als Schutz gegen Fraßfeinde gebildet werden. Ihre Ergebnisse publizieren sie jetzt in der Fachzeitschrift Nature Communications.
Schutz durch besondere Moleküle im Darm
Pflanzen produzieren sogenannte Polyphenole, diese wirken als Antioxidantien und geben Pflanzen ihre Farbe. Sie behindern jedoch die Verdauungsprozesse von vielen Pflanzenfresser. Die Wissenschaftler um Dr. Manuel Liebeke haben jetzt Moleküle (Drilodefensine) im Darm der Würmer entdeckt, die die pflanzlichen Abwehrstoffe inaktivieren und den Nahrungsverdau ermöglichen. Regenwürmer setzen diese Drilodefensine als Gegenmittel ein um sich zu schützen.
Dr. Liebeke sagt: „Es gibt weltweit eine Menge von diesen Wirkstoffen, weil es sehr viele Regenwürmer gibt, teilweise bis zu 300 pro Quadratmeter. Die Gesamtmasse der Drilodefensine ist beträchtlich, verteilt auf die Weltbevölkerung ungefähr ein Kilogramm pro Mensch.“
Die Moleküle scheinen sehr wertvoll für den einzelnen Wurm zu sein, denn die Würmer schonen ihren eigenen Vorrat, indem sie ein effektives Recyclingsystem nutzen und nichts von der Substanz ausscheiden. Dr. Liebeke und seine Kollegen fanden heraus, je mehr Polyphenole in der Nahrung der Würmer stecken, desto mehr Drilodefensin wird im Regenwurmdarm gebildet.
Das Schutzmolekül Drilodefensin der Würmer arbeitet im Prinzip wie eine Seife. Sie umhüllen die Nahrungseiweiße und Enzyme im Wurmdarm und verhindern das die Polyphenole daran binden können. Ohne diesen Schutz würden die pflanzlichen Polyphenole einen Prozess starten, der den Wurmdarm schädigen würde.
Der Nachweis dieser Stoffe im Darm wurde erst möglich durch ein auf Massenspektrometrie beruhendes bildgebendes Verfahren (MALDI-MS). Manuel Liebeke konnte mit dieser Technik genau verfolgen, in welchem Darmbereich sich das Defensin ansammelte. Der Wissenschaftler ist inzwischen am Bremer Max-Planck-Institut für Marine Mikrobiologie in der Abteilung Symbiose tätig und forscht nun an marinen Würmern. Er sagt: „Diese neue Methodik der molekularen Mikroskopie wird unser Verständnis in der Biologie auf vielen Ebenen revolutionieren. Wir sind nun in der Lage, fast jedes Molekül in einem Lebewesen wie dem Regenwurm zu lokalisieren. Und wenn wir wissen, wo sich das Molekül anreichert, hilft es uns dabei seine mögliche Funktion zu verstehen.“
Rückfragen an
Dr. Manuel Liebeke
Max-Planck-Institut für Marine Mikrobiologie, Celsiusstr. 1
D-28359 Bremen, Telefon:0421 2028 – 825
mliebeke@mpi-bremen.de
Beteiligte Institute
Department of Surgery and Cancer, Imperial College London, London, UK;
Department of Materials, Imperial College London, UK;
Cardiff School of Biosciences, Cardiff University, Cardiff, UK;
Bruker Daltonik GmbH, Bremen, Germany;
Department of Chemistry, Chemistry Research Laboratory, University of Oxford, Oxford, UK
Centre for Ecology and Hydrology, Wallingford, Oxon, UK;
Max-Planck-Institut für Marine Mikrobiologie, Bremen
Originalarbeit
Unique metabolites protect earthworms against plant polyphenols.
Liebeke, Manuel; Strittmatter, Nicole; Fearn, Sarah; Morgan, A John; Kille, Peter; Fuchser, Jens; Wallis, David, Palchykov, Vitalii; Robertson, Jeremy; Lahive, Elma; Spurgeon, David J; McPhail, David; Takáts, Zoltán; Bundy, Jacob G
Nature Communications 2015, DOI 10.1038/ncomms8869
Diese Arbeit wurde unterstützt durch das Natural Environment Research Council, UK.
Weitere Informationen:
http://www.mpi-bremen.de
Quelle: idw
Altersvorsorge: Sorgenkind Nr. 1 der Deutschen
Sophie Zervos PR & Marketing
GESIS – Leibniz-Institut für Sozialwissenschaften
Besonders das Thema der individuellen finanziellen und pflegebezogene Altersversorgung beeinträchtigt die Lebenszufriedenheit der Deutschen. Auch im Hinblick auf den gesellschaftlichen Bereich dominieren Sorgen aus dem sozialen und ökonomischen Bereich, wie die Wirtschaftslage, die Entwicklung der Kriminalität und die Sorge um zunehmende soziale Ungleichheit.
Auf der Basis der repräsentativen Bevölkerungsbefragung „Barometer Sicherheit in Deutschland“ (BaSiD) untersuchte Dina Hummelsheim vom GESIS – Leibniz-Institut für Sozialwissenschaften, welche Themen die deutschen besonders belasten und in ihrer Lebensqualität einschränken.
Als dominierendes Thema erweist sich die Lebenssituation im Alter. Insgesamt sind 78% der Befragten besorgt, im letzten Lebensabschnitt verstärkt Pflege zu benötigen. 41% äußern sogar sehr starke Besorgnis. Doch nicht nur die körperlichen Auswirkungen des Alters, sondern auch die ökonomische Situation im Alter ist Grund zur Sorge für einen Großteil der Bevölkerung (68%). 37% der Befragten sind sehr beunruhigt, dass ihre finanzielle Altersversorgung nicht ausreichen wird. Gefolgt werden diese altersbezogenen Sorgen von der Befürchtung, schwer zu erkranken. An vierthäufigster Stelle wird die große Sorge geäußert, den Kontakt zu einer wichtigen Person zu verlieren.
Wendet man die Aufmerksamkeit den gesellschaftlichen Sorgen zu, zeigt sich auch hier, dass Sozio-ökonomische Themen im Vordergrund stehen. Insgesamt befürchten 94% der Befragten eine zunehmende Kluft zwischen Arm und Reich. Nur eine Minderheit von 6% ist im Hinblick auf Einkommensungleichheit in der Gesellschaft nicht beunruhigt. Auch ansteigende Arbeitslosigkeit und die deutsche Wirtschaftslage werden von einer deutlichen Mehrheit der Befragten als ernstzunehmende Probleme wahrgenommen. Umweltbelastungen und ihre Auswirkungen stellen neben den ökonomischen Fragen eine weitere Gruppe von gesellschaftlichen Unsicherheitsfaktoren dar. Etwa die Hälfte der Bevölkerung sorgt sich stark um schadstoffbelastete Lebensmittel (52%), mögliche Störfälle in Atomkraftwerken (47%) und die Folgen des Klimawandels (46%). Daneben sieht ein gutes Drittel der Befragten den Zusammenhalt der europäischen Staaten gefährdet. Terrorismus und insbesondere Naturkatastrophen nehmen in der Rangfolge der Unsicherheiten im Jahr 2012 eine eher nachrangige Stellung in der deutschen Bevölkerung ein.
Bei fast allen angesprochenen persönlichen und gesellschaftlichen Themen äußern Frauen größere Besorgnis als Männer. Allerdings fürchten sich Frauen weniger vor sozialen Problemen als Männer, d.h. vor einer möglichen Trennung vom Partner, vor einem Kontaktverlust oder vor Vereinsamung. Regional lässt sich ein größerer Grad an Unzufriedenheit bei der ostdeutschen Bevölkerung messen. In Bezug auf das Alter stellt Hummelsheim vermehrte Sorge bei Menschen mittleren Alters fest, was sie auf die erschwerte Lebenssituation im Spannungsfeld von Beruf und Karriere zurückführt.
Am stärksten betroffen von Unsicherheitsgefühlen sind Personen in den mittleren Altersgruppen. Menschen mit niedrigem Bildungsstatus und geringem Einkommen, Frauen und Ostdeutsche äußern in den meisten Bereichen größere Unsicherheiten. So bewerten einkommensschwächere und in Ostdeutschland wohnhafte Personen ihr Leben insgesamt schlechter als wohlhabendere und in Westdeutschland lebende Personen.
Die ganze Studie finden Sie im Informationsdienst Soziale Indikatoren ISI 54, den sie entweder in gedruckter Form bestellen können oder hier zum Download finden:
http://www.gesis.org/fileadmin/upload/forschung/publikationen/zeitschriften/isi/…
Ansprechpartner bei GESIS – Leibniz-Institut für Sozialwissenschaften:
Dina Hummelsheim, GESIS
dina.hummelsheim@gesis.org
Dr. Sophie Zervos
GESIS – Leibniz-Institut für Sozialwissenschaften
Abteilung Kommunikation
Unter Sachsenhausen 6-8, 50667 Köln
Tel: + 49 (0) 221-47694-136
sophie.zervos@gesis.org
Als die größte deutsche Infrastruktureinrichtung für die Sozialwissenschaften steht das GESIS – Leibniz-Institut für Sozialwissenschaften Forscherinnen und Forschern auf allen Ebene ihrer Forschungsvorhaben mit seiner Expertise und seinen Dienstleistungen beratend zur Seite, so dass gesellschaftlich relevante Fragen auf der Basis neuester wissenschaftlicher Methoden, qualitativ hochwertiger Daten und Forschungsinformationen beantwortet werden können. GESIS ist Mitglied der Leibniz-Gemeinschaft und unterhält institutionelle und projektbezogene Kooperationen mit diversen Universitäten. GESIS ist an wichtigen europäischen und internationalen Studien und Projekten wie u.a. dem European Social Survey (ESS) und der European Value Study (EVS), dem europäischen Archivverbund CESSDA und dem OECD-Projekt Programme for the International Assessment of Adult Competencies (PIAAC) beteiligt.
Weitere Informationen:
http://www.gesis.org
http://www.facebook.com/gesis.org
http://www.twitter.com/gesis_org
Quelle: idw
Nicht immer tut die Heimat dem Herzen gut: Wohnort des Patienten beeinflusst Herz-Kreislauf-Schäden
Anna Julia Voormann Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.
Wiesbaden – Weltweit sterben jährlich etwa 18 Millionen Menschen an Herz-Kreislauf-Erkrankungen. Eine aktuelle Studie zeigt nun, dass der Krankheitsverlauf in Ländern mit niedrigen Einkommenszahlen dramatischer und die Sterblichkeit höher ist. Experten vermuten, dass fehlende Präventionsprogramme und mangelhafte medizinische Versorgung die Ursache sind. Die Deutsche Gesellschaft für Innere Medizin e.V. (DGIM) rät daher, die hier vorhandenen Angebote der medizinischen Versorgung wahrzunehmen und einen gesunden Lebensstil zu führen. Denn nur so könne die auch in Deutschland weiterhin steigende Erkrankungszahl reduziert werden.
Bis in die 1950er Jahre waren überwiegend Bewohner der Industrieländer von Herz-Kreislauf-Erkrankungen betroffen. Doch ereignen sich mittlerweile 80 Prozent aller kardiovaskulären Vorfälle in Ländern mit mittlerem und niedrigem Einkommen. Eine aktuelle Studie im New England Journal of Medicine zeigt, dass Menschen in diesen Ländern unter einem schwereren Krankheitsverlauf leiden und auch häufiger an einem kardiovaskulären Vorfall sterben als Bewohner westlicher Länder. „Wir müssen also einen neuen Risikofaktor für die Entstehung solcher Erkrankungen berücksichtigen: den Wohnort, d.h. das Herkunftsland des Patienten“, erklärt Professor Dr. med. Gerd Hasenfuß, Vorsitzender der DGIM und Direktor der Klinik für Kardiologie und Pneumologie der Universitätsmedizin Göttingen.
Die Autoren der Studie untersuchten über einen Zeitraum von vier Jahren mehr als 150 000 Menschen aus 17 Ländern, um zu klären, ob sich Risikofaktoren, Erkrankungsanzahl und Todesfolgen in Ländern mit höherem Einkommen von Ländern mit mittlerem und niedrigem Einkommen unterscheiden. Um das kardiovaskuläre Risiko der Bewohner zu ermitteln, verwendeten die Forscher den international anerkannten INTERHEART-Risk Score. Er setzt sich aus messbaren Risikofaktoren wie Rauchen, erhöhte Blutfettwerte, Übergewicht, Bluthochdruck, Diabetes, Stress sowie mangelhafte Ernährung und Bewegung zusammen. Obwohl dieser Score in westlichen Ländern höher ist, zeigte sich in der aktuellen Studie, dass Menschen aus Ländern mit niedrigem oder mittlerem Einkommen häufiger und schwerer an Herz-Kreislauf-Erkrankungen leiden – insbesondere Bewohner ländlicher Gegenden. In westlichen Ländern sei hingegen kein Unterschied zwischen ländlichen und städtischen Gemeinden zu verzeichnen.
Wie auch die Autoren schlussfolgert Professor Hasenfuß, dass ein gut funktionierendes, flächendeckendes Gesundheitssystem mit einer wirksamen Vorsorge, Therapie und Medikamentenversorgung hierzu ausschlaggebend für die geringeren Erkrankungs- und Sterbefälle in westlichen Ländern sei. „Die Studie verdeutlicht die großen Errungenschaften der modernen Medizin. Das sollte uns jedoch nicht dazu verleiten, sich ganz auf den Errungenschaften unseres Gesundheitssystems auszuruhen. Denn trotz guter Vorsorge- und Therapieprogramme sind auch hierzulande Herz-Kreislauf-Erkrankungen weiterhin Todesursache Nummer eins“, mahnt der Kardiologe. „Darum sollte jeder sein persönliches Risiko mindern.“ Alleine Rauchen erhöhe das Risiko, an einer Herz-Kreislauferkrankung oder an einem Schlaganfall zu sterben, um das Zwei- bis Dreifache.
Die DGIM empfiehlt daher, nicht zu rauchen, sich abwechslungsreich zu ernähren und Übergewicht zu vermeiden, sich täglich 30 bis 60 Minuten mäßig intensiv zu bewegen, einen Blutdruck von unter 140/90 mmHg anzustreben und die Blutfett- und die Blutzuckerwerte im Normalbereich zu halten. Zudem sollten Angebote zur Vorsorge unbedingt wahrgenommen werden.
Literatur:
S. Yusuf et al., Cardiovascular Risk and Events in 17 Low-, Middle-, and High-Income Countries, N Engl J Med 2014;371:818-27. DOI: 10.1056/NEJMoa1311890
Quelle: idw
Schadstoffbeseitigung mit Nanopartikeln – Forscher entwickeln biologisch abbaubares System
Alexander Schlaak Referat II/2, Kommunikation
Universität Regensburg
Forscher der Universität Regensburg und des Massachusetts Institute of Technology (MIT, Cambridge, USA) haben biologisch abbaubare Nanopartikel entwickelt, die Schadstoffe aus Wasser und Erdreich absorbieren können. Doch nicht nur das: Nach dem Gebrauch lassen sich die Nanopartikel auch relativ einfach beseitigen, da sie verklumpen, wenn man sie UV-Licht aussetzt. Die Erfindung wurde jetzt in der renommierten Fachzeitschrift „Nature Communications“ vorgestellt (DOI: 10.1038/ncomms8765).
Der Kontakt mit bestimmten Chemikalien, z.B. mit Pestiziden oder Arzneimittelrückständen, steht im Verdacht, die Entwicklung von Krankheiten wie Krebs oder Diabetes zu begünstigen. Zwar ist die Möglichkeit, Nanopartikel zur Reinigung von kontaminiertem Wasser oder Erdreich einzusetzen, schon länger bekannt. Allerdings gibt es erhebliche Vorbehalte gegen diese Technologie, da die Nanopartikel nach ihrem Einsatz häufig in der Umwelt verbleiben und die Bildung von giftigen Nebenprodukten nicht ausgeschlossen werden kann. Deshalb ist es besonders wichtig, Wege zu finden, um die Nanomaterialien nach ihrem Einsatz einfach und effektiv zu entfernen.
Dr. Ferdinand Brandl vom Institut für Pharmazie der Universität Regensburg hat gemeinsam mit Prof. Dr. Robert S. Langer vom MIT neuartige Nanopartikel entwickelt, die Chemikalien aus kontaminiertem Wasser und Erdreich binden können. Nach der Behandlung mit UV-Licht verlieren die Nanopartikel ihre stabilisierende Hülle und vereinigen sich zu Klumpen, die mit den Schadstoffen angereichert sind und die einfach zu beseitigen sind. Das System kombiniert somit das hohe Absorptionsvermögen von Nanopartikeln mit einem einfachen Weg zur Entsorgung der Abfälle.
Erste Experimente mit Abwasser, Thermopapier und kontaminiertem Erdreich waren sehr vielversprechend und haben gezeigt, dass bei dem neuen Verfahren keine giftigen Nebenprodukte entstehen. Es erlaubt somit die künftige Entwicklung von risikoarmen und hochaktiven Materialien für die Abwasserbehandlung und die Sanierung von kontaminieren Böden
Der Original-Artikel im Internet unter:
www.nature.com/ncomms/2015/150721/ncomms8765/full/ncomms8765.html
Quelle: idw
Unstatistik des Monats: Macht uns eine vegetarische Lebensweise zu besseren Menschen?
Katharina Fischer Kommunikation
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.
„Vegetarier und Veganer sind die besseren Menschen, denn sie haben weniger Vorurteile und widersetzen sich eher autoritären Strukturen.“ So oder ähnlich kommentierten viele Medien – wie zum Beispiel die Allgemeine Zeitung (http://www.allgemeine-zeitung.de/lokales/mainz/nachrichten-mainz/studie-in-mainz…) oder die NWZ Online (http://www.nwzonline.de/panorama/studie-vegetarier-vorurteilsfreier_a_30,0,13728…) – eine am 24. Juli publizierte Studie der Universitäten Mainz und Wuppertal.
Mehr oder weniger deutlich wird dabei formuliert, dass die vegetarische Lebensweise ein bestimmtes soziales Verhalten fördere oder sogar die Ursache dafür sei. Damit wird aber wie so oft kein Unterschied zwischen Korrelation und Kausalität gemacht. Schon bei dem Mythos, Vegetarier lebten länger als andere, hat sich die vegetarische Lebensweise als solche – Vegetarier greifen seltener als andere zur Zigarette und treiben öfter Sport – als irrelevant herausgestellt (Studie: Vegetarian diet, Seventh Day Adventists and risk of cardiovascular mortality: A systematic review and meta-analysis. International Journal of Cardiology 176(3): 680-6). Und im vorliegenden Fall ist zu vermuten, dass unkonventionelle und antiautoritäre Charaktere auch bei der Ernährung zu eher unkonventionellen Methoden neigen. Dann gäbe es zwar eine Kausalbeziehung, aber eine in die umgekehrte Richtung: nicht von der vegetarischen Ernährung zum Charakter, sondern vom Charakter zur vegetarischen Ernährung.
Ansprechpartner:
Prof. Dr. Walter Krämer, Tel.: 0231-7553125
Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Alle „Unstatistiken“ finden Sie im Internet unter www.unstatistik.de.
Weitere Informationen:
http://www.unstatistik.de – Weitere Informationen, Kontakte & Archiv
Anhang
Pressemitteilung im PDF-Format
https://idw-online.de/de/attachment44839
Quelle: idw
Ertappt: Mikrobielle „Methanfresser“ im Meeresboden nutzen Gasblasen zum Aufstieg in der Wassersäule
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Neuartiges Instrument zum Auffangen von Gasblasen (bubble catcher) liefert erste Beweise für einen bisher unbeachteten Transportprozess, der für die Reduktion des Klimagases Methan in der marinen Umwelt Bedeutung haben kann.
Um die Rolle von Mikroorganismen im Prozess der Methanregulierung im Meer besser zu verstehen, entwickelten Wissenschaftler vom Leibniz-Institut für Ostseeforschung Warnemünde (IOW) ein neues Gerät, mit dem sich der Transport dieser Organismen durch vom Meeresboden aufsteigende Methanblasen in die Wassersäule erfassen lässt. Mit diesem sogenannten „Bubble Catcher“ gelang nun erstmals der Nachweis, dass Methan-konsumierende Bakterien tatsächlich auf diesem Weg aus dem Sediment ins freie Wasser gelangen. Dieser Transportprozess kann somit von Bedeutung für die Reduktion des Klimagases Methan in der marinen Umwelt und damit für das Klimageschehen auf der Erde sein.
Zu verstehen, auf welchem Wege Methan in die Atmosphäre gelangt und welche Prozesse das verhindern können, ist ein wichtiges Ziel der Umweltforschung. Auch in der Meeresforschung sind weltweit Methanquellen wie untermeerische Schlammvulkane, Kohlenwasserstoff-Austrittsgebiete (Seeps) und die Organik-reichen Sedimente in Randmeeren wie der Ostsee im Fokus der Untersuchungen. Marine Methanquellen sind zahlreich und vielfältig. Auf dieses umfangreiche Angebot haben sich Mikroorganismen spezialisiert: So nutzen vor allem Methan-oxidierende Bakterien im Freiwasser und methanotrophe Archaeen am Meeresboden Methan als Energie- und Kohlenstoffquelle. Dabei wandeln sie es in Karbonate und Biomasse oder in das im Vergleich zum Methan weniger potente Treibhausgas Kohlendioxid um. Dieser effektive Prozess verhindert normalerweise, dass Methan aus dem Meeresboden bis an die Wasseroberfläche und damit auch in die Atmosphäre gelangt. Wenn jedoch so viel Methan austritt, dass es in Form von Gasblasen vom Meeresboden aufsteigt, funktioniert der mikrobielle Methanfilter im Sediment und in der Wassersäule nicht mehr: Die hohe Geschwindigkeit der Blasen führt das Methan zu rasch an den Zonen vorbei, in denen die Methan-umsetzenden Mikroorganismen leben.
Aus anderen aquatischen Umgebungen wie z. B. dem Grundwasser ist bekannt, dass Blasen an ihrer Außenhaut Mikroorganismen transportieren können. Unbeachtet blieb aber bislang der blasenvermittelte Transport zwischen Sediment und Wassersäule. Dies war der Ansatzpunkt für das Team der IOW-WissenschaftlerInnen um den Meereschemiker Oliver Schmale und seinen KollegInnen vom Kieler GEOMAR sowie der University of California, die mit dem extra für diesen Zweck entwickelten Bubble Catcher untersuchen wollten, ob methanotrophe Bakterien im Sediment über ein Anheften an die Gasblasenhaut am Aufstiegsprozess der Gasblasen teilnehmen und ob auf diesem Wege das umgebende Wasser kontinuierlich mit diesen Organismen geimpft wird. Der Nachweis eines solchen Prozesses ist allerdings nicht einfach, da die Gasblasen und die daran anheftenden Mikroorganismen möglichst kontaminationsfrei an der Blasenaustrittsstelle eingefangen werden müssen. Während einer Pilot Studie vor der Küste Kaliforniens gelang es dem Forscherteam jedoch nun erstmals, über einem natürlichen Methan-Austritt die entweichenden Blasen in dem mit künstlichem, sterilen Meerwasser gefüllten Zylinder des Bubble Catchers einzufangen. Durch anschließende mikroskopische Analysen (CARD-FISH) wiesen sie nach, dass Methan-oxidierende Bakterien die Methanblasen begleiteten.
Oliver Schmale: „Wir wissen jetzt, dass methanotrophe Bakterien aus dem Sediment die Gasblasen tatsächlich als ‚Mitfahrgelegenheit‘ nutzen und so in die umgebende Wassersäule transportiert werden. Weitere Untersuchungen müssen nun zeigen, ob die Bakterien nach ihrem Umgebungswechsel weiterhin in der Wassersäule aktiv bleiben und so den Transport des Treibhausgases in die Atmosphäre vermindern.“
Publiziert wurden die von der Deutschen Forschungsgemeinschaft (DFG) finanzierten Arbeiten kürzlich in der Fachzeitschrift Continental Shelf Research:
Schmale, O., I. Leifer, J. S. v. Deimling, C. Stolle, S. Krause, K. Kießlich, A. Frahm and T. Treude (2015). Bubble transport mechanism: indications for a gas bubble-mediated inoculation of benthic methanotrophs into the water column. Cont. Shelf Res. 103: 70-78, doi:10.1016/j.csr.2015.04.022
*Kontakt:
Dr. Oliver Schmale, Sektion Meereschemie, Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 5197 305, oliver.schmale@io-warnemuende.de
Dr. Barbara Hentzsch, Presse- und Öffentlichkeitsarbeit, Leibniz-Institut für Ostseeforschung Warnemünde, Tel.: 0381 – 5197 102, barbara.hentzsch@io-warnemuende.de
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 18.100 MitarbeiterInnen, davon sind ca. 9.200 WissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,64 Mrd. Euro. (http://www.leibniz-gemeinschaft.de)
Quelle: idw
Ballastwasser von Schiffen: Filtration statt Desinfektion
Helmholtz Zentrum München Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Ballastwasser von Schiffen kann Organismen und sogar Krankheitserreger rund um den Erdball verteilen. Wissenschaftler empfehlen, eher physikalische Verfahren wie Filtrationen einzusetzen. Die elektrochemische Desinfektion führt zu zahlreichen potenziell schädlichen Verbindungen, wie eine im Journal ‚Environmental Science and Technology‘ veröffentlichte Studie des Helmholtz Zentrums München zeigt.
Um keine Organismen zu verschleppen, wird Ballastwasser aus Schiffen häufig elektrochemisch desinfiziert*. „Unsere Analysen ergaben, dass durch elektrochemische Desinfektion des Ballastwassers aber zahlreiche sogenannte Desinfektions-Nebenprodukte (DBPs) entstehen“, beschreibt Studienleiter Prof. Dr. Philippe Schmitt-Kopplin die Ergebnisse. Er und sein Team der Abteilung für Analytische Biogeochemie (BGC) am Helmholtz Zentrum München hatten in enger Zusammenarbeit mit Kollegen in den USA die Proben von behandeltem mit unbehandeltem Ballastwasser verglichen. Mittels hochauflösender Massenspektrometrie fanden sie heraus, dass durch die Behandlung über 450 neue unterschiedliche Verbindungen entstehen. Manche davon waren bis dato noch nicht als Desinfektionsprodukte beschrieben beziehungsweise strukturell noch nicht charakterisiert worden.
Alternative Verfahren nutzen
„Bis deren toxikologische Eigenschaften noch nicht vollständig geklärt sind, empfehlen wir einen sehr vorsichtigen Umgang mit der Desinfektion von Ballastwasser“, so Schmitt-Kopplin weiter. Die Studie ist nach Angaben der Wissenschaftler die erste tiefgreifende Analyse von DBPs in Ballastwasser und offenbarte vor allem die hohe Komplexität der entstehenden Produkte. Philippe Schmitt-Kopplin rät, eher auf physikalische Verfahren wie die Filtration oder Adsorption auszuweichen**.
Steigende Bedeutung durch den globalen Handel
Die Helmholtz-Forscher weisen zudem auf die weitereichende Bedeutung der Ergebnisse hin: Durch die steigende Verbreitung und Bewegung von Waren rund um die Welt werden auch immer zahlreichere und größere Schiffe genutzt. Diese nehmen eine entsprechend steigende Menge an Ballastwasser auf, um ihre Lage im Wasser zu stabilisieren und verändertes Gewicht von Gütern und Treibstoff während der Fahrt auszugleichen. Aktuell wird daher weltweit diskutiert, wie mit diesem Wasser umzugehen ist, da das unbehandelte Ausstoßen künftig verboten werden soll. Die Alternativmethode der Wahl ist nach Stand der Dinge die elektrochemische Desinfektion.
„Große Mengen von desinfiziertem Ballastwasser werden täglich in küstennahen Gewässern verteilt werden, ihr Einfluss auf die Umwelt ist aber bisher kaum absehbar“, so Erstautor Michael Gonsior vom Center of Environmental Science der Universität von Maryland, USA. „In künftigen Studien wollen wir herausfinden, welchen Einfluss die DBPs auf die Ökosysteme an der Küste haben“. Jetzt hoffen die Forscher, dass durch ihre Daten alternative Verfahren stärker in den Mittelpunkt gerückt werden.
Weitere Informationen:
Hintergrund:
*Bei der elektrochemischen Wasserdesinfektion wird Strom genutzt, um chemisch aktive Komponenten direkt per Elektrolyse, also per Umwandlung durch Strom, zu erzeugen.
** Erst kürzlich entdeckte das Team von Prof. Schmitt-Kopplin ganz ähnliche Produkte in desinfizierten Trinkwasserproben: www.ncbi.nlm.nih.gov/pubmed/25322143
Original-Publikation:
Gonsior, M. et al. (2015). Bromination of Marine Dissolved Organic Matter Following Full Scale Electrochemical Ballast Water Disinfection. Environmental Science & Technology, DOI : 10.1021/acs.est.5b01474
Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.300 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 37.000 Beschäftigten angehören.
Die selbstständige Abteilung Analytische Biogeochemie (BGC) untersucht molekulare Wechselwirkungen von Stoffen in Biogeosystemen. Hochauflösende Methoden der organischen Strukturaufklärung ermöglichen zusammen mit Trennverfahren und mathematischen Methoden eine präzise raum- und zeitauflösende Analyse. Ziel ist es, das Verständnis der molekularen Abläufe in Ökosystemen und die Bestimmung von Biomarkern in Organismen zu verbessern. BGC gehört dem Department of Environmental Sciences an.
Fachlicher Ansprechpartner
Prof. Dr. Philippe Schmitt-Kopplin, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Abteilung Analytische Biogeochemie, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187 3246 – E-Mail: schmitt-kopplin@helmholtz-muenchen.de
Weitere Informationen:
http://pubs.acs.org/doi/abs/10.1021/acs.est.5b01474 – Link zur Publikation
http://www.helmholtz-muenchen.de/aktuelles/pressemitteilungen/2015/index.html – Pressemitteilungen Helmholtz Zentrum München
http://www.helmholtz-muenchen.de/en/research-unit-analytical-biogeochemistry/index.html – Abteilung Analytische Biogeochemie
Quelle: idw
55 Kilo weg: Neues Lebensgefühl dank UKJ-Adipositas-Sprechstunden
Stefan Dreising Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena
Kerstin Lumpe erhielt Hilfe in Spezialsprechstunde am Universitätsklinikum Jena
„Mein Leben hat sich total verändert“, sagt Kerstin Lumpe heute, zwei Jahre nach ihrer Schlauchmagen-OP und einer Bauchdeckenstraffung am Universitätsklinikum Jena (UKJ), sind nicht nur die Pfunde gepurzelt, Bluthochdruck und Gelenkprobleme haben sich gebessert und auch ihre Medikamente konnte sie reduzieren. In den Adipositas-Sprechstunden am UKJ werden die Patienten interdisziplinär vor und dann lebenslang nach der Operation betreut.
„Wir freuen uns sehr über den positiven Verlauf. Dank unserer interdisziplinären Zusammenarbeit mit verschiedenen Spezialisten des Klinikums können wir unseren Patienten eine optimale Behandlung und Betreuung ermöglichen. Eine Operation ist allerdings erst eine Option, wenn alle konservativen Maßnahmen ausgeschöpft sind“, erklärt Dr. Hermann Kißler, Oberarzt der Klinik für Allgemein-, Viszeral- und Gefäßchirurgie am UKJ. Zu den Adipositas-Sprechstunden gehören folgende Bausteine: Die internistische Sprechstunde mit Ernährungsberatung in der Klinik für Innere Medizin III mit Prof. Dr. Ulrich-Alfons Müller und Dr. Christof Kloos, die psychologische Sprechstunde im Institut für Psychosoziale Medizin und Psychotherapie bei Dipl.-Psych. Sabrina Raack und die plastische Sprechstunde in der Klinik für Plastische Chirurgie bei Dr. Rene Wohlrat.
Kerstin Lumpe hatte einen langen Leidensweg hinter sich. „Ich habe unzählige Diäten ausprobiert. Mein Gewicht ging runter und wieder rauf“, beschreibt die 60-jährige ihre damalige Situation. Jetzt sei sie stolz auf sich. Während es vor der OP 143 Kilogramm waren, verlor sie im ersten Jahr 40 Kilogramm, im zweiten Jahr 15. Sie lobt vor allem das Team der chirurgischen Klinik. „Ich fühlte mich in der Adipositas-Sprechstunde und auf Station von den Ärzten und Pflegern rundum optimal betreut. Ich bin auf viel Verständnis gestoßen, wo es vorher auch oft Ablehnung gab. Regelmäßig komme ich zur Nachkontrolle“, so Kerstin Lumpe. „Geholfen hat mir sehr, dass mein Mann von Anfang an mit einbezogen wurde. Denn die Unterstützung meiner Familie war sehr wichtig für mich“, betont die Stadtrodaerin.
„Bluthochdruck und Diabetes bessern sich nach einer OP meist deutlich, da viel weniger Medikamente benötigt werden. Die Therapieanpassungen erfolgen ebenfalls in der gemeinsamen Sprechstunde“, sagt Prof. Dr. Ulrich Müller.
Über die Adipositas-Sprechstunden wurde auch der Kontakt zur Adipositas Selbsthilfegruppe Jena geknüpft. „In der Gruppe kann man sich über die Veränderungen, die man durchlebt austauschen. Wenn man offen darüber spricht, gehen die Menschen auch anders damit um.“
In diesem Jahr erfüllte sich ein weiterer Wunsch von Kerstin Lumpe: Das Team um Dr. Rene Wohlrath führte eine Bauchdeckenstraffung durch. Diese kann erfolgen, wenn die Fettschürze zu starken Hautirritationen führt und das Gewicht sechs Monate stabil geblieben ist. Jetzt fühlt sich Kerstin Lumpe noch wohler in ihrer Haut. „Ich habe schon vor den Eingriffen gern Wassergymnastik gemacht. Die Bewegung fällt mir jetzt viel leichter.“
Kontakt:
PD Dr. Hermann Kißler
Klinik für Allgemein-, Viszeral- und Gefäßchirurgie
Universitätsklinikum Jena
Erlanger Allee 101
07747 Jena
Terminvereinbarung unter Tel.: 03641-9 32 26 45
E-Mail: AVG@med.uni-jena.de
Christina Cyliax
Leiterin der Selbsthilfegruppe Adipositas „Dicke zurück ins Leben“
Tel.: 0178 / 3727402
E-Mail: Christinacyliax@aol.com
Weitere Informationen:
http://www.avc.uniklinikum-jena.de/Informationen+f%C3%BCr+Patienten/Sprechstunde…
http://www.gewichtig.info
Quelle: idw
Nimmt Mann ab, profitiert sein Liebesleben
Katharina Fischer Kommunikation
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.
Nehmen fettleibige Männer ab, erhöht sich die Wahrscheinlichkeit, dass sie eine sexuelle Beziehung haben. Nehmen sie weiter ab oder halten sie ihr Gewicht, haben sie häufiger Sex. Zu diesen Ergebnissen kommt eine aktuelle Studie des RWI, der FAU und des CINCH. Für Frauen lassen sich derartige Auswirkungen des Abnehmens nicht nachweisen. Für die Studie wurden die Antworten von gut 150 Befragten mit einem BMI über 30 ausgewertet.
Reduzieren erwachsene, fettleibige Männer ihr Gewicht, erhöht sich die Wahrscheinlichkeit, dass sie in einer sexuellen Beziehung leben. Nehmen sie weiter ab oder halten sie zumindest ihr niedrigeres Gewicht, haben sie häufiger Sex. Zu diesem Ergebnis kommt eine aktuelle Studie des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung (RWI), der Friedrich-Alexander Universität Erlangen-Nürnberg (FAU) und des gesundheitsökonomischen Forschungszentrums CINCH in Essen. Für übergewichtige Frauen ließen sich derartige Auswirkungen eines reduzierten Körpergewichts nicht nachweisen.
Die Ergebnisse der Untersuchung machen deutlich, dass starkes Übergewicht neben den bereits bekannten gesundheitlichen Problemen auch das soziale Leben der Betroffenen beeinträchtigt. Gleichzeitig weisen sie darauf hin, dass schon eine moderate Gewichtsreduktion die Einschränkungen mildern kann. So erhöhte sich die Wahrscheinlichkeit, eine sexuelle Beziehung zu haben, bei Männern um bis zu 7,7 Prozent, wenn sie ihren Body-Mass-Index (BMI) um einen Punkt reduzierten.
Wie genau dieser Effekt zustande kommt, lässt sich durch die vorliegende Studie nicht bestimmen. Eine Möglichkeit ist, dass durch die Gewichtsabnahme auch sexuelle Funktionsstörungen verschwinden oder zumindest deutlich gemildert werden. Zudem könnte das geringere Körpergewicht bei Männern zu einer positiveren körperlichen Selbstwahrnehmung und einem selbstbewussteren Auftreten führen sowie die Attraktivität für potenzielle Sexualpartner erhöhen. Möglich ist auch, dass mit einem abnehmenden Körpergewicht das Verlangen nach Sex zunimmt.
Studie wertete Antworten von fettleibigen Reha-Patienten aus
Für die Untersuchung wurden Daten eines groß angelegten, mehrstufigen Experiments zur Wirkung finanzieller Anreize auf die Gewichtsreduktion bei Übergewichtigen ausgewertet. An diesem nahmen zwischen März 2010 und Juli 2013 knapp 700 fettleibige Patientinnen und Patienten im Alter zwischen 18 und 75 Jahren teil, die gerade einen Aufenthalt in einer Rehabilitationsklinik absolviert hatten. Voraussetzung für die Teilnahme war ein BMI von 30 oder mehr. In der letzten Phase des Experiments beteiligten sich noch gut 300 Teilnehmerinnen und Teilnehmer. Sie erhielten 22 Monate nach Ende ihres Reha-Aufenthalts einen Fragebogen, der bei der Hälfte der Befragten auch Fragen zu ihrem Sexualverhalten enthielt.
Für Frauen konnte kein Einfluss der Gewichtsreduktion auf das Sexualverhalten nachgewiesen werden. Ein Grund dafür könnte sein, dass Frauen – wie die Ergebnisse früherer Studien zeigen – insgesamt im Vergleich zu Männern ein geringeres Verlangen nach Sex haben.
Ansprechpartner:
Prof. Dr. Ansgar Wübker (RWI), Tel.: (0201) 8149-242
Katharina Fischer (RWI-Pressestelle), Tel.: (0201) 8149-244
Prof. Dr. Harald Tauchmann (FAU), Tel.: (0911) 5302-635
Dieser Pressemitteilung liegt Ruhr Economic Paper #561 „Weight Loss and Sexual Activity in Adult Obese Individuals: Establishing a Causal Link“ zugrunde.
Weitere Informationen:
http://www.rwi-essen.de/media/content/pages/publikationen/ruhr-economic-papers/r… – Ruhr Economic Paper #561
Quelle: idw
Gewinnern und Verlierern der Ozeanversauerung auf der Spur
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Um besser zu verstehen, wie die Ozeanversauerung die Planktongemeinschaft und den Stoff-Austausch innerhalb des marinen Nahrungsnetzes beeinflusst, waren Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zwei Monate lang im Raunefjord bei Bergen (Norwegen) im Einsatz. Ihre Beobachtungen bestätigen, dass positive und negative Effekte zu erwarten sind. Zu den Verlierern zählen die Flügelschnecke Limacina helicina und die Kalkalge Emiliania huxleyi. Die gelatinöse Zooplankton-Art Oikopleura dioica und das winzige Piko-Phytoplankton profitieren hingegen von der erhöhten Kohlendioxid-Konzentration im Wasser.
Acht Mesokosmen, 36 Forscher, 50 Probenahme-Tage – und ein weiterer großer Schritt im Verständnis der Ozeanversauerung: Von Anfang Mai bis Anfang Juli untersuchte ein Team von Wissenschaftlern unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel im Raunefjord bei Bergen (Norwegen), wie die komplexe marine Lebensgemeinschaft reagiert, wenn der Ozean durch die Aufnahme von Kohlendioxid (CO2) aus der Atmosphäre zunehmend versauert. „Unsere Studie war in vielerlei Hinsicht außergewöhnlich, und wir sind sehr zufrieden mit dem Verlauf und unseren Daten“, zieht Prof. Dr. Ulf Riebesell, Professor für Biologische Ozeanografie am GEOMAR und Leiter des Experiments, begeistert Bilanz. „Keine der bisherigen Studien hat uns so deutlich vor Augen geführt, wie entscheidend die Wechselwirkungen innerhalb des Nahrungsnetzes für die Sensitivität der Planktongemeinschaft gegenüber der Ozeanversauerung sind.“
Für ihren Langzeit-Versuch nutzten die Forscher die KOSMOS Mesokosmen (KOSMOS: Kiel Off-Shore Mesocosms for Future Ocean Simulations), schwimmende Experimentieranlagen mit einem Fassungsvermögen von je 55.000 Litern. Vier der Mesokosmen brachten sie auf erhöhte Kohlendioxid-Konzentrationen. Anschließend zeigten regelmäßige Probennahmen und Analysen, wie sich die eingeschlossene Lebensgemeinschaft entwickelt.
Um zu testen, ob sich die weltweit wichtigste einzellige Kalkalge Emiliania huxleyi per Evolution an Ozeanversauerung anpassen kann, wurden Individuen in die Mesokosmen eingesetzt, die sich im Labor über 2500 Generationen auf das Überleben unter saureren Bedingungen eingestellt hatten. Im Mittelpunkt stand die Frage, ob die erzielte Laboranpassung die Art befähigt, sich im saureren Wasser auch innerhalb der natürlichen Lebensgemeinschaft zu behaupten und die negativen Auswirkungen der Ozeanversauerung teilweise oder ganz zu kompensieren. Erkenntnisse aus der aktuellen Studie geben keinen Anlass zur Entwarnung: Die evolutionäre Anpassung bewahrte die Kalkalge nicht vor höheren Verlustraten und geringeren Bestandsdichten unter Ozeanversauerung. Emiliania huxleyi spielt eine wichtige Rolle für den Transport von Kohlenstoff in die Tiefe des Ozeans – und damit für seine Fähigkeit, Kohlendioxid zu speichern und den Klimawandel abzumildern. Außerdem setzen die Kalkalgen das klimakühlende Gas Dimethylsulfid (DMS) frei.
Ein weiterer Verlierer wird die Flügelschnecke Limacina helicina sein. Der „Seeschmetterling“, der sein Gehäuse aus der besonders leicht löslichen Kalk-Art Aragonit aufbaut, stellt eine wichtige Nahrungsquelle für Fische, Meeressäuger und Seevögel dar. „Wenn die Flügelschnecken unter der Versauerung leiden, könnte ein wichtiges Bindeglied in der Nahrungskette verloren gehen“, erklärt Dr. Silke Lischka, Meeresbiologin am GEOMAR. „Die bisher ausgewerteten Ergebnisse zeichnen ein klares Bild. Limacina bekommt mit fortschreitender Ozeanversauerung zunehmend Probleme, in ihrer ökologischen Nische zu überleben.“
Allerdings zeigten die Experimente, dass es auch Gewinner geben könnte. Neben dem winzigen Piko-Phytoplankton reagierte auch größeres Zooplankton der Art Oikopleura dioica positiv auf höhere Kohlendioxid-Konzentrationen in den Mesokosmen. Diese Beobachtung bestätigt vorangegangene Labor-Experimente und Studien in landbasierten Versuchsanlagen der meeresbiologischen Station der Universität Bergen. „Oikopleura dioica ist ein planktonisches Manteltier mit globaler Verbreitung. Es lebt in einer komplizierten Gallert-Struktur, mit deren Hilfe es ein breites Nahrungsspektrum sehr effizient einfangen kann“, erläutert Jean-Marie Bouqet, Techniker am Sars Zentrum für Marine Molekularbiologie und Doktorand an der Universität Bergen. „Oikopleura kann unter günstigen Bedingungen schnell große Populationsdichten erreichen und durch Massenentwicklungen das gesamte Nahrungsgefüge im Plankton umkrempeln. Genau das war auch in den angesäuerten Mesokosmen zu beobachten.“
Die Messdaten und Analysen der Wissenschaftler decken das gesamte Spektrum vom kleinsten bis zum größten Plankton und Fischlarven sowie den Stoffaustausch und Wechselwirkungen zwischen den einzelnen Ebenen des Nahrungsnetzes ab. „Da wir insgesamt rund 50 Parameter erfassen und viele Analysen erst in unseren Heimatlaboren durchgeführt werden können, dauert die Auswertung noch einige Monate“, kündigt Riebesell an. „Doch dann können wir Erkenntnisse aus verschiedenen Bereichen wie ein Puzzle zusammensetzen und gemeinsam interpretieren.“ Schon jetzt wird deutlich, dass eine fortschreitende Ozeanversauerung nicht ohne Folgen für die Artenvielfalt, das Nahrungsgefüge und die Stoffumsätze im Meer bleiben wird. Wie stark diese sich ausprägen werden und wie weitreichend auch wir Menschen davon betroffen sein werden, hängt wesentlich davon ab, in welchem Maße es uns gelingt, die Kohlendioxid-Emission zu reduzieren.
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.uib.no Universität Bergen
Quelle: idw
Solarthermische Kraftwerke – ein Gewinn auch für die soziale Entwicklung in Nordafrika
Dorle Riechert Öffentlichkeitsarbeit und Kommunikation
Wuppertal Institut für Klima, Umwelt, Energie GmbH
Social CSP – Studie von Germanwatch und Wuppertal Institut formuliert Nachhaltigkeits-Anforderungen und Best-Practice-Empfehlungen
Solarthermische Kraftwerke (CSP, concentrated solar power) an ihren nordafrikanischen Standorten stellen nicht nur erneuerbare Stromlieferanten für den steigenden Energiebedarf im südlichen Mittelmeerraum dar, sondern bringen auch große Vorteile für die regionale Entwicklung. Das haben Germanwatch und das Wuppertal Institut für Klima, Umwelt, Energie in einer gemeinsamen Studie am Beispiel von NOORo I, einem CSP-Kraftwerk in Südmarokko, nachgewiesen.
Die Studie zeigt, dass Planung und Bau von NOORo I durch die lokale Bevölkerung bisher sehr positiv aufgenommen wurde. Obwohl auch derartige CSP-Projekte keine allumfassende Lösung für Marokkos drängende Entwicklungserfordernisse darstellt, wurden dennoch vielfache Zusatznutzen für die gesamte Region sichtbar. „Für die angrenzenden Gemeinden sind neue Arbeitsplätze und Aus- und Weiterbildungsmaßnahmen entstanden sowie kommunale Wohlfahrts-, Bildungs-, und Gesundheitseinrichtungen verbessert worden“, sagt Boris Schinke von Germanwatch.
Dr. Peter Viebahn vom Wuppertal Institut ergänzt: „Auf der anderen Seite sind aber auch Befürchtungen, beispielsweise über mögliche Folgen des Kraftwerksbetriebs auf den lokalen Wasserhaushalt, ernst zu nehmen. Zudem wirkt sich auch das bisher fehlende Ausbildungsniveau lokaler Einrichtungen in Bezug auf die Anforderungen an Arbeitnehmer hemmend aus.“ Doch gegenüber den negativen Auswirkungen, die eine Förderung fossiler Rohstoffe oder der Betrieb konventioneller Kraftwerke auf die lokale und regionale Ebene hätte, könnten die festgestellten Wirkungen von NOORo I generell als niedrig eingestuft werden, betont der Wissenschaftler.
Des Weiteren haben die Untersuchungen ergeben, dass der Ausbau Erneuerbarer Energien auch in Marokko gesellschaftliche Entscheidungen erfordert. „Ähnlich wie die Debatten in Deutschland zum Netzausbau haben unsere Untersuchungen ergeben, dass die Bürger im Umfeld des marokkanischen Kraftwerks eine höhere Transparenz in der Kommunikation und rechtzeitige Mitsprachemöglichkeiten bei der weiteren Ausgestaltung des Projektes einfordern“, so Schinke.
Basierend auf den Ergebnissen der empirischen Analyse und Vorschlägen verschiedenster lokaler Akteure wurden Empfehlungen für die Weiterentwicklung des Marokkanischen Solarplans sowie ein Set von 18 Nachhaltigkeits-Anforderungen und Best-Practice-Empfehlungen für CSP-Kraftwerke erarbeitet. Sie liefern einen wichtigen Input für Projektentwickler sowie Regierungen und Entwicklungsbanken, um im Zuge des zukünftigen Ausbaus der CSP-Technologie die Entwicklungsbedürfnisse der lokalen Bevölkerung und die politische Teilhabe an der Projektgestaltung miteinzubeziehen. Dies gilt auch für den weiteren Ausbau des Kraftwerks in der Nähe der Provinzhauptstadt Ouarzazate, wo bis 2019 mit der Inbetriebnahme von zwei weiteren Blöcken das bald größte solarthermische Kraftwerk der Welt mit 500 Megawatt elektrischer Leistung ans Netz gehen wird.
Für die internationale Nachhaltigkeitsdebatte zeigen die Erfahrungen aus Marokko, wie scheinbar konkurrierende Ziele in den Bereichen Klimawandel, Energiesicherheit und nachhaltige Entwicklung gemeinsam und kohärent verfolgt werden können.
Das Projekt „Social CSP“ wurde im Auftrag des Bundesministeriums für wirtschaftliche Zusammenarbeit und Entwicklung (BMZ) durchgeführt. Die Studie steht in englischer Sprache zum Download zur Verfügung; ebenfalls zum Download gibt es eine Zusammenfassung in englischer, französischer und arabischer Sprache (siehe weitere Informationen).
Ansprechpartner Germanwatch:
Boris Schinke
Referent für Klima und Sicherheit [Policy Officer – Climate and Security]
Tel.: +49 228 60492-32
E-Mail: schinke@germanwatch.org
Ansprechpartner Wuppertal Institut:
Dr. Peter Viebahn
Stellv. Forschungsgruppenleiter
Forschungsgruppe 1: Zukünftige Energie- und Mobilitätsstrukturen
Tel.: +49 202 2492-306
E-Mail: peter.viebahn@wupperinst.org
Gemeinsame Pressemitteilung von Germanwatch und Wuppertal Institut
Für das Wuppertal Institut für Klima, Umwelt, Energie
ViSdP: Prof. Dr. Uwe Schneidewind, Präsident
Kontakt: Öffentlichkeitsarbeit, Dorle Riechert
Tel.: +49 202 2492-180, Fax: +49 202 2492-108
E-Mail: dorle.riechert@wupperinst.org
Weitere Informationen:
http://wupperinst.org/projekte/details/wi/p/s/pd/449/
Quelle: idw
Programm „Energetische Biomassenutzung“ wird mit neuer Förderbekanntmachung fortgesetzt
Diana Pfeiffer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Das Bundesministerium für Wirtschaft und Energie hat am 9. Juli 2015 die Bekanntmachung über die Förderung von Forschung und Entwicklung zur kosten- und energieeffizienten Nutzung von Biomasse im Strom- und Wärmemarkt „Energetische Biomassenutzung“ veröffentlicht. Damit wird das erfolgreiche Förderprogramm fortgesetzt und an den aktuellen Stand der Energiewende angepasst. Stichtage für die Einreichung von Projektskizzen sind für 2015 und 2016 vorgesehen.
„Die vielfältigen Vorteile von hochwertiger Bioenergie wie hohe Flexibilität, gute Speicherbarkeit und dezentrale Anwendung machen die Bioenergie zum idealen Partner im erneuerbaren Energiemix für den Strom- und Wärmemarkt der Zukunft. Um die ambitionierten Ziele der Bundesregierung zum Ausbau der erneuerbaren Energien zu erreichen, muss die Entwicklung zukunftsweisender, effizienter und kostengünstiger Technologien weiter vorangetrieben werden. Daher setzt das Bundesministerium für Wirtschaft und Energie (BMWi) die erfolgreiche Förderung von Forschung und Entwicklung des 2008 gestarteten Programms „Energetische Biomassenutzung“ fort, so kündigt MinDirig‘in Dr. Dorothee Mühl vom BMWi die Fortschreibung des Förderprogramms an.
Im Zuge der Neuausrichtung des Programms werden vor allem praxisorientierte Lösungen gefördert, die zur Flexibilisierung der Strom- und Wärmeerzeugung aus Biomasse und zu einem klimafreundlichen Wärmemarkt beitragen. Vor diesem Hintergrund stehen technologisch vorrangig kostengünstige und effiziente Verbrennungs-, Vergasungs-, Biogas- und Kraft-Wärme-Kopplungs-Anlagen, sowie effiziente Kombinationen mit anderen erneuerbaren Energien im Fokus. Ferner spielt die Optimierung der Bioenergie auf dem Weg zu einem zukünftig klimaneutralen Gebäudebestand eine wesentliche Rolle. Hier kommt es darauf an, auf einen rückläufigen Wärmebedarf zu reagieren.
Ziel der neuen Bekanntmachung ist es, insbesondere innovative Technologien sowie Verfahrens- und Prozessoptimierungen zu fördern, die die effiziente, wirtschaftliche und nachhaltige Nutzung der Bioenergie ermöglichen und zur Versorgungssicherheit beitragen. Zur Verbesserung der nachhaltigen energetischen Nutzung im (gekoppelten) Wärme- und Strombereich sollen Biomassereststoff- und Abfallpotenziale außerhalb der Forst- und Landwirtschaft erschlossen werden.
Forciert werden Untersuchungen sowie Pilot- und Demonstrationsvorhaben mit hohem Übertragungspotenzial. Insbesondere die kreative Zusammenarbeit von kleinen und mittleren Unternehmen (KMU) mit Forschungseinrichtungen verspricht dabei eine verstärkte Markt- und Wettbewerbsfähigkeit.
Interessierte können ihre Ideen in Form von Projektskizzen mit dem easy-Online Tool bis zum 30.09.2015 zu folgenden Themenschwerpunkten einreichen:
WÄRME:
Entwicklung von Technologien zur effizienten Erzeugung von Wärme aus Biomasse
STROM:
Forschung, Entwicklung und Innovation zur effizienten Erzeugung von Strom aus Biomasse und dessen Integration ins Stromsystem
BIOMASSEREST- UND ABFALLSTOFFE:
Erschließung kostengünstiger Biomasserest- und Abfallstoffe außerhalb der Forst- und Landwirtschaft für die energetische Nutzung im Wärme- und Strombereich
KWK:
Entwicklung und Demonstration neuer und fortschrittlicher Technologien zur effizienten Nutzung von Biomasse in Kraft-Wärme-Kopplungs-Anlagen
MARKTPOTENZIAL:
Validierung des Marktpotenzials von Forschungsergebnissen
STUDIEN & KONZEPTE
für die Energieerzeugung aus Biomasse
Weitere Informationen zur Skizzeneinreichung finden Sie im Internet unter: www.ptj.de/bioenergie.
Viel Erfolg bei der Einreichung Ihrer Ideen. Der nächste Veranstaltungshöhepunkt des Förderprogramms „Energetische Biomassenutzung“ ist die 6. Statuskonferenz, zu welcher Sie herzlich eingeladen sind. Die diesjährige Konferenz steht unter dem Motto „Bioenergie – Mehr als eine sichere Reserve?!“ Treffen Sie die Projektpartner des Programms und diskutieren Sie neue Ideen.
Informationen zur Skizzen-Einreichung:
>> Förderbekanntmachung im Bundesanzeiger
>> Informationen des PtJ: www.ptj.de/bioenergie
>> Einreichungsfristen: 30.09.2015 & 30.09.2016
>> Skizzeneinreichung mit dem easy-Online-Tool: https://foerderportal.bund.de/easyonline
Weitere Informationen:
https://www.energetische-biomassenutzung.de/de/presse/pressemitteilungen/details…
https://www.ptj.de/lw_resource/datapool/_items/item_2725/banz_at_21.07.2015_b1.p…
http://www.ptj.de/bioenergie
Quelle: idw
Emnid-Umfrage belegt: 79 Prozent der Befragten lehnen Windkraft im Wald ab
Eva Goris Kommunikation
Deutsche Wildtier Stiftung
Windkraftanlagen im Wald werden von 79 Prozent der Befragten abgelehnt. Das ist das Ergebnis der neuesten repräsentativen Emnid-Umfrage, die von der Deutschen Wildtier Stiftung in Auftrag gegeben wurde.
Auf die Frage: „Für den Ausbau der Windenergie sollten generell keine Waldgebiete verschwinden oder zerschnitten werden“, antworteten 79 Prozent der Befragten: „Dem stimme ich zu!“ Lediglich 11 Prozent akzeptieren, dass für „zusätzliche Windkraftanlagen auch Waldgebiete verschwinden oder zerschnitten werden.“ Die Umfrage des Meinungsforschungsinstitutes Emnid hat auch ermittelt, dass das Interesse an dem Thema Windenergie im Wald sehr groß ist. Nur acht Prozent der Befragten sagen: „Das Thema interessiert mich nicht.“
Für die Deutsche Wildtier Stiftung beweisen die Emnid-Ergebnisse, dass ein großer Teil der Bevölkerung Windkraftanlagen im Wald ablehnt. „Windkraft um jeden Preis kann nicht das Ergebnis der Energiewende sein“, betont Prof. Dr. Fritz Vahrenholt, Alleinvorstand der Deutschen Wildtier Stiftung. „Die Menschen in Deutschland wollen nicht, dass der Wald einer eindimensionalen Klimapolitik geopfert wird.“ Biodiversität und der Erhalt von Waldgebieten sind den Menschen ebenfalls wichtig. Immerhin betonen 65 Prozent der Befragten obendrein, dass „im Zweifelsfall der Schutz von Vögeln und anderen Tieren Vorrang vor dem Bau von Windkraftanlagen haben soll“.
Der gedankenlose Ausbau der Windenergie im Wald ist eine ernste Gefahr. „Die Öffnung des Waldes als Standort für Windenergieanlagen führt zur Gefährdung seltener Arten“, kritisiert Prof. Dr. Vahrenholt. In Deutschland fallen Jahr für Jahr bis zu 240.000 Fledermäuse Windkraftanlagen zum Opfer. Sie können zwar den Rotoren auch im Dunkeln ausweichen, aber im Unterdruck auf der Rückseite der Anlagen platzen ihre Lungen. Die meisten heimischen Fledermausarten stehen auf der Roten Liste. Besonders sensibel reagieren auch Vogelarten, wie der extrem seltene Schreiadler, der Rotmilan und der Schwarzstorch. So halbierte sich beispielsweise der Brutbestand des seltenen Schwarzstorchs am hessischen Vogelsberg nach dem Bau von 125 Windkraftanlagen in einem Zeitraum von nur sechs Jahren. Schwarzstörche sind sehr störempfindlich. Viele Greifvögel hingegen sterben durch Kollisionen mit den Rotorblättern.
„Nur Sachsen-Anhalt hat bisher beschlossen, mit der Windkraft nicht in den Wald zu gehen“, sagt Prof. Dr. Fritz Vahrenholt. „In waldreichen Bundesländern wie Baden-Württemberg, Rheinland-Pfalz, Nordrhein-Westfalen, Hessen und Brandenburg liegen schon Erlasse vor, die den Bau von Windparks im Wald trotz regionaler Widerstände erlauben“, sagt der Alleinvorstand der Deutschen Wildtier Stiftung.
Die Emnid-Umfrage hat außerdem herausgefunden, dass es den Befragten beim Thema Windenergie im Wald nicht um ihre persönlichen Befindlichkeiten, sondern um ein höheres Gut – nämlich den Lebensraum Wald – geht. Auf die Frage: „Würden Sie sich durch Windenergieanlagen im Wald gestört fühlen?“, antworteten 43 Prozent mit „Ja“.
Weitere Informationen:
http://www.DeutscheWildtierStiftung.de
Quelle: idw
Neue Konzepte für Bioraffinerien
Christian Colmer Pressestelle
ttz Bremerhaven
Bundesweites Kooperationsnetzwerk unter der Leitung des ttz Bremerhaven gestartet
Das neue ZIM-Kooperationsnetzwerk Bioraffinerien, kurz BioRaf, vereint Unternehmen, Forschungseinrichtungen, Hochschulen und Verbände auf dem Weg zur vollständigen Verwertung aller Rohstoffkomponenten aus Biomasse für neue Produkte.
Biobasierte Werkstoffe und Chemikalien werden in Deutschland mehr und mehr nachgefragt. Ebenso Energie aus nachwachsenden Rohstoffen sowie biogenen Reststoffen. Und die Prognosen zeigen steil nach oben. Denn die nationalen Klimaschutzziele sind ambitioniert. Das Ziel der Bundesregierung ist, die Treibhausgasemissionen in Deutschland bis 2020 um 40 Prozent zu reduzieren, verglichen mit 1990. 2050 sollen sogar 80 Prozent eingespart werden. Das geht nur, wenn biobasierte Wertstoffströme und die Bioenergie massiv ausgebaut werden, und gleichzeitig der Einsatz fossiler Grundstoffe wie Erdöl und Kohle reduziert wird.
Aber wie ist das zu erreichen? Im Grunde geht es um nichts weniger als die mittelfristige Umstellung unserer verbrauchsorientierten Industriegesellschaft auf eine Produktionsweise, die Ressourcen als Teil von Kreisläufen begreift. Bioraffinerien, die nachwachsende Rohstoffe verarbeiten, sind ein Schlüssel zum Aufbau einer nachhaltigen Industrie. Dazu sind Innovationen, Netzwerke und intensive Partnerschaften nötig. Das neue, bundesweite ZIM-Kooperationsnetzwerk BioRaf, koordiniert vom ttz Bremerhaven, setzt hier an und richtet sich speziell an kleine und mittelständische Unternehmen.
Der Plan ist, Konzepte und Geschäftsfelder für Bioraffinerien sowie innovative Produkte und Verfahren gemeinsam mit den Unternehmen im Netzwerk zu erarbeiten. Außerdem sollen Synergieeffekte herausgestellt werden, um alle Potentiale im Bereich Bioraffinerie zu erschließen. Ferner möchte das Netzwerk regionalen Wertschöpfungsketten und dezentrale Strukturen mit geringen Investitionskosten anregen, damit kleine und mittelständische Unternehmen stärker von den Entwicklungen profitieren.
Praxisgerechte Entwicklungsansätze aus dem Netzwerk
Aus den bereits identifizierten Potenzialen von Bioraffinerien wurden verschiedene erste Ansätze für Entwicklungen definiert. So soll eine Erweiterung der verwendbaren Biomasse in Bioraffinerien geprüft werden – der Fokus liegt hier auf bislang unzureichend genutzten biogenen Reststoffen und sogenannten Koppelprodukten. Zudem soll die Effizienz von Bioraffinerien erhöht und die Produktqualität gesteigert werden.
Optimierte Lebenszyklen
Das BioRaf-Netzwerk umfasst dabei die gesamte Wertschöpfungskette von Biomasse für, in und aus Bioraffinerien. Von der Bereitstellung über die Aufbereitung (Primärraffination) und Veredlung (Sekundärraffination) bis zur anschließenden Nutzung der Produkte werden die Lebenszyklen von Stoffen betrachtet. Eine möglichst umfangreiche stoffliche Nutzung sowie intelligente energetische Nutzung soll helfen, die Wirtschaftlichkeit der Bioraffinerie-Konzepte zu optimieren.
Starke Partner
Die Gründungsmitglieder sind die Unternehmen abc GmbH, aevotis GmbH, ANiMOX GmbH, BAUTEC GmbH & Co. KG, FLEXBIO Technologie UG, FTF AG, Renergie Systeme GmbH & CO. KG sowie die Weber Entec GmbH & Co. KG. Unterstützt werden diese von folgenden Institutionen: bvse e.V., DBFZ, Fraunhofer CBP, Fraunhofer WKI, HAWK Göttingen (Fachgebiet NEUTec), LLFG sowie der TU Hamburg-Harburg (IUE) als assoziierte Netzwerkpartner (siehe Abbildung 1). Netzwerkkoordinator ist das ttz Bremerhaven.
Weitere Unternehmen willkommen
Das Netzwerk ist offen für weitere Unternehmen aus der Biomassebranche. Insbesondere Maschinen- und Anlagenbauer, Biomasseaufbereiter und -veredeler sind aufgerufen, mit dem Netzwerk in Kontakt zu treten. Das erste Netzwerktreffen wurde bereits im Juli 2015 in Bremerhaven erfolgreich durchgeführt.
Interessenten erhalten Informationen bei Oliver Hahn, Projektleiter am ttz Bremerhaven, unter Telefon: +49 471 80934 – 151, oder E-Mail: ohahn@ttz-bremerhaven.de.
Mit Hilfe einer Förderung im Zentralen Innovationsprogramm Mittelstand des Bundesministeriums für Wirtschaft und Energie erhalten die am Netzwerk teilnehmenden Unternehmen zunächst für ein Jahr Unterstützung von einer Netzwerkmanagementeinrichtung, hier vom ttz Bremerhaven. Dabei erhalten die Netzwerkpartner Hilfe bei der Ideenfindung, der Projektskizzierung, der Beantragung von Fördermitteln zur Forschung und Entwicklung sowie im Bereich der Öffentlichkeitsarbeit. Die Förderung des Netzwerks wurde im Mai 2015 vom Bundesministerium für Wirtschaft und Energie bewilligt.
Das ttz Bremerhaven ist ein unabhängiges Forschungsinstitut und betreibt anwendungsbezogene Forschung und Entwicklung. Unter dem Dach des ttz Bremerhaven arbeitet ein internationales Experten-Team in den Bereichen Lebensmittel, Umwelt und Gesundheit. Seit mehr als 25 Jahren begleitet es Unternehmen jeder Größenordnung bei der Planung und Durchführung von Innovationsvorhaben und der Akquisition entsprechender Fördermittel auf nationaler und europäischer Ebene.
Weitere Informationen:
http://www.ttz-bremerhaven.de
Quelle: idw
Vulkanausbrüche bremsen Klimawandel
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Lund/Hampton/De Bilt/Karlsruhe/Mainz/Leipzig. Obwohl die Konzentrationen an Treibhausgasen in der Atmosphäre kontinuierlich ansteigen, ist die globale mittlere Bodentemperatur seit der Jahrtausendwende weit weniger stark angestiegen als erwartet. Eine Erklärung für diese bisher noch nicht völlig verstandene sogenannte „Pause in der Klimaerwärmung“ liefert jetzt ein internationales Team: Die Sonneneinstrahlung ist in den unteren Schichten der Stratosphäre zwischen 2008 und 2011 durch mehrere Vulkanausbrüche doppelt so stark abgeschwächt worden als bisher angenommen.
Für diesen Bereich der Atmosphäre lagen lange kaum Daten vor; jetzt aber lieferte das auf einen Lufthansa-Airbus gestützte IAGOS-CARIBIC-Projekt zusammen mit Beobachtungen des CALIPSO-Satelliten entscheidende Hinweise. Der kühlende Effekt von Vulkanen sei in den Modellen, auf denen der Bericht des Weltklimarats IPCC beruht, deutlich unterschätzt worden, so die Studie im Fachjournal Nature Communications. Unter Federführung der Universität Lund in Schweden waren daran aus Deutschland das Max-Planck-Institut für Chemie in Mainz (MPI-C), das Leibniz-Institut für Troposphärenforschung in Leipzig (TROPOS) und das Karlsruher Institute für Technologie (KIT) beteiligt. Da Vulkanausbrüche bisher nicht vorherzusagen sind, bleibt offen, ob dieser kühlende Effekt in den nächsten Jahren anhalten oder aufhören wird. Langfristig wird die Erwärmung durch die Treibhausgase den kühlenden Effekt durch die Vulkan-ausbrüche aber überwiegen, da die Treibhausgaskonzentrationen immer noch ansteigen.
Im ersten Jahrzehnt des 21. Jahrhunderts ist die Durchschnittstemperatur über den Kontinenten in den mittleren Breiten der Nordhemisphäre nicht angestiegen. Dieser Effekt wurde intensiv in der Wissenschaft diskutiert und kann jetzt erklärt werden durch eine neue Studie, die zeigt, dass der kühlende Effekt von vulkanischen Aerosolpartikeln in den letzten Jahren besonders stark ausgeprägt war. Die Studie beruht auf Daten aus der Tropopause, einem Bereich der Atmosphäre zwischen 8 Kilometern (an den Polen) und 17 Kilometern Höhe (am Äquator), der eine Übergangszone zwischen der feuchten Wetterschicht mit ihren Wolken darunter (der Troposphäre) und der trockenen, wolkenfreien Schicht darüber (der Stratosphäre) bildet. Möglich wurde dies, weil das Team zwei Methoden kombinieren konnte: Probenahme und Vor-Ort-Messungen aus dieser Luftschicht durch IAGOS-CARIBIC sowie verbesserte Beobachtungen aus dem All durch den CALIPSO-Satelliten.
Das CARIBIC-Projekt (www.caribic-atmospheric.de) sammelt seit 1997 Daten zu Spurengasen und Aerosolpartikeln. Mit Hilfe eines Messcontainers, der in einen dazu umgebauten Airbus A340-600 der Deutschen Lufthansa verladen wird, werden vier Interkontinentalflüge pro Monat absolviert. Insgesamt werden so über 100 Spurengas- und Aerosolparameter gemessen, teils direkt in 9 bis 12 Kilometern Höhe, teils werden gewonnen Proben in verschiedenen Speziallabors nach dem Flug ausgewertet. CARIBIC bildet somit einen entscheidenden Eckpfeiler im weltweiten atmosphärischen Überwachungsnetz, mit dem ein besseres Verständnis der atmosphärischen Prozesse und des Klimawandels erreicht werden soll. TROPOS betreut dabei die Vor-Ort-Aerosol-messungen. Die Partikelproben werden von der Universität Lund aus Schweden im dortigen Ionenstrahlbeschleuniger analysiert, um die Konzentration von partikelgebunden Schwefel zu bestimmen. Setzt man diese Konzentration ins Verhältnis zur im Flug gemessenen Ozon-Spurengaskonzentration, ist dieses normalerweise relativ konstant. Bei Vulkanausbrüchen gelangt jedoch mehr Schwefel in die Atmosphäre, das Verhältnis verschiebt sich und zeigt so an, wie stark vulkanische Eruptionen die Tropopausenregion beeinflussen. „Das Verhältnis zwischen partikelgebundenen Schwefel und Ozon aus den CARIBIC-Messungen belegt deutlich den starken Einfluss von Vulkanen auf diese Luftschichten“, berichten Dr. Sandra M. Andersson und Prof. Bengt G. Martinsson von der Universität Lund, die die Studie geleitet haben.
Die zweite Messmethode basiert auf Satellitenbeobachtungen. Die CALIPSO-Mission, eine Zusammenarbeit zwischen der National Aeronautics and Space Administration (NASA) der USA und dem Centre National d’Etude Spatiale (CNES) in Frankreich hat beispiellose Einblicke auf Aerosole und Wolken in der Atmosphäre ermöglicht. Bis vor kurzen wurden nur Daten oberhalb von 15 Kilometern genutzt, wo vulkanische Partikel aus großen Eruptionen bekanntermaßen unser Klima über mehrere Monate beeinflussen können. Die vergessene Region in der Stratosphäre – auch „unterste Stratosphäre“ genannt – wurde nun vollständig mit einbezogen, um auch die Auswirkungen kleinerer Vulkanausbrüche berücksichtigen zu können. „Dr. Sandra M. Andersson, bis Ende 2014 Doktorandin von Prof. B. G. Martinsson, hat großartige Arbeit geleistet, um die CALIPSO-Daten bei der Suche nach den fehlenden Vulkanaerosolschichten zu nutzen“, betont Dr. Jean-Paul Vernier vom NASA Langley Research Center.
Nachdem es zwischen 1999 und 2002 keine größeren Vulkanausbrüche in der Nordhemisphäre gab, konnten zwischen 2005 und 2012 deutlich mehr Partikel beobachtet werden. Besonders drei Eruptionen stachen dabei heraus: Der Kasatochi im August 2008 auf den Aleuten in Alaska (USA), der Sarytschew im Juni 2009 auf den Kurilen vor Kamtschatka (Russland) und der Nabro im Juni 2011 in Eritrea am Roten Meer. Alle drei schleuderten Schätzungen zufolge jeweils weit über eine Megatonne Schwefeldioxid (SO2) in die Atmosphäre. „Praktisch alle Vulkaneruptionen, die die Stratosphäre erreichen, führen zu mehr Partikeln in dieser Schicht, da sie Schwefeldioxid mitbringen, aus dem sich Sulfatpartikel bilden“, erläutert Dr. Markus Hermann vom TROPOS, der die Vor-Ort-Partikelmessungen im CARIBIC-Projekt betreut.
Ob ein Vulkanausbruch globale Auswirkungen auf das Klima hat, hängt von einer Reihe von Faktoren ab. Dazu gehört die ausgestoßene Menge an Schwefeldioxid sowie die maximale Höhe, die die Eruption erreicht. Aber auch der Breitengrad der Eruption spielt eine wichtige Rolle: Da die Strömungen in der oberen Atmosphäre auf der Nordhalbkugel weitgehend getrennt von denen auf der Südhalbkugel ablaufen, können nur Vulkane in Nähe des Äquators ihr Material effektiv über beide Hemisphären verteilen. Im April 2015 wurde an den Ausbruch des Tambora auf der indonesischen Insel Sumbawa (auf 8° südlicher Breite) vor 200 Jahren gedacht, der zu einer so starken globalen Abkühlung führte, dass 1816 das „Jahr ohne Sommer“ genannt wurde und dadurch schwere Missernten und Hungersnöte ausgelöst wurden. Auch der Krakatau 1883 in Indonesien (auf 6° südlicher Breite) oder der Pinatubo 1991 auf den Philippinen (auf 15° nördlicher Breite) sorgten für spürbare Abkühlungen. „Unsere Studie deutet nun darauf hin, dass der kühlende Effekt von Vulkanausbrüchen in der Vergangenheit unterschätzt wurde, da der unterste Teil der Stratosphäre in diesen Berechnungen fehlte“, erklärt Dr. Sandra M. Andersson. „Insgesamt unterstreichen unsere Ergebnisse, dass die untere Stratosphäre viel wichtiger für das Klima der Erde ist, als bislang angenommen wurde“, fassen die beiden CARIBIC-Koordinatoren Dr. Carl Brenninkmeijer vom Max-Planck-Institut für Chemie (MPI-C) in Mainz und Dr. Andreas Zahn vom Karlsruher Institut für Technologie (KIT) zusammen. Das CARIBIC-Observatorium wurde bis Ende 2014 vom MPI-C koordiniert und betrieben, seit 2015 durch das KIT.
In den letzten Jahren ist viel über Unterschiede zwischen den modellierten und den tatsächlich beobachteten Erwärmungsraten diskutiert und über die Ursachen dieser Diskrepanzen spekuliert worden – von systematischen Fehlern bei der Abhängigkeit des Klimas vom Anstieg der Treibhausgase bis zu Problemen, die natürlichen Schwankungen des Klimas hinreichend in den Modellen abzubilden. Neuere Untersuchungen konnten jedoch zeigen, dass verschiedene Faktoren wie veränderten Meeresströmungen, Schwankungen in der Sonnenaktivität und Aerosole aus Vulkanen zu diesen Abweichungen beitragen, weil sie in den Klimamodellen nicht hinreichend berücksichtigt sind. 2011 hatten Susan Solomon und Kollegen in SCIENCE den Effekt des vulkanischen Aerosols in der Stratosphäre oberhalb von 15 Kilometern Höhe noch auf -0,1 Watt pro Quadratmeter geschätzt. Die jetzt veröffentlichte Studie belegt jedoch, dass dieser globale Strahlungsantrieb sich zwischen 2008 und 2011 um mehr als 30 Prozent erhöht hat, wenn auch die untere Stratosphäre unter 15 Kilometern Höhe mit berücksichtigt wird. In den mittleren Breiten der Nordhemisphäre ist die Effekt sogar noch größer.
Tilo Arnhold (TROPOS)
Publikation:
Sandra M. Andersson, Bengt G. Martinsson, Jean-Paul Vernier, Johan Friberg, Carl A. M. Brenninkmeijer, Markus Hermann, Peter F. J. van Velthoven & Andreas Zahn (2015): Significant radiative impact of volcanic aerosol in the lowermost stratosphere. Nature Communications, doi: 10.1038/ncomms8692.
http://www.nature.com/ncomms/index.html
Die Untersuchungen wurden gefördert vom Bundesministerium für Bildung und Forschung (BMBF; Messbetrieb von IAGOS-D) und der Deutschen Forschungsgemeinschaft (DFG; Schwerpunktprogramm HALO/SPP 1294). Die Deutsche Lufthansa AG (CARIBIC-Observatorium) und das NASA Langley Research Center (CALIPSO-Aerosolmessungen) leisteten technische Unterstützung.
Weitere Infos:
Dr. Markus Hermann
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49-341-2717-7071
http://www.tropos.de/institut/ueber-uns/mitarbeitende/markus-hermann/
und
Sandra M. Anderson, PhD/ Prof. Bengt G. Martinsson
Lund University (Schweden)
Tel. +46-462227733, +46-462227989
http://www.staff.lu.se/lucat/user/dfbe909468947ecffd067bd2d85df838
und
Dr. Andreas Zahn
Institut für Meteorologie und Klimaforschung (IMK) am Karlsruher Institut für Technologie (KIT)
Tel. +49-721-608- 22788
http://www.imk-asf.kit.edu/mitarbeiter_51.php
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7189
http://www.tropos.de/aktuelles/pressemitteilungen/
Links:
IAGOS-CARIBIC
Aerosolpartikelmessungen mittels Passagierflugzeugen – das IAGOS-CARIBIC Projekt
http://www.tropos.de/forschung/atmosphaerische-aerosole/langzeit-prozess-und-tre…
http://www.iagos.org/
Particulate Carbon and Sulfur in the Lowermost Stratosphere
http://www.cast.lu.se/presentations/CAST_aerosol_seminar_2011-09-15_presentation…
Lufthansa Airbus A340-300 „D-AIKO“ sammelt Daten von atmosphärischen Spurenstoffen in Reiseflughöhe
http://www.lufthansagroup.com/de/themen/klimaforschung.html
http://www.fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2015/15-05-07iagos….
Video:
http://www.lufthansagroup.com/de/verantwortung/klima-und-umweltverantwortung/for…
aktuelle Karte der IAGOS-Flüge:
http://www.iagos.fr/web/images/map/map_iagos.png
CALIPSO (Cloud-Aerosol Lidar and Infrared Pathfinder Satellite Observations)
http://de.wikipedia.org/wiki/CALIPSO
http://www-calipso.larc.nasa.gov/
Validierung von Satelliten-Lidarmessungen
http://www.tropos.de/forschung/atmosphaerische-aerosole/langzeit-prozess-und-tre…
Polarstern bestand Wettrennen mit Erdbeobachtungssatelliten des A-Train (Pressemitteilung vom 14.04.2014)
http://www.tropos.de/aktuelles/pressemitteilungen/details/polarstern-bestand-wet…
Auswirkungen von Aerosolpartikeln auf das Klima:
… und jetzt zum Klima von morgen (MaxPlanckForschung Heft 1/2015)
http://www.mpg.de/9221340/W005_Umwelt_Klima_068-075.pdf
Globale Verdunkelung
http://de.wikipedia.org/wiki/Globale_Verdunkelung
„Jahr ohne Sommer“
http://de.wikipedia.org/wiki/Jahr_ohne_Sommer
Aerosols: Tiny Particles, Big Impact
http://earthobservatory.nasa.gov/Features/Aerosols/
Wichtige wissenschaftliche Publikationen zum Thema:
Karl, T. et al. Science (2015).
http://dx.doi.org/10.1126/science.aaa5632
http://www.nature.com/news/climate-change-hiatus-disappears-with-new-data-1.1770…
Schmidt, G., Shindell, D. T. & Tsigaridis, K. Nature Geosci. 7, 158-160 (2014).
http://dx.doi.org/10.1038/ngeo2105
Santer, B. D. et al. Nature Geosci. 7, 185-189 (2014).
http://dx.doi.org/10.1038/ngeo2098
Solomon, S. et al. Science 333 (6044), 866-870. (2011).
http://dx.doi.org/10.1126/science.1206027
Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz- Gemeinschaft, die 89 selbständige Forschungseinrichtungen verbindet. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen, u.a. in Form der WissenschaftsCampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro. http://www.leibniz-gemeinschaft.de
Weitere Informationen:
http://www.tropos.de/aktuelles/pressemitteilungen/
Quelle: idw
Demografischer Wandel als Schrittmacher für technologische Entwicklung
Frauke Nippel Geschäftsstelle Vorstand
Technologiestiftung Berlin
Studie zur altersgerechten Mobilität in Berlin vorgestellt
Technische Lösungen beispielsweise aus der Robotik sowie die weitere Vernetzung der Verkehrsträger können die Barrierefreiheit der Verkehrsmittel in Berlin fördern und dazu beitragen, dass die Stadt noch attraktiver für die wachsende Zahl der über 65jährigen wird. Ebenfalls wichtig ist es, die vorhandenen Geodatenbank um seniorenrelevante Informationen zu ergänzen. Dies zeigt die Studie „Demografie und Mobilität. Wie Technik unterstützen kann“, die Nicolas Zimmer, Vorstandsvorsitzender der Technologiestiftung Berlin, gemeinsam mit Rico Gast, Stabsabteilungsleiter Geschäftsentwicklung bei den Berliner Verkehrsbetrieben (BVG), heute vorstellte.
Nicolas Zimmer: „Die Stadt sollte den demografischen Wandel als Chance verstehen und Berlin zum Living Lab für die älter werdende Gesellschaft machen. Neben der Verfügbarkeit von Daten ist die Entwicklung von Anwendungen wichtig, die von Menschen unterschiedlichen Alters intuitiv genutzt werden können. Die Digitalisierung macht Berlin auch für Seniorinnen und Senioren to the place to be.“
Dr. Sigrid Evelyn Nikutta: „Die barrierefreie Gestaltung von Mobilität für Menschen mit Behinderung und für Menschen, die in ihren Bewegungsmöglichkeiten eingeschränkt sind, hat für die BVG eine hohe Bedeutung. Aus diesem Grund sind wir besonders stolz darauf, dass bereits insgesamt 109 U-Bahnhöfe barrierefrei zu erreichen sind und ein komfortabler und barrierefreier Einstieg in insgesamt rund 1600 Fahrzeugen möglich ist. Selbstverständlich ist die Barrierefreiheit auch weiterhin wichtiges Kriterium bei allen Neu- und Umbauten von Verkehrsanlagen und Neubeschaffungen von Fahrzeugen.“
Bis 2030 wird fast jeder Vierte in Berlin über 65 Jahre alt sein, die Zahl der über 80jährigen um rund 80 Prozent steigen. Dies hat Auswirkungen auf die Verkehrsströme. Ältere Menschen bewegen sich zu anderen Zeiten, auf anderen Strecken und mit anderen Verkehrsmitteln durch die Stadt als beispielsweise die Gruppe der Berufstätigen. Sie stellen andere Anforderungen an Sicherheit und Komfort von öffentlichen Verkehrsmitteln und fragen Assistenzsysteme wie Einparkhilfen für das Auto und Elektromotoren am Fahrrad nach.
In Zukunftsszenarien spielt die Technologiestiftung durch, welche Schlüsselfaktoren die weitere Entwicklung im Verkehrsbereich beeinflussen werden und leitet daraus Handlungsempfehlungen ab. Berlin ist mit einem dichten Verkehrsnetz ausgestattet und schon heute mit seinem Echtzeitverkehrsinformationssystem und seinem vielfältigen Dienstleistungsangebot zum Beispiel zum Carsharing im Verkehrsbereich besonders innovativ. Es hat die Chance, für die wachsende Gruppe der über 65jährigen noch attraktiver zu werden, wenn es die vorhandenen Stärken gezielt weiter ausbaut. Der Markt für altersgerechte, mobilitätsunterstützende Produkte befindet sich gerade im Entstehen. Hier frühzeitig die Innovationsführerschaft zu übernehmen, kann zu einem bedeutenden regionalen Wirtschaftsfaktor werden.
Die Studie „Demografie und Mobilität in Berlin 2030. Wie Technik unterstützen
kann“ wurde aus Mitteln des Landes Berlin und der Investitionsbank Berlin
gefördert, kofinanziert von der Europäischen Union- Europäischer Fonds für
Regionale Entwicklung. Investition in Ihre Zukunft“.
Weitere Informationen:
https://www.technologiestiftung-berlin.de/fileadmin/daten/media/publikationen/Re…
Quelle: idw
Klimawandel: Immer mehr Rekord-Regenfälle
Mareike Schodder Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Weltweit haben extreme Regenfälle in den vergangenen dreißig Jahren zu immer neuen Rekorden geführt. Bis 1980 lassen sich Schwankungen in der Häufigkeit von Starkregen mit natürlichen Faktoren erklären, für die jüngste Zeit aber haben Wissenschaftler vom Potsdam-Institut für Klimafolgenforschung einen klaren Aufwärtstrend solcher zuvor nie dagewesenen Regenfälle entdeckt. Diese Zunahme passt zum Anstieg der globalen Mitteltemperatur, die verursacht wird von Treibhausgasen aus dem Verbrennen von Kohle und Öl. Sturzbachartige Regenfälle können zu folgeschweren Überschwemmungen führen.
Extreme Regenfälle in Pakistan 2010 haben verheerende Fluten verursacht, die zum Tode hunderter Menschen führten und Cholera auslösten. Andere Beispiele von Rekord-Regenfällen im untersuchten Zeitraum sind die in Texas 2010, die zu Dutzenden Blitzfluten führten. Und seit 1997 haben sich in Deutschland nicht weniger als drei so genannte Jahrhundertfluten ereignet also innerhalb von nur wenigen Jahren. In allen diesen Regionen hat die Regenmenge, die an einem Tag zu Boden stürzte, örtliche Rekorde gebrochen, erklärt Leit-Autor Jascha Lehmann. Jedes dieser einzelnen Ereignisse hat eine ganze Reihe von verschiedenen Auslösern, aber insgesamt sehen wir bei diesen am jeweiligen Ort so nie dagewesenen Unwettern einen klaren Trend: sie nehmen zu.
Zunahme um durchschnittlich 12 Prozent, aber um 56 Prozent in Südost-Asien
Eine statistische Analyse von Regendaten aus den Jahren 1901-2010, gewonnen aus Tausenden von Wetterstationen weltweit, zeigt für den Zeitraum seit 1980 einen Anstieg solcher Rekord-Regen-Ereignisse um 12 Prozent verglichen mit einem Szenario ohne Klimawandel. Weil der Trend nach oben weist, beträgt die Zunahme von Rekord-Regenfällen im letzten der untersuchten Jahre sogar 26 Prozent, so Lehmann.
Diese Rekorde brechende Abnormität ist auf den verschiedenen Kontinenten der Erde unterschiedlich ausgeprägt; feuchte Regionen erleben eine stärkere Zunahme, trockene eine weniger starke. In den Ländern Südost-Asiens wurde eine Zunahme von Rekord-Regenfällen um volle 56 Prozent verzeichnet, in Europa um 31 Prozent. Andere Regionen hingegen beobachten eine Abnahme von Rekord-Regen. Im Mittelmeer-Raum beträgt diese Abnahme 27 Prozent, im Westen der USA 21 Prozent. Beide Regionen sind von Trockenheit bedroht.
Die Verbindung zum Klimawandel: Warme Luft kann mehr Wasser aufnehmen
Eine statistische Analyse kann keine direkte physikalische Ursache-Wirkung-Beziehung liefern. Deshalb haben die Wissenschaftler ihre Ergebnisse mit dem bereits vorhandenen Wissen verglichen, wieviel mehr an Wasser eine wärmere Atmosphäre speichern kann; erfasst wird dies mit der Clausius-Clapeyron-Gleichung. Das Mehr an Feuchtigkeit in der Luft kann bei kurzfristigen Regenfällen freigesetzt werden. Die Forscher zeigen, dass die beobachtete Zunahme von nie dagewesenem Starkregen tatsächlich zu dem passt, was man durch den Einfluss der globalen Erwärmung rein thermodynamisch erwarten würde.
Das bedeutet: Einer von zehn Rekord-Regen in den vergangenen dreißig Jahren ist nur durch den Einfluss der langfristigen Klima-Erwärmung zu erklären, sagt Ko-Autor Dim Coumou. Und im letzten untersuchten Jahr, 2010, ist es sogar einer von vier Rekord-Regenfällen.
Bislang konnten Studien nur mit mittlerer Sicherheit sagen, wie der vom Menschen verursachte Ausstoß von Treibhausgasen örtliche wie auch weltweit gemittelte Regenfälle beeinflusst hat. Die nun vorliegende Studie hilft, diese Forschungslücke zu schließen. Erstmals blickt sie, aufbauend auf früheren Studien zu Starkregen, auf weltweite Beobachtungsdaten von kurzfristigen Rekord-Regenfällen.
Dieser Trend ist beunruhigend
Die Wissenschaftler haben berücksichtigt, dass die Qualität historischer Wetterdaten regional sehr unterschiedlich sein kann. Zum Beispiel sind Regenmessungen aus der Sahara nur spärlich vorhanden. Für die betreffende Region können daher keine Rückschlüsse gezogen werden. Andere Regionen wie Europa und die USA bieten hingegen über mehr als ein Jahrhundert hinweg sehr gute Messdaten, was es den Forschern erlaubt, für diese Regionen aussagekräftige Schlüsse zu ziehen.
Der ausgeprägte Trend zu vermehrten Rekord-Regenfällen ist natürlich beunruhigend, so Coumou. Aber weil dieser Trend übereinstimmend ist mit der vom Menschen verursachten globalen Erwärmung, kann er auch vom Menschen wieder gedreht werden – nämlich wenn sie den Ausstoß von Treibhausgasen aus fossilen Brennstoffen rasch und stark reduzieren.
Artikel:
Lehmann, J., Coumou, D., Frieler, K. (2015): Increased record-breaking precipitation events under global warming. Climatic Change [DOI: 10.1007/s10584-015-1434-y]
Weblink zum Artikel:
http://dx.doi.org/10.1007/s10584-015-1434-y
Quelle: idw
Neue Quelle von Treibhausgasen entdeckt
Dr. Susanne Benner Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie
Flechten, Moose und Cyanobakterien produzieren große Mengen an Lachgas
Unscheinbare Lebewesen überraschen mit einer für das Klima wichtigen Eigenschaft: Flechten, Moose und Cyanobakterien geben große Mengen des Treibhausgases Lachgas (N2O) und geringe Mengen Methan (CH4) an die Atmosphäre ab. Wie neueste Untersuchungen ergaben, sind kryptogame Schichten, wie der flächige Bewuchs aus Flechten, Moosen, Cyanobakterien und weiteren Mikroorganismen wissenschaftlich genannt wird, für vier bis neun Prozent des aus natürlichen Quellen stammenden N2O verantwortlich. Dies fanden Wissenschaftler der Universitäten Gießen und Heidelberg und des Max-Planck-Instituts für Chemie in umfangreichen Laboruntersuchungen heraus. Da mit steigender Temperatur die Menge des emittierten Lachgases anstieg, gewinnt die Entdeckung der Gruppe mit Blick auf die globale Erwärmung an Bedeutung.
„Wir wollten zwei Dinge herausfinden: Erstens, ob kryptogame Schichten überhaupt N2O und CH4 abgeben. Und zweitens, wie sich die klimatischen Bedingungen auf die Emissionswerte auswirken“, erläutert Katharina Lenhart, Vertretungsprofessorin am Institut für Pflanzenökologie der Justus-Liebig-Universität Gießen, die Ziele der Studie. Dazu untersuchten die Wissenschaftler 68 Proben unterschiedlicher Flechten und Moose aus verschiedenen Klimaregionen. Sie erfassten die Treibhausgasemissionen der Organismen bei verschiedenen Temperaturen, Wassergehalten, Lichtbedingungen und Stickstoffdüngegaben, um so die Auswirkung der Umweltbedingungen auf die Freisetzung der Klimagase zu ermitteln.
„Die Methanemissionen von kryptogamen Schichten sind gemessen am globalen Rahmen zwar zu vernachlässigen. Bemerkenswert sind jedoch die hohen Freisetzungsraten für Lachgas“, so Bettina Weber, Gruppenleiterin am Max-Planck-Institut für Chemie. „Generell konnten wir zeigen, dass die N2O und CH4 Emissionen ab einer Temperatur von 20 Grad Celsius stark zunehmen“, ergänzt sie. Deshalb vermuten die Wissenschaftler, dass die von Flechten, Cyanobakterien und Moosen stammenden Methan- und Lachgasemissionen im Zuge der globalen Erwärmung ansteigen könnten. Dies könnte vor allem in Wäldern der gemäßigten Breiten von größerer Bedeutung sein, wo kryptogame Schichten eine der Hauptquellen für Lachgasemissionen darstellen. In manchen Tundren, Steppen und Wüstenregionen sind sie vermutlich sogar die ausschließliche Quelle.
In einem nächsten Schritt werden die Wissenschaftler ihre im Labor gefundenen Ergebnisse in Feldstudien überprüfen und weitere Organismen in die Untersuchungen einschließen.
Auf die Idee zu der jetzigen Studie kamen die Forscher am Max-Planck-Institut, da sie einige Jahre zuvor herausgefunden hatten, dass kryptogame Schichten große Mengen Kohlendioxid und Stickstoff aus der Atmosphäre aufnehmen. Flechten, Moose und Cyanobakterien binden in etwa so viel Kohlendioxid wie bei der Verbrennung von Biomasse oder fossilen Brennstoffen jährlich freigesetzt werden. Dass Pflanzen und Pilze Methan produzieren können, hatte das Team um Frank Keppler vom Institut für Geowissenschaften der Universität Heidelberg entdeckt. Zuvor hatte man angenommen, dass biogenes Methan ausschließlich unter Sauerstoffausschluss bei der Zersetzung organischen Materials entsteht.
Originalveröffentlichung:
Katharina Lenhart, Bettina Weber, Wolfgang Elbert, Jörg Steinkamp, Tim Clough, Paul Crutzen, Ulrich Pöschl and Frank Keppler
Nitrous oxide and methane emissions from cryptogamic covers
Global Change Biology (2015), doi: 10.1111/gcb.12995
Kontakt:
PD Dr. Bettina Weber
Max-Planck-Institut für Chemie
Abteilung Multiphasenchemie
55128 Mainz
E-Mail: b.weber@mpic.de
Dr. Katharina Lenhart
Vertretungsprofessorin für Geoökologie und Modellbildung
Justus-Liebig Universität Gießen
Interdisziplinäres Forschungszentrum (IFZ)
Institut für Pflanzenökologie
35392 Gießen
E-Mail: Katharina.Lenhart@bot2.bio.uni-giessen.de
Prof. Dr. Frank Keppler
Forschungsgruppe Biogeochemie
Institut für Geowissenschaften
Universität Heidelberg
Im Neuenheimer Feld 234-236
D-69120 Heidelberg
Email: frank.keppler@geow.uni-heidelberg.de
Quelle: idw
Auch ohne Beschwerden – Mehrzahl der Raucher ist lungenkrank
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Große US-amerikanische Studie mit Heidelberger Beteiligung zur Lungengesundheit bei Rauchern zeigt: Trotz unauffälliger Lungenfunktion häufig schon deutliche Schäden mit Computertomographie erkennbar / Ergebnisse im Fachmagazin JAMA Internal Medicine erschienen
Deutlich mehr Raucher als bisher angenommen – rund 80 anstatt der mit gängigen Diagnosetests ermittelten ca. 50 Prozent – entwickeln eine sogenannte chronisch obstruktive Lungenerkrankung (COPD), die mit fortschreitenden Lungenschäden einhergeht. Das ist das Ergebnis einer Studie der führenden US-amerikanischen Lungenfachklinik National Jewish Health mit mehr als 8.800 Rauchern, an der auch ein Radiologe des Universitätsklinikums Heidelberg beteiligt war. Professor Dr. Hans-Ulrich Kauczor, Ärztlicher Direktor der Klinik für Diagnostische und Interventionelle Radiologie, wertete computertomographische Aufnahmen der Studienteilnehmer aus. Selbst bei Rauchern, deren Lungenfunktionstest unauffällig ausfiel und die daher als gesund eingestuft wurden, fand der Experte Gewebeschäden: „Das Ergebnis zeigt ganz klar: Die Mehrheit der Raucher ist chronisch lungenkrank – auch wenn viele von ihnen nichts bemerken und davon ausgehen, dass es sie nicht betrifft. Aber ohne Behandlung schreitet die COPD unaufhaltsam weiter fort.“
Professor Kauczor hat sich auf die Weiterentwicklung der Lungenbildgebung spezialisiert und leitet die „Imaging-Plattform“ am Deutschen Zentrum für Lungenforschung. Die Studie ist nun im renommierten Fachjournal JAMA Internal Medicine erschienen.
An einer COPD leiden in Deutschland rund acht Millionen Menschen, jedes Jahr sterben über 100.000 an den Folgen des schleichenden Lungenversagens. „Die COPD ist eine – jedenfalls hierzulande – größtenteils vermeidbare Erkrankung“, betont der Lungenexperte Professor Dr. Felix Herth, Chefarzt der Abteilung Pneumologie und Beatmungsmedizin der Thoraxklinik am Universitätsklinikum Heidelberg. „Rund 90 Prozent der Betroffenen sind oder waren Raucher.“ Häufig leidet die Lunge lange unbemerkt, Symptome wie Kurzatmigkeit oder morgendlicher Husten werden oftmals nicht ernst genommen. Hat sich das Lungengewebe aber erst einmal krankhaft verändert, kann dies nicht mehr rückgängig gemacht werden. Je früher die Therapie einsetzt, desto besser können weitere Schäden hinausgezögert werden. Eine Heilung ist nicht möglich.
Folgen langjährigen Rauchens auf die Lunge bisher unterschätzt
Zur Diagnose einer COPD wird in der Regel ein Lungenfunktionstest, die Spirometrie, herangezogen. Dabei wird u.a. gemessen, wie viel Luft die Patienten einatmen und in einer Sekunde ausatmen können. Dass damit die Folgen langjährigen Rauchens auf die Lunge bisher gravierend unterschätzt wurden, hat die Studie des National Jewish Health nun eindrucksvoll belegt.
Die Wissenschaftler um Professor Dr. James Crapo und Dr. Elisabeth Regan vom National Jewish Health in Denver untersuchten 8.872 aktive und ehemalige Raucher im Alter zwischen 45 und 80 Jahren. Alle hatten mindestens zehn Jahre lang mindestens eine Packung Zigaretten pro Tag (zehn Packungsjahre), die meisten deutlich mehr geraucht. Bei rund der Hälfte der Teilnehmer fanden sich beim Lungenfunktionstest keine Anzeichen einer COPD. Ihre Lungen wurden als gesund eingestuft.
Zusätzliche Untersuchungen zeichneten allerdings ein anderes Bild: Bei 42 Prozent der zuvor als gesund eingestuften Teilnehmer zeigten CT-Untersuchungen Veränderungen der Atemwege oder aufgeblähte Lungenabschnitte (Emphysem). 23 Prozent litten unter Atemnot, 15 Prozent schafften beim Gehtest weniger als 350 Meter in sechs Minuten. In einem Fragebogen überschritt ein Viertel von ihnen einen Wert, der eine klinisch relevante Einschränkung der Lebensqualität markiert. Insgesamt war bei mehr als der Hälfte (55 Prozent) die Lungengesundheit in irgendeiner Form beeinträchtigt. Die Wissenschaftler gehen davon aus, dass dies frühe Anzeichen einer COPD sind.
Bei ersten Beschwerden Lungengewebe bereits irreversibel geschädigt
Was das für die Lunge bedeutet, erklärt Professor Herth: „Bei Einschränkungen im Lungenfunktionstest gehen wir davon aus, dass bereits ein Viertel des Lungengewebes zerstört ist. Bis dahin ist viel Raum für erhebliche Schäden, die Betroffene nicht bewusst wahrnehmen oder wahrnehmen wollen. Hier gilt es, durch entsprechende Beratung zu sensibilisieren.“ Außerdem sollte bei Rauchern die Therapie der COPD, z.B. in Form von Sprays zum Inhalieren, bei entsprechenden Beschwerden schon früher als bisher einsetzen, auch wenn der Lungenfunktionstest noch keinen Anlass zur Sorge gibt. „Voraussetzung ist allerdings, dass der Patient das Rauchen aufgibt, sonst hat die Behandlung ohnehin keinen Erfolg“, so der Lungenspezialist.
Literatur:
Clinical and Radiologic Disease in Smokers With Normal Spirometry: Elizabeth A. Regan, MD et al.; JAMA Intern Med. Published online June 22, 2015. doi:10.1001/jamainternmed.2015.2735
Kontakt:
Prof. Dr. Hans-Ulrich Kauczor
Ärztlicher Direktor
Klinik Diagnostische und Interventionelle Radiologie
Tel.: 06221 56-6410 (Sekretariat)
E-Mail: hu.kauczor@med.uni-heidelberg.de
Prof. Dr. Felix Herth
Ärztlicher Direktor
Chefarzt Innere Medizin – Pneumologie
Thoraxklinik am Universitätsklinikum Heidelberg
Tel. 06221 396-1200
E-Mail: felix.herth@med.uni-heidelberg.de
Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.600 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg.
Weitere Informationen:
http://www.aerzteblatt.de/nachrichten/63226/Viele-Raucher-haben-unterschwellige-… Artikel im Deutschen Ärzteblatt
http://www.eurekalert.org/pub_releases/2015-06/njh-mos061915.php Abstract
Quelle: idw
Demographischer Wandel verstärkt Unterschiede zwischen Stadt und Land
Maria Droop Pressestelle
Bertelsmann Stiftung
Deutschlands Bevölkerungsstruktur wird sich in den kommenden Jahren spürbar verändern. Das Durchschnittsalter steigt. Der Pflegebedarf nimmt zu. Während die Städte eher wachsen, dünnt der ländliche Raum weiter aus. Die Kommunen stellt das vor ganz unterschiedliche Herausforderungen.
Deutschland wird bis zum Jahr 2030 um mehr als eine halbe Million Einwohner schrumpfen. Das zeigt eine Bevölkerungsprognose aus dem Datenportal „Wegweiser Kommune“ der Bertelsmann Stiftung. Für die Studie wurde die zahlenmäßige Entwicklung der Bevölkerung für Städte und Gemeinden ab 5.000 Einwohner sowie aller Landkreise berechnet. Demnach werden in 15 Jahren trotz zu erwartender hoher Zuwanderung in Deutschland nur noch 79,97 Millionen Menschen leben, 0,7 Prozent weniger als 2012.
Der Bevölkerungsrückgang verteilt sich alles andere als gleichmäßig. Die einzelnen Bundesländer und Regionen nehmen sogar eine teils gegensätzliche Entwicklung. Während Sachsen-Anhalt (- 13,6 Prozent), Thüringen (- 9,9 Prozent) sowie Mecklenburg-Vorpommern und das Saarland (je – 7,9 Prozent) einen beachtlichen Teil ihrer Bevölkerung verlieren, werden andere Länder wachsen. Die Stadtstaaten Berlin (+ 10,3 Prozent), Hamburg (+ 7,5 Prozent) und Bremen (+ 1,0 Prozent) gewinnen ebenso an Einwohnern wie die Flächenländer Bayern (+ 3,5 Prozent), Baden-Württemberg (+ 2,1 Prozent), Hessen (+ 1,8 Prozent) und Schleswig-Holstein (+ 0,4 Prozent).
Städte wachsen, ländlicher Raum verliert
Vor allem für viele Gemeinden im ländlichen Raum dürften die Folgen des Bevölkerungsrückgangs dramatisch werden. In Hoyerswerda (Kreis Bautzen), Bitterfeld-Wolfen (Kreis Anhalt-Bitterfeld), Gräfenhainichen (Kreis Wittenberg) oder Roßleben (Kyffhäuserkreis) wohnen 2030 gut 26 Prozent weniger Menschen als 2012. Unterföhring, Feldkirchen (beide Kreis München), Ilvesheim (Rhein-Neckar-Kreis) und Teltow (Kreis Potsdam-Mittelmark) hingegen erwarten einen Anstieg der Einwohnerzahl um mehr als ein Viertel.
Generell setzt sich der Trend fort: Städtische Regionen wachsen, der ländliche Raum verliert. Brigitte Mohn, Vorstand der Bertelsmann Stiftung: „Es wird für die schrumpfenden und alternden Regionen immer schwieriger, eine gute Infrastruktur zu gewährleisten.“ Die zentrale Herausforderung sei, auch in einwohnerschwachen Regionen flexible Mobilitätsangebote, schnelles Internet und eine angemessene Gesundheitsversorgung in erreichbarer Nähe anzubieten.
Gefahr von Versorgungslücken für alte Menschen
Die zunehmende Alterung der Bevölkerung bedeutet einen erhöhten Pflegebedarf in den Kommunen. 2030 wird die Hälfte der Bundesbürger älter als 48,1 Jahre sein, während das sogenannte Medianalter 2012 noch 45,3 Jahre betrug. In den Stadtstaaten Berlin und Hamburg liegt es 2030 bei etwa 43 Jahren am niedrigsten. Am höchsten ist das Medianalter in Brandenburg und Sachsen-Anhalt (53,0 Jahre) sowie in Mecklenburg-Vorpommern (52,6 Jahre).
Auch dieser Wert verändert sich regional ganz unterschiedlich. Auf der Ebene der Städte und Gemeinden wird die Spanne von 41 bis 63 Jahren (2012: von 37 bis 56 Jahren) reichen. „Jüngste“ Kommunen sind dann München, Unterföhring (Kreis München) und Münster, „älteste“ Kommunen sind 2030 Bad Füssing (Kreis Passau), Guben (Kreis Spree-Neiße) und Grömitz (Kreis Ostholstein).
In den kommenden 15 Jahren steigt die Zahl der Hochbetagten über 80 Jahre bundesweit um 47,2 Prozent auf über 6,3 Millionen. Mit seiner relativ jungen und wachsenden Bevölkerung wird sich Berlin gleichwohl auf einen Anstieg in dieser Altersgruppe um 75,1 Prozent einstellen müssen. Hohe Zuwächse wurden auch für Schleswig-Holstein (+ 68,8 Prozent) und Brandenburg (+ 60,9 Prozent) errechnet. Moderater verläuft die Entwicklung im Saarland (+ 31,8 Prozent) und in Nordrhein-Westfalen (+ 36,1 Prozent).
Nur in vereinzelten Gemeinden werden 2030 weniger über 80-Jährige leben als 2012. So gibt es einen Rückgang von 17 Prozent und mehr in Bad Blankenburg (Kreis Saalfeld-Rudolstadt) und Heringen (Werra) im Kreis Hersfeld-Rotenburg. Die Zuwächse fallen sehr viel drastischer aus: So müssen Kirchheim (Kreis München), Kropp (Kreis Schleswig-Flensburg) und Karlsfeld (Kreis Dachau) mit einem Anstieg von mehr als 180 Prozent bei den Hochbetagten rechnen. „Mit dem Anstieg dieser Altersgruppe vergrößert sich auch der Unterstützungs- und Pflegebedarf in den Kommunen. Es gilt, frühzeitig der Gefahr von Versorgungslücken aufgrund fehlender Pflegekräfte entgegenzuwirken“, sagte Brigitte Mohn.
Zusatzinformationen
Die Auswertungen und Analysen stammen aus dem „Wegweiser Kommune“ der Bertelsmann Stiftung. Unter www.wegweiser-kommune.de werden für alle Kommunen in Deutschland mit mehr als 5.000 Einwohnern Daten, Bevölkerungsvorausberechnungen, Handlungskonzepte und Praxisbeispiele für kommunale Akteure zur Verfügung gestellt. Der „Wegweiser Kommune“ ermöglicht so einen Blick auf die Entwicklung in den Politikfeldern demographischer Wandel, Bildung, Finanzen, Integration und soziale Lage.
Unsere Experten: Carsten Große Starmann, Telefon: 0 52 41 81 81 228
E-Mail: carsten.grosse.starmann@bertelsmann-stiftung.de
Petra Klug, Telefon: 0 52 41 81 81 347
E-Mail: petra.klug@bertelsmann-stiftung.de
Weitere Informationen:
http://www.bertelsmann-stiftung.de
Quelle: idw
Hitze und Starkregen in der Stadt – wie sich Kommunen wappnen können
Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
Neue BBSR-Broschüre gibt Tipps für den Umbau städtischer Infrastruktur gegenüber Witterungs- und Klimarisiken
Eine neue Arbeitshilfe des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) gibt Hinweise, wie sich Städte und Gemeinden besser gegen Extremwetter wie Starkregen mit Überflutungen und Hitze wappnen können. Die Wissenschaftler haben für die Arbeitshilfe zahlreiche Beispiele von Kommunen unterschiedlicher Größe ausgewertet und diese anschaulich aufbereitet. Informationen zu Leitfäden, Gefahrenkarten, Mustersatzungen und Regelwerken liefern weiterführende Hinweise. Schritt für Schritt können Kommunen so gezielt Anpassungsmaßnahmen an Extremwitterungen und die Folgen des Klimawandels umsetzen.
„Schon heute heizen sich die Städte sehr viel stärker auf als das Umland. Dauer und Intensität von Hitzeperioden nehmen zu. Immer häufiger sind Städte und Regionen von Starkregen und Überflutungen betroffen. Unsere Fallstudien zeigen, dass Maßnahmen zur Vorsorge Schäden mindern und Hitzewellen erträglich machen. Gerade in dicht bebauten Stadtquartieren gibt es viele Möglichkeiten, schon mit kleinteiligen Maßnahmen die Hitzebelastung zu reduzieren“, so BBSR-Direktor Harald Herrmann.
Vor allem eine Erhöhung des Anteils an begrünten Oberflächen bindet Wasser und trägt zur Hitzevorsorge bei. Über offene Rasenflächen und Wiesen kann die kühle Luft in die Siedlungsgebiete strömen. Parkanlagen entwickeln bereits ein eigenes kühleres Binnenklima, das in überhitzte Stadträume ausstrahlen kann. Aber auch in dichter bebauten Quartieren verbessert urbanes Grün das Quartiersklima und sorgt für Kühlung – etwa durch die Entsiegelung und Begrünung von Grundstücken und deren Bewässerung.
Neben Maßnahmen gegen Hitze gibt die Broschüre Hinweise für den Umgang mit sommerlichem Starkregen. „Die Zusammenarbeit von Stadtentwicklung und Siedlungswasserwirtschaft für ein ganzheitliches Regenwassermanagement ist wichtig, um die Folgen von Starkregen mit Überflutungen zu mindern“, betont BBSR-Direktor Harald Herrmann. So können speziell angelegte Versickerungsanlagen die Kanalnetze entlasten und Rückhalteflächen das Regenwasser speichern. Speziell gestaltete Plätze, Straßen und Wege werden im Extremfall für den Abfluss des Wassers genutzt.
Die Broschüre zeigt darüber hinaus, wie Kommunen durch gezielte Öffentlichkeitsarbeit und Beratung Haus- und Grundstückseigentümer für Vorsorge gewinnen können. „Es sind vor allem die Kommunen, die ihre Infrastruktur anpassen. Alleine schaffen sie das aber nicht. Gegenüber Witterungs- und Klimarisiken widerstandsfähige Städte erhalten wir nur im Zusammenspiel von öffentlicher und privater Vorsorge. Der bauliche Schutz von Gebäuden vor Hitze und extremen Niederschlägen sollte dabei Maßnahmen der Kommunen ergänzen“, so Herrmann.
Interessierte können die Publikation im BBSR per E-Mail (gabriele.bohm@bbr.bund.de) anfordern. Eine PDF-Version kann unter http://www.bbsr.bund.de abgerufen werden.
Download der Veröffentlichung
http://www.bbsr.bund.de/BBSR/DE/Veroeffentlichungen/Sonderveroeffentlichungen/20…
Kontakt
Christian Schlag
Stab Direktor und Professor
Tel.: +49 228 99401-1484
E-Mail: christian.schlag@bbr.bund.de
Dr. Fabian Dosch
Referat I 6 – Stadt-, Umwelt- und Raumbeobachtung
Tel.: +49 228 99401-2307
E-Mail: fabian.dosch@bbr.bund.de
Folgen Sie dem BBSR auf Twitter: twitter.com/bbsr_bund
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.
Quelle: idw
Seltene Erden als Umweltbelastung: anthropogene Hochtechnologiemetalle in Rheinmuscheln gefunden
Kristina Logemann Brand Management, Marketing & Communications
Jacobs University Bremen gGmbH
Die Ausbreitung kritischer Hochtechnologiemetalle in der Umwelt geht weiter. Eine in der Fachzeitschrift „Science of the Total Environment“ veröffentlichte Studie von Michael Bau, Professor für Geowissenschaften an der Jacobs University in Bremen, und seiner Doktorandin Gila Merschel, zeigt, dass Seltene Erden in die Nahrungskette gelangen können.
Flussabwärts von Worms ist der Rhein mit Lanthan und Samarium verunreinigt. Diese beiden Metalle gehören zur Gruppe der Seltenen Erden und stammen aus der Produktion von Katalysatoren für die Erdölverarbeitung. Bisher war unklar, ob Tiere diese Seltenen Erden aus dem Wasser aufnehmen und in ihrem Körper anreichern können. Michael Bau und Gila Merschel ist es nun gelungen, die Hochtechnologiemetalle erstmals in Muschelschalen nachzuweisen. „Wir haben an neun Stellen am Rhein zwischen Bodensee und niederländischer Grenze die Schalen von Körbchenmuscheln untersucht. Alle Muschelschalen, die wir nördlich von Worms beprobt haben, also flussabwärts von der Stelle, an der anthropogenes Lanthan und Samarium in den Rhein gelangen, weisen anomal hohe Gehalte dieser Metalle auf“, berichtet Michael Bau und ergänzt: „Das bedeutet, dass diese Seltenen Erden bioverfügbar sind und von Tieren und Mikroorganismen in ihren Körper aufgenommen werden können.“ Da über die Wirkung von Seltenen Erden auf den Menschen und insbesondere auf Kinder und Schwangere nur wenig bekannt ist, müssen weitere Studien jetzt klären, ob die Hochtechnologiemetalle auch von Fischen aufgenommen werden, die durch Fischer oder Hobbyangler in den Verzehr gebracht werden. Michael Bau und Gila Merschel betonen aber, dass nur im engeren Bereich der Einleitstelle nördlich von Worms die Lanthan-Konzentration im Rhein so hoch ist, dass dies zum Problem werden könnte.
Ein anderes Selten-Erd-Element, das in nahezu allen deutschen Flüssen als Verunreinigung auftritt, ist Gadolinium. Es stammt aus Kontrastmitteln, die bei der medizinischen Diagnostik in der Magnetresonanztomographie verwendet werden, und gelangt über das gereinigte Abwasser von Klärwerken in Flüsse und Seen. In Muschelschalen aus Rhein und Weser konnten die Jacobs Geochemiker das Kontrastmittel-Gadolinium bisher jedoch nicht nachweisen. Es ist also im Gegensatz zum anthropogenen Lanthan und Samarium nicht bioverfügbar.
Aber nicht nur in Deutschland, sondern nahezu überall auf der Welt breiten sich die Hochtechnologiemetalle in der Umwelt aus. Im Rahmen einer Studie des EU-Projektes CLIM-AMAZON haben Michael Bau und Gila Merschel herausgefunden, dass der Lago Paranoa, ein als Naherholungsgebiet vielbesuchter künstlicher See in der brasilianischen Hauptstadt Brasilia, weiträumig mit Kontrastmittel-Gadolinium verunreinigt ist. Gemeinsam mit ihrer Bachelor-Studentin Linda Baldewein und Kollegen der Universität Brasilia ist den Bremer Wissenschaftlern damit der erste Nachweis des Hochtechnologiemetalls in Fluss- oder Seewasser in Südamerika gelungen. „Unsere Ergebnisse deuten darauf hin, dass mit dem Gadolinium-haltigen Abwasser in Zukunft auch andere Xenobiotika wie zum Beispiel Arzneimittelrückstände, in dem See gelangen können. Das ist zwar zurzeit noch kein Problem, aber unsere Beobachtung ist wichtig, weil eine zukünftige Nutzung des Lago Paranoa als Trinkwasser-Reservoir diskutiert wird“, so Gila Merschel. Das Gemeinschaftsprojekt mit der Universität Brasilia ist Teil einer Brasilien-Kooperation des Bereichs Umwelt- und Rohstoffgeochemie im Earth and Environmental Sciences (EES) Programm der Jacobs University. Diese umfasst neben Forschungsprojekten in Brasilia und am Amazonas auch den Austausch von Studierenden und die gemeinsame Betreuung von Doktoranden.
Fragen beantwortet:
Michael Bau | Professor für Geowissenschaften
Email: m.bau@jacobs-university.de | Tel.: +49 421 200-3564
Weitere Informationen:
http://www.sciencedirect.com/science/article/pii/S0048969715302394 – „Rare earth elements in the aragonitic shell of freshwater mussel Corbicula fluminea and the bioavailability of anthropogenic lanthanum, samarium and gadolinium in river water“ – Studie von Prof. Michael Bau und Gila Merschel in „Science of the Total Environment“
Anhang
https://idw-online.de/de/attachment44686
Tracing and tracking wastewater-derived substances in freshwater lakes and reservoirs: Anthropogenic gadolinium and geogenic REEs in Lake Paranoa´ , Brasilia
Quelle: idw
Qualität von Fließgewässern mit DNA-Analysen bewerten
Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
Die Güte von Gewässern kann anhand der darin vorkommenden Organismen bewertet werden. Oft passieren dabei Fehler, weil sich viele Arten ähnlich sehen. Neue Methoden setzen daher auf DNA-Analysen. Biologen der Ruhr-Universität Bochum (RUB) haben das Verfahren weiterentwickelt, sodass sie viele Organismen auf einmal anhand kurzer DNA-Sequenzen identifizieren können – und zwar schnell und zuverlässig. Die Ergebnisse sind in der Zeitschrift „PLOS ONE“ veröffentlicht.
Expertenwissen für Artbestimmung droht verloren zu gehen
Industrie, Landwirtschaft und Besiedlung belasten die Gewässer; einige Organismen können unter den veränderten Bedingungen in Bächen und Flüssen nicht überleben. Ihre Anwesenheit gibt daher Aufschluss über die Qualität des Lebensraums. Die Experten, die die kleinen Tiere anhand ihres Aussehens identifizieren können, werden jedoch immer seltener; nur wenige Nachwuchsforscher betätigen sich in dem Bereich. RUB-Forscher vom Lehrstuhl Evolutionsökologie und Biodiversität der Tiere helfen dabei, das Expertenwissen zu konservieren.
Datenbank mit „DNA-Barcodes“
Zu diesem Zweck entsteht derzeit eine Datenbank in Zusammenarbeit mit dem „German Barcode of Life Project“: Zunächst identifizieren ausgewiesene Fachleute die Wasserorganismen anhand ihres Aussehens. Dann wird ein kurzer charakteristischer Bereich des Erbguts der Tiere – Barcode genannt – entschlüsselt und in der Datenbank hinterlegt. Wer wissen will, welche Arten in einem Gewässer vertreten sind, nimmt eine Wasserprobe, sequenziert die DNA der darin enthaltenen Organismen und vergleicht sie mit der Datenbank. Vasco Elbrecht und Dr. Florian Leese haben ein innovatives Laborprotokoll entwickelt, mit dem dieses sogenannte DNA-Barcoding wesentlich schneller geht als bislang. Über tausend Tiere können sie innerhalb von einer Woche nach der Probennahme identifizieren. Schon jetzt in der Pionierphase bestimmt die Methode mehr als 80 Prozent der Spezies richtig. Damit ist sie zuverlässiger als die Artbestimmung anhand äußerlicher Merkmale, und die Bochumer Biologen sind überzeugt, dass sie die Quote zeitnah noch deutlich steigern können.
Bewertungssysteme müssen an die neue Methode angepasst werden
Die Bochumer Biologen haben in ihrer Studie auch Limitationen des DNA-Barcoding aufgezeigt. Mit dem Verfahren lässt sich nicht ermitteln, wie viele Individuen einer bestimmten Art in einem Gewässer vorkommen. Die bisherigen Bewertungskriterien für die Gewässergüte beziehen jedoch solche Daten mit ein. „Das ist ein Problem für die gültigen Bewertungssysteme“, weiß Florian Leese. „Allerdings sind Fließgewässer sehr dynamisch; die Häufigkeit der Arten schwankt über die Jahre hinweg auch natürlicherweise stark. Es ist somit sinnvoll, die Qualität anhand von eindeutigen Artenlisten zu erheben, ohne zu sehr auf die Häufigkeit zu bauen.“
Titelaufnahme
V. Elbrecht, F. Leese (2015): Can DNA-based ecosystem assessments quantify species abundance? Testing primer bias and biomass – sequence relationships with an innovative metabarcoding protocol, PLOS ONE, DOI: 10.1371/journal.pone.0130324, Link: http://dx.plos.org/10.1371/journal.pone.0130324
Weitere Informationen
Dr. Florian Leese, Lehrstuhl Evolutionsökologie und Biodiversität der Tiere, Fakultät für Biologie und Biotechnologie der Ruhr-Universität, 44780 Bochum, Tel. 0234/32-25072, E-Mail: florian.leese@rub.de
Quelle: idw
Schwimmbadkeime gefährlich für die Augen – Schwimmbrille verhindert Infektionen
Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft
München – Bakterien verursachen 80 Prozent aller infektiösen Hornhauterkrankungen am Auge. Als möglicher Übertragungsort gilt das Schwimmbad – insbesondere in der Badesaison. Denn trotz des Chlors im Badewasser sammeln sich Schmutzpartikel und Keime im Becken. Diese können in Hornhaut und Bindehaut des Auges eindringen und dort Entzündungen verursachen. Die Deutsche Ophthalmologische Gesellschaft (DOG) rät deshalb, zum Baden eine gut sitzende Schwimmbrille zu tragen und auf Kontaktlinsen zu verzichten. Bei anhaltenden Beschwerden sollten Betroffene den Augenarzt aufsuchen.
Bei sommerlichen Temperaturen laden Freibäder zur kühlen Erfrischung ein. Viele Badegäste klagen hinterher über gerötete, brennende und tränende Augen. Schuld daran ist das zur Badewasserdesinfektion eingesetzte Chlor. Denn durch eine Reaktion von Chlor mit Urin, Schweiß und Schmutz und Schmutzpartikeln im Badewasser entstehen reizende, chemische Verbindungen, die den schützenden Tränenfilm der Augen angreifen. Normalerweise klingen die Symptome nach wenigen Stunden ab. Augentropfen mit Tränenersatzflüssigkeit lindern das Brennen. „Halten die Beschwerden jedoch länger als 24 Stunden an, sollten Betroffene unbedingt einen Augenarzt aufsuchen, um eine mögliche Infektion auszuschließen“, rät Privatdozent Dr. med. Philip Maier, Leiter des Schwerpunkts Hornhaut- und Bindehauterkrankungen am Universitätsklinikum Freiburg.
Zum Schutz der Augen rät der DOG-Experte zu einer gut sitzenden, abdichtenden Schwimmbrille: Diese hält nicht nur die aggressiven Substanzen, sondern auch Schmutz und Bakterien von den Augen fern. Insbesondere Kontaktlinsenträger sollten ihre Augen schützen. „Beim Schwimmen ohne Brille kann sich die Kontaktlinse am Auge festsaugen“, erklärt Maier. Dadurch könne es zu sehr schmerzhaften Abschürfungen an der Hornhaut kommen. Außerdem können sich gefährliche Keime wie Akanthamöben oder Pilze unbemerkt in das weiche Material der Kontaktlinse einnisten und dort vermehren. Unbehandelt drohen in solchen Fällen bleibende Sehbeeinträchtigungen bis hin zur Erblindung. Ein nachlässiger Umgang mit Kontaktlinsen und mangelnde Pflege gelten aktuellen Daten zufolge als Hauptursachen für infektiöse Hornhauterkrankungen.
Moderne Schwimmbrillen mit geschliffenen Gläsern machen Sehhilfen im Wasser überflüssig. Eine Schwimmbrille schützt außerdem davor, dass die Linsen aus den Augen gespült werden. Wer gar nicht auf Kontaktlinsen verzichten möchte, sollte Tageslinsen verwenden und diese nach dem Schwimmbadbesuch entsorgen. Gründliches Händewaschen zum Einsetzen und Entfernen der Linsen sowie geeignete Pflegemittel gehören selbstverständlich zum sachgemäßen Gebrauch.
Literatur:
G. Geerling, P. Maier, B. Seitz, Die infektiöse Keratitis: Herpes im Griff, Akanthamöben und Fusarien auf dem Vormarsch, Klin Monatsbl Augenheilkd 2015; 232(6): 735-737
Weitere Informationen:
http://www.dog.org
Quelle: idw
Die größte grüne Wasserstoffanlage der Welt
Dipl.-Journ. Birte Müller-Heidelberg Presse- und Öffentlichkeitsarbeit
Hochschule RheinMain
In Mainz ist der Startschuss für die umweltfreundliche Erzeugung von Wasserstoff aus „grünem“ Strom gefallen. Die Hochschule RheinMain begleitet das Vorzeigeprojekt von wissenschaftlicher Seite.
Mit einem symbolischen Knopfdruck wurde in Mainz die größte grüne Wasserstoffanlage der Welt in Betrieb genommen, deren wissenschaftliche Begleitung die Hochschule RheinMain übernommen hat. Nach gut einem Jahr Bauzeit ist damit im Beisein der rheinland-pfälzischen Ministerpräsidentin Malu Dreyer ein Vorzeigeprojekt der deutschen Energiewende an den Start gegangen. Die von den Partnern Linde, Siemens und Stadtwerke Mainz gemeinsam entwickelte Anlage wird künftig Wasserstoff mit Hilfe von umweltfreundlich erzeugtem Strom herstellen – unter anderem aus benachbarten Windkraftanlagen. Das Forschungsprojekt umfasst Investitionen von etwa 17 Millionen Euro und wird vom Bundesministerium für Wirtschaft und Energie im Rahmen der „Förderinitiative Energiespeicher“ unterstützt.
SPEICHERUNG MACHT ERNEUERBARE ENERGIEN FLEXIBLER NUTZBAR
Bei der feierlichen Eröffnung waren sich die Vorstände der beteiligten Partner und die geladenen Gäste aus der Bundes-, Landes- und Kommunalpolitik einig, dass der Energiepark und sein technisches Konzept zu einem wichtigen Baustein der Energiewende werden können. Denn bereits heute müssen Windkraft- oder Photovoltaikanlagen wegen fehlender Kapazitäten im Stromnetz zu bestimmten Zeiten abgeschaltet werden. Durch den weiteren Ausbau der erneuerbaren Energien wird dieses Problem in den nächsten Jahren noch größer werden. Im Energiepark Mainz kann diese „überschüssige“ elektrische Energie durch die Zerlegung von Wasser in Wasserstoff und Sauerstoff gespeichert und der umweltfreundlich erzeugte Wasserstoff später bedarfsgerecht verwendet werden. Damit werden erneuerbare Energien flexibler einsetzbar und stehen dann zur Verfügung, wenn sie gebraucht werden.
Der Energiepark ist direkt an das Mittelspannungsnetz der Stadtwerke Mainz Netze GmbH angebunden sowie an vier benachbarte Windräder, die zur Stadtwerke-Unternehmensgruppe gehören. Die dezentrale Speicherung von elektrischer Energie in Zeiten hoher Wind-Einspeisung dient der Netzintegration erneuerbarer Energien und gewährleistet die Netzstabilität. Auf diesem Gebiet arbeitet seit vielen Jahren die Hochschule RheinMain. Die Erkenntnisse aus dem auf vier Jahre angesetzten Projekt werden am Fachbereich Ingenieurwissenschaften im Rahmen einer Doktorarbeit ver- und bewertet.
HOCHSCHULE FREUT SICH AUF SPANNENDE ERKENNTNISSE
„Im Energiepark Mainz können wir die Umwandlung von Windenergie zu Wasserstoff in einem großtechnischen Maßstab erproben und testen, welche Betriebsführungskonzepte sinnvoll sind. Für das wichtige Zukunftsziel, die Energie aus volatilen Quellen, also Windkraft, aber auch Photovoltaik, ökonomisch und ökologisch optimal nutzbar zu machen, erwarten wir daraus spannende und wegweisende Erkenntnisse“, freut sich Prof. Dr. Birgit Scheppat, Leiterin des Wasserstofflabors der Hochschule.
Ministerpräsidentin Malu Dreyer lobte das Energiespeicherprojekt nicht nur als Vorzeigemodell für Mainz, sondern für ganz Rheinland-Pfalz und darüber hinaus: „Mit der Energiewende hat die Landesregierung ein großes Vorhaben in Angriff genommen, das Generationen übergreift und Gesellschaft und Wirtschaft nachhaltig verändern wird. Die Produktion von Wasserstoff durch umweltfreundlich erzeugten Strom ist ein markanter Schritt auf unserem Weg zum Schutz des Klimas.“
KONTAKT
Jan Wüntscher
Presse- und Öffentlichkeitsarbeit
Hochschule RheinMain
06142/898-4657
jan.wuentscher@hs-rm.de
Weitere Informationen:
http://energiepark-mainz.de/
Quelle: idw
Meereserwärmung führt zu stärkeren Niederschlagsextremen
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Aktuelles Ereignis betont Bedeutung der Studie Kieler Meeresforscher
Bedingt durch den Klimawandel steigen auch die Temperaturen in unseren Ozeanen. Die kann zu zur Entwicklung stärkerer Niederschlagsereignisse beitragen, wie eine Studie deutschen und russischer Wissenschaftler unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zeigt, die heute in der internationalen Fachzeitschrift Nature Geoscience erschien. Ein Niederschlagsereignis, dass Ende Juni in Sotschi, Russland stattfand, untermauert den Befund der Studie.
Dass die Temperaturen auf unserem Planeten ansteigen, ist kein Geheimnis. Insbesondere die steigenden Emissionen von Treibhausgasen wie Kohlendioxid heizen die Atmosphäre weiter auf. Die Auswirkungen der globalen Erwärmung auf den Wasserkreislauf sind bisher jedoch nur unzureichend verstanden. Besonders unsicher ist, wie sich die Stärke von extremen Sommergewittern infolge des Klimawandels verändert hat und weiter verändern könnte. In Küstenregionen von warmen Meeren kann die Meeresoberflächentemperatur eine entscheidende Rolle für die Stärke von Sommergewittern spielen. Das östliche Mittelmeer und das Schwarze Meer haben sich seit den 80iger Jahren um etwa zwei Grad erwärmt. Russische und deutsche Wissenschaftler untersuchten in der aktuellen Studie welchen Einfluss diese Meereserwärmung auf Extremniederschläge gehabt hat.
„Als Beispiel diente uns ein Starkniederschlagereignis aus dem Juli 2012, dass in der Schwarzmeerstadt Krymsk (Russland) zu einer der stärksten Überschwemmungen mit 172 Toten geführt hat“, erläutert Edmund Meredith, Hauptautor der Studie. „Wir haben eine Reihe von Simulationen des Ereignisses mit einem sehr hochauflösenden Atmosphärenmodell benutzt, um die Auswirkungen der steigenden Meeresoberflächentemperaturen auf die Entstehung starker konvektiver Stürme, die oft mit extremen Regenfällen verbunden sind, zu untersuchen“, so Meredith weiter. Der Vergleich von Simulationen mit fiktiven kühleren Meeresoberflächentemperaturen, wie sie in den 80er Jahren vorgeherrscht haben, mit solchen mit den tatsächlichen warmen Bedingungen zeigt eine Steigerung der Niederschlagsintensität um 300%. „Wir konnten hier eine sehr deutliche Veränderung identifizieren, die zeigt, dass konvektive Niederschläge eine starke, nichtlineare Reaktion auf Temperaturänderungen zeigen“, fügt Prof. Dr. Douglas Maraun, Leiter der Studie, hinzu.
Ende Juni 2015 gab es in der Olympiastadt Sotschi, nicht weit von Krymsk ebenfalls am Schwarzen Meer gelegen, außerordentlich heftige Niederschläge. Dieses Ereignis, bei dem 175 Liter Regen pro Quadratmeter innerhalb von 12 Stunden gemessen wurden, zeigt, wie relevant die Arbeit der Kieler Meeresforscher ist. „Über dem gesamten östlichen Mittelmeer und Schwarzen Meer ist die Atmosphäre durch die Meereserwärmung deutlich instabiler geworden. Wir rechnen deshalb damit, dass Ereignisse wie in Krymsk oder Sotschi in Zukunft häufiger auftreten.“, so der Kieler Klimaforscher.
Originalarbeit:
Meredith, E.P., V.A. Semenov, D. Maraun, W. Park, and A.V. Chernokulsky, 2015: Crucial role of Black Sea warming in amplifying the 2012 Krymsk precipitation extreme. Nature Geoscience, DOI: 10.1038/NGEO2483
Weitere Informationen:
http://www.geomar.de – GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Quelle: idw
Macht Krankheit arm oder Armut krank?
Anke Westwood Presse & Kommunikation
Jade Hochschule – Wilhelmshaven/Oldenburg/Elsfleth
Medizinsoziologe referierte über soziale Einflüsse auf gesundheitliche Versorgung
Oldenburg. Macht Krankheit arm oder Armut krank? Über „Soziale Einflüsse auf die gesundheitliche Versorgung“ berichtete Prof. Dr. Olaf von dem Knesebeck vom Institut für Medizinische Soziologie am Universitätsklinikum Hamburg-Eppendorf auf Einladung von Dr. Frauke Koppelin, Professorin für Gesundheitswissenschaften beim Master-Studiengang Public Health an der Jade Hochschule am Studienort Oldenburg.
Im Mittelpunkt seines Vortrags stand die Frage, ob alle gesundheitlichen Ungleichheiten ungerecht sind? Doch wie entstehen Ungleichheiten überhaupt? Dass Bildung und Einkommen dabei eine Rolle spielen, ist unbestritten, sagt der Medizinsoziologe. Aber es gibt noch weitere Ursachen, wie zahlreiche Studien belegen. Denn in skandinavischen Ländern, die ein staatliches organisiertes Gesundheitssystem haben, treten vergleichbare Phänomene auf wie in Deutschland.
Einkommen und Lebenserwartung zeigen einen sozialen Gradienten. Je mehr jemand verdient, umso länger lebt man statistisch gesehen. Das kann einen Unterschied von bis zu elf Jahren ausmachen, wie der Referent anhand von Studien darstellte. Das gilt auch für den Bildungsstand. „Je niedriger die Bildung, umso höher ist das Risiko früher zu sterben“, berichtet von dem Knesebeck. Aber auch innerhalb einer Stadt kann die Lebenserwartung sehr unterschiedlich sein. Im Glasgower Stadtteil Calton ist die durchschnittliche Lebenserwartung von Männern 54 Jahre, im Glasgower Stadtteil Lenzie hingegen 82 Jahre.
Tatsächlich wird über die Lebenserwartung auch im Mutterleib entschieden. Schwangere mit niedrigem Sozialstatus haben nicht selten ein ungünstigeres Gesundheitsverhalten und rauchen häufiger als Schwangere mit höheren Sozialstatus. Folge: Sie bringen kleinere und leichtere Kinder zur Welt. Sind wir dann auf der Welt, entwickeln wir andere gesundheitsschädigende Verhaltensweisen. Wir rauchen, essen zu viel und falsch, wir bewegen uns zu wenig und trinken Alkohol, wobei der vor allem von höheren Bildungsschichten konsumiert wird. Schließlich wirken sich auch familiäre und berufliche Belastungen und unsere sonstigen sozialen Beziehungen auf unsere Gesundheit aus.
Entscheidend für unsere Gesundheit sind zudem der Zugang und die Inanspruchnahme unseres gesundheitlichen Versorgungssystems. So ist bewiesen, dass Präventionsangebote vor allem höhere Bildungsschichten in Anspruch nehmen. Vor und nach einer Präventionskampagne in Hamburg wurden Menschen zu ihrem Wissensstand befragt. Nach Abschluss der Kampagnen wussten diejenigen, die ohnehin schon viel wussten, noch mehr. Offenbar, so bemerkte von dem Knesebeck, finden die Kampagnen an Orten statt, die eher höhere Bildungsschichten ansprechen.
Auch Wartezeiten, Zuzahlungen oder die Kommunikation zwischen Arzt und Patient wirken sich aus. Denn je schneller ein Kranker behandelt wird und dabei möglichst genau versteht, was er hat und wie er sich idealerweise verhalten sollte, umso größer ist seine Chance auf Gesunderhaltung. Gleichwohl stellte der Medizinsoziologe abschließend klar, dass es keine Indikatoren gibt, die den Einfluss des Versorgungssystems umfassend und valide abbilden.
Die Veranstaltung war im weiterbildenden Master-Studiengang Public Health angesiedelt und ist Teil des Curriculums.
Weitere Informationen:
http://tgm.jade-hs.de/web/file/Weiterbildungsmaster_Public_Health.php
http://www.jade-hs.de/jadewelt/vermischtes/detailseite/article/macht-krankheit-a…
Quelle: idw
Die verborgene Kraft im Schilf
Dr. Renate Hoer Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Natürliche Silikatstrukturen in Schilfpflanzen können zu Elektrodenmaterialien für Lithiumionenakkumulatoren umgewandelt werden.
Seit Urzeiten nutzt der Mensch Schilf als Material für den Bau und als Dachdeckmaterial wegen seiner stabilen Struktur und der stark wasserabweisenden Eigenschaften. Das Schilfblatt enthält einen großen Anteil an mikro- und nanostrukturiertem Silikat. Wie dieses auf relativ einfache Weise in hoch effiziente Anodenmaterialien für Lithiumionenakkumulatoren umgewandelt werden kann, haben chinesische und deutsche Wissenschaftler jetzt erforscht und in der Zeitschrift Angewandte Chemie publiziert.
Viele halten nanoporöses Silizium für das Anodenmaterial der Zukunft, denn im Vergleich zu graphitischem Kohlenstoff, der bislang das meistgenutzte Anodenmaterial ist, hat es eine viel höhere theoretische Kapazität und eine geringere Arbeitsspannung. Die große Herausforderung sind jedoch noch die Kosten für die Herstellung von nanostrukturiertem Silizium. Bislang wurden hierfür einfache Silicate chemisch und physikalisch aufwändig umgewandelt, oder teures Silizum-Ausgangsmaterial modifiziert. Einen ganz anderen Weg schlagen Yan Yu und ihre Kollegen vom Max-Planck-Institut für Festkörperforschung in Stuttgart, von der University of Science and Technology of China und der South China University of Technology ein. Nach der Vorstellung der Wissenschaftler sollte es möglich sein, die hierarchische Architektur der Silicatkristalle in den Schilfblättern auszunutzen, um sie in eine ebenso geordnete Mikro- und Nanoporosität von Silizium zu bringen. „Schilfblätter weisen eine definierte dreidimensionale hierarchische Blatt-Mikrostruktur auf“, argumentieren die Wissenschaftler. „Diese lässt sich durch Magnesiothermie in eine dreidimensionale, überaus poröse hierarchische Siliciumarchitektur umwandeln“. Durch einfache Beschichtung mit Kohlenstoff als letztem Schritt erhielten die Autoren dann ein Anodenmaterial, das mit hoher spezifischer Kapazität und einer sehr guten Aufladerate und Zyklusstabilität, wie sie für moderne Lithiumionenakkumulatoren gefordert sind, aufwartet.
Besonders bemerkenswert an dieser Studie ist die Tatsache, dass die ursprüngliche Architektur der Silicate aus der Pflanze trotz der chemischen und physikalischen Behandlung so außerordentlich gut erhalten bleibt. Während der Aufreinigung aus den trockenen Schilfblättern schrumpft die dreidimensionale Struktur stark zusammen, behält aber ihr mesoporöses Netzwerk. Selbst während der Reduktion zur carbonisierten Silizium-Endstruktur ändert sich die Architektur nicht wesentlich. Aus diesem Grund sollte sich das Schilf-Silicat als nachhaltiges Ausgangsmaterial für Batterieelektroden sehr gut eignen. Schilf wächst in Form großer Monokulturen an Wasserläufen und um Seen herum in gemäßigten Regionen weltweit.
Angewandte Chemie: Presseinfo 28/2015
Autor: Yan Yu, University of Science and Technology of China (China), http://en.scms.ustc.edu.cn/faculty/professors/201204/t20120413_132735.html
Permalink to the original article: http://dx.doi.org/10.1002/ange.201503150
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Weitere Informationen:
http://presse.angewandte.de
Quelle: idw
Ist die Ehe gut oder schlecht für die Figur?
Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Es wird allgemein angenommen, dass sich die Ehe positiv auf Gesundheit und Lebenserwartung auswirkt. Trifft dieser „Ehe-Bonus“ auch für den Gesundheitsindikator Körpergewicht zu? Dieser Frage gingen Wissenschaftler der Universität Basel und des Max-Planck-Instituts für Bildungsforschung in Zusammenarbeit mit der Gesellschaft für Konsumforschung nach. Dafür verglichen sie den Body-Mass-Index von verheirateten Paaren mit dem von alleinstehenden Menschen in neun europäischen Ländern. Die Studie wurde in der Fachzeitschrift „Social Science & Medicine“ veröffentlicht.
Eine Reihe von Studien zeigt: Die Ehe ist gesundheitsfördernd. Doch stimmt das nicht für alle Gesundheitsindikatoren, wie jetzt ein Wissenschaftlerteam aus Basel, Nürnberg und Berlin in einer aktuellen Studie belegt. Demnach ernähren sich zusammenlebende Paare zwar durchschnittlich besser als alleinstehende Menschen, jedoch wiegen sie auch signifikant mehr und treiben weniger Sport. In ihrer Studie verglichen die Wissenschaftler die Verbindung zwischen dem Familienstand und dem Body-Mass-Index. Dieser Index setzt das Körpergewicht eines Menschen in Relation zu seiner Körpergröße. Ein zu hoher Body-Mass-Index kann dabei ein Risikofaktor für chronische Erkrankungen wie Diabetes oder kardiovaskuläre Erkrankungen sein.
Für die Erhebung nutzten die Wissenschaftler repräsentative Querschnittsdaten von 10.226 Bürgern aus Österreich, Frankreich, Deutschland, Italien, den Niederlanden, Polen, Russland, Spanien und Großbritannien. Die Studie ist die erste, die den Zusammenhang zwischen Familienstand und Body-Mass-Index in neun europäischen Ländern vergleicht. Dabei betrachteten die Wissenschaftler nicht nur verheiratete, sondern berücksichtigten auch zusammenlebende Paare. Zusätzlich prüften sie mögliche Ursachen für die Gewichtszunahme mit Blick auf das Ernährungs- und Bewegungsverhalten der Befragten.
Über alle neun Länder hinweg zeigte sich, dass Paare im Vergleich zu Alleinstehenden einen höheren Body-Mass-Index haben – dies betrifft sowohl Männer als auch Frauen. Dabei gibt es länderübergreifend erstaunlich wenige Unterschiede.
Ein normaler Body-Mass-Index liegt laut Weltgesundheitsorganisation zwischen 18,5 und 25. Von Übergewicht spricht man bei einem Wert zwischen 25 und 30, darüber von Adipositas oder Fettleibigkeit. Der durchschnittliche Body-Mass-Index der befragten alleinstehenden Männer lag bei 25,7, bei den verheirateten Männern waren es 26,3. Bei den Frauen lag der Durchschnittswert der unverheirateten bei 25,1 und der verheirateten bei 25,6.
Obgleich die Unterschiede im Index klein erscheinen, haben sie Bedeutung. Bei einer Durchschnittsfrau mit 1,65 Meter oder einem Durchschnittsmann mit 1,80 Meter Körpergröße sind dies etwa zwei Kilo Unterschied. Wichtig ist, dass diese Ergebnisse bereits den Einfluss des sozioökonomischen Status, des Alters und der Länderzugehörigkeit berücksichtigen. „Die Resultate zeigen die Bedeutung von sozialen Faktoren für die Gesundheit. In diesem Fall, dass die Institution Ehe und relevante Verhaltensveränderungen im Kontext der Ehe direkt mit Ernährung und dem Körpergewicht zusammenhängen“, sagt Ralph Hertwig, Direktor des Forschungsbereichs „Adaptive Rationalität“ am Max-Planck-Institut für Bildungsforschung in Berlin.
Mögliche Ursachen für diesen Trend lieferte die Erhebung des Ernährungs- und Bewegungsverhaltens. So gaben Paare beim Thema Ernährung eher an, dass sie regionale und unbehandelte Produkte bevorzugen und auf Fertigprodukte verzichten. Die befragten Männer legten zudem mehr Wert auf biologische und fair gehandelte Lebensmittel, wenn sie in einer Partnerschaft waren. „Das lässt darauf schließen, dass die Ernährung durch eine Partnerschaft vor allem für Männer bewusster und damit wahrscheinlich auch gesünder wird“, sagt Jutta Mata, Erstautorin und Assistenzprofessorin für Gesundheitspsychologie an der Universität Basel. Jedoch heißt das nicht, dass sie allgemein gesünder sind. Denn die Studie zeigt auch, dass Männer in Beziehungen weniger Sport treiben als Alleinstehende. „Schaut man auf den Body-Mass-Index, sind Paare somit nicht in jeder Hinsicht gesünder, wie bisher angenommen“, so Jutta Mata.
In persönlichen Interviews wurden den Probanden Fragen zu Ernährungsverhalten, zu Einstellungen zur Ernährung und zum Bewegungsverhalten gestellt. Das ermöglichte eine hohe Datenqualität. Denn die Selbsteinschätzung von Menschen, zum Beispiel bezüglich ihres Gewichtes, ist realistischer, wenn man sich dabei gegenüber sitzt anstatt beispielsweise zu telefonieren.
Originalstudie
Mata, J., Frank, R., & Hertwig, R. (2015). Higher body mass index, less exercise, but healthier eating in married adults: Nine representative surveys across Europe. Social Science & Medicine. doi:10.1016/j.socscimed.2015.06.001
Max-Planck-Institut für Bildungsforschung
Das Max-Planck-Institut für Bildungsforschung wurde 1963 in Berlin gegründet und ist als interdisziplinäre Forschungseinrichtung dem Studium der menschlichen Entwicklung und Bildung gewidmet. Das Institut gehört zur Max-Planck-Gesellschaft zur Förderung der Wissenschaften e. V., eine der führenden Organisationen für Grundlagenforschung in Europa.
Weitere Informationen:
http://www.mpib-berlin.mpg.de/de/presse/2015/06/ist-die-ehe-gut-oder-schlecht-fu…
Quelle: idw
Einweihung der Mikroalgen-Plattform AlgoSolis
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Am 25.06.2015 wurde die neue Plattform AlgoSolis für Mikroalgenforschung in Saint-Nazaire (Pays de la Loire) eingeweiht. Sie wird vom Institut für Verfahrenstechnik, Umwelt und Nahrungsmittel (GEPEA) betrieben, das zur Universität von Nantes und dem französischen Zentrum für wissenschaftliche Forschung (CNRS) gehört.
Diese neue Plattform soll die Forschung und die industriellen Anwendungen bündeln, um neue Arten von Mikroalgen zu identifizieren und zu verwerten. Es gibt weltweit mehrere hunderttausend Arten von Mikroalgen, die gegenwärtig jedoch nur teilweise bekannt sind. Als Lipid- und Eiweiß-Quellen bieten sie zahlreiche Anwendungsmöglichkeiten in vielen Bereichen: in der Kosmetikindustrie, der Nahrungsmittelindustrie, dem Energiesektor, der Chemieindustrie etc. Diese Artenvielfalt besser zu kennen heißt auch, neue industrielle Anwendungen zu schaffen.
Die neue Plattform AlgoSolis verfügt über diverse Anlagen auf einer Fläche von 1840m2: Züchtungsräume, Photobioreaktoren, Produktionslinien, ein Biochemielabor, eine Bioraffinerie etc. Die gesamte Wertschöpfungskette von CO2-angereicherten Mikroalgen zu chemischen Produkten kann hier getestet werden, um industrielle Anwendungen hervorzubringen.
AlgoSolis wurde von zahlreichen Geldgebern mit insgesamt 3,8 Millionen € unterstützt, darunter die Region Pays de la Loire, der europäische Fonds für Regionale Entwicklung (EFRE), die Städte Nantes und Saint-Nazaire. Die Cluster Mer Bretagne Atlantique (Meeresökonomie), Valorial (Nahrungsmittel) und Atlantis (Technologiepark von Nantes) sind ebenfalls am Projekt beteiligt.
Weitere Informationen:
– Internetseite des GEPEA (auf Englisch und Französisch): www.gepea.fr
– Pascal Jaouen, wissenschaftlicher Mitarbeiter, GEPEA – E-Mail: pascal.jaouen@gepea.univ-nantes.fr
– Jack Legrand, wissenschaftlicher Mitarbeiter, GEPEA – E-Mail: jack.legrand@gepea.univ-nantes.fr
Quelle:
„AlgoSolis : une plateforme de recherche dédiée à l’exploitation industrielle des micro-algues“, Pressemitteilung des CNRS, 25.06.2015 – www2.cnrs.fr/presse/communique/4113.htm
Redakteur: Sean Vavasseur, sean.vavasseur@diplomatie.gouv.fr
Quelle: idw
Schlank aber satt: Molekularer Schalter für gesunden Stoffwechsel entdeckt
Dr. Kerstin Wagner Kommunikation
Leibniz-Institut für Altersforschung – Fritz-Lipmann-Institut e.V. (FLI)
Der Eiweißkomplex mTORC1 reguliert den Stoffwechsel in Zellen. Ist er aktiviert, wird der Stoffwechsel stimuliert und die Neubildung und Speicherung von Eiweißen und Fett angekurbelt. Forscher vom Leibniz-Institut für Altersforschung (FLI) in Jena und ERIBA in Groningen, Niederlande, entdeckten einen Mechanismus, wie mTORC1 den Stoffwechsel steuert: Er regelt den Genschalter C/EBPβ, der in einer kurzen und langen Variante auftreten kann. Wird die Bildung der kurzen Variante unterdrückt, ist ein gesünderer Stoffwechsel mit reduziertem Körpergewicht und verbesserter Insulinsensitivität die Folge; ein möglicher Ansatzpunkt für Therapien gegen Fettleibigkeit und Typ-2-Diabetes
Der Eiweißkomplex mTORC1 (engl.: mammalian target of rapamycin 1) ist eine zentrale Schaltstelle für die Regulation des Stoffwechsels in der Zelle. Seine Aktivität wird durch das Angebot an Nährstoffen sowie durch Wachstumssignale kontrolliert. Wenn der Eiweißkomplex aktiviert ist, wird der körperaufbauende (anabole) Stoffwechsel, d.h. die Neubildung von Zellmaterialien wie Eiweiß und Fett, stimuliert. Die Aktivierung und Weiterleitung des mTORC1-Signals sind damit für die Körperfunktion wichtige und daher streng kontrollierte Prozesse.
Die Hyperaktivierung von mTORC1, beispielsweise ausgelöst durch eine übermäßige Nahrungsaufnahme, spielt deshalb eine wichtige Rolle bei der Entstehung von Fettleibigkeit und den damit verbundenen Krankheiten wie Typ-2-Diabetes. Die mTORC1-Hemmung wird dagegen als wichtiger Faktor für die gesundheitsfördernden Effekte einer kalorischen Restriktion angesehen, was bei vielen Tierarten (sogar bei Säugetieren) die Lebensspanne verlängert. Aufgrund dieser zentralen Funktion für den Stoffwechsel steht der mTORC1-Signalweg seit einigen Jahren im Fokus der Wissenschaft. Forscher des Jenaer Leibniz-Instituts für Altersforschung – Fritz-Lipmann-Institut e.V. (FLI) und des European Research Institute for the Biology of Ageing (ERIBA) in Groningen, Niederlande, haben herausgefunden, wie mTORC1 den Stoffwechsel steuert und ihre Ergebnisse jetzt in der renommierten Fachzeitschrift EMBO Reports publiziert.
Veränderter Genschalter
„Während die Abläufe der mTORC1-Aktivierung durch Nährstoffe bereits relativ gut verstanden sind, ist bisher nur wenig bekannt, wie mTORC1 den Stoffwechsel steuert“, berichtet Prof. Cornelis Calkhoven, ehemaliger Forschungsgruppenleiter am FLI, der vor zwei Jahren ans ERIBA wechselte. Eine wichtige Funktion von mTORC1 ist die Stimulierung der mRNA-Translation, einem zentralen Schritt bei der Genexpression, der zur Eiweiß-Synthese führt. „Wir haben nun einen Faktor identifiziert, der auf dieser Regulationsebene durch mTORC1 kontrolliert wird“, berichtet Calkhoven weiter. Dieser Faktor, C/EBPβ genannt, fungiert selbst als Genregulator, d.h. er steuert die Expression zahlreicher Gene, die für die Funktion des Stoffwechsels wichtig sind. Dabei kommt C/EBPβ in der Zelle in zwei Varianten vor: Die lange Variante wirkt als Genaktivator, die kurze Variante hemmt dagegen die Genexpression.
„Unsere Forschungsergebnisse belegen, dass mTORC1 gezielt die Entstehung der kurzen C/EBPβ-Variante fördert“, berichtet Dr. Christine Müller, die ebenfalls am FLI tätig war und mit der Calkhoven-Gruppe ans ERIBA wechselte. Die Forscher konnten im Mausmodell nachweisen, dass durch eine Mutation im C/EBPβ-Gen die Entstehung der kurzen C/EBPβ-Variante verhindert werden kann, selbst wenn mTORC1 aktiviert ist. „Interessanterweise haben diese Mäuse im Vergleich zur Kontrollgruppe einen viel gesünderen Stoffwechsel. Ihr Körpergewicht sowie die Menge an gespeichertem Fett im Fettgewebe sind bei ihnen reduziert“, unterstreicht Dr. Laura Zidek, Postdoc am FLI, die Ergebnisse. Auch die als gesundheitsschädlich angesehene Fetteinlagerung in anderen Organen, wie z.B. Leber, Herz und Muskel, ist bei diesen Mäusen stark vermindert. Darüber hinaus haben sie eine deutlich erhöhte Insulinsensitivität, was auf einen sehr gesunden Zuckerstoffwechsel hindeutet.
Gesunder Stoffwechsel
„Diese beobachteten Veränderungen im Stoffwechsel weisen große Ähnlichkeit mit denen auf, die für Mäuse nach kalorischer Restriktion typisch sind“, erklärt Calkhoven. „In den Mäusen mit verändertem C/EBPβ-Gen wird dieser positive Effekt auf den Stoffwechsel jedoch ohne Einschränkung der Nährstoffaufnahme erzielt“, betonen die Wissenschaftler. „Sie sind schlank, aber satt.“
„Unsere Studie belegt, dass der Mechanismus, der zur Entstehung der unterschiedlichen C/EBPβ-Varianten führt, ein wichtiger Schalter für die Weiterleitung des mTORC1-Signals ist. Dies bietet eine Grundlage für die Entwicklung neuer Therapieansätze gegen Fettleibigkeit und damit in Zusammenhang stehender Krankheiten“. Eine pharmakologische Unterdrückung der Ausbildung der kurzen C/EBPβ-Variante könnte einen gesünderen Stoffwechsel herbeiführen und somit der Entstehung von Stoffwechselerkrankungen, wie z.B. Typ-2-Diabetes, entgegenwirken.
Publikation.
Zidek LM, Ackermann T, Hartleben G, Eichwald S, Kortman G, Kiehntopf M, Leutz A, Sonenberg N, Wang ZQ, von Maltzahn J, Müller C, Calkhoven CF. Deficiency in mTORC1-controlled 1 C/EBPβ -mRNA translation improves metabolic health in mice. EMBO Rep. 2015. pii: e201439837. DOI 10.15252/embr.201439837.
Kontakt
Dr. Kerstin Wagner
Leibniz-Institut für Altersforschung – Fritz-Lipmann-Institut (FLI)
Beutenbergstr. 11, 07745 Jena
Tel.: 03641-656378, Fax: 03641-656351, E-Mail: presse@fli-leibniz.de
Hintergrundinfo
Das Leibniz-Institut für Altersforschung – Fritz-Lipmann-Institut (FLI) in Jena widmet sich seit 2004 der biomedizinischen Alternsforschung. Über 330 Mitarbeiter aus 30 Nationen forschen zu molekularen Mechanismen von Alternsprozessen und alternsbedingten Krankheiten. Näheres unter http://www.fli-leibniz.de.
Das niederländische European Research Institute for the Biology of Ageing (ERIBA) ist 2013 vom University Medical Center Groningen (UMCG) in Zusammenarbeit mit der Universität von Groningen gegründet worden. Das international orientierte ERIBA widmet sich der Grundlagenforschung im Bereich der molekularbiologischen Mechanismen des Alternsprozesses und alternsbedingter Krankheiten. Näheres unter http://www.umcg.nl/EN/Research/ERIBA.
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen ‑ u.a. in Form der WissenschaftsCampi ‑, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.200 Personen, darunter 8.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro. Näheres unter http://www.leibniz-gemeinschaft.de.
Weitere Informationen:
http://www.fli-leibniz.de – Homepage Leibniz-Institut für Altersforschung – Fritz-Lipmann-Institut (FLI) Jena
Quelle: idw
Steuert das marine Ökosystem auf ein neues Regime zu?
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Produziert Phytoplankton in Folge der Klimaerwärmung zukünftig weniger organisches Material als heute? Bisherige Untersuchungen deuten auf eine solche Entwicklung hin, die auch Folgen für höhere Ebenen des marinen Nahrungsnetzes hätte. Eine aktuelle Studie australischer und deutscher Wissenschaftler stellt dies jetzt in Frage. Ihre Ergebnisse legen nahe, dass die Planktongemeinschaft in fernerer Zukunft eine völlig neue Art der Produktivität entwickelt.
Wissenschaftlich anerkannten Studien zufolge, steigt die von Menschen verursachte Kohlendioxid-Emission in die Atmosphäre in den kommenden 100 Jahren auf bis zu 30 Gigatonnen Kohlenstoff pro Jahr an – sofern sich die derzeitige Entwicklung unverändert fortsetzt. Die globale Mitteltemperatur würde um fast fünf Grad Celsius ansteigen, und auch der Ozean würde sich stark erwärmen. Laut einer Studie von Wissenschaftlern der Universität von New South Wales in Sydney, Australien und des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel könnten diese Veränderungen die Produktivität mariner Organismen grundlegend verändern. In ihrer Arbeit, die in der aktuellen Ausgabe der Environmental Research Letters veröffentlichtet ist, argumentieren die Forscher, dass die bisherigen Prognosen für die nächsten 100 Jahren nicht unbedingt die fernere Zukunft des Ozeans darstellen.
„Wir haben eine Simulation über 600 Jahre, beginnend im Jahr 1800, erstellt und sind dem Entwicklungs-Pfad RCP 8,5 des Weltklimarats IPCC gefolgt, einem „business as usual“-Szenario“, erklärt Dr. Karin Kvale, Modelliererin am GEOMAR. Drei leicht unterschiedliche Modell-Varianten zeigten zunächst eine verminderte Produktivität des Ozeans. Grund für den Rückgang ist die Tatsache, dass das Meerwasser durch steigende Temperaturen stärker geschichtet ist und weniger Vermischung stattfindet. Wenn weniger Wasser aus der Tiefe die sonnendurchflutete obere Schicht erreicht, stehen auch weniger Nährstoffe für das Phytoplankton zur Verfügung, und die Primärproduktion – die Produktion von organischem Material aus anorganischem Kohlenstoff etwa durch Photosynthese – sinkt erheblich.
Laut den Berechnungen der Modellierer kurbeln steigende Wassertemperaturen die Respirationsraten ab dem Jahr 2000 wieder an. „Die heterotrophe Zehrung, beispielsweise durch Bakterien, Stoffwechsel-Prozesse oder von Plankton, das sich von organischen Stoffen aus anderen Organismen ernährt, nimmt dann stärker zu, als die Primärproduktion“, fasst Dr. Kvale zusammen. „Irgendwann sorgt dieses unausgewogene Verhältnis dafür, dass sich die globale Primärproduktion von einem System, das bislang durch physikalische Faktoren wie der Zugang zu Nährstoffen aus tieferen Wasserschichten beschränkt wird, in ein völlig neues Regime wechselt, das im wesentlichen durch die Biologie selbst angetrieben wird“.
In einem zukünftigen Ozean mit verstärkter Heterotrophie werden Kohlenstoff und Nährstoffe in der oberen Wasserschicht effektiver umgesetzt als innerhalb des derzeitigen Systems. So gelangt weniger Kohlenstoff in die Tiefe, um dort gespeichert zu werden. Dies hätte auch Auswirkungen auf die Fähigkeit des Ozeans, Kohlendioxid aus der Atmosphäre aufzunehmen und die Auswirkungen des globalen Wandels zu mildern.
Die derzeit verwendeten Modelle berücksichtigen noch nicht, dass Ozeanversauerung im Zuge der globalen Veränderung auch das Wachstum kalkbildender Organismen beeinträchtigen kann oder sich die von vielen Organismen produzierte Kalkart Aragonit im saureren Wasser besonders leicht auflöst. Beide Prozesse würden den Kohlenstoff-Export aus der oberen Schicht des Ozeans verringern und dadurch den Wechsel zur Heterotrophie weiter beschleunigen und verstärken. Aus diesem Grund müssen die Modelle verfeinert werden, um ein besseres Verständnis möglicher Veränderungen und eventuelle Kipp-Punkte zu erhalten, betonen die Wissenschaftler. „Unsere Studie ist ein Hinweis darauf, dass in der ferneren Zukunft überraschende Veränderungen im Ozean anstehen“, so Dr. Kvale. „Wir halten es in der Debatte über den Klimawandel für wichtig, auch solche längerfristigen Vorhersagen zu berücksichtigen. Natürlich gibt es noch viele Unsicherheiten – sowohl in Bezug auf die Treiber eines solchen massiven Wandels als auch mit Blick auf seine möglichen Auswirkungen.“
Originalarbeit:
Kvale, K.F., Meissner, K.J., Keller, D.P., 2015: Potential increasing dominance of heterotrophy in the global ocean. Environmental Research Letters,10, doi:10.1088/1748-9326/10/7/074009
Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.ccrc.unsw.edu.au Climate Change Research Centre, University of New South Wales
http://www.climatescience.org.au ARC Centre of Excellence for Climate System Science
Quelle: idw
Schwach im Abschluss: Warum Jungen in der Bildung hinter Mädchen zurückfallen
Stephan Sievert Presse- und Öffentlichkeitsarbeit
Berlin-Institut für Bevölkerung und Entwicklung
Bildungserfolg ist in Deutschland überwiegend Frauensache. Dieses Ungleichgewicht hat Folgen für die persönlichen Karrieremöglichkeiten und führt zu volkswirtschaftlichen Einbußen. Wer etwas dagegen unternehmen will, sollte auf den Unterricht schauen.
In den 1960er Jahren galt die katholische Arbeitertochter vom Land als Inbegriff für im Bildungssystem benachteiligte Personen. Heute trifft dies eher auf den Sohn dieser Familie zu. Denn mehr als die Hälfte der Mädchen jedes Geburtsjahrgangs erreichen inzwischen die Hochschulreife – aber nur etwa 41 Prozent der Jungen. Am anderen Ende der Leistungsskala verlassen 21 Prozent der Jungen die Schule mit höchstens dem Hauptschulabschluss, aber nur 14 Prozent der Mädchen. Mädchen sind jedoch nicht in allem besser als Jungen. So haben 15-jährige Mädchen im Lesen einen Leistungsvorsprung von mehr als einem Schuljahr, während die Mathematik eine Jungendomäne bleibt.
Nicht alle dieser Unterschiede sind neu. Schon vor mehreren Jahrzehnten erhielten Mädchen im Schnitt bessere Noten. Lange konnten sie diese allerdings nicht in entsprechende Abschlüsse umsetzen. Erst Anfang der 1990er Jahre überholten Mädchen die Jungen auch bei den Zertifikaten – obwohl auch die Jungen heute bessere Abschlüsse erreichen als früher. „Trotzdem sind die Geschlechterunterschiede relevant,“ erklärt Reiner Klingholz, Direktor des Berlin-Instituts für Bevölkerung und Entwicklung. „Denn sie führen zu ungleichen Lebenschancen – etwa weil Jungen seltener studieren können und Mädchen weniger häufig lukrative Karrieren im Mint-Bereich einschlagen.“
Die gute Nachricht ist, dass ungleiche Bildungserfolge von Jungen und Mädchen nicht zwangsläufig auftreten müssen. Denn es gibt zwar biologische Unterschiede zwischen den Geschlechtern, die Auswirkungen auf den Schulerfolg haben. Diese können aber vom sozialen Umfeld ausgeglichen werden. Hauptgrund für das Gefälle sind ohnehin weniger Intelligenz-Unterschiede als unterschiedliche Verhaltensweisen von Jungen und Mädchen in und außerhalb der Schule: Mädchen stören seltener den Unterricht, machen mehr Hausaufgaben und lesen mehr in ihrer Freizeit.
Bei der Frage, wie den Geschlechterunterschieden beizukommen wäre, ist die öffentliche Diskussion häufig von Missverständnissen geprägt. „Erstaunlicherweise hört man immer wieder, dass Jungen mehr männliche Lehrer benötigen und von nach Geschlechtern getrenntem Unterricht profitieren würden“, stellt Stephan Sievert, Autor der Studie, fest. „Dabei zeigen alle verfügbaren Studien, dass gerade diese beiden Maßnahmen kaum praktische Verbesserungen nach sich ziehen“.
Viel wichtiger ist es, das tatsächliche Unterrichtsgeschehen ins Augenmerk zu nehmen. Steffen Kröhnert, Mitautor der Studie, verweist darauf, dass „die Lehrer und ihr Unterricht der wichtigste Grund von Leistungsunterschieden unter Kindern sind“. In Zukunft sollte daher verstärkt darauf geachtet werden, den Unterricht so zu gestalten, dass sowohl Jungen als auch Mädchen motiviert sind, erfolgreich zu lernen. Gerade für Jungen scheint es besonders wichtig, engagierte Lehrer zu finden, die im Unterricht klare Ziele formulieren und deren Erreichen einfordern. Darüber hinaus sollte noch mehr Gewicht auf Leseförderung und das Hinterfragen von Geschlechterstereotypen gelegt werden. Letzteres könnte auch Mädchen in Mint-Fächern helfen, in denen sie auch deswegen weniger erfolgreich sind, weil ihnen das Selbstvertrauen fehlt. „Ein praktischer Ansatzpunkt wäre, mehr weibliche Physik- oder Mathelehrkräfte einzustellen“, schlägt Stephan Sievert vor.
Die Studie erhalten Sie als PDF kostenlos unter:
http://www.berlin-institut.org/publikationen/studien/schwach-im-abschluss.html
Bei Rückfragen helfen wir Ihnen gerne weiter:
Berlin-Institut für Bevölkerung und Entwicklung
Schillerstr. 59
10627 Berlin
Ansprechpartner: Stephan Sievert (sievert@berlin-institut.org, Tel.: 030 – 31 10 26 98)
Das Berlin-Institut für Bevölkerung und Entwicklung ist ein unabhängiger Thinktank, der sich mit Fragen regionaler und globaler demografischer Veränderungen beschäftigt. Das Institut wurde 2000 als gemeinnützige Stiftung gegründet und hat die Aufgabe, das Bewusstsein für den demografischen Wandel zu schärfen, nachhaltige Entwicklung zu fördern, neue Ideen in die Politik einzubringen und Konzepte zur Lösung demografischer und entwicklungspolitischer Probleme zu erarbeiten.
Das Berlin-Institut erstellt Studien, Diskussions- und Hintergrundpapiere, bereitet wissenschaftliche Informationen für den politischen Entscheidungsprozess auf und betreibt ein Online-Handbuch zum Thema Bevölkerung. Weitere Informationen, wie auch die Möglichkeit, den kostenlosen regelmäßigen Online-Newsletter „Demos“ zu abonnieren, finden Sie unter http://www.berlin-institut.org.
Weitere Informationen:
http://www.berlin-institut.org/
http://www.berlin-institut.org/publikationen/studien/schwach-im-abschluss.html
Quelle: idw
Gesunde Ernährung schützt das Gehirn
Frank A. Miltner Pressestelle der DGN
Deutsche Gesellschaft für Neurologie
Patienten mit einem hohen Risiko für Herz-Kreislauf-Leiden und Schlaganfälle können sich womöglich durch gesunde Ernährung vor geistigem Abbau schützen. „Die Auswertung zweier großer Untersuchungen mit fast 30.000 Teilnehmern durch die kanadischen Kollegen zeigt, dass gesunde Essgewohnheiten das Risiko kognitiver Einschränkungen und demenzieller Erkrankungen im Alter tatsächlich verringern können“, kommentiert Professor Dr. Agnes Flöel von der Deutschen Gesellschaft für Neurologie.
„Die Erkenntnisse sind ein weiterer Schritt auf dem Weg zu soliden wissenschaftlichen Empfehlungen, um das Demenzrisiko für Patienten wie auch Gesunde zu senken“, so die Leiterin der Arbeitsgruppe Kognitive Neurologie an der Klinik für Neurologie der Charité in Berlin. Welche Nährstoffe für den positiven Effekt verantwortlich sind und ob auch andere Faktoren wie eine verminderte Kalorienzufuhr positiv auf das Gehirn wirken, wird derzeit weltweit intensiv untersucht. Auch auf dem 88. Neurologenkongress, der mit rund 6000 Experten für Gehirn und Nerven vom 23. bis 26. September in Düsseldorf stattfindet, wird das Thema diskutiert.
Für die Studie, die kürzlich in der Fachzeitschrift Neurology veröffentlicht wurde, hat ein Forscherteam um Andrew Smyth von der McMaster University im kanadischen Hamilton die Daten von zwei großen Untersuchungen zur Wirkung blutdrucksenkender Medikamente neu ausgewertet. Das Ergebnis: Die Studienteilnehmer, die sich am gesündesten ernährten, hatten ein um 24 Prozent geringeres Risiko für geistigen Abbau im Vergleich zu denen, die sich besonders ungesund ernährten. Als „gesund“ galt dabei eine Diät mit viel Obst, Gemüse, Nüssen oder Eiweiß aus Soja sowie bei tierischen Nahrungsmitteln die Formel „mehr Fisch als Fleisch“ – im Gegensatz zum Konsum von zum Beispiel viel frittiertem Essen oder Alkohol.
„Die Ergebnisse legen nahe, dass gesunde Essgewohnheiten nicht nur das Herz-Kreislauf-Risiko sondern auch das Risiko für kognitive Störungen, insbesondere bezüglich Aufmerksamkeits- und Kontrollfunktionen, aber auch von Gedächtnisstörungen, senken könnten“, erläutert Flöel. Den deutlichen Unterschied von 24 Prozent zwischen dem besten und dem schlechtesten Fünftel der Teilnehmer hält sie in dieser großen, multinationalen Studie für bemerkenswert.
Zusammenhang zwischen Essgewohnheiten und kognitiven Leistungen
Die 27.860 Teilnehmer der Studie aus 40 Ländern waren mindestens 55 Jahre alt, sie litten an Herzerkrankungen oder hatten ein hohes Risiko für die Zuckerkrankheit. Gemessen wurde die geistige Leistung anhand des Mini-Mental-Status-Test (MMST), einem Standardtest zur Diagnose von Demenz und Alzheimer. Der MMST wird als Interview durchgeführt. Anhand von festen Aufgabenkomplexen werden zentrale kognitive Funktionen überprüft, wie zeitliche und räumliche Orientierung, Merkfähigkeit, Aufmerksamkeit, Sprachverständnis, Lesen, Schreiben, Zeichnen und Rechnen. In der Studie wurde der Test zu Beginn der Untersuchung und nach fünf Jahren durchgeführt. In diesem Zeitraum beobachteten die Forscher etwa bei jedem sechsten Studienteilnehmer eine Verschlechterung der kognitiven Leistungen. Diese Informationen stellten Smyth und Kollegen dann den Ergebnissen aus einer Befragung zu den Essgewohnheiten der Studienteilnehmer gegenüber.
Auch Fasten und Bewegung helfen dem Gehirn
Flöel hält es allerdings auch für möglich, dass die errechnete Risikoreduktion nicht allein auf das gesunde Essen zurückgeht, sondern auch eine Folge der verminderten Kalorienzufuhr sein könnte. Die Forscherin selbst hat die positiven Auswirkungen solch einer „kalorischen Restriktion“ bereits vor einigen Jahren am Universitätsklinikum Münster nachgewiesen. Damals konnte Flöel zeigen, dass ältere Versuchspersonen im Anschluss an eine dreimonatige verringerte Kalorienzufuhr besser lernten: Die Lernleistung stieg um 20 Prozent gegenüber der Vergleichsgruppe. Dieser Effekt beruht möglicherweise auf einem verbesserten Glukose-Stoffwechsel und einer damit verbundenen, positiven Wirkung auf insulinabhängige Stoffwechselwege im Gehirn, vermutet Flöel.
In der aktuellen Studie hatten die Forscher zwar mit statistischen Methoden mögliche Auswirkungen des Rauchens, des Körpergewichts und von sportlichen Aktivitäten herausgerechnet. Der unterschiedliche Energiegehalt der Nahrung wurde aber nicht berücksichtigt. Statt dessen ging es darum, wie viele Portionen Obst, Gemüse, Nüsse, frittiertes Essen oder Alkohol täglich konsumiert wurden, und wie das Verhältnis von Fisch zu Fleischprodukten und Eiern war.
Weiter kann die Studie nicht beantworten, welche Inhaltsstoffe der „gesunden Lebensmittel“ letztlich für die positiven Effekte verantwortlich waren. Dies wird weltweit derzeit intensiv untersucht, auch von der Arbeitsgruppe von Professor Flöel. Mögliche Substanzen sind hier Omega-3-Fettsäuren, B-Vitamine und Nährstoffe, die eine Kalorienrestriktion imitieren, mit positiven Auswirkungen auf den Glukose-Stoffwechsel. Hierzu gehört zum Beispiel das in Weintrauben vorkommende Resveratrol oder die für Selbstreinigungsprozesse der Zelle wichtigen Polyamine, die unter anderem in Weizenkeimlingen oder Sojabohnen enthalten sind.
Dem geistigen Abbau aus eigener Kraft entgegenwirken
Trotz dieser Einschränkungen sei die Arbeit der Kollegen ein weiterer Schritt nach vorne, lobt Flöel. Die Forschung sucht schon lange nach einem wirksamen Schutz gegen Demenz. Neben gesunder Ernährung wird körperlicher Aktivität eine besondere Bedeutung zugeschrieben. Der Schlüssel liegt daher in jedem Einzelnen: „Auch wenn viele Details noch nicht geklärt sind, so scheint doch sicher, dass es mehrere Möglichkeiten gibt, dem geistigen Abbau aus eigener Kraft entgegen zu wirken. Eine gesunde und maßvolle Ernährung und regelmäßige Bewegung gehören zu den präventiven und wirkungsvollen Maßnahmen, die jeder heute schon umsetzen kann“, so Flöel. Und zwar nicht erst, wenn die sich die Erkrankungen schon zeigen, wie bei den Patienten der kanadischen Studie.
Quellen
Smyth A, et al: Healthy eating and reduced risk of cognitive decline: A cohort from 40 countries. Neurology. 2015 Jun 2;84(22):2258-65
Witte AV, et al: Caloric restriction improves memory in elderly humans. Proc Natl Acad Sci U S A. 2009 Jan 27;106(4):1255-60
Witte AV, Kerti L, Margulies DS, Flöel A. Effects of resveratrol on memory performance, hippocampal functional connectivity, and glucose metabolism in healthy older adults. J Neurosci. 2014;34(23):7862-70.
Witte AV, Kerti L, Hermannstädter HM, Fiebach JB, Schreiber SJ, Schuchardt JP, Hahn A, Flöel A. Long-chain omega-3 fatty acids improve brain function and structure in older adults. Cereb Cortex. 2014;24(11):3059-68.
Fachlicher Kontakt bei Rückfragen
Prof. Dr. med. Agnes Flöel
Charité – Universitätsmedizin Berlin, Klinik für Neurologie
Charitéplatz 1, 10117 Berlin
Tel: +49 (0) 30 4506 6028 4, E-mail: agnes.floeel@charite.de
Pressestelle der Deutschen Gesellschaft für Neurologie
Frank A. Miltner, c/o albertZWEI media GmbH
Englmannstr. 2, 81673 München
Tel.: +49 (0) 89 46148622, E-Mail: presse@dgn.org
Pressesprecher: Prof. Dr. med. Hans-Christoph Diener, Essen
Mensch im Blick – Gehirn im Fokus
88. Kongress der Deutschen Gesellschaft für Neurologie vom 23. bis 26. September in Düsseldorf
Rund 6000 Experten für Gehirn und Nerven tagen im September in Düsseldorf. Von Demenz bis Epilepsie, von Schlaganfall bis Multiple Sklerose – der DGN-Kongress ist das zentrale Wissenschafts-, Fortbildungs- und Diskussionsforum der neurologischen Medizin in Deutschland. Journalisten bietet er Gelegenheit zur Recherche sowie für persönliche Gespräche mit den führenden Köpfen der deutschen und internationalen Neuromedizin.
Die DGN bietet ein gut ausgestattetes Pressezentrum mit Informationen und Computer-Arbeitsplätzen. Die Pressekonferenzen finden statt am Mittwoch, 23. September, 10.00 bis 11.00 Uhr, sowie Freitag, 25. September, 11.30 bis 12.30 Uhr (terminliche Änderungen vorbehalten).
• Presseservice auf dem DGN-Kongress, mit Online-Akkreditierung und Anmeldung zum Presse-Newsletter:
http://www.dgn.org/presse/presse-auf-dem-kongress
• Programm und Informationen zum DGN-Kongress:
http://www.dgnkongress.org
Weitere Informationen:
http://www.dgn.org/presse/pressemitteilungen/3073-gesunde-ernaehrung-schuetzt-da…
Quelle: idw
Messung der Wassertemperatur aus der Luft
Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Die Bundesanstalt für Gewässerkunde (BfG) wird in der nächsten Woche an der Hahnöfer Nebenelbe die Wasseroberflächentemperatur aus der Luft messen. Bei dieser Messung, die über mehrere Tage läuft, werden Wärmebild-Kameras mit unterschiedlichen Trägersystemen genutzt. Neben einem kleinen, unbemannten Fluggerät wird auch ein Tragschrauber (Gyrocopter) zum Einsatz kommen.
Die Wassertemperatur ist für viele Anwendungsfelder der Gewässerkunde ein wichtiger Parameter und ein wesentliches natürliches Charakteristikum eines Gewässers. Messungen vor Ort werden oft nur an einzelnen Stellen durchgeführt, Aufnahmen mit einer Kamera hingegen können diese kontinuierlichen Punktmessungen durch Informationen über die räumliche Temperaturverteilung an der Wasseroberfläche ergänzen. Bei größeren Flächen wird dafür von einem Fluggerät aus die Strahlung der Oberfläche im thermischen Infrarot aufgenommen.
Kooperationspartner der BfG sind ein norddeutsches Ingenieurbüro und das Anwendungszentrum für multimodale und luftgestützte Sensorik (AMLS) an der Hochschule Koblenz. Das Ingenieurbüro wird mit einem unbemannten Fluggerät einen Teil der Wattflächen vor dem Cranzer Hauptdeich aus 100 Meter Höhe erfassen. Parallel dazu wird ein Gyrokopter des AMLS, ausgestattet mit einer Wärmebildkamera, die gesamte Hahnöfer Nebenelbe in 1000 Meter Höhe abfliegen.
Zwei Ziele verfolgt die Bundesanstalt bei diesem Projekt: zum einen geht es um ein besseres Verständnis der Temperaturverhältnisse an Gewässern, zum anderen erforscht und entwickelt die BfG auch die technischen Möglichkeiten der Fernerkundung, um diese bis zur praktischen Anwendung zu bringen. Bei der anstehenden Befliegung soll vor allem die Verteilung der Wassertemperatur über den Wattflächen im Mühlenberger Loch sowie in der Hahnöfer Nebenelbe untersucht werden. Um die unterschiedlichen Prozesse vor Ort zu erfassen, wird die Messung in regelmäßigen zeitlichen Abständen wiederholt.
Eine Identifizierung von Personen, Schildern u. ä. ist aufgrund des Aufnahmewinkels und der Kameraauflösung nicht möglich. Zur Georeferenzierung der Aufnahmen ist es deshalb auch notwendig, im Deichbereich Markierungen auszubringen. Die zuständigen Behörden sind über die Befliegung informiert, die erforderlichen Genehmigungen wurden eingeholt.
Weitere fachliche Informationen:
Dr. Katharina Fricke, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon: 0261/1306 5037, Mail: fricke@bafg.de; Dr. Björn Baschek, BfG, Fon: 0261/1306 5395,baschek@bafg.de
Quelle: idw
Das Ohr an der Schiene: Preisgekrönte Sensortechnik erkennt frühzeitig herannahende Züge
Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Im Bahnverkehr kommt es immer wieder zu schweren Unfällen, wenn Menschen die Gleise überqueren und herannahende Züge zu spät wahrnehmen. Auch umgestürzte Bäume oder Autos, die auf einem Bahnübergang stehen bleiben, werden für Zugreisende zum Verhängnis. Absolventen der Universität des Saarlandes haben auf dem Gründer-Campus Saar eine Sensortechnik entwickelt, die einen heranrauschenden Zug schon in bis zu sechs Kilometer Entfernung „erspürt“ und Hindernisse auf den Gleisen in einigen hundert Meter Distanz orten kann. Mit dieser Erfindung gewannen die Jungunternehmer einen mit 25.000 Euro dotierten Startup-Preis der Deutschen Bahn. Sie wollen nun die Sensortechnik zur Marktreife bringen.
Um Bahnübergänge abzusichern und herannahende Züge rechtzeitig zu orten, müssen heute rund um die Schranken acht Detektoren installiert und achttausend Meter Kabel verlegt werden. „Unser Sensorsystem kommt mit nur vier Detektoren aus und benötigt überhaupt keine weitere Verkabelung. Damit können Bahngesellschaften mit verbessertem Sicherheitsstandard viel Geld sparen“, sagt Houssam El-Moutaouakil. Der Absolvent der Computer- und Kommunikationstechnik der Saar-Uni hat die Sensortechnik gemeinsam mit der Informatikerin Vera Bazhenova entwickelt. Die Sensoren reagieren so sensibel auf Schwingungen, dass sie erkennen, wenn Züge sich aus bis zu sechs Kilometer Entfernung annähern. „Wir können mit der Sensortechnik außerdem in einem Radius von 500 Metern erfassen, ob ein Mensch unerlaubt die Gleise überquert hat oder ob ein Hindernis, etwa ein Baum oder Fahrzeug, auf den Gleisen liegen geblieben ist“, erläutert El-Moutaouakil. Er hat berechnet, dass die Deutsche Bahn damit ihre Ausgaben für die Überwachung von Gleisanlagen und Bahnübergängen halbieren könnte.
„Das System ist viel schneller zu installieren als das herkömmliche und braucht weniger Wartung, so dass auch hier Geld gespart werden kann“, sagt der Kommunikationstechniker. Die Deutsche Bahn will dem Saarbrücker Entwicklerteam nun eine Testanlage zur Verfügung stellen, um die Technologie möglichst schnell zur Marktreife zu bringen. Gemeinsam mit der Informatikerin Vera Bazhenova und der Betriebswirtin Savina Takeva hat Houssam El-Moutaouakil dafür die Firma senvisys mit Sitz im Starterzentrum gegründet. Die IT-Experten haben außerdem bereits ein EXIST-Gründerstipendium der Bundesregierung erhalten, um ihre Unternehmensgründung voranzutreiben.
Hintergrund: Startup-Wettbewerb DB Pitch Infrastructure 4.0
Für den Startup-Wettbewerb der Deutschen Bahn hatten 120 Jungunternehmer ihre Ideen eingerichtet, elf kamen in die engere Wahl und durften jetzt mit einem fünf-minütigen Kurzvortrag die Jury von ihren Geschäftsideen überzeugen. Gefragt waren digitale Geschäftsmodelle und Technologien, mit denen die Infrastruktur der Deutschen Bahn modernisiert werden kann. Neben dem Saarbrücker Startup senvisys kamen drei weitere Firmen aufs Siegertreppchen. Alle Jungunternehmen erhielten jeweils 25.000 Euro Preisgeld. Sie dürfen außerdem drei Monate lang kostenlose Büroräume nutzen, um ihre Ideen in Begleitung von erfahrenen Mentoren zur Marktreife zu bringen.
Weitere Informationen:
www.deutschebahn.com/de/presse/presseinformationen/pi_it/9580690/ubd20150624.html
Fragen beantwortet:
Houssam El-Moutaouakil
Starterzentrum der Universität des Saarlandes
Mail: kwt.wehrle@univw.uni-saarland.de
Tel. +49 (681) 302 64948
Quelle: idw
Schönheit zahlt sich auf dem Arbeitsmarkt aus
Mark Fallak Presse- und Öffentlichkeitsarbeit
Institut zur Zukunft der Arbeit
Gutes Aussehen erhöht die Jobchancen und schlägt sich in einem Einkommensplus von bis zu einem Fünftel nieder. Zu den Hauptgründen zählt die Diskriminierung durch Arbeitgeber und Kunden. Hinzu kommt, dass attraktive Menschen meist selbstbewusster auftreten und sich häufiger für besser bezahlte Jobs bewerben. Die Erkenntnisse der internationalen Wissenschaft zur Bedeutung von Schönheit im Job hat die Ökonomin Eva Sierminska jetzt für das Online-Kompendium „IZA World of Labor“ des Bonner Instituts zur Zukunft der Arbeit (IZA) zusammengetragen.
Laut Studie fällt der „Schönheits-Bonus“ in Deutschland größer aus als in allen anderen untersuchten Ländern: Schöne Frauen verdienen hierzulande rund 20 Prozent mehr als der Durchschnitt, attraktive Männer immerhin etwa 14 Prozent. Viele Arbeitgeber, Kollegen und Kunden bevorzugen attraktive Mitarbeiter – nicht nur der Optik wegen, sondern auch, weil gut aussehende Menschen als vertrauenswürdiger, kompetenter und produktiver gelten. Körperliche Attraktivität spielt daher insbesondere in Berufen mit häufigem Kundenkontakt eine Rolle.
Auch Lehrer neigen dazu, hübsche Schüler bevorzugt zu behandeln. So wird bereits in jungen Jahren der Grundstein für die späteren Arbeitsmarktvorteile gelegt. Denn gut aussehende Jugendliche nehmen auch häufiger an sozialen und sportlichen Aktivitäten teil, die wiederum Selbstvertrauen, Teamgeist und weitere „Soft Skills“ fördern. Schöne Menschen streben daher auch von sich aus in besser bezahlte Jobs. Eine Untersuchung von Juristenkarrieren in den USA zeigt beispielsweise, dass attraktive Arbeitnehmer überdurchschnittlich oft aus dem öffentlichen Dienst in die besser bezahlte Privatwirtschaft wechseln.
In Deutschland weist hingegen ausgerechnet die Berufsgruppe der mittleren Beamten den höchsten Anteil an schönen Menschen auf. Das geht aus der sogenannten ALLBUS-Umfrage hervor, für die stichprobenartig 3.500 Männer und Frauen unter anderem zu Gehalt und Beruf befragt werden. Zu Beginn der persönlichen Befragung halten die Interviewer auf einer Skala von 1 bis 11 fest, wie attraktiv sie ihren Gesprächspartner finden. Über die Hälfte der mittleren Beamten erzielt dabei eine Punktzahl von 8 bis 11. Ähnlich gut schneiden Manager und leitende Angestellte ab. Unter Landwirten und Arbeitern gilt nicht einmal jeder vierte als attraktiv.
Um die Benachteiligung weniger gut aussehender Menschen auf dem Arbeitsmarkt abzumildern, plädiert die Ökonomin Eva Sierminska für die freiwillige Einführung anonymisierter Bewerbungsverfahren: „In Deutschland sind Bewerbungsfotos noch immer Standard. Wer vom ersten optischen Eindruck her nicht überzeugt, wird häufig gar nicht erst zum Vorstellungsgespräch eingeladen. Anonymisierte Bewerbungen würden helfen, diese oft unbewusste Diskriminierung durch Personaler zu reduzieren.“ Im Vorstellungsgespräch und im betrieblichen Alltag gehe es dann nicht nur um Aussehen, sondern auch um Auftreten. „Bewerbercoachings und Mitarbeiterschulungen zu Kleidung, Styling und Verhalten können dazu beitragen, eine positivere Wirkung auf Arbeitgeber und Kunden zu erzielen“, empfiehlt Sierminska.
Die englischsprachige Studie ist über IZA World of Labor abrufbar:
Eva Sierminska, Does it pay to be beautiful?
http://wol.iza.org/articles/does-it-pay-to-be-beautiful
DOI: 10.15185/izawol.161
Quelle: idw
Fischereiliche Evolution lässt Fische schrumpfen
Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
Beim Angeln und Fischen geht es wie so oft darum: Wer zieht den größten Fisch an Land? Die größenselektive Fischerei bevorzugt das Überleben von kleinen, scheuen Fischen. Durch die sogenannte fischereiliche Evolution passen sich die Bestände an. In die Röhre gucken Fischer und Angler, die immer kleinere Fische erbeuten. Darauf weist eine internationale Gruppe von Wissenschaftlerinnen und Wissenschaftlern unter der Leitung von Prof. Dr. Robert Arlinghaus vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und der Humboldt-Universität zu Berlin im Fachmagazin Evolutionary Applications (Jahrgang 8, S. 597-620) hin.
Große Fische erzielen am Markt höhere Preise und sind Garant für zufriedene Angler. Doch die großen Fische sind bedroht: Fast alle Fischbestände weltweit werden mit Mindestmaßen bewirtschaftet. Auch wirken Netze und Langleinen in der Regel größenselektiv. Die Folge: Große Fische landen bevorzugt im Kescher oder auf Deck, während die kleinen, noch unreifen bzw. erstmalig geschlechtsreif werdenden Tiere geschont werden. Scharfe Befischung führt zur starken Verjüngung der Bestände, die Durchschnittsgröße der Fische in Fang und Bestand geht zurück. Das ist zunächst ein demografischer Effekt, der bereits innerhalb einer Fischereisaison spürbar wird und nichts mit Evolution zu tun hat. Wenn der Fischereidruck aber über mehrere Fischgenerationen anhaltend hoch ist, kann Fischerei auch zu genetischen (d. h. evolutionären) Veränderungen führen, weil die die Fischerei überlebenden Tiere bestimmte Erbanlagen in sich tragen, die ihnen trotz intensiver Befischung das Überleben und die Vermehrung garantieren. Beispielsweise sollten die Individuen bevorteilt werden, die möglichst lange möglichst klein bleiben.
Allerdings ist das Wachstum von Fischen in der Natur sehr variabel und abhängig von Futterverfügbarkeit, Temperatur und vielen anderen natürlichen Faktoren. Das macht es so schwierig, auf Basis von Freilandstudien im Meer oder in Seen zweifelsfrei zwischen rein demografisch-ökologischen und evolutionären Ursachen für Köpergrößenveränderungen in befischten Beständen zu unterscheiden. Entsprechend kontrovers wird die Hypothese zur fischereilichen Evolution seit dem Anfang des 20. Jahrhunderts in Fachkreisen debattiert.
In einem einmaligen fast zehn Jahre andauernden Selektionsexperiment an Zebrafischen haben die Fischereiwissenschaftler Dr. Silva Uusi-Heikkilä und Prof. Dr. Robert Arlinghaus zusammen mit einem Team von internationalen und nationalen Kooperationspartnern nun klare Belege für die sogenannten fischereiliche Evolution vorgelegt. Größenselektiv befischte Bestände büßten in nur fünf Generationen 7% ihrer Maximalgröße ein. Das ganze hatte auch Auswirkungen auf die Gesamtanzahl abgegebener Eier, die bei den befischten Populationen geringer war als bei den unselektiv befischten Beständen. Auch die Eiqualität litt, die bei den größenselektiv befischten Populationen geringer war als bei den Vergleichsbeständen.
Die Forscherinnen und Forscher wiesen überdies nach, dass in den befischten Populationen Veränderungen in den Erbanlagen stattgefunden hatten – ein zweifelsfreier Beleg für die fischereiliche Evolution. „Dass diese Effekte bereits nach fünf Generationen eintraten, zeigt wie schnell sich scharfe Befischung in den Genen niederschlagen kann“, erläutert die Erstautorin der Studie Silva Uusi-Heikkilä, die jetzt als PostDoc an der University in Turku in Finnland arbeitet. „Weil die meisten kommerziell befischten Populationen längere Generationszeiten haben als Zebrafische, sollten sich Effekte fischereilicher Evolution innerhalb von 100 Jahren in der Natur nachweisen lassen“, ergänzt der Studienleiter Prof. Dr. Robert Arlinghaus. „Natürlich lassen sich die Zebrafischstudien unter Laborbedingungen nicht 1:1 auf die Bedingungen im Freiland übertragen. Der Wert unserer Studie liegt in dem Nachweis von Ursache – Fischerei – und Wirkung – genetische Veränderung. Diese Belegführung ist im Freiland nicht möglich. Unsere Ergebnisse zeigen, dass Fischerei rasche Evolution auslösen und einen genetischen Niederschlag finden kann“, konstatiert Arlinghaus.
Die Forscherinnen und Forscher vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und der Humboldt-Universität zu Berlin fanden überdies heraus, dass die sich an den Fischereidruck anpassenden Zebrafische nicht nur kleiner, sondern in ihrem Verhalten auch scheuer waren. Für die genetisch angepassten Fische ist die Evolution übrigens überlebensnotwendig und daher positiv zu bewerten. Computermodelle zeigten, dass die angepassten Zebrafischpopulationen unter befischten Bedingungen eine um 20% erhöhte Populationswachstumsrate aufwiesen als die nicht angepassten Vergleichstiere. „Fischereiliche Evolution, die sich über Körpermerkmale hinaus auch in den Genen niederschlägt, ist also entgegen anderslautenden Behauptungen nicht unbedingt kontraproduktiv für die Populationen. Allerdings dürften Fischer und Angler in die Röhre gucken, weil die gefangenen Tiere nicht mehr ihre maximale Länge erreichen und überdies immer schlechter zu fangen sind“, erläutert Arlinghaus.
Arlinghaus fasst die Kernbotschaft zusammen: „Die Art und Weise der Befischung von Süß- und Salzwasserfischen ist vergleichbar einer Zucht durch Auslese, allerdings mit unbeabsichtigten Züchtungsergebnissen“. Es müsse bedacht werden, dass Fischerei-induzierte genetische Veränderungen nur sehr langsam umkehrbar sind.
Im Kern geht es also nicht nur um ein interessantes wissenschaftliches Phänomen, sondern um etwas, das für die globale Fischwirtschaft von Relevanz ist. Das zeigt auch ein populationsdynamisches Modell an den Zebrafischen: Nach einem simulierten Fangmoratorium erholte sich der evolvierte Fischbestand deutlich langsamer als die unselektierten Vergleichspopulationen. „Die an die Fischerei angepassten Tiere haben Probleme, mit natürlichen Umweltbedingungen umzugehen, in der der menschliche Einfluss durch den Fangstopp eliminiert wird“, bemerkt Silva Uusi-Heikkilä.
„Darüber hinaus entziehen sich durch die Evolution die Fische immer besser dem Zugriff durch den Menschen. Dadurch reduziert sich auch die Möglichkeit, auf Basis von Fangmengen und anderen Fangdaten Fangmengen etwas über die Fischmenge in den Ozeanen und Seen auszusagen“, ergänzt Robert Arlinghaus.
Was ist zu tun? Die Autoren schlagen vor, das Management der Fischbestände in den Weltmeeren und andernorts auf einem evolutionsbiologischen Ansatz aufzubauen, sofern sich die in dem Experiment nachgewiesenen Effekte auch in der Natur zeigen. Diesen Beleg muss weiterführende Forschung erst vorlegen. Die entsprechenden Techniken werden derzeit vorsorglich in mehreren Gruppen weltweit erforscht. Arlinghaus: „Es würde zunächst einmal helfen, besonders empfindliche Bestände zu identifizieren.“ In der Folge sei es wichtig festzustellen, welche Veränderungen genau der Fischereidruck hervorrufe und welchen Einfluss das auf den Wert der Fischbestände für die Fischereiwirtschaft und die hobbymäßige Angelfischerei hat. „Eine Möglichkeit ist, den Fischereidruck insgesamt zu reduzieren und weniger selektiv wirken zu lassen. Man könnte sowohl die kleinen wie auch die sehr großen Tiere von der Fischerei ausnehmen, z. B. durch Entnahmefenster“, so das Fazit von Arlinghaus. Weiterführende Modelle haben nämlich inzwischen gezeigt, dass durch Entnahmefenster im Unterschied zu Mindestmaßen Schnell- statt Kleinwüchsigkeit gefördert wird. Und darüber freuen sich mit Sicherheit die Angler und Fischer.
Quelle
Uusi-Heikkilä, S., Whiteley, A.R., Kuparinen, A., Matsumura, S., Venturelli, P.A., Wolter, C., Slate, J., Primmer, C.R., Meinelt, T., Killen, S.S., Bierbach, D., Polverino, G., Ludwig, A., Arlinghaus, R. (2015). The evolutionary legacy of size-selective harvesting extends from genes to populations. Evolutionary Applications, 8: 597-620. (download unter http://besatz-fisch.de/images/stories/Papers/Papers_2015/uusi-heikkilae_evol_app…).
Kontakt
Wissenschaftler:
Prof. Dr. Robert Arlinghaus
arlinghaus@igb-berlin.de
www.igb-berlin.de/mitarbeitende-igb.html?show=211
www.besatz-fisch.de
Weitere Informationen zum IGB
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume. Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit. Das IGB gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.
Weitere Informationen:
http://www.igb-berlin.de
http://www.besatz-fisch.de
Quelle: idw
Arbeitsschutz hinkt beim Einsatz mobiler und digitaler Technologien hinterher
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Analyse in den WSI-Mitteilungen
Mobile und digitale Technologien verändern die Arbeitswelt. Nicht selten wird ständige Erreichbarkeit zum Stressfaktor. Geltende Arbeitsschutzgesetze hinken in wichtigen Punkten hinterher, zeigt eine von der Hans-Böckler-Stiftung geförderte Analyse.
Dank Smartphones, Tablets oder Notebooks ist Arbeit nicht mehr zwangsläufig an einen bestimmten Ort oder feste Zeiten gebunden. Dadurch ergeben sich neue Möglichkeiten, aber auch neue Belastungen, etwa wenn der Arbeitgeber permanente Erreichbarkeit fordert. Die Regeln, die Beschäftigte schützen sollen, werden in vielen Betrieben missachtet oder gehen nicht weit genug, schreibt Dr. Tanja Carstensen in den WSI-Mitteilungen.* Die Soziologin von der TU Hamburg-Harburg forscht in dem von der Hans-Böckler-Stiftung geförderten laufenden Projekt „Arbeit 2.0. Neue Anforderungen an Beschäftigte und ihre Interessenvertretungen im Umgang mit Social Media“.
„Mit dem Bearbeiten von beruflichen E-Mails von zu Hause, in der Bahn, im Bus, in Hotelzimmern, in Cafés, auf Dienstreise, nach Feierabend, am Wochenende oder im Urlaub hat sich Arbeiten ‚immer‘ und ‚überall‘ als Normalzustand etabliert“, so die Soziologin. Zwar empfinde nicht jeder dies als Belastung. Es könne sogar entlastend sein, sich gut informiert zu fühlen. Dabei bestehe jedoch die Gefahr, dass das Privatleben der Arbeit untergeordnet wird und es zu einer Verlängerung der Arbeitszeit kommt.
Dem DGB-Index Gute Arbeit 2012 zufolge müssen 27 Prozent der Beschäftigten sehr häufig oder oft nach Dienstschluss erreichbar sein (siehe auch die Infografik; Link unten). Dies kollidiere mit den gesetzlich vorgeschriebenen Ruhezeiten, die grundsätzlich elf Stunden ohne Unterbrechung betragen müssen, so Carstensen. „Erreichbarkeit“ gelte zwar nicht generell als Arbeitszeit. So wie bei der Rufbereitschaft stelle jedoch jede Arbeitsaufnahme – und sei sie noch so kurz wie etwa das Lesen einer beruflichen Mail – eine Unterbrechung der Ruhezeit dar.
Die Arbeitgeber könnten kaum kontrollieren, unter welchen Bedingungen die Angestellten außerhalb der Firma arbeiten. Schließlich gelte die Arbeitsstättenverordnung nur auf dem Gelände des Betriebs. Bei mobiler Arbeit entspreche die Umgebung – zum Beispiel im Zug, Auto oder Hotelzimmer – häufig nicht den Anforderungen an einen gesunden Arbeitsplatz. Zudem seien privat angeschaffte Geräte meist nicht für längeres Arbeiten gedacht. Nach Ansicht von Carstensen besteht hier „eine massive Regelungslücke“.
Ein weiteres Problem: Die Anzahl der Kommunikationskanäle – Mails, Chats oder Soziale Netzwerke – nimmt zu, was zu Überforderung führen könne. Zumal sich die Angestellten häufig mit widersprüchlichen Anweisungen konfrontiert sähen. So stünden der allgemeinen Aufforderung, sich in Sozialen Medien zu engagieren und mitzudiskutieren, oft unterschiedliche Kulturen in einzelnen Abteilungen gegenüber, die dies als Zeitverschwendung betrachten. Diesen Widerspruch zu lösen, liege dann in der Eigenverantwortung der Beschäftigten.
Die Wissenschaftlerin sieht mehrere Handlungsansätze: Auf politischer Ebene gingen Vorstöße wie eine „Anti-Stress-Verordnung“ oder das „Recht auf Nicht-Erreichbarkeit“ in die richtige Richtung. Die Arbeitsstättenverordnung könnte auf mobile und häusliche Arbeitsplätze ausgeweitet werden. Denkbar sei auch eine Modernisierung der Bildschirmarbeitsverordnung, die regelt, dass nur solche Geräte für die berufliche Nutzung zugelassen werden, die ergonomische Mindestanforderungen erfüllen. Zudem biete das Betriebsverfassungsgesetz einige Möglichkeiten: Zum Beispiel könnten Betriebsräte die Geräteausstattung mitbestimmen und ungeeignete Geräte ausschließen.
Solche Lösungen allein reichten aber nicht aus, wenn Beschäftigte ihre Mails nach Feierabend bearbeiten müssen, weil sie die Menge anders nicht bewältigen können. Dann sei es ebenso notwendig, eine Diskussion über Arbeitszeiten, Organisation oder Kommunikationskultur in den Unternehmen zu führen. „Technik ist nie alleiniger Auslöser veränderter Arbeitsbedingungen und -belastungen“, so die Wissenschaftlerin. Die technologischen Entwicklungen dürften daher nicht isoliert von sozialen, politischen und ökonomischen Veränderungen betrachtet werden.
Kontakt in der Hans-Böckler-Stiftung
Dr. Elke Ahlers
WSI, Expertin „Qualität der Arbeit“
Tel.: 0211-7778-344
E-Mail: Elke-Ahlers@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Weitere Informationen:
http://media.boeckler.de/Sites/A/Online-Archiv/16034 – Tanja Carstensen: Neue Anforderungen und Belastungen durch digitale und mobile Technologien. In: WSI-Mitteilungen 3/2015.
http://www.boeckler.de/hbs_showpicture.htm?id=54169&chunk=1 – Infografik zum Download. In Böckler-Impuls 08/2015
Quelle: idw
Wasserwirtschaft: FH Köln entwickelt naturnahes Verfahren gegen Stauseen-Verlandung
Petra Schmidt-Bentum Referat für Kommunikation und Marketing, Team Presse- und Öffentlichkeitsarbeit
Fachhochschule Köln
An der Fakultät für Bauingenieurwesen und Umwelttechnik der FH Köln arbeiten Wissenschaftler im Forschungsprojekt „Kontinuierliche Lösung und Aufnahme von Sedimentablagerungen“ (KLASed) an einem einfachen, kostengünstigen und CO2-freien Verfahren, um Stauseen nachhaltig von Sedimentablagerungen zu befreien. Dabei wurde ein Messgerät entwickelt, das jetzt zum Patent angemeldet ist.
Rund 16 Prozent der weltweiten Energie wird durch Wasserkraft erzeugt. Neben unkalkulierbaren Wetter- und Klimafaktoren – der US-Bundesstaat Kalifornien leidet seit Jahren unter Trockenheit – birgt auch die Verlandung der Stauseen ein großes Risiko für die Wasser- und Energieversorgung: Durch die sich ansammelnden Stoff- und Gesteinsablagerungen verlieren die Stauseen große Mengen ihrer Speicherkapazität.
Stauseen wie der US-amerikanische Glen-Canyon-Damm, der Drei-Schluchten-Stausee in China oder der ägyptische Assuan-Staudamm müssen alle ein bis zwei Jahre mit aufwendigen Verfahren von Sedimentablagerungen befreit werden. Alleine beim Glen-Canyon-Damm kostet das jeweils rund sechs Millionen US-Dollar. Die Stauseen müssen dabei teilweise abgelassen und ausgebaggert werden. Auch deutsche Talsperrenbetreiber investieren in die Instandhaltung mehrere Millionen Euro. Sedimente und Schwebstoffe sind für fließende und stehende Gewässer sehr wichtig: „Sie schützen das Gewässer vor Erosion und sind ein wichtiger Lebensraum für die Bodenlebewesen“, sagt Yannick Ratke, Wirtschaftsingenieur am Institut für Baustoffe, Geotechnik, Verkehr und Wasser. Sedimentation und Erosion ist ein natürlicher Prozess in Flüssen. Schwebeteilchen sinken auf den Grund des Gewässers und bilden dort einen Bodensatz. Stauseen unterbinden diesen natürlichen Vorgang: Während sich am Grund der Seen die Ablagerungen sammeln, führen die Flüsse nur noch wenige Schwebstoffe mit sich. Das führt flussabwärts zu vermehrter Erosion.
2011 hat das Unternehmen DB Sediments zusammen mit der RWTH Aachen eine kostengünstige und naturnahe Lösung für die Verlandung der Stauseen entwickelt. Dabei fährt eine schwimmende Arbeitsplattform kontinuierlich über das Gewässer. Die Ablagerungen auf dem Boden werden über eine Fräse gelockert, schichtweise vom Boden gelöst, wie bei einem Staubsauger abtransportiert und in den Flussablauf geleitet. Dieses bisher einzigartige Verfahren wird jetzt an der Fachhochschule Köln im Forschungsprojekt KLASed optimiert. Unter der Leitung von Prof. Dr. Christian Jokiel arbeiten die Ingenieure Yannick Ratke und Timo Fahlenbock daran, die Sedimentschichten mit einem Wasserstrahl vollautomatisch vom Boden zu lösen und in ökologisch sinnvollen Konzentrationen in das fließende Gewässer abzugeben. Projektpartner sind die Firmen DB Sediments GmbH und die RWTH Aachen. Das Bundesministerium für Bildung und Forschung fördert KLASed mit rund 311.000 Euro.
Bei den Untersuchungen der FH Köln werden Form, Art und Größe des kombinierten Wasserstrahldüsen-Saugkopfes und des Absaug-Rohres optimiert. Dessen Abstand zur Sedimentoberfläche ist ebenso entscheidend wie der entsprechende Wasserdruck der Düsen – damit nicht zu viele Sedimente gleichzeitig gelöst werden und eine Trübung im Stausee entsteht. „Größe, Struktur und organische Anteile der Sedimente sind unterschiedlich. Auf diese Eigenschaften muss der Wasserstrahl angepasst werden, der sich unter Wasser anders verhält, als über Wasser“, so Ratke. „Viele dieser Ablagerungen haben sich so sehr verfestigt, dass hohe Wasserdrücke von bis zu 120 bar nötig sind um diese zu lösen“.
Das Erodieren der Sedimente, das je nach Beschaffenheit der Spüldüse und des Wasserdrucks variiert, ist ebenso Gegenstand der Untersuchungen wie die Dichte und Konzentration der gelösten Schwebstoffe. Dazu hat das Kölner Team ein neuartiges Messgerät entwickelt, das jetzt zum Patent angemeldet ist. Es misst vollautomatisch die Konzentration der Schwebstoffe im Wasser. Im Gegensatz zu dem gängigen Coriolis-Messgerät ist der Prototyp der FH Köln kostengünstig, leicht und misst sehr präzise – auch in Gewässern, die durch ihre hohe Biomasse eine hohe Methanemmision aufweisen. Dadurch können die Wissenschaftler die Förderrate des Sediments flexibel auf die individuellen Gegebenheiten der Stauseen anpassen.
Das Verfahren ist eine Schlüsseltechnologie zur CO2-freien Energierzeugung und -speicherung aus Wasserkraft“, sagt Prof. Dr. Christain Jokiel. „Es schafft als bisher einziges Verfahren die in den Europäischen Wasserrichtlinien geforderte Durchgängigkeit von Stauanlagen für Sedimente.“ KLASed trifft bereits auf internationales Interesse. Das zeigte zum Beispiel die äußerst positive Resonanz US-amerikanischer Wissenschaftler und Behörden auf der Joint Federal Interagency Conference on Sedimentation and Hydrologic Modeling (SEDHYD 2015) in Reno, Nevada, auf der das Kölner Team im Frühjahr seine Forschungsergebnisse vorgestellt haben.
Die Fachhochschule Köln ist die größte Hochschule für Angewandte Wissenschaften in Deutschland. Mehr als 23.000 Studierende werden von rund 420 Professorinnen und Professoren unterrichtet. Das Angebot der elf Fakultäten und des ITT umfasst mehr als 80 Studiengänge aus den Ingenieur-, Geistes- und Gesellschaftswissenschaften und den Angewandten Naturwissenschaften. Die Fachhochschule Köln ist Vollmitglied in der Vereinigung Europäischer Universitäten (EUA) und gehört dem Fachhochschulverband UAS7 an. Die EU-Kommission bestätigt der Hochschule internationale Standards in der Personalentwicklung der Forscherinnen und Forscher durch ihr Logo „HR Excellence in Research“. Die Fachhochschule Köln ist zudem eine nach den europäischen Öko-Management-Richtlinien EMAS und ISO 14001 geprüfte umweltorientierte Einrichtung und als familiengerechte Hochschule zertifiziert.
Weitere Informationen:
http://www.fh-koeln.de
http://www.facebook.de/fhkoeln
http://www.twitter.com/fhkoeln
Quelle: idw
Solardächer produzieren Strom für Fahrzeuge
Dr. Katharina Jeorgakopulos Presse und Kommunikation
Hochschule für Angewandte Wissenschaften Hamburg
Studentische Industriekooperation zwischen HAW Hamburg und Webasto erarbeitet Ergebnisse für EU-Zertifizierungsprozess von Solardächern zur Verbesserung der Öko-Bilanz von Fahrzeugen.
Unter der Leitung von Dr.-Ing. Volker Skwarek, Professor für technische Informatik an der HAW Hamburg, erarbeiteten sechs Studierende des hochschulübergreifenden Studienganges Wirtschaftsingenieurwesen (HWI) im Rahmen ihrer Semesterarbeit bei dem Industriebetrieb Webasto Ergebnisse für einen EU-Zertifizierungsprozess von Solardächern. Webasto produziert Solardächer für PKWs, die von der EU als Öko-Innovationen anerkannt sind. Die Dächer liefern Strom für den Fahrbetrieb und senken dementsprechend die Öko-Bilanz der Fahrzeuge. HAW-Studierende konnten nun in einer Simulation genauere Berechnungen zur Energielieferung treffen, die in die Zertifizierung mit einfließen und von Webasto der EU-Kommission zur Bewertung vorgelegt werden. Die Ergebnisse sollen langfristig veröffentlicht werden.
Der Automobilzulieferer mit Sitz in Stockdorf bei München entwickelt und produziert seit über 25 Jahren Solardachsysteme. Die im Dach integrierten Solarzellen produzieren dabei Strom, der in die Batterie eingespeist wird und in der Folge die Lichtmaschine durch Pufferung der Nebenaggregate entlastet. Somit werden der Kraftstoffverbrauch und damit auch der CO2-Ausstoß eines Fahrzeugs gesenkt. Aus diesem Grund hat die Europäische Kommission Solardächer für PKWs von Webasto als Öko-Innovation anerkannt.
Unter Öko-Innovationen versteht man Technologien, die nachweislich den CO2-Ausstoß von Fahrzeugen senken. Das Potenzial zur CO2-Reduzierung von Öko-Innovationen kann nicht vollständig mit dem offiziellen Testverfahren (NEFZ) gemessen werden und wird deshalb rechnerisch ermittelt. Wird die Öko-Innovation von der EU-Kommission in einem Zertifizierungsverfahren anerkannt, kann ein Automobilhersteller die Kohlendioxid-Emission von Neuwagen senken, wenn er sie in seine PKWs integriert.
Anhand einer Simulation hat Webasto ein solches Zertifizierungsverfahren bei der EU-Kommission für sein PKW-Solardach bereits durchgeführt. Die vorhandene Simulation musste nun für leichte Nutzfahrzeuge (LNF) abgeändert werden. Hier setzte das Industriekooperationsprojekt der HAW-Studierenden und Webasto an. Ihr Projekt hatte die Zielsetzung, den Faktor zu berechnen, der die von Nutzfahrzeugen nutzbare Sonnenenergie beschreibt. Dafür übertrugen die Studierenden die für PKW bekannten Einflussparameter auf diese, erweiterten sie und modellierten sie mathematisch. Das überraschende Ergebnis: Das Fahrverhalten beeinflusst den Solar-Nutzungsfaktor und somit die potentielle CO2-Minderung entscheidend mit. In der Simulation wurden deswegen verschiedenste Faktoren wie beispielsweise Fahr- und Standzeit, Pausendauer oder Anteile der Stadt- und Überlandfahrten berücksichtigt. In einem zweiten Schritt ist geplant, einige Fahrzeuge mit Sensoren auszustatten, die den Einfall der Sonne messen, um die errechneten Ergebnisse zu validieren.
Kontakt:
HAW Hamburg
Fakultät Life Sciences/ Department Wirtschaftsingenieurwesen HWI
Prof. Dr.-Ing. Volker Skwarek/Professor für technische Informatik
Tel.: +49.40.428 75 – 6435 / 04533.709801
volker.skware@haw-hamburg.de
Weitere Informationen:
http://www.haw-hamburg.de
http://www.webasto-group.com/de
Quelle: idw
Moderne Therapien bei Krampfadern und offenem Bein
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Nahezu jeder Zweite in Deutschland leidet an Krampfadern – nicht nur harmlose Schönheitsfehler, sondern Ursache für eine Überlastung der tiefen Venen, tiefe Venenthrombosen und verschiedene Hautveränderungen die bis zum „offenen Bein“ führen können. Durch rechtzeitige Behandlung lassen sich diese Komplikationen verhindern. Bei den Betroffenen besteht eine Schwäche der Gefäßwände: Die Venen weiten sich, die Venenklappen schließen nicht mehr vollständig und das Blut staut sich in den Beinen. In der Folge schwellen die Beine an und schmerzen. Risikofaktoren sind neben dem Alter und Übergewicht auch langes Sitzen oder Stehen im Beruf.
Radiowellen lassen Venen von innen schrumpfen
In der Behandlung der sogenannten Stammvarikose – einer Aufweitung der großen, oberflächennahen Venen in den Beinen – kommen heute weitestgehend schonende, minimal-invasive Methoden wie die Radiofrequenzbehandlung zum Einsatz: Die Ärzte führen unter lokaler Betäubung einen dünnen Katheter in die defekten Venen ein. Das Katheterende erhitzt mittels Radiowellen die Innenwand der Venen kontrolliert auf 120 Grad Celsius, woraufhin sich die Venen dauerhaft zusammenziehen und abgebaut werden. Hier kann in Zukunft kein Blut mehr versacken. Das umliegende Gewebe wird nicht geschädigt und es treten kaum Beschwerden auf. Der Patient kann bereits 30 Minuten nach dem Eingriff die Klinik wieder verlassen. Derzeit übernehmen nur die privaten Kassen den Eingriff, gesetzlich Versicherte müssen die Kosten in der Regel noch selbst tragen.
Umfassendes Versorgungskonzept für offene Beine
Für die Behandlung chronischer Wunden an den Beinen – bei arteriellen Durchblutungs-störungen, Venenschwäche, Rheuma, Diabetes oder anderen Grunderkrankungen – gibt es an der Universitäts-Hautklinik ein eigenes Versorgungskonzept: Klinikärzte und ein speziell geschultes Pflegeteam betreuen die Patienten gemeinsam mit niedergelassenen Hautärzten durchgängig von der Diagnostik bis zur Nachsorge. Einer genauen und interdisziplinären Abklärung möglicher Ursachen folgen die Therapie der zugrundeliegenden Erkrankung und die intensive Wundbehandlung bis hin zur Hauttransplantation im Rahmen eines stationären Aufenthaltes. Seit dem Umzug ins Neuenheimer Feld gibt es als Anlaufstelle für die Patienten die Wundambulanz mit eigenen Räumlichkeiten und Sprechstunden.
Kontakt:
Sarah Müller
Allgemeines Oberarztsekretariat
Universitäts-Hautklinik Heidelberg
Telefon: 06221 56-8511
E-Mail: Sarah.Mueller@med.uni-heidelberg.de
Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.600 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg.
Weitere Informationen:
https://www.klinikum.uni-heidelberg.de/fileadmin/Haut/Fortbildungen/Venentag.pdf Flyer Veneninformationstag
https://www.klinikum.uni-heidelberg.de/Wund-und-Ulcusambulanz.135965.0.html?&… Wund- und Ulcusambulanz, Universitäts-Hautklinik Heidelberg
https://www.klinikum.uni-heidelberg.de/Hautklinik.113977.0.html Startseite Universitäts-Hautklinik Heidelberg
Quelle: idw
Bioenergie am Oberrhein – Es ist noch Luft nach oben
Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie
Das trinationale vom KIT koordinierte Forschungsprojekt OUI Biomasse hat die Potenziale einer nachhaltigen Nutzung von Biomasse am Oberrhein untersucht und stellt am 26. Juni im Akademiehotel Karlsruhe seine Ergebnisse sowie einen Leitfaden für die künftige Entwicklung vor. Das Fazit der Forscher: Ein weiterer Ausbau der Biomasseproduktion ist wegen des weiteren Flächenbedarfs nur in begrenztem Umfang möglich. Großes Potenzial sehen die Forscher dagegen bei der Effizienzsteigerung. Ihre Empfehlung für die Oberrheinregion: Entwicklung effizienterer Technologien, verstärkte Mehrfachverwertung von Biomasse in der Nutzungskette sowie grenzüberschreitender Wissensaustausch.
Das Elsass in Frankreich, die Nordwestschweiz mit fünf Kantonen, große Teile Badens und die südliche Pfalz – sie alle sind Teil der geographisch eigenständigen Oberrheinregion. Hier stoßen drei Ländergrenzen aufeinander, hier leben fast 6 Millionen Franzosen, Schweizer und Deutsche in einem milden Klima, hier gibt es ausgedehnte Wälder und intensiv genutzte Äcker, Felder und Weiden. Für die Produktion von Biomasse – etwa in Form von Raps, Mais oder Holz – bietet die Oberrheinregion hervorragende Bedingungen. Mittels Verbrennung oder Vergärung lässt sich daraus Bioenergie – also Strom und Wärme – gewinnen, die erneuerbar ist und kaum mehr Kohlenstoff freisetzt, als zuvor beim Wachstum der Pflanzen gebunden wurde. Doch die Biomasseproduktion steht in Flächenkonkurrenz zum Anbau von Nahrungs- und Futtermitteln und wird unter anderem deshalb auch kritisch gesehen.
In der Oberrheinregion wird Biomasse schon heute intensiv zur Energiegewinnung genutzt, jedoch sind durchaus regionale Unterschiede vorhanden. Während im deutschen Teil vor allem auf Energiepflanzen in Form von Holz und Mais gesetzt wird, ist in der Schweiz die Gewinnung von Bioenergie aus organischen Abfällen weit verbreitet. Im Elsass ist der Anteil von Bioenergie im Vergleich zur Schweiz und Deutschland etwas geringer, da Frankreich nach wie vor stark auf Atomstrom setzt.
Trotz der gemeinsamen Geographie gab es bislang weder eine grenzüberschreitende Strategie zur nachhaltigen Biomassenutzung, noch ein etabliertes Netzwerk zur Umweltforschung für die gesamte Region. Das vom KIT koordinierte trinationale INTERREG-Projekt „Innovationen für eine nachhaltige Biomassenutzung in der Oberrheinregion“, kurz OUI Biomasse – hat sich zum Ziel gesetzt, genau diese Lücke zu füllen. Die Forscher der 19 Partnereinrichtungen aus allen drei Ländern haben sich der Frage gewidmet, wie sich die Bioenergiegewinnung am Oberrhein nachhaltig und umweltschonend weiterentwickeln lässt.
Ein zentrales Ergebnis der Forschungsarbeit: Ein weiterer Ausbau der für die Produktion von Biomasse benötigten Flächen ist in der bereits intensiv bewirtschafteten Oberrheinregion nur in begrenztem Umfang möglich. Weitere Steigerungen gingen auf Kosten geschützter oder für den Nahrungsmittelanbau genutzter Flächen und seien deshalb nicht empfehlenswert.
Großes Potenzial sehen die Forscher dagegen in der Effizienzsteigerung bei den unterschiedlichen Biomasseverwertungspfaden. Hier empfehlen sie einen starken Fokus auf die Entwicklung neuer Technologien sowie eine verbesserte auch mehrfache und stoffliche Verwertung besonders bei Abfällen. Beispielsweise sollten feuchte Haushaltsabfälle aus der Biotonne vor der Verbrennung oder Kompostierung verstärkt zur Biogasherstellung genutzt werden. Biogasanlagen kämpfen zudem häufig mit dem Problem, dass die vor Ort entstehende Wärme aufgrund fehlender Infrastruktur oder Nachfrage nicht genutzt werden kann und sich somit negativ auf die Energiebilanz auswirkt. Auch hier sehen die Forscher deshalb großes Potenzial zur Effizienzsteigerung. Darüber hinaus empfehlen sie einen intensiven Wissensaustausch sowie einen „Export“ bewährter Nutzungsmodelle und staatlicher Förderprogramme über die Grenzen hinweg. So könnten etwa die deutschen „Bioenergiedörfer“ oder die schweizerische „Energiestadt“ auch in den jeweiligen Nachbarländern probeweise zum Einsatz kommen.
Nach der Abschlusskonferenz und der Vorstellung des Leitfadens werden die Projektpartner die bereits aufgebauten trinationalen Kontakte in das Oberrheinische Cluster für Nachhaltigkeitsforschung einbringen. Entsprechende EU-Förderanträge sind bereits in Arbeit. Auf diese Weise ist gewährleistet, dass die Forschungsarbeit auch nach Projektabschluss weitergeht und die im Leitfaden formulierte Strategie fortentwickelt, an die Akteure in Politik, Wirtschaft und Öffentlichkeit transferiert und schließlich auch umgesetzt werden kann.
Das Karlsruher Institut für Technologie (KIT) vereint als selbständige Körperschaft des öffentlichen Rechts die Aufgaben einer Universität des Landes Baden-Württemberg und eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft. Seine drei Kernaufgaben Forschung, Lehre und Innovation verbindet das KIT zu einer Mission. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern sowie 24 500 Studierenden ist das KIT eine der großen natur- und ingenieurwissenschaftlichen Forschungs- und Lehreinrichtungen Europas.
Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu
Anhang
Bioenergie am Oberrhein – Es ist noch Luft nach oben
https://idw-online.de/de/attachment44526
Quelle: idw
Schützt ein gesunder Lebensstil vor Alzheimer?
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Hat die langjährige Ernährungsweise einen Einfluss darauf, ob man im fortgeschrittenen Alter zum Beispiel an Alzheimer erkrankt? Kann ein gesunder Lebensstil vor der Erkrankung schützen? Diese Fragen untersuchen Wissenschaftler im neuen Kompetenzcluster „Diet-Body-Brain“ (DietBB). Das Bundesforschungsministerium fördert das Vorhaben, das von der Universität Bonn koordiniert wird, mit mehr als fünf Millionen Euro.
Welchen Ernährungs- und Lebensstil Menschen pflegen, kann sich auch auf das Gedächtnis und die Entwicklung einer neurodegenerativen Erkrankung auswirken. „Studien haben gezeigt, dass Mikronährstoffe – wie zum Beispiel Vitamine, Flavonoide und Fettsäuren – Gedächtniseinbußen durch neurodegenerative Erkrankungen vorbeugen können“, sagt Clustersprecherin Prof. Dr. Ute Nöthlings von der Ernährungsepidemiologie der Universität Bonn.
Auch Übergewicht scheint eine Rolle zu spielen. Bislang fehlen jedoch weitgehend belastbare Daten zum Zusammenhang von Ernährungs- und Lebensstilfaktoren einerseits und dem Auftreten von neurodegenerativen Erkrankungen andererseits. Darüber hinaus ist unklar, wie Forschungsergebnisse zu Ernährung und Lebensstil heutzutage am besten an die Bevölkerung kommuniziert werden. In diese Lücken stößt nun DietBB vor.
Insgesamt 17 Partner haben sich im Cluster zusammengeschlossen
Das Bundesforschungsministerium fördert das Kompetenzcluster in den nächsten drei Jahren mit mehr als fünf Millionen Euro. Insgesamt haben sich 17 Partner für das Vorhaben zusammengeschlossen, darunter mehrere Institute der Universität Bonn und des Universitätsklinikums, die LIFE&BRAIN GmbH, das Deutsche Zentrum für Neurodegenerative Erkrankungen, die Deutsche Sporthochschule Köln und die Deutsche Gesellschaft für Ernährung.
Das Forscherteam plant unter anderem im Rahmen der sogenannten „Rheinland Studie“, neue Erhebungsmethoden zu entwickeln, um Zusammenhänge zwischen dem Ernährungsverhalten der Bevölkerung und dem Auftreten von neurodegenerativen Erkrankungen erkennen zu können. Darüber hinaus sollen das Erbgut und das gesundheitsbezogene Verhalten, zum Beispiel körperliche Aktivitäten, mit in die Untersuchung einbezogen werden. Ein Teilprojekt beschäftigt sich außerdem mit der Frage, wie Ernährungsempfehlungen kommuniziert werden müssen, damit sie auch umgesetzt werden.
Weitere Informationen:
http://www.diet-body-brain.de Informationen zu DietBB im Internet
Quelle: idw
Wärmepumpen und Kältemaschinen: Hocheffiziente Bausteine für die Klimazukunft
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
Fraunhofer ISE eröffnet neues Prüf- und Entwicklungszentrum
Das Fraunhofer-Institut für Solare Energiesysteme ISE eröffnet sein neues Prüf- und Entwicklungszentrum für Wärmepumpen und Kältemaschinen in Freiburg. Es trägt damit der zentralen Bedeutung dieser Techniken für die Energiewende Rechnung. Das Institut bietet der Industrie völlig neue Möglichkeiten, Komponenten, Geräte und ganze Systeme für das hocheffiziente Heizen und Kühlen entwickeln und testen zu lassen.
»Bei der Energiewende denken die meisten an Strom. Doch machen Wärme und Kälte im Gebäude über 40 Prozent des deutschen Endenergieverbrauchs aus«, so Ivan Malenković, Leiter ServiceLab Heat Pumps and Chillers des Fraunhofer ISE. »Hocheffiziente Wärmepumpen und Kältemaschinen können enorm viel Energie einsparen und sind deshalb ein zentraler Baustein für ein nachhaltiges Energiesystem.«
Wärmepumpen können nicht nur mit Strom, sondern auch mit Erdgas, Biogas oder Gas angetrieben werden, das mit erneuerbarem Strom gewonnen wurde (Power-To-Gas). Und auch Kältemaschinen können mit Wärme hoher Temperatur, z.B. aus Abwärme, angetrieben werden. Mit dem neuen Prüf- und Entwicklungszentrum kann das Institut die Industrie bei der Entwicklung neuer Geräte aller Varianten besonders schnell und umfassend unterstützen.
Bisher war zum Beispiel die Optimierung einer Wärmepumpe an langwierige Versuche gebunden, die viel Zeit in Anspruch genommen haben, um alle relevanten Betriebsbedingungen zu umfassen. Das neue Zentrum wurde mit Mess- und Konditionierungstechnik ausgestattet, die »Hardware in the Loop«-Messungen (HiL) erlaubt. Damit können die Forscher zum Beispiel die Klimabedingungen in Skandinavien, die dortigen Bauweisen und Heizlasten, durch modulare Prüfgruppen und Computersimulationen so nachbilden, dass der Prüfling in wenigen Tagen ein virtuelles Jahr absolviert. Um das zu ermöglichen haben die Forscher des Fraunhofer ISE ihre Anlagen so konzipiert, dass sie hochdynamische Vorgänge in Komponenten und Systemen sehr genau abbilden und messen können – zum Beispiel Temperatursprünge in der Hydraulik einer Heizungswärmepumpe, die gerade vom Heizungs- auf Brauchwarmwasserbetrieb umschaltet.
»Dynamische Messungen und die Integration von Testgeräten in Echtzeit-Simulationen ermöglichen Forschung und Industrie, komplexe Regelvorgänge und Abhängigkeiten besser zu verstehen und Produkte schneller und kostengünstiger zu entwickeln«, sagt Ivan Malenković. Die ISE-Forscher arbeiten in ihrem neuen Zentrum auch an neuen Testmethoden, die diese Dynamik berücksichtigen.
Ein weiterer Schwerpunkt des Zentrums wird durch neue EU-Vorschriften wie der F-Gas-Verordnung bestimmt: Sie sehen eine Verschärfung der Einsatzbedingungen von herkömmlichen Kältemitteln für Wärmepumpen vor, einschließlich schrittweiser Beschränkung der am Markt verfügbaren Mengen. Natürliche Kältemittel wie Propan oder Ammoniak, die kein oder ein um den Faktor 1000 kleineres Treibhauspotenzial haben, gewinnen dadurch an Bedeutung. Viele neue Kältemittel erfordern beim Umgang besondere Sicherheitsvorkehrungen, zum Beispiel wegen Brennbarkeit. Das neue Prüf- und Entwicklungszentrum ist mit einem integralen Sicherheitskonzept und entsprechenden technischen Einrichtungen ausgerüstet, um Anlagen mit den Kältemitteln der Zukunft entwickeln zu können.
Am Beispiel Kältemittel wird auch deutlich, wie die Industrie von der Einbindung der Messungen in andere Forschungsaktivitäten profitiert: So reduziert gerade im Projekt »Green Heat Pump« ein bionischer Kältemittelverteiler, dessen Kanalführung von natürlichen Vorbildern inspiriert ist, die benötigte Menge an Kältemittel deutlich. Von diesen Erkenntnissen können alle Hersteller profitieren, da es sich um ein mit EU-Mitteln gefördertes Projekt handelt.
Einen großen Teil des Zentrums nimmt eine kalorimetrische Doppelklimakammer ein, in der Prüflinge mit bis zu 2 x 50 Kilowatt Heiz- oder Kühlleistung vermessen werden können. In der Kammer sind Gasanschlüsse, Luftkanäle und Kamine vorhanden, die jede mögliche Antriebsart des Prüflings abdecken. Durch die Kalibrierung der Kammer vor dem Versuch können thermische Verluste für die Energiebilanzierung exakt erfasst werden.
Der Grundgedanke bei Wärmepumpen ist, Umweltwärme zur Energieeinsparung heranzuziehen. So macht eine elektrische Wärmepumpe mit der Jahresarbeitszahl 3 aus einem Teil Strom 3 Teile Wärme, wovon 2 Teile aus der Umwelt gewonnen werden. Wärmepumpen sind in energetisch sanierten Altbauten oder modernen Neubauten eine sinnvolle Heiztechnik. In einem künftigen Smart Grid können elekrische Wärmepumpen, insbesondere in Verbindung mit Wärmespeichern oder Nutzung der thermischen Gebäudemasse, auch überschüssigen Strom aus fluktuierender Erzeugung aufnehmen und somit die Nutzung erneuerbarer Energien optimieren.
Das Fraunhofer ISE begleitet die Entwicklung von Wärmepumpen und Kältemaschinen seit über 20 Jahren. Die Vernetzung mit der hauseigenen Forschung zum Beispiel bei Sorptions- oder Speichermaterialien oder für das Smart Grid liefert dabei immer wieder innovative Ansätze und Produktideen.
Weitere Informationen:
http://www.ise.fraunhofer.de
Anhang
Presseinformation im PDF-Format
https://idw-online.de/de/attachment44646
Quelle: idw
Speicher- und Wärmetransformationstechnologien – wichtige Pfeiler der Energiewende
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
Fraunhofer ISE erweitert Forschungs- und Entwicklungsangebot mit neuem Standort
Schon seit seiner Gründung vor mehr als 30 Jahren ist das Fraunhofer-Institut für Solare Energiesysteme ISE sehr breit und komplementär und damit optimal für die zentralen Fragen der Energiewende aufgestellt. Systemische Aspekte und die Frage der Energiespeicherung zählten in Ergänzung zu solaren Technologien von Anfang an dazu. Zwei der Themen, die heute bei der Transformation unseres Energiesystems besonders im Fokus stehen sind Energiespeichertechnologien sowie effiziente Verfahren für die Wärme- und Kältebereitstellung.
In diesen Bereichen hat das Fraunhofer ISE jetzt seine Aktivitäten an einem neuen Standort in der Auerstraße in Freiburg gebündelt und seine Ausstattung deutlich ausgeweitet. Am 2. Juli 2015 wurde das neue Zentrum für Speicher- und Wärmetransformationstechnologien in Anwesenheit von Vertretern mehrerer Bundesministerien sowie Repräsentanten aus der Industrie und Branchenverbänden offiziell eingeweiht.
»Mit diesen deutlich erweiterten Möglichkeiten in der Speicherforschung sowie der Wärme- und Kältebereitstellung tragen wir gleich mehreren zentralen Fragestellungen Rechnung, die von entscheidender Bedeutung sind auf dem Weg hin zu einem Energieversorgungssystem auf Basis erneuerbarer Energien«, so Institutsleiter Prof. Eicke R. Weber. Neue Labor- und Technikumsfläche gibt es für die Themen Batteriesysteme für Photovoltaik und Mobilität, Redox-Flow-Batterien, Wasserstofferzeugung durch Elektrolyse, Hochtemperaturspeicher für die Solarthermie sowie Wärmepumpen und Kältemaschinen für den Antrieb mit Strom, Gas oder Wärme.
Batteriesysteme
Aufgrund ihres modularen Aufbaus und hohen energetischen Wirkungsgrads nehmen Batteriesysteme eine Schlüsselrolle bei der Nutzung fluktuierender erneuerbarer Energiequellen wie Photovoltaik oder Windkraft ein und können erheblich zur Systemstabilität beitragen. Mit der fortschreitenden Entwicklung neuer Technologien steigen Energie- und Leistungsdichte der Batterien und somit erschließen sich immer neue Einsatzzwecke wie beispielsweise im Bereich der Elektromobilität. Je nach Anwendung und Einsatzprofil sind die Anforderungen an Batteriesysteme jedoch enorm. Oberste Ziele der Aktivitäten am Fraunhofer ISE sind deshalb die Optimierung von Schlüsselkomponenten und des Gesamtsystems sowie die Erhöhung der Zuverlässigkeit bei gleichzeitiger Minimierung der Kosten des Speichersystems. Die FuE-Themen umfassen dabei die zentralen Aufgaben der Batteriesystemtechnik wie beispielsweise das Batteriemanagement sowie das thermische Management und die Untersuchung von Alterungsprozessen von Batterien in unterschiedlichsten Anwendungen und für verschiedene Zellchemie, sowohl im Labor als auch mit modernsten Simulationswerkzeugen.
Wasserstofferzeugung durch Elektrolyse
Wasserstoff kann über Elektrolyse mittels Strom aus erneuerbaren Energien erzeugt werden. Dies wird besonders interessant wenn bei wachsendem Anteil von Sonne und Wind im Stromsystem große Mengen von Überschussstrom zur Verfügung stehen werden. Wasserstoff besitzt als einziger Energieträger das Potenzial, sehr große Energiemengen auch über lange Zeiträume in chemischer Form zu speichern. Neben der Rückverstromung in stationären Brennstoffzellensystemen oder in Gasmotoren bildet Wasserstoff auch als Kraftstoff in Brennstoffzellenfahrzeugen das Bindeglied zur emissionsfreien Mobilität. Wasserelektrolyseure sind künftig als (de)zentrale, regelbare Lasten im Stromnetz für die Stadtwerke oder Netzbetreiber eine wertvolle Regelgröße, um die Stromerzeugung zeitnah an den Verbrauch anzupassen und damit die Netzfrequenz zu stabilisieren. Das Fraunhofer ISE konzentriert seine Aktivitäten auf die elektrochemische Wasserstofferzeugung durch die Membranelektrolyse als zentrales Kernelement für stoffliche Speicher in Kopplung mit erneuerbaren Energien.
Wesentliche Alleinstellungsmerkmale des Fraunhofer ISE sind 25 Jahre Forschung und Entwicklung zur PEM-Elektrolyse sowie die Größe der am Standort Auerstraße aufgestellten Testanlage zur Prüfung von Zellstapeln für PEM-Elektrolyseure bis 4.000 Ampere in energiewirtschaftlich relevanter Größe. Der Aufbau einer Einspeiseanlage zur Zumischung von Wasserstoff ins lokale Gasnetz unterstreicht die Anwendungsnähe der Fraunhofer-Forschung.
Solarthermische Hochtemperaturspeicher
Das Fraunhofer ISE betreibt Forschung und Entwicklung für solarthermische Speicher sowohl im Niedrig- als auch im Hochtemperaturbereich. Am Standort Auerstraße stehen die Hochtemperaturspeicher für solarthermische Kraftwerke im Mittelpunkt. In solarthermischen Kraftwerken wird die Solarstrahlung mittels großer Spiegelfelder auf Absorber fokussiert. Zum Abführen der entstehenden Wärme werden die Absorber mit einem Wärmeträgermedium, z.B. Thermoöl, Wasser/Dampf, Salzschmelze oder Luft, durchströmt. Mit der Wärme kann dann eine Gas- oder Dampfturbine betrieben und Strom erzeugt werden. Die Integration von Hochtemperaturspeichern in solarthermischen Kraftwerken ermöglicht eine zeitlich bedarfsorientierte Stromerzeugung, auch nachts oder in Stunden mit Bewölkung.
Das Fraunhofer ISE entwickelt, vermisst, bewertet und optimiert Speicherkonzepte, die für sehr hohe Temperaturen ausgelegt sind. Am neuen Standort besteht zum ersten Mal die Möglichkeit, mit Temperaturen bis zu 550°C zu testen und in sogenannten Schneckenwärmeübertragern mit Dampf unter hohen Drücken zu arbeiten. Ein weiteres Anwendungsfeld sind industrielle Prozessdampfanlagen, die ebenfalls Speicher für Temperaturen ab 180°C benötigen.
Wärmepumpen
Die Bereitstellung von Wärme und Kälte im Gebäudebereich nimmt einen zunehmend wichtigeren Stellenwert in der Energiewende ein. Heute gehen etwa 40% des gesamten deutschen Endenergieverbrauchs in diesen Bereich, dies bedeutet, dass mit effizienteren und nachhaltigen Verfahren hier ein enormes Potenzial an Energieeinsparung gehoben werden kann. Die Wärmepumpentechnologie ist in der Lage, diesen Anforderungen gerecht zu werden. Der größte Vorteil der Wärmepumpen ist die Tatsache, dass die Bereitstellung von Wärme (und Kälte) zum großen Teil auf Umweltenergie basiert. Die restliche Energie wird beispielsweise in Form von elektrischer Energie zugeführt – und diese elektrische Energie kommt im sich wandelnden Energiesystem zunehmend aus erneuerbaren Quellen. Deshalb sind elektrische Wärmepumpen äußerst kompatibel zur Stromerzeugung mit Sonne und Wind. Aber auch Gas-Wärmepumpen als Nachfolgetechnologie heutiger Heizkessel spielen eine eminent wichtige Rolle, da sie den eingesetzten Brennstoff unter zusätzlicher Nutzung von Umweltwärme viel effizienter wandeln.
Am Standort Auerstraße hat das Fraunhofer ISE die Laborfläche für seine Wärmepumpenaktivitäten verzehnfacht und damit ein komplett neues Prüf- und Entwicklungszentrum für Wärmepumpen und Kältemaschinen installiert. So kann das Institut, das seit 20 Jahren Entwicklung von Wärmepumpen und Kältemaschinen betreibt, die Industrie bei der Entwicklung neuer Geräte besonders schnell und umfassend unterstützen, von der Komponentenentwicklung bis zur Systembewertung. Ein besonderes Alleinstellungsmerkmal am neuen Standort ist, dass alle Messeinrichtungen die strengen Sicherheitsauflagen für das Arbeiten mit brennbaren Kältemitteln wie Propan erfüllen, um so die Entwicklung neuartiger Kältemittel mit geringem Treibhausgaspotenzial voranzutreiben. Darüber hinaus liefert die Vernetzung mit der hauseigenen Forschung zum Beispiel bei Sorptions- oder Speichermaterialien oder für das Smart Grid immer wieder innovative Ansätze und Produktideen.
Weitere Informationen:
http://www.ise.fraunhofer.de
Anhang
https://idw-online.de/de/attachment44643
Presseinformation: Speicher- und Wärmetransformationstechnologien – wichtige Pfeiler der Energiewende
Quelle: idw
Atherosklerose – Kontrolle auf der Außenseite
Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Auf der Außenwand von Blutgefäßen mit atherosklerotischen Plaques bilden sich tertiäre Lymphorgane, die Atherosklerose hemmen können, wie LMU-Wissenschaftler zeigen. Dieser Fund eröffnet neue Therapieoptionen der Erkrankung.
Atherosklerose entsteht, wenn Ablagerungen in der Gefäßinnenwand – sogenannte atherosklerotische Plaques – zu chronischen Entzündungen führen und die Blutgefäße verengen. Plaques behindern den Blutfluss und blockieren ihn schließlich vollständig, was einen Herzinfarkt oder Schlaganfall auslöst. Verursacht werden die chronischen Entzündungen durch eine außer Kontrolle geratene Reaktion des Immunsystems. „Aber das Immunsystem kann an den betroffenen Arterien die überschießende Immunreaktion auch dämpfen“, sagt Professor Andreas Habenicht (Institut für Prophylaxe und Epidemiologie der Kreislaufkrankheiten, Direktor Professor Christian Weber). Das Team von Habenicht konnte nun in Kooperation mit nationalen und internationalen Forschergruppen zeigen, dass sogenannte arterielle tertiäre Lymphorgane (ATLOs) auf den Gefäßaußenwänden den Entzündungen entgegen wirken können. Über ihre Ergebnisse berichten die Wissenschaftler in der Fachzeitschrift Immunity.
Wie atherosklerotische Plaques entstehen, ist noch nicht vollständig geklärt. Rauchen, Übergewicht oder mangelnde Bewegung tragen zu ihrer Entstehung bei. Oft beginnt die Krankheit schon im Jugendalter und ist vermutlich auch Teil des natürlichen Alterungsprozesses. „Wir haben nun im Mausmodell beobachtet, dass im Verlauf des Alterungsprozesses Immunzellen die Arterienwand infiltrieren und auf der Gefäßaußenwand tertiäre Lymphorgane bilden – und zwar genau dort, wo an der Innenseite atherosklerotische Plaques liegen“, sagt Habenicht. Diese ATLOs ähneln Lymphknoten. Im Unterschied zu anderen Schlüsselkomponenten des Lymphsystems wie etwa der Milz oder den Mandeln, die bereits während der Embryonalentwicklung angelegt werden, entstehen ATLOs erst während des Alterungsprozesses als Reaktion auf chronische Entzündungen – sie bilden also eine Art „Zweigstelle“ des Immunsystems, die flexibel dort entsteht, wo sie gebraucht wird.
Schützende Immunzellen überwiegen
ATLOs enthalten alle Immunzellen, die nötig sind, um eine Immunreaktion zu steuern. Darunter sind sowohl Zellen, die Immunreaktionen aktivieren, als auch solche, die Immunreaktionen dämpfen. „Welche Funktion ATLOs genau haben, war bisher ungeklärt. Insgesamt ging man davon aus, dass sie Autoimmunerkrankungen und chronische Entzündungen eher fördern. Das ist überraschenderweise aber gerade nicht der Fall“, sagt Habenicht. „Als wir ATLOs ausschalteten, entwickelte sich im Mausmodell mehr Atherosklerose, nicht weniger. Wir schließen daraus, dass die immun-dämpfenden Zellen das Übergewicht über die aktivierenden Zellen haben, sodass die Immunreaktion insgesamt gebremst wird“.
ATLOs sind damit wichtige Steuerungszentren der Immunabwehr bei Atherosklerose und möglicherweise auch bei anderen chronischen Entzündungskrankheiten und bestimmten Krebserkrankungen. Daher sind sie ein interessantes, bisher unbeachtetes Ziel für neue Therapiestrategien. „Unserer Ergebnisse eröffnen die Möglichkeit, die Atherosklerose-spezifischen Immunzellen zu isolieren und molekular zu charakterisieren. Anschließend können wir die Zellen dann hinsichtlich ihrer Funktion untersuchen und mittelfristig verwenden, um neue Therapieoptionen zu entwickeln. Langfristig könnte so möglicherweise eine Impfung gegen Atherosklerose entwickelt werden – aber bis dahin ist es noch ein langer Weg“, betont Habenicht.
göd
Publikation
Artery tertiary lymphoid organs control aorta immunity and protect against atherosclerosis via vascular smooth muscle cell lymphotoxin β receptors
Desheng Hu, Sarajo K. Mohanta, Changjun Yin, Li Peng, Zhe Ma, Prasad Srikakulapu, Gianluca Grassia, Neil MacRitchie, Gary Dever, Peter Gordon, Francis L. Burton, Armando Ialenti, Suleman R. Sabir, Iain B. McInnes, James M.Brewer, Paul Garside, Christian Weber, Thomas Lehmann, Daniel Teupser, Livia Habenicht, Michael Beer, Rolf Grabner, Pasquale Maffia, Falk Weih, Andreas J.R. Habenicht
Immunity 2015
http://www.cell.com/immunity/abstract/S1074-7613%2815%2900213-7
Kontakt:
Andreas Habenicht, M.D.
Professor of Medicine
Institute for Cardiovascular Disease Prevention
Mobile: 49-(0)1525-4849425
Landline/Fax: 49-(0)89-45227358
Andreas.Habenicht@med.uni-muenchen.de
http://www.klinikum.uni-muenchen.de/Institut-fuer-Prophylaxe-und-Epidemiologie-d…
Quelle: idw
Biofilme erhöhen Stabilität und Effizienz der Biogaserzeugung
Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Wissenschaftler des Potsdamer Leibniz-Instituts für Agrartechnik haben erstmalig die mikrobiellen Lebensgemeinschaften in den methanogenen Biofilmen unterschiedlicher Biogasreaktoren untersucht und charakterisiert. Neben neuen mikrobiologischen Erkenntnissen über die Zusammensetzung und Entwicklung solcher Biofilme konnten sie insbesondere die stabilisierende und effizienzsteigernde Wirkung von Biofilmen für die Biomethanisierung nachweisen. Die Ergebnisse dieser Studie wurden kürzlich veröffentlicht.
Auf allen Oberflächen im Biogasreaktor bilden sich rasch Biofilme. In diesen Biofilmen leben verschiedene Mikroorganismen, darunter gärende Bakterien und methanbildende Archaeen, in enger Symbiose. Zusammen gewährleisten sie einen effizienten Abbau von Biomasse zu Biogas. In einem dreijährigen Forschungsvorhaben haben Potsdamer Forscher die Entwicklung solcher Biofilme in unterschiedlichen Reaktortypen und bei unterschiedlichen Betriebstemperaturen untersucht. Das wissenschaftliche Interesse galt dabei insbesondere der Frage, wie die Entwicklung besonders effizienter Biofilme gezielt gefördert werden kann.
Eine Möglichkeit besteht darin, gezielt Aufwuchsträger in die Reaktoren einzubringen, beispielsweise Festkörper aus Kunststoff wie sie in der Abwasserwirtschaft eingesetzt werden. Das Einbringen von zusätzlichen Aufwuchsflächen bewirkte in allen untersuchten Biogasanlagen eine Stabilisierung der Gärsäureproduktion und der Methanbildung. Insbesondere bei mittleren Betriebstemperaturen (37°C) konnte im Vergleich zu der Kontrolle ohne zusätzliche Aufwuchsflächen eine deutliche Erhöhung sowohl der Biogasbildung insgesamt als auch des Gehalts an Methan erreicht werden.
Entscheidend für die Ansiedlung einer effizienten mikrobiellen Gemeinschaft sind vor allem die Materialeigenschaften der Aufwuchsträger. Von den getesteten Werkstoffen, u. a. Polyvinylchlorid, Polypropylen, Polyethylen und Polyurethan, erwies sich Acrylglas für die Nutzung als Aufwuchsträger am besten geeignet. Auch auf magnetischen Aufwuchsträgern, die mitsamt ihrer mikrobiellen Beladung gut im System zurückgehalten werden können, etablierten sich Biofilme erfolgreich. Insgesamt beeinflussen die Oberflächenrauigkeit des Materials und die Temperatur des Prozesses die mikrobielle Besiedlung.
Überraschend für die Wissenschaftler war, dass innerhalb eines Biogasreaktors unterschiedliche Biofilme mit unterschiedlichen Arten von Mikroorganismen und Stoffwechselleistungen vorliegen können. „Wir vermuten, dass über die Materialeigenschaften der Aufwuchsträger die Struktur der Biofilme und damit auch die Leistung des Biogasreaktors positiv beeinflusst werden kann“, so Dr. Ingo Bergmann, einer der Autoren der Studie.
Projektleiter Dr. Michael Klocke unterstreicht die Relevanz der Ergebnisse: „Unsere Forschungsergebnisse zeigen einen Weg zur weiteren Optimierung von Biogasreaktoren auf. Durch die Bereitstellung von geeigneten Aufwuchsflächen lässt sich die Biogas-Mikrobiologie gezielt steuern. Ziel muss die Ansiedlung besonders effizienter mikrobieller Gemeinschaften im Biogasreaktor sein, um eine optimale Prozesseffizienz zu erreichen.“
Am Leibniz-Institut für Agrartechnik wurden in den letzten Jahren verschiedene Biofilm-basierte Reaktorlösungen entwickelt und in Labor und Praxis erprobt. Wesentlich für solche Verfahren ist die räumliche Trennung von Aufschluss und Abbau der Biomasse von der eigentlichen Methanbildung. „Solche mehrstufigen Systeme sollten unbedingt verstärkt Anwendung in der Praxis finden. Dabei sind die symbiotischen Beziehungen zwischen den Mikroorganismen in den Biofilmen für die Stabilität des Prozesses und die Leistungsfähigkeit der Biogasbildung entscheidend“, fasst Dr. Michael Klocke die Ergebnisse zusammen.
Der anaerobe Abbau von pflanzlicher Biomasse zu Biogas wird durch zwei Gruppen von Mikroorganismen durchgeführt. Fermentative Bakterien katalysieren den Abbau der in der Biomasse enthaltenen hochmolekularen Verbindungen zu kurzkettigen Carbonsäuren sowie Gasen wie molekularem Wasserstoff und Kohlendioxid. Diese Abbauprodukte sind wiederum die Ausgangssubstrate für die eigentlichen Produzenten der energetischen Komponente im Biogas, des Methans. Zur Bildung von Methan sind nur einige wenige, hoch spezialisierte Vertreter aus der Gruppe der Archaeen befähigt.
Das Projekt „Biofilme in Biogasanlagen – Struktur, Einfluss auf die Biogasausbeute und Optimierung technischer Systeme zur Rückhaltung der mikrobiellen Biomasse“ wurde im Rahmen des Förderprogramms „Nachwachsende Rohstoffe“ vom Bundesministerium für Ernährung und Verbraucherschutz (BMEL) finanziell gefördert und durch den Projektträger Fachagentur Nachwachsende Rohstoffe e.V. (FNR) unterstützt.
Literatur:
Bergmann, I., & Klocke, M. (2015): Biofilme in Biogasanlagen – Struktur, Einfluss auf die Biogasausbeute und Optimierung technischer Systeme zur Rückhaltung der mikrobiellen Biomasse. Schlussbericht zum Forschungsverbund BIOGAS-BIOFILM. Bornimer Agrartechnische Berichte, Heft 87, Leibniz-Institut für Agrartechnik Potsdam-Bornim, 164 S.
Der Bericht ist online verfügbar unter: http://www.atb-potsdam.de/fileadmin/docs/BABs/Heft_87_k.pdf sowie in der FNR-Projektdatenbank http://www.fnr.de/projekte-foerderung/projekte/ unter dem Förderkennzeichen 22016308.
Kontakt:
Dr. Michael Klocke – Abteilung Bioverfahrenstechnik
Tel.: 0331 5699-113, E-Mail: mklocke@atb-potsdam.de
Helene Foltan – Öffentlichkeitsarbeit
Tel.: 0331 5699-820, E-Mail: hfoltan@atb-potsdam.de
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Max-Eyth-Allee 100, 14469 Potsdam
http://www.atb-potsdam.de
Das Leibniz-Institut für Agrartechnik Potsdam-Bornim e. V. (ATB) ist ein europäisches Zentrum agrartechnischer Forschung an der Schnittstelle von biologischen und technischen Systemen. Unsere Forschung zielt auf eine wissensbasierte Bioökonomie. Hierfür entwickeln wir hochinnovative und effiziente Technologien zur Nutzung natürlicher Ressourcen in landwirtschaftlichen Produktionssystemen – von der Grundlagenforschung bis zur Anwendung.
Quelle: idw
Leiharbeit, Minijob und Co.: Spürbare Folgen für das Privat- und Familienleben
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Wer atypisch beschäftigt ist, muss mit zahlreichen Nachteilen leben. Menschen in Leiharbeit, Teilzeitarbeit, mit befristeten oder Minijobs verdienen meist nicht nur weniger als die sogenannten Normalarbeitnehmer. Das Arbeiten jenseits der „Norm“ wirkt sich auch auf das Privatleben aus, wie Prof. Dr. Irene Gerlach, Dr. Regina Ahrens, Inga Laß und Henning Heddendorp vom Forschungszentrum Familienbewusste Personalpolitik (FFP) in Münster herausgefunden haben. Die damit verbundenen Risiken tragen vor allem Frauen, zeigt ihre von der Hans-Böckler-Stiftung geförderte Studie.*
Im Kern der Untersuchung geht es darum, welchen Einfluss atypische Beschäftigungsverhältnisse auf Partnerschaft und Familie, soziale Netzwerke oder die gesellschaftliche Teilhabe haben. Die Datenbasis für die Analyse bildet das Sozio-oekonomische Panel (SOEP).
In den vergangenen Jahrzehnten ist die Zahl der atypisch Beschäftigten deutlich gestiegen. Ein großer Teil des Jobwachstums seit den 1990er-Jahren ging auf die zunehmende Verbreitung solcher Beschäftigungsverhältnisse zurück. Nach Angaben des Statistischen Bundesamtes waren 2012 knapp acht Millionen Menschen atypisch beschäftigt. Die WSI-Datenbank „Atypische Beschäftigung“ folgt der engeren Definition, die die Bundesagentur für Arbeit vom „Normalarbeitsverhältnis“ hat, und geht sogar von mehr als 13 Millionen aus.
Die Wissenschaftlerinnen und Wissenschaftler um die Politikwissenschaftlerin Gerlach sehen atypische Beschäftigung nicht pauschal als negativ an, betonen aber den zwiespältigen Charakter: Während Arbeitnehmerinnen und Arbeitnehmer befristete Stellen und Leiharbeit ganz überwiegend unfreiwillig und mangels alternativer Angebote übernähmen, sehe das bei Teilzeit- oder Minijobs auf den ersten Blick teilweise anders aus. Insbesondere Frauen entschieden sich häufig bewusst für einen solchen Job, um mehr Zeit für die Familie zu haben. Doch selbst wenn es sich „oberflächlich betrachtet“ um eine freiwillige Wahl handele, steckten dahinter oftmals „strukturelle Zwänge“, wie etwa fehlende Möglichkeiten der Kinderbetreuung oder ein mangelndes Familienbewusstsein in der Arbeitswelt.
– Teilzeitbeschäftigte: Mehr Zeit für Kinder, höhere Abhängigkeit –
Ein Vergleich der verschiedenen Beschäftigungsformen zeigt: Beschäftigte in Teilzeit oder Minijobs investieren am meisten Zeit in die Betreuung von Kindern – im Schnitt zwischen gut sieben und mehr als elf Stunden pro Werktag, wenn das jüngste Kind unter drei Jahre alt ist. Diese Arbeit leisten der Studie zufolge vor allem Frauen. Zwar wenden auch Väter, die in Teilzeit arbeiten, mehr Zeit für Kinder auf als regulär Beschäftigte, aber bei den Müttern stellten die Forscher „weitaus deutlichere Effekte“ fest. Am wenigsten Zeit für die Kinderbetreuung – 2,7 Stunden pro Werktag – bringen Beschäftigte in Normalarbeitsverhältnissen auf, eine Gruppe mit besonders hohem Männeranteil (siehe auch die Infografik; Link unten).
In Partnerschaften ist eine traditionelle Rollenverteilung nach wie vor weit verbreitet: „Während normalbeschäftigte Männer zumeist eine Partnerin im Hintergrund haben, die ihnen den Rücken für das berufliche Engagement freihält“, sind Frauen mit regulärem Job mehrheitlich ledig, schreiben Gerlach, Ahrens, Laß und Heddendorp. Nur 38 Prozent von ihnen seien verheiratet, unter den normalbeschäftigten Männern seien es 59 Prozent.
Frauen, die ihre Arbeitszeit zugunsten der Familie reduzieren, seien abhängiger vom Partner und damit im Falle einer Trennung schlechter abgesichert. Außerdem zeigten die Untersuchungen, dass atypisch beschäftigte Frauen in erhöhtem Maße finanzielle Unterstützung von Familienmitgliedern außerhalb des Haushalts erhalten.
– Höheres Trennungsrisiko bei Unverheirateten in Leiharbeit und zwischen zwei atypisch Beschäftigten
Zudem scheint atypische Beschäftigung die Partnerschaft zu belasten: Nicht verheiratete Paare trennen sich deutlich häufiger, wenn ein Partner in Leiharbeit beschäftigt ist oder wenn beide Partner atypische Jobs (Leiharbeit oder andere) haben. Bei Verheirateten ist dieser Effekt nicht zu beobachten. „Hier scheint der höhere Institutionalisierungsgrad von Ehen für einen stärkeren Zusammenhalt bei beruflichen Belastungen zu sorgen“, schreiben die Wissenschaftler.
Große Unterschiede stellten die Forscher fest, wenn es um die Mitsprache im Betrieb geht: Je größer die Abweichung vom Normalarbeitsverhältnis ist, desto seltener gehören Beschäftigte einer Gewerkschaft oder einem Betriebsrat an. Geringfügig Beschäftigte sind am seltensten organisiert, befristet Vollzeitbeschäftigte dagegen relativ häufig.
– Aufklärung über Risiken, passende Kinderbetreuung für Normalbeschäftigte –
Die Wissenschaftlerinnen und Wissenschaftler des FFP sehen die politische und gesellschaftliche Kommunikation am Zuge. Sie müsse stärker als bisher den Zusammenhang zwischen individuellen und gesellschaftlichen Konsequenzen atypischer Beschäftigung in den Blick nehmen. So erhöhten atypische Beschäftigungsformen aufgrund der geringeren Erwerbsbeteiligung, von diskontinuierlichen Erwerbsbiographien sowie des tendenziell geringeren Einkommens das Risiko von Altersarmut, warnen die Forscher. Auch ein Faktor wie die höhere Trennungsrate im Zusammenhang mit Leiharbeit könne die soziale Integration von Beschäftigten schwächen. Neben den individuellen Problemen verursache dies sowohl volkswirtschaftlich als auch sozialpolitisch Folgekosten, die gerade in einer „alternden Gesellschaft“ nicht unterschätzt werden dürften.
Politik und Recht sollten daher „stärker als bisher echte Wahlmöglichkeiten zwischen unterschiedlichen Beschäftigungsformen schaffen“, empfehlen die Forscher. Das beginne etwa bei einer besseren Aufklärung Beschäftigter über die ökonomischen Risiken bestimmter Jobs. Zentral sei die Förderung der Vereinbarkeit von Familie und Beruf auch im Normalarbeitsverhältnis, beispielsweise durch den weiteren Ausbau von qualitativ hochwertigen Kinderbetreuungsmöglichkeiten.
Kontakt in der Hans-Böckler-Stiftung
Dr. Claudia Bogedan
Leiterin Abteilung Forschungsförderung
Tel.: 0211-7778-108
E-Mail: Claudia-Bogedan@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Weitere Informationen:
http://www.ffp.de/tl_files/dokumente/2015/20150625_Policy_Brief_Projekt%202013-6… -Die Bedeutung atypischer Beschäftigung für zentrale Lebensbereiche, FFP-Policy Brief, Juni 2015.
http://www.boeckler.de/hbs_showpicture.htm?id=60219&chunk=1 – Infografik
http://www.boeckler.de/wsi_5859.htm – Die WSI-Datenbank „Atypische Beschäftigung“ der Hans-Böckler-Stiftung bietet aktuelle Zahlen für jeden Landkreis und jede kreisfreie Stadt
Quelle: idw
Wie man Kinder für gesunde Lebensmittel gewinnt
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Wenn die Verpackung verlockend gestaltet ist, greifen Grundschulkinder auch zu gesunden Lebensmitteln. Das hat eine Studie mit dem Forschungsinstitut für Kinderernährung Dortmund unter Federführung von Wissenschaftlern der Universität Bonn ergeben. Die Resultate sind vorab online im Fachjournal „Frontiers in Psychology“ veröffentlicht. Die Endfassung erscheint in Kürze.
Kinder greifen bei Snacks besonders gerne zu, wenn die Verpackung ansprechend gestaltet ist. „Die Süßigkeitenindustrie hat sehr viel Erfahrung damit, wie sich mit Marketingeffekten der Produktabsatz bei Kindern steigern lässt“, sagt Prof. Bernd Weber vom Center for Economics and Neuroscience (CENs) der Universität Bonn. „Vergleichsweise gibt es aber nur wenige Erkenntnisse darüber, wie sich solche Marketingeffekte für gesunde Lebensmittel nutzen lassen.“ In diese Lücke stößt eine Studie, die ein Team um Prof. Weber zusammen mit Wissenschaftlern um Prof. Dr. Mathilde Kersting vom Forschungsinstitut für Kinderernährung Dortmund durchgeführt hat.
Drei unterschiedliche Verpackungen mit identischem Produkt
Insgesamt 179 Jungen und Mädchen von Dortmunder Grundschulen nahmen an dem Forschungsprojekt teil. Die Acht- bis Zehnjährigen konnten zwischen drei identischen Joghurt-Früchtemüsli-Snacks wählen, die nach den Empfehlungen des FKE hergestellt worden waren, nur die Verpackungen waren unterschiedlich gestaltet: Erstens eine schlichte Standardverpackung, zweitens eine Verpackung mit zusätzlichen Gesundheitshinweisen und drittens mit für Kinder besonders attraktiven Zeichentrickfiguren.
Wie groß ist die Motivation der Grundschüler, an einen bestimmten Snack aus dem Dreiersortiment heranzukommen? Dies ermittelten die Forscher mit einem speziellen Messgerät, welches die Handgriffstärke misst. Es zeigt an, mit welcher Kraft die Kinder mit einer Hand zudrückten, wenn sie ihre Wunschpackung mit dem Müsli haben wollten. „Wir konnten mit diesem Handdynamometer ablesen, wieviel Anstrengung die Kinder bereit waren, für das Produkt zu leisten“, erläutert Erstautorin Laura Enax aus Prof. Webers Team. Anschließend durften die Kinder auch von den Snacks in den unterschiedlichen Verpackungen kosten.
Gesundheitshinweise sind bei Kindern weniger beliebt
Die Ergebnisse zeigen, dass die Motivation der Kinder für das Müsli in der Verpackung mit den attraktiven Zeichentrickfiguren am größten war. Die Messungen mit dem Dynamometer ergaben, dass sie besonders viel Kraft aufwendeten, um an diesen kindgerecht offerierten Snack heranzukommen. Auch beim Geschmackstest schnitt das Müsli mit den spaßigen Zeichentrickfiguren am besten ab. Sowohl die Standardverpackung als auch die an die Gesundheit appellierende Verpackung fiel in der Gunst der Kinder deutlich ab. Sowohl die Ergebnisse der Befragung als auch die Messung der Druckkraft trugen dazu bei, die spätere Produktwahl zu erklären. Dies weise darauf hin, dass nur die Befragung der Kinder alleine nicht ausreicht, um zu erfassen, was die Kinder lieber mögen, so die Forscher.
„Es handelt sich dabei um einen klassischen Marketingplaceboeffekt“, sagt Prof. Weber. Wie bei einem Scheinmedikament (Placebo) wird bestimmten Produkten eine Wirkung zugesprochen, ohne dass dies durch den Inhalt gerechtfertigt wäre. Bei der Studie war in jedem Becher der identische Joghurt-Früchtemüsli-Snack, trotzdem glaubten die Grundschulkinder zu erkennen, dass sich der Geschmack in den verschiedenen Verpackungen voneinander unterscheidet.
Methode ist reif für den Einsatz beim Schulessen
„Attraktiv gestaltete Lebensmittelverpackungen können Kinder zu ungesunden Lebensmitteln verführen“, sagt Prof. Kersting vom Forschungsinstitut für Kinderernährung Dortmund. „Solche Marketingeffekte lassen sich jedoch auch dazu nutzen, den Nachwuchs für gesunde Lebensmittel zu gewinnen.“ Die in der Studie herausgearbeitete Methode könne etwa eingesetzt werden, um zu untersuchen, wie die Attraktivität von Schulmilch oder Vollkornsandwiches gesteigert werden kann. Die Wissenschaftler wollen in weiteren Studien untersuchen, ob insbesondere stark übergewichtige Kinder besonders für Marketingplaceboeffekte auf Verpackungen empfänglich sind.
Publikation: Food packaging cues influence taste perception and increase effort provision for a recommended snack product in children, Fachjournal „Frontiers in Psychology“
Weitere Informationen:
http://journal.frontiersin.org/article/10.3389/fpsyg.2015.00882/abstract Publikation im Internet
Quelle: idw
Wissenschaftlerin fordert zur Erforschung der nach Ölunfällen eingesetzten Dispersionsmittel auf
Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen
Über die Wirkung auf ölabbauende Mikroorganismen im Ozean ist bisher zu wenig bekannt – Begrenzung der Umweltschäden nach Unfällen
Mikroorganismen sind Verwertungskünstler und können eine Vielzahl von organischen Stoffen abbauen. Einige Bakteriengruppen können sich sogar von den Kohlenwasserstoffen ernähren, die den Hauptbestandteil von Mineralöl bilden. Auf diese besonderen Fähigkeiten setzt man auch bei der Bekämpfung von Ölkatastrophen im Meer, wie sie beim Auslaufen von Tankschiffen, undichten Pipelines oder Ölplattformen passieren. Um den Abbau der Ölbestandteile zu beschleunigen, werden häufig in großem Stil Dispersionsmittel eingesetzt. Sie lösen Ölansammlungen auf und fangen das Öl in kleinen Tröpfchen ein, die für die Bakterien leichter zugänglich sein sollen. Doch nach Überprüfung der vorhandenen Daten zu diesen Dispersionsmitteln weist die Molekularökologin Dr. Sara Kleindienst vom Arbeitsbereich Geomikrobiologie der Universität Tübingen zusammen mit zwei US-amerikanischen Kollegen auf Unklarheiten über die Wirkung dieser Chemikalien auf Mikroorganismen hin. In der Fachzeitschrift Nature Reviews Microbiology macht sie auf mögliche Umweltrisiken der Dispersionsmittel aufmerksam, stellt die erhoffte positive Wirkung auf ölabbauende Organismen in Frage und beschreibt die Forschungslücke, die vor der nächsten Katastrophe geschlossen werden müsste.
Öl gelangt auf unterschiedliche Weise in die Umwelt. In Ozeanen gibt es natürliche Quellen, an denen Öl aus tiefen Gesteinsschichten in die obersten Sedimentschichten gelangt und dort in das Wasser austritt. Einige dieser natürlichen Quellen sind sogar so aktiv, dass das Öl auf der Wasseroberfläche sichtbar ist. Ölquellen sind ein faszinierender Lebensraum für viele Lebewesen und werden seit ihrer Entdeckung als Tiefseeoasen des Lebens bezeichnet. An diesen Standorten herrscht eine große Artenvielfalt, insbesondere auch für Mikroorganismen, die aus dem Öl gewonnene Kohlenwasserstoffe als Nahrungs- und Energiequelle nutzen. Aber Öl gelangt auch als Folge von Unfällen in die Umwelt. Besonders präsent ist die letzte große Katastrophe, bei der die Ölplattform „Deepwater Horizon“ im April 2010 explodierte und über mehrere Monate hinweg enorme Mengen Öl in den Golf von Mexiko freisetzte.
Nach Ölunfällen in Ozeanen werden weltweit routinemäßig chemische Dispersionsmittel eingesetzt. Je nach Ölmenge werden bis zu mehrere Millionen Liter ausgebracht, um Ölklumpen aufzulösen, Ölanschwemmung an Küsten zu verhindern und die Öldispersion im Wasser zu steigern. „Es wird allgemein davon ausgegangen, dass der Einsatz dieser Mittel zu einem erhöhten und schnelleren mikrobiellen Abbau des Öls führt“, sagt Sara Kleindienst, die vor kurzem aus den USA an die Universität Tübingen gekommen ist. Tatsächlich sei die Wirkung von Dispersionsmitteln auf die Mikroorganismen im Ozean bisher kaum untersucht worden, sie könnte möglicherweise sogar nachteilig sein. Die Gefährdung der Ozeane durch Dispersionsmittel ist bisher nicht abzuschätzen.
Die Wissenschaftlerin hat in Zusammenarbeit mit den amerikanischen Wissenschaftlern Prof. John Paul von der University of South Florida und Prof. Samantha Joye von der University of Georgia diese Forschungslücke und das große Umweltrisiko der Dispersionsmittel aufgezeigt. „Es gibt kaum wissenschaftliche Studien zum Einfluss von Dispersionsmitteln auf Mikroorganismen, und die wenigen bereits veröffentlichten Studienergebnisse sind widersprüchlich“, sagt sie. So sei bislang unklar, ob Dispersionsmittel die Aktivitäten von ölabbauenden Mikroorganismen steigern oder verringern. Die Mittel könnten toxisch auf Mikroorgansimen wirken und genverändernde Stoffe enthalten. In ihrer Arbeit weisen die Wissenschaftler deshalb auf den dringenden Bedarf für systematische Studien unter Verwendung von standardisierten Protokollen hin. Das Wissen werde dringend benötigt, um bei der nächsten Ölkatastrophe den Entscheidungsprozess um den Einsatz von Dispersionsmitteln mit wissenschaftlichen Daten unterstützen zu können.
Originalpublikation:
S. Kleindienst, J.H. Paul, S.B. Joye (2015): Using dispersants following oil spills: impacts on the composition and activity of microbial communities. Nature Reviews Microbiology, 13: 388-396
Kontakt:
Dr. Sara Kleindienst
Universität Tübingen
Zentrum für Angewandte Geowissenschaften
Mikrobielle Ökologie/Geomikrobiologie
Telefon: +49 7071 29-75496
Fax: +49 7071 29-5059
E-Mail: sara.kleindienst@uni-tuebingen.de
Quelle: idw
DGVS: Ursache der „Weizensensitivität“ ist nicht das Gluten – „glutenfrei“ hilft trotzdem
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Berlin – Treten nach dem Genuss getreidehaltiger Speisen Bauchschmerzen und andere Beschwerden auf, deutet das nicht immer auf eine Zöliakie oder auf eine Allergie gegen Weizenbestandteile hin. Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) weist auf eine dritte, weniger bekannte Störung hin, die dazu führen kann, dass Betroffene keine Getreideprodukte vertragen. Bessern sich unklare Beschwerden unter glutenfreier Diät, sei die Weizensensitivität als mögliche Erklärung in Betracht zu ziehen, so die Experten der Fachgesellschaft. Für über 90 Prozent der Bevölkerung sei der Verzehr von Weizen jedoch unschädlich, betont die DGVS.
Wahrscheinliche Ursache der Weizensensitivität sind Eiweißstoffe, die wie Gluten in Weizen, Gerste und Roggen vorkommen. „Amylase-Trypsin-Inhibitoren, kurz ATIs, sind natürliche Eiweiße in Getreide, die bestimme Zellen des angeborenen Immunsystems aktivieren“, erklärt Professor Dr. med. Dr. rer. nat. Detlef Schuppan, Leiter des Instituts für Translationale Immunologie und der Ambulanz für Zöliakie und Dünndarmerkrankungen am Universitätsklinikum Mainz. Bei Menschen, die an einer Weizensensitivität leiden, führen die freigesetzten Entzündungsstoffe mitunter zu Bauchschmerzen oder Durchfällen.
Wie Schuppan und Kollegen in einer aktuellen Sonderausgabe des Fachmagazins „Gastroenterology“ zur Rolle der Ernährung bei immunologischen gastrointestinalen Erkrankungen erläutern, treten insbesondere auch Beschwerden außerhalb des Magen-Darm-Traktes auf. So können zum Beispiel Kopfschmerzen, Migräne, chronische Müdigkeit, Muskel- und Gelenkschmerzen auf den Verzehr glutenhaltiger Nahrungsmittel zurückgehen. Besonders schwer könnte die Weizensensitivität Menschen mit bereits bestehenden chronischen Entzündungen oder Autoimmunerkrankungen betreffen. „In tierexperimentellen Studien verstärken ATIs durch die Aktivierung angeborener Immunzellen bestehende Entzündungs- und Autoimmunreaktionen“, erläutert Schuppan, der in Mainz und an der US-amerikanischen Harvard-Universität die Rolle der ATIs bei der Weizensensitivität untersucht. Es gebe hier deutliche Hinweise darauf, dass sich Symptome von Krankheiten wie Multiple Sklerose oder einer chronisch entzündlichen Darmerkrankung durch diese Weizenproteine verstärken.
Menschen, die vermuten, dass sie Weizen, Roggen oder Gerste nicht vertragen, sollten sich einer gründlichen Diagnostik unterziehen, empfiehlt die DGVS. Derzeit erfolgt die Diagnose der Weizensensitivität nach dem Ausschlussprinzip: Können Ärzte eine Zöliakie, eine Weizenallergie und bestimmte andere Erkrankungen als Ursache der Beschwerden ausschließen, ist eine Weizensensitivität wahrscheinlich. Allen drei Patientengruppen gemein ist, dass sie von einer glutenfreien Diät profitieren. Denn wer an einer Weizensensitivität leidet, vermeidet mit dem Verzicht auf Gluten gleichzeitig auch die problematischen ATIs. „Anders als bei Zöliakie ist bei einer Weizensensitivität eine strikte Diät nicht nötig“, erläutert Schuppan. Damit die Symptome verschwinden, reiche wahrscheinlich eine Reduktion gluten- und damit ATI-haltiger Lebensmittel um etwa 90 Prozent.
ATIs dienen der Pflanze unter anderem zum Schutz vor Schädlingen. Einige ältere Getreide wie zum Beispiel Dinkel, aber auch einige moderne Sorten können um etwa 50 Prozent weniger ATIs enthalten als andere moderne Sorten. Inwieweit verschiedene Weizensorten, unter anderem unter unterschiedlichen Anbau- und Verarbeitungsbedingungen, ATIs enthalten, ist derzeit Gegenstand eines interdisziplinären Forschungsprojektes.
Für den Großteil der Bevölkerung sei eine weizenfreie Ernährung weder besonders gesund noch schädlich, ist Schuppan überzeugt. Unabhängig von dem Trend zur glutenfreien Ernährung sollten Ärzte jene Patienten, die nach dem Verzehr von Weizen echte Krankheitssymptome entwickeln, ernst nehmen und sie bei der Ursachenforschung unterstützen. Der Experte ist zuversichtlich, dass die Diagnose der Weizensensitivität künftig einfacher wird. „Wir hoffen auf einen Serumtest, der gerade in der Entwicklung ist“, berichtet Schuppan, der gemeinsam mit seinem Kollegen Professor Dr. med. Andreas Stallmach aus Jena die 2014 erschienene DGVS-Leitlinie „Zöliakie, Weizenallergie und Weizensensitivität“ koordiniert hat.
Literatur:
Nonceliac gluten sensitivity.
Fasano A, Sapone A, Zevallos V, Schuppan D
Gastroenterology. 2015 May;148(6):1195-204.
Food, the Immune System, and the Gastrointestinal Tract , Herausgeber: D. Schuppan und D. Corley
Non-celiac wheat sensitivity: Differential diagnosis, triggers and implications
Schuppan D, Pickert G, Ashfaq-Khan M, Zevallos V
Best Practice & Research Clinical Gastroenterology, June 2015, Vol. 29, Issue 3, p469-476
How the Diagnosis of Non-Celiac Gluten Sensitivity (NCGS) Should Be Confirmed: The Salerno Experts‘ Criteria
(Salerno Konsensuskonferenz 10/2014 zur Gluten (Weizen)-Sensitivität)
Catassi C et al.
Nutrients 2015, in Druck
DGVS-Leitlinie zur Zöliakie, Weizenallergie und Weizensensitivität:
http://www.dgvs.de/leitlinien/zoeliakie/
Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5.000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.
Quelle: idw
„‚Laudato Si’‘ ist keine reine Umweltenzyklika“
Christoph Sachs Öffentlichkeitsarbeit
Hochschule für Philosophie München
Institut für Gesellschaftspolitik ordnet Lehrschreiben des Papstes ein
„Laudato Si'“ ist nach Einschätzung des Leiters des Instituts für Gesellschaftspolitik (IGP) an der Münchner Hochschule für Philosophie der Jesuiten, Michael Schöpf SJ, „keine reine Umweltenzyklika“. „Papst Franziskus trennt nicht zwischen Armuts- und Umweltproblem“, stellt Schöpf klar. „Umweltzerstörung und Armut haben als menschengemachtes Problem dieselbe Wurzel und können deshalb nur gemeinsam gelöst werden.“ Das mache das Lehrschreiben zu einer „Sozialenzyklika“, sagt er.
Dem Wirtschaftsethiker Johannes Wallacher, Mitarbeiter am IGP und Präsident der Hochschule für Philosophie, zufolge stellt sich Papst Franziskus vehement gegen alle Klimaskeptiker. „Sie vertreten lediglich Macht- und Partikularinteressen und übersehen die Zusammenhänge“, ordnet Wallacher ein. Im Gegensatz dazu lege die Enzyklika Hintergründe offen und zeige auf, wie alles miteinander in Verbindung stehe. Damit stelle der Papst nicht nur konkrete politische Forderungen, sondern liefere auch eine umfassende philosophische Erklärung für globale Entwicklungen. „Nicht nur in diesem Sinne ist Franziskus ein Aufklärer“, betont Wallacher. So fordere er etwa auch einen transparenten Dialog zwischen Wissenschaft, Politik und Religion auf Augenhöhe.
Wie der Sozialphilosoph Michael Reder hervorhebt, nimmt „Laudato Si'“ zurecht jeden Einzelnen in die Pflicht. „Wir müssen unser Verhalten kritisch hinterfragen und die Erziehung zu neuen Gewohnheiten stärken“, sagt der IGP-Mitarbeiter und Professor an der Hochschule für Philosophie. „Das können wir nur über ganzheitliche Bildung erreichen, die über reine Wissensvermittlung hinaus geht und der Kreativität Raum gibt.“ Zusätzlich fordere Franziskus handlungsfähige globale Institutionen. „Nur wenn die Staaten ihnen die Macht verleihen, Sanktionen zu verhängen, können Armut und Umweltzerstörung wirksam bekämpft werden“, schlussfolgert Reder.
Das Institut für Gesellschaftspolitik ist an der Hochschule für Philosophie der Jesuiten in München angesiedelt und erforscht seit langem interdisziplinär die Zusammenhänge von Entwicklungs- und Umweltproblemen. Eine Verknüpfung von sozialer Analyse und ethischer Reflexion bildet dabei den Schwerpunkt.
** Ein beigefügtes Dossier gibt Einblick in die aktuelle Forschung des Instituts zu den Zusammenhängen von Klimawandel, Armut und globaler Gerechtigkeit. **
Weitere Informationen:
http://www.hfph.de/igp – Website des Instituts für Gesellschaftspolitik
http://www.hfph.de – Website der Hochschule für Philosophie München
http://bit.ly/1ekaA0G – Pressemitteilung als PDF herunterladen
Anhang
„Ökologie für den Menschen. Zu Ethik und Politik in der Enzyklika Laudato Si‘“
https://idw-online.de/de/attachment44500
Ergänzung vom 18.06.2015
Korrekter Link zur Pressemitteilung als PDF: http://bit.ly/1JZXLnE
Quelle: idw
Wasseranalytik: Internationale Fahndung nach unbekannten Molekülen
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Schadstoffe versickern im Boden, Reinigungsmittel laufen in den Abguss: Wir alle bringen Chemikalien in den Wasserkreislauf ein. Dazu kommen noch Stoffe aus der Natur: In einer einzigen umweltrelevanten Wasserprobe befinden so bis zu einigen tausend unterschiedlicher organischer Moleküle. Doch um welche Stoffe handelt es sich dabei? Sind sie harmlos oder gefährlich? Bisher stehen für zukünftige Analysen über 8000 Molekül-Profile in einer öffentlichen Datenbank zur Verfügung. Diese vorsorgende Wasseranalytik wird nun in dem Projekt „FOR-IDENT“ international ausgeweitet.
Bislang war es nur eingeschränkt möglich, unbekannte Moleküle im Wasser schnell zu identifizieren. Doch das Prinzip der vorsorgenden Analytik ist gerade bei der Prüfung von Oberflächengewässern wichtig, sind diese doch oft die Quelle für Trinkwasser. Hier gilt besonders das Motto: „Untersuchen, um Schäden vorzubeugen oder diese zumindest schnell zu erkennen“.
Chemische Analysen zeigen, dass in einer einzigen Wasserprobe oftmals Tausende unterschiedlicher Moleküle gefunden werden können. Dabei handelt es sich zum einen um Stoffe aus der Umwelt, zum anderen aber auch um vom Menschen eingebrachte Industriechemikalien, Pflanzenschutzmittel sowie Kosmetika, Medikamente, Haushaltschemikalien sowie deren Abbauprodukte. Auch die Anzahl und die Zusammensetzung dieser Moleküle unterscheidet sich von Region zu Region sowie von Land zu Land – je nachdem, welche Pflanzen dort wachsen oder welche Arzneimittel, Pflanzenschutzmittel und Chemikalien dort zugelassen sind.
„In Routineanalysen lassen sich von diesen Tausenden Molekülen derzeit maximal ein paar hundert identifizieren – und das oft auch nur in spezialisierten Laboren“, sagt Prof. Dr. Thomas Letzel, Leiter der Analytische Forschungsgruppe am Lehrstuhl für Siedlungswasserwirtschaft der Technischen Universität München (TUM). „Dabei ist die technologische Voraussetzung, sie zu identifizieren, mittlerweile oft auch in nicht-spezialisierten Analyselaboratorien gegeben. Allerdings fehlt es hier bisher meist an strategischen Lösungen zur Datenauswertung.“
„Molekulare Fingerabdrücke“ für die vorsorgende Wasseranalytik
Um dieses Problem zu lösen, haben Wasserspezialisten des Bayerischen Landesamtes für Umwelt, der Hochschule Weihenstephan-Triesdorf, des Zweckverbandes Landeswasserversorgung sowie der TUM zunächst eine neue Datenbank namens „STOFF-IDENT“ entwickelt. Die Datenbank entstand im Rahmen des vom BMBF geförderten Projekts „RISK-IDENT“, das im März 2015 abgeschlossen wurde. Sie enthält inzwischen mehr als 8000 Substanzen mit ihren wichtigsten physikalisch-chemischen Eigenschaften. Darunter REACH-registrierte Industriechemikalien, zugelassene Pharmaka, Biozide und Pflanzenschutzmittel sowie weitere vom Menschen genutzte Substanzen aus Alltagsprodukten. Auch in der Umwelt gefundene Abbauprodukte wie Metaboliten oder Transformationsprodukte sind dort zu finden.
Mithilfe dieser Daten können nun Analyselabore einige ihnen noch unbekannte Moleküle schneller identifizieren. Sie nutzen dazu das sogenannte Non-Target Screening: Bei dieser Methode werden „molekulare Fingerabdrücke“ ermittelt. Dabei wird für jedes erfasste Molekül dessen Polarität und die Molekularmasse bestimmt. „Durch den Vergleich mit den in der Datenbank hinterlegten Eigenschaften gibt sich nun auch beim Non-Target Screening eine Vielzahl der bisher unbekannten Moleküle zu erkennen“, so Prof. Letzel.
Datenbank wird weltweit erweitert
Das Nachfolgeprojekt „FOR-IDENT“, das vom BMBF bis 2017 gefördert wird, hat nun das Ziel, die Datenbank um die jeweils vor Ort zugelassenen und verwendeten Chemikalien zu erweitern. Auch wollen die Wissenschaftler die international zum Einsatz kommenden Auswertestrategien erfassen, bündeln und harmonisieren. In das Projekt sollen auch weltweit Hersteller von Analysegeräten sowie Laboratorien eingebunden werden. Im Laufe des Projektes wird eine offene Softwareplattform entstehen, in der die unterschiedlichen Auswertestrategien kombiniert oder verlinkt werden können. Die „Open-Access“-Idee stellt dabei sicher, dass die Auswertetools oder Datenbanken langfristig von Unternehmen, Behörden und Wissenschaft kostenlos und uneingeschränkt genutzt werden können.
Die Daten aus der akkurat messenden Massenspektrometrie der Wasserlabore stehen generell auch für spätere Auswertungen zur Verfügung. Dies hat zahlreiche Vorteile: Wird beispielsweise die Datenbank weiter befüllt oder entstehen neue Auswertestrategien, so müssen die Proben nicht erneut untersucht werden; die erfassten Daten können direkt wiederverwendet werden. Labore, Behörden und Wasserwirtschaftsbetriebe müssen dafür zukünftig nur noch die gemessenen Daten einlagern, nicht aber die Wasserprobe selbst. Dies ist dann von Interesse, wenn bekannt wird, dass ein Spurenstoff möglicherweise Wasserpflanzen und Fische schädigt oder im Trinkwasser für die Gesundheit des Menschen problematisch werden könnte: Wird dieser Stoff bei der erneuten Datenauswertung nachgewiesen, so kann er umgehend in Routinetests integriert werden. Auch lässt sich im Nachhinein feststellen, wo welche Mengen des Stoffes ins Wasser gelangt sind und wo demnach technische Gegenmaßnahmen notwendig sind.
„Damit ist die Grundlage für eine vorsorgende Wasseranalytik gelegt, die aufgrund einer Vielzahl neuer Auswertestrategien mehr und mehr zum Einsatz kommen wird“, ist sich Letzel sicher.
Das Projekt „FOR-IDENT“ entwickelt internationale Strategien
Eine besondere Herausforderung ist aber nach wie vor die effiziente Nutzung von Analysemethoden bei der Aufklärung der Molekülstruktur sowie die eindeutige Zuordnung eines Stoffes. Ziel des Projektes „FOR-IDENT“ ist es daher, die Effizienz und die Vergleichbarkeit der Suspected- und Non-Target-Analytik zu steigern. Dazu werden die vorhandenen Werkzeuge gebündelt, methodische Qualitätsanforderungen definiert sowie Vorgehensweise und Methoden standardisiert.
Um nationale wie internationale Strategien und Arbeitsweisen länderübergreifend zu diskutieren und weltweit zu harmonisieren, veranstaltet das Projekt „FOR-IDENT“ in den nächsten beiden Jahren regelmäßig Konferenzen und Workshops. Unter anderem organisieren die TUM-Wissenschaftler bei der 250. Konferenz der American Chemical Society vom 16. bis 20. August 2015 in Boston, Massachusetts, USA, einen Workshop, bei dem transatlantische Strategien erarbeitet werden sollen.
„FOR-IDENT“ ist Teil der BMBF-Fördermaßnahme „Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf (RiSKWa)“ im Förderschwerpunkt „Nachhaltiges Wassermanagement (NaWaM)“.
Bild zum Download: https://mediatum.ub.tum.de/node?id=1256261
Kontakt:
Technische Universität München
Prof. Dr. Thomas Letzel
Analytische Forschungsgruppe (AFG) am Lehrstuhl für Siedlungswasserwirtschaft (Prof. Jörg Drewes)
Tel.: +49 89 289 13780
E-Mail: t.letzel@tum.de
Weitere Informationen:
Kurzbeschreibung des Projektes FOR-IDENT: http://for-ident.hswt.de/
Kurzbeschreibung des Projektes RISK-IDENT: http://www.sww.bgu.tum.de/forschung/analytische-forschungsgruppe/risk-ident-allg…
http://risk-ident.hswt.de/pages/de/projekt/zusammenfassung.php
http://www.lfu.bayern.de/analytik_stoffe/risk_ident/index.htm
Weitere Informationen:
https://www.tum.de/die-tum/aktuelles/pressemitteilungen/kurz/article/32448/
Quelle: idw
Wie Krebsschmerz entsteht
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Nervenzellen reagieren auf Botenstoffe von Tumoren und werden dadurch übersensibel für Schmerzreize / Heidelberger Wissenschaftler veröffentlichen in „Cancer Cell“
Wie Krebsschmerz, unter dem besonders Patienten mit Krebsabsiedlungen im Knochen oder bestimmten Tumoren der Bauchspeicheldrüse leiden, seinen Anfang nimmt, haben Wissenschaftler des Universitätsklinikums Heidelberg um Professor Dr. Rohini Kuner und des Deutschen Krebsforschungszentrums um Professor Dr. Hellmut Augustin nun entdeckt: Schütten Tumoren bestimmte Botenstoffe aus, um das Wachstum neuer Blutgefäße in ihrer Umgebung anzuregen, reagieren benachbarte Nervenzellen empfindlich. Das macht sie übersensibel für Schmerzreize. Der Sensor für diese Botenstoffe ist ein sogenanntes Rezeptorprotein (VEGF-Rezeptor 1), das zwar schon länger bekannt ist, über dessen genaue Funktion man bisher aber noch wenig weiß. Es kommt in Blutgefäßen und Nervenendigungen vor. Wird es im Experiment blockiert, lindert das die Tumorschmerzen. Die Forschungsergebnisse sind nun im renommierten Journal „Cancer Cell“ erschienen.
Erreicht ein Tumor eine bestimmte Größe, benötigt er für sein weiteres Wachstum eine gute Anbindung an den Blutkreislauf. Indem er bestimmte, auch im gesunden Körper vorkommende Wachstumsfaktoren an seine Umgebung abgibt, regt er benachbarte Blutgefäße dazu an, neue Verzweigungen zu bilden. Eine wichtige Rolle in diesem Prozess spielen der Wachstumsfaktor VEGF (Vascular Endothelial Growth Factor) und verwandte Moleküle. Sie binden an Rezeptorproteine (VEGF-R1 und -R2) in den Gefäßwänden und aktivieren so die Bildung neuer Blutgefäße. VEGF und Konsorten sind aber auch bei Entwicklungsprozessen im Nervensystem beteiligt und Nervenenden außerhalb von Gehirn und Rückenmark tragen auch im Erwachsenenalter noch VEGF-Rezeptoren an ihrer Oberfläche. „Wozu ausgereifte Nervenzellen Sensoren für Wachstumsfaktoren des Gefäßsystems benötigen, ist unklar. Allerdings ist die Interaktion zwischen Nerven und Blutgefäßen bisher noch kaum erforscht“, sagt Professor Dr. Rohini Kuner, Geschäftsführende Direktorin des Pharmakologischen Instituts der Universität Heidelberg.
Kein Tumorschmerz, wenn eines von zwei ähnlichen Rezeptorproteinen fehlt
Die Heidelberger Wissenschaftler zeigten im Mausversuch, dass die Wachstumsfaktoren wie VEGF Nerven für Schmerzreize sensibilisieren: Sie reagieren fortan schon auf geringe, an sich harmlose Reize mit einer Schmerzmeldung. Verantwortlich dafür ist allerdings nur einer der beiden Rezeptoren, der VEGF-Rezeptor 1. Dies entdeckten die Forscher, indem sie die Rezeptorproteine 1 und 2 jeweils einzeln und gezielt nur in den Nervenzellen blockierten. Ohne funktionsfähigen Rezeptor 1 trat beim Abtasten kaum Sensibilisierung auf, ohne Rezeptor 2 dagegen war die Empfindlichkeit unverändert erhöht.
Zusätzlich analysierte das Team Tumorgewebe von Patienten mit einer bestimmten und sehr schmerzhaften Form des Bauchspeicheldrüsenkrebs, dem duktalen Pankreaskarzinom. Die Patienten wurden entsprechend ihrer Schmerzen vor der Operation in drei Gruppen eingeteilt. Es zeigte sich: Je stärker die Tumorschmerzen, desto mehr VEGFR1 fand sich auf der Oberfläche der Nervenendigungen. „Wir gehen davon aus, dass die Intensität der Tumor-schmerzen direkt mit der Menge und Aktivität des Rezeptorproteins VEGFR1 zusammenhängt“, sagt Erstautorin Dr. Deepitha Selvaraj vom Pharmakologischen Institut. Auch bei den äußerst schmerzhaften Tumorabsiedlungen in Knochen, z.B. bei Prostatakrebs, ist die Menge des Rezeptorproteins auf den umliegenden Nervenzellen erhöht. „Unsere Ergebnisse zeigen allerdings nur, wie es zur Sensibilisierung der Nervenzellen durch das Tumorwachstum kommt. Was anschließend den anhaltenden Krebsschmerz aufrecht erhält, muss noch erforscht werden“, so die Wissenschaftlerin. Offen ist zudem die Frage, warum nur bestimmte Tumoren Schmerzen auslösen, andere, wie beispielsweise Brustkrebs, trotz gleicher Wachstumsmechanismen dagegen nicht.
Gezielte Schmerztherapie ohne Wirkung auf Blutgefäße
Trotzdem geben die Arbeiten erste Anhaltspunkte, wie Krebsschmerz in Zukunft besser behandelt werden könnte: „Wir empfehlen, direkt den Rezeptor 1 mit Hilfe spezieller Blocker auszuschalten. Fängt man die Wachstumsfaktoren ab, was man bereits bei einigen experimentellen Krebstherapien tut, um das Tumorwachstum zu stoppen, greift man gleichzeitig die gesunden Blutgefäße an. Bei einer R1-Blockade konnten wir bisher keine Gefäßveränderungen feststellen“, so Professor Kuner.
Literatur:
A Functional Role for VEGFR1 Expressed in Peripheral Sensory Neurons in Cancer Pain.
Selvaraj D, Gangadharan V, Michalski CW, Kurejova M, Stösser S, Srivastava K, Schweizerhof M, Waltenberger J, Ferrara N, Heppenstall P, Shibuya M, Augustin HG, Kuner R., Cancer Cell. 2015 Jun 8;27(6):780-96. doi: 10.1016/j.ccell.2015.04.017.
Professor Dr. Rohini Kuner
Geschäftsführende Direktorin
Pharmakologisches Institut
Universitätsklinikum Heidelberg
E-Mail: rohini.kuner@pharma.uni-heidelberg.de
Tel.: 06221 54-8247 (Sekretariat)
Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.600 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg.
Weitere Informationen:
http://www.medizinische-fakultaet-hd.uni-heidelberg.de/Kuner.107599.0.html Pharmakologisches Institut
Quelle: idw
Forschen für eine wirksame Flexibilisierung von Biogasanlagen
Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock
Erik Mauky erhält den mit 10.000 Euro dotierten Biogas-Innovationspreis der Deutschen Landwirtschaft 2015
Im Rahmen des diesjährigen Biogas-Innovationskongresses, der Anfang Juni 2015 bei der Deutschen Bundesstiftung Umwelt (DBU) in Osnabrück stattfand, wurden zum sechsten Mal Preise in den Kategorien Wissenschaft und Wirtschaft verliehen. Den Wissenschaftspreis erhielt in diesem Jahr Eric Mauky für den Beitrag „Bedarfsgerechte Biogasproduktion durch modellprädiktive Fütterungsregelung im Praxismaßstab“. Eric Mauky ist Doktorand am Lehrstuhl Abfall- und Stoffstromwirtschaft der Universität Rostock und wissenschaftlicher Mitarbeiter am Deutschen Biomasseforschungszentrum (DBFZ) in Leipzig.
Zusammen mit seinen Kollegen entwickelte Eric Mauky ein simulationsgestütztes Fütterungsmanagement für Bestands-Biogasanlagen, welches die flexible Biogasproduktion unter Berücksichtigung eines Blockheizkraftwerk-Fahrplans und der Abbaugeschwindigkeiten unterschiedlicher Substrate ermöglicht.
Für die Umsetzung der Regelung wurde zuerst die generelle Flexibilität des biologischen Prozesses innerhalb von Biogasanlagen und deren Einfluss auf die Prozessstabilität untersucht. Dabei konnte ein hohes Maß an Flexibilität bei gleichzeitig stabilem Prozess im Technikums- und Praxismaßstab nachgewiesen werden. Aufbauend darauf, ist die modellprädiktive Regelung zur bedarfsgerechten Substratfütterung von Biogasanlagen entwickelt worden. Die entwickelte Regelung kann Differenzen zwischen Energiebedarf und Energiebereitstellung durch ungeregelte Quellen im Netz (z. B. Wind und Solar) kompensieren und erlaubt es, den Anlagenbetrieb bei Ausfallzeiten (z. B. längere Wartungen) verlust- und emissionsarm zu gestalten. Getestet wurde diese Entwicklung an der DBFZ-Forschungsbiogasanlage und an der Biogasanlage „Unterer Lindenhof“ der Universität Hohenheim. Die Entwicklung ermöglicht die Vermeidung von Verlusten, Über- und Unterproduktion durch präzises Gasspeichermanagement und vorausschauende Prozessführung bei geringem technischem und ökonomischem Aufwand. Weiterhin konnte gezeigt werden, dass Einsparungen zusätzlicher Investitionen in Gasspeicherkapazitäten von bis zu 50 % durch flexible Fütterung möglich sind.
„Diese Forschungsarbeiten von Eric Mauky sind ein wichtiger Meilenstein zur effizienten Flexibilisierung von Biogasanlagen und die Grundlage für die Integration in das Energiesystem der Zukunft“, sagt Prof. Nelles, der an der Universität Rostock den Lehrstuhl für Abfall- und Stoffstromwirtschaft an der Universität Rostock leitet und sich seit drei Jahren auch als wissenschaftlicher Geschäftsführer am DBFZ in Leipzig engagiert. „Über den Biogas-Innovationspreis haben wir uns sehr gefreut. Dies ist ein weiterer Beleg für die hervorragende Kooperation zwischen dem DBFZ und der Agrar- und Umweltwissenschaftlichen Fakultät der Uni Rostock“, so Nelles weiter. Auch international sind insbesondere die Kompetenzen zur stofflichen und energetischen Verwertung von biogenen Abfällen und Reststoffen sehr gefragt. So waren Prof. Nelles und sein Team z.B. im Mai auf der „International Conference on Solid Waste 2015″ in Hong Kong (rund 900 Teilnehmer) mit fünf Beiträgen vertreten und Nelles ist einer der vier Herausgeber des 1.200-seitigen Tagungsbandes.
Kontakt:
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Prof. Dr. mont. Michael Nelles
Fon: +49 (0)381 498 3400
Mobil: +49 (0)170 380 2449
eMail: michael.nelles@uni-rostock.de
Quelle: idw
Evonik zeigt innovative Gastrennung und Beitrag zur biobasierten Produktion
Dr. Edda Schulze Corporate Communications
Evonik Industries AG
• SEPURAN®-Hohlfasern für neue Anwendungen werden vorgestellt
• Chief Innovation Officer Dr. Ulrich Küsthardt: „Die Suche nach alternativen Rohstoffquellen ist für uns ein wichtiges Innovationsfeld.“
• Biobasierte Kunststoffe und Prozesse bereits im Portfolio
Neue SEPURAN®-Hohlfasern für die effiziente und energiesparende Trennung von Gasgemischen präsentiert Evonik Industries auf der diesjährigen ACHEMA in Frankfurt am Main. Mit SEPURAN® N2 gelingt die kostengünstige Zerlegung von Luft und damit eine effiziente Stickstoffgewinnung; hochselektive SEPURAN® Noble Membranen dienen der effizienten Gewinnung von Helium aus Erdgas oder Prozessgasen. Mit den Neuentwicklungen knüpft das Spezialchemieunternehmen an den Erfolg von SEPURAN® Green an, das sich in kurzer Zeit weltweit für die Aufbereitung von Biogas etabliert hat. Mehr als 40 Biogasaufbereitungsanlagen auf Basis von SEPURAN® Green sind inzwischen in Betrieb oder im Bau.
Dr. Ulrich Küsthardt, Chief Innovation Officer von Evonik: „SEPURAN®-Hohlfasern stehen beispielhaft für Innovation von Evonik: erfolgreich, effizient und nachhaltig.“ Die SEPURAN®-Hohlfasermembranen sind ein Beispiel, wie Evonik mit seinen Produkten einen Beitrag zur Wertschöpfung der biobasierten Produktion, einem der drei Schwerpunktthemen der ACHEMA, leistet. Die „BiobasedWorld“ der ACHEMA bildet wie schon 2012 die biobasierte Produktion ab, die nach wie vor ein wesentliches Thema für Forschung und Industrie ist.
Evonik Industries setzt gezielt auf die Nutzung alternativer Rohstoffe und biotechnologischer Prozesse. Für das Spezialchemieunternehmen ist die Biotechnologie eine wichtige Technologieplattform mit deutlichem Potenzial. Das innovationsstarke Unternehmen will unabhängiger von fossilen Ressourcen werden und neuartige, nachhaltige Produkte anbieten. „Die Suche nach alternativen Rohstoffquellen ist für uns ein wichtiges Innovationsfeld“, so Küsthardt.
Entsprechend zeigt Evonik in Frankfurt mit VESTAMID® Terra auch einen biobasierten Hochleistungskunststoff, der zur Familie der Polyamide gehört. Die Rohstoffe dafür werden aus dem Öl der Rizinus-Pflanze gewonnen. VESTAMID® Terra kann überall dort eingesetzt werden, wo hohe technische Anforderungen bestehen oder eine gute Ökobilanz gefragt ist. Dazu gehören Anwendungen in der Automobil- und Bauindustrie genauso wie Sportartikel, Konsumgüter oder Elektronikgeräte.
Ein weiteres biobasiertes Polyamid befindet sich bei Evonik in der Pilotphase. In Slovenska Lupca (Slowakei) ist eine Pilotanlage zur biotechnologischen Herstellung von ω-Amino-Laurinsäure (ALS), einer Vorstufe des Hochleistungskunststoffes Polyamid 12, in Betrieb. Langfristig kann das neue Verfahren die erdölbasierte Produktion von Polyamid 12 ergänzen.
Die Innovationsstrategie von Evonik orientiert sich an den Bedürfnissen einer wachsenden Gesellschaft – Ernährung, Gesundheit, Zugang zu neuen Technologien, schonender Umgang mit den vorhandenen Ressourcen. „Evonik soll eines der innovativsten Unternehmen der Welt werden, das ist unser Anspruch“, stellte Küsthardt nochmals klar. „Denn Innovationen eröffnen neue Geschäftsfelder und stärken unsere führenden Markt- und Technologiepositionen.“ So will Evonik Industries in den nächsten zehn Jahren mehr als 4 Milliarden € in F&E investieren. Im Geschäftsjahr 2014 lagen die F&E-Aufwendungen von Evonik mit 413 Millionen € fünf Prozent über denen des Vorjahres (394 Millionen €). Die F&E-Quote betrug 3,2 Prozent (2013: 3,1 Prozent).
Anhang
https://idw-online.de/de/attachment44384
PDF-Download
Quelle: idw
Meister, Techniker und Akademiker haben besonders gute Chancen auf dem Arbeitsmarkt
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Akademiker sind weiterhin selten von Arbeitslosigkeit betroffen: Ihre Arbeitslosenquote lag im Jahresdurchschnitt 2013 bei 2,5 Prozent. Auch die Arbeitslosenquote von Personen mit beruflicher Qualifikation war 2013 mit 5,1 Prozent vergleichsweise niedrig. Unter den Personen mit abgeschlossener Berufsausbildung nahmen Techniker und Meister eine besondere Rolle ein: Sie waren im Schnitt weniger häufig erwerbslos als Akademiker. Dies geht aus einer Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor, die am Dienstag veröffentlicht wurde.
Schwierig ist die Lage hingegen noch immer für Personen ohne berufliche Qualifikation: Ihre Arbeitslosenquote erhöhte sich 2013 auf 20 Prozent.
Bei Personen ohne beruflichen Abschluss kommt der schulischen Qualifikation besondere Bedeutung zu. „Auch hier zeigt sich: Ein höherer schulischer Abschluss verbessert die Chancen am Arbeitsmarkt“, erläutern die Arbeitsmarktforscher. So war in der Gruppe ohne schulischen Abschluss fast jede dritte Person arbeitslos. Mit Hauptschulabschluss halbierte sich diese Quote nahezu auf 17,8 Prozent. Bei Personen ohne Berufsausbildung, aber mit einem mittleren Bildungsabschluss lag die Arbeitslosenquote bei 9,8 Prozent.
Die IAB-Forscher folgern: „Bildungsinvestitionen bringen selbst nach Berücksichtigung der Kosten hohe individuelle und gesellschaftliche Vorteile.“ Von höheren Bildungsinvestitionen beispielsweise im frühkindlichen Bereich erwarten sich die Forscher eine positive Wirkung auf dem Arbeitsmarkt.
Aufgrund einer Revision der Beschäftigtenstatistik können die Zahlen von zuvor veröffentlichten Daten abweichen.
Zu den Begriffen Erwerbslosigkeit und Arbeitslosigkeit:
Aufgrund einer Umstellung des Erfassungssystems der Bundesagentur für Arbeit (BA) bei den Arbeitslosen können Techniker und Meister seit 2006 nicht mehr von den übrigen beruflich Qualifizierten unterschieden werden. Deshalb werden in der Studie alternativ zu den Arbeitslosenzahlen der BA Erwerbslosenzahlen auf Grundlage des Erwerbskonzepts der International Labour Organisation (ILO) verwendet. Erwerbslosigkeit und Arbeitslosigkeit unterscheiden sich aufgrund verschiedener Erhebungsmethoden (Stichprobenbefragung versus Registrierung) und abweichender Konzepte. Beispielsweise liegt nach dem Sozialgesetzbuch Arbeitslosigkeit auch dann vor, wenn eine Beschäftigung von weniger als 15 Wochenstunden ausgeübt wird, während nach dem ILO-Konzept schon eine Wochenstunde Arbeit Erwerbslosigkeit ausschließt.
Weitere Informationen:
http://doku.iab.de/kurzber/2015/kb1115.pdf
http://doku.iab.de/kurzber/2015/kb1115_Anhang.pdf
Quelle: idw
Oberhausen: Gemüse vom Dach des neuen Jobcenters
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Das neue Jobcenter in Oberhausen könnte zum möglichen Trendsetter für urbanen Gartenbau werden. Am 9. Juni unterzeichneten die OGM Oberhausener Gebäudemanagement GmbH und Fraunhofer UMSICHT ein Memorandum of Understanding, das den Bau einer gebäudeintegrierten Gemüseproduktion nach dem inFARMING®-Konzept auf dem Dach des Neubaus vorsieht.
Ein großer Teil der Erdoberfläche wird landwirtschaftlich genutzt. Damit einher geht ein enormer Ressourcenverbrauch – alleine 70 Prozent[i] des weltweit verfügbaren Trinkwassers fällt auf diesen Sektor. Dazu kommen weitere kritische Punkte wie Wasserverunreinigung und Treibstoffverbrauch aufgrund globaler Produktion. Deutlich ressourcensparender ist die regionale Wertschöpfung. Doch insbesondere im urbanen Raum sind die Flächen rar – hier sind alternative Lösungen gefragt. Eine Möglichkeit, lokal frische Lebensmittel bereitzustellen, sind urbane Stadtfarmen, wie sie das von Fraunhofer UMSICHT entwickelte Konzept inFARMING® vorsieht. Mittels intelligenter Verknüpfung von Produktionssystemen und Gebäudeinfrastrukturen werden kommunale und industrielle Stoff- und Energieströme nachhaltig genutzt. Etwa durch ROOF WATER-FARM, ein Projekt, in dessen Rahmen die Wasserströme aus Gebäuden zur Versorgung von Pflanzensystemen verwendet werden. InFARMING® zeigt, dass der Anbau in speziellen Gewächshäusern auf dem Dach oder an Fassaden, die in Ballungszentren integriert sind, eine ressourcenschonende und flächeneffiziente Möglichkeit des Gartenbaus bieten kann.
Memorandum of Understanding
Die Stadt Oberhausen hat das Potenzial urbaner Stadtfarmen erkannt und nutzt die Synergien mit der hiesigen Forschungslandschaft. Am 9. Juni haben die OGM, vertreten durch deren Geschäftsführung, und Fraunhofer UMSICHT, vertreten durch deren stellvertretenden Institutsleiter, Prof. Görge Deerberg, ein Memorandum of Understanding unterzeichnet: Auf dem Dach des geplanten Neubaus des Oberhausener Jobcenters – Ecke Altmarkt/Marktstraße/Friedrich-Karl-Straße – soll eine gebäudeintegrierte Gemüseproduktion nach dem inFARMING®-Ansatz entstehen. Im Vorfeld der Vereinbarung haben die Partner bereits intensive Gespräche geführt, bei denen die beabsichtigte Zusammenarbeit manifestiert wurde.
Die Experten von Fraunhofer UMSICHT um Volkmar Keuter, Leiter des Fraunhofer-inHaus-Zentrums, und Simone Krause, Innovationsmanagement, werden ihr strategisches und technisches Know-how einbringen und den Bau, für den die OGM Oberhausener Gebäudemanagement GmbH verantwortlich ist, beratend begleiten. Nach Fertigstellung wird das Institut weiterhin in das Projekt involviert sein, wenn es die Gemüseproduktion zu Forschungs- und Entwicklungszwecken nutzt.
OGM Oberhausener Gebäudemanagement GmbH
Gegenstand des Unternehmens OGM GmbH ist in diesem Fall der Erwerb, der Um- und Neubau (als Generalunternehmer) sowie die Verwaltung und Vermarktung von Flächen in Oberhausen.
Fraunhofer UMSICHT
Fraunhofer UMSICHT versteht sich als Wegbereiter der nachhaltigen Energie- und Rohstoffwirtschaft. Das Institut erforscht und entwickelt mit seinen Partnern nachhaltige Produkte, Prozesse und Dienstleistungen in den Geschäftsfeldern Polymerwerkstoffe, Chemie, Umwelt, Biomasse und Energie. Seit seiner Gründung im Juni 1990 engagiert sich Fraunhofer UMSICHT beim Strukturwandel in Stadt und Region mit neuen Ideen, Technologietransfer, Ausgründungen und bei der Bildung von Netzwerken im Bereich Forschung und Entwicklung.
[i] Quelle: Deutsche UNESCO-Kommission Weltwasserbericht 2014. http://www.unesco.de/wissenschaft/2014/weltwasserbericht2014.html
Weitere Informationen:
http://www.infarming.de
inFARMING®-Konzept
http://www.umsicht.fraunhofer.de/de/presse-medien/2015/mou-inFARMING.html
Pressemitteilung (ausführliche Bildunterschriften)
Quelle: idw
Koffein hilft bei chronischem Stress
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Koffein kann die Folgen von chronischem Stress lindern: Ein internationales Forscherteam unter Beteiligung der Universität Bonn zeigt, dass der Wirkstoff über eine Blockade des Adenosinrezeptors „A2A“ wirkt. Synthetische Substanzen mit koffeinartiger Wirkung führten bei erwachsenen Mäusen, die unter Stresssymptomen litten, zu einer Besserung der Beschwerden: Sie schnitten bei Gedächtnistests besser ab und depressive Symptome milderten sich im Vergleich zu unbehandelten Tieren. Die Ergebnisse werden nun in den „Proceedings of the National Academy of Sciences of the United States of America“ (PNAS) vorgestellt.
Chronischer Stress macht bekanntlich krank: Wer sich dauerhaft mit Kollegen herumärgert, im Schlaf häufig gestört wird oder vom Chef eine kurzfristige Deadline nach der anderen vorgesetzt bekommt, wird allmählich schlecht gelaunt oder sogar depressiv, kann sich nicht mehr richtig konzentrieren oder leidet zunehmend unter Ängsten. Koffein kann diese gefährliche Stressspirale durchbrechen oder ihr sogar vorbeugen. Das hat ein internationales Forscherteam unter Federführung der portugiesischen Universität Coimbra unter Beteiligung der Bonner Universität herausgefunden.
Die Wissenschaftler behandelten Mäuse, die mehrere Wochen unter Stresssymptomen litten, mit Koffein oder einem synthetischen Wirkstoff, der – ähnlich wie das Koffein, aber viel stärker und mit hoher Spezifität – Adenosin-A2A-Rezeptoren blockiert. Die Tiere nahmen die Substanzen mit dem Trinkwasser oder mit der Nahrung auf. Daraufhin besserten sich die Stresssymptome: Die Nager lösten sich aus ihrer depressiven Erstarrung, waren weniger ängstlich, schnitten bei Gedächtnistests besser ab als die unbehandelte Kontrollgruppe und zeigten auch im Hirnstoffwechsel eine Normalisierung der Botenstoffe und Gehirnzellen.
Adenosinrezeptor „A2A“ ist für Stresssymptome verantwortlich
Wie die portugiesischen Forscher mit ihren Kollegen aus Brasilien, Oman, USA und der Universität Bonn zeigen konnten, wird bei Stress der Adenosinrezeptor „A2A“ im Gehirn hochreguliert und führt dann zu den entsprechenden Symptomen. Die Rezeptoren stellen Proteine dar, an die ganz bestimmte Signalmoleküle binden und dadurch Signalprozesse im Inneren der lebenden Zelle auslösen können.
„Wurde in den Mäusen das Gen, das den Rezeptor A2A codiert, stumm geschaltet oder wurde der Rezeptor durch Koffein oder spezifische A2A-Hemmer blockiert, dann klangen die Beschwerden durch den anhaltenden Stress ab“, sagt Prof. Dr. Christa E. Müller vom Pharmazeutischen Institut der Universität Bonn. Insbesondere verbesserte sich durch die Koffeingaben wieder die Gedächtnisleistung der Tiere. Prof. Müller hatte in einer vorangegangenen Studie bereits gezeigt, dass sich Koffein auch positiv auf die Tau-Ablagerungen bei der Alzheimer-Krankheit auswirkt, die letztlich zu den fortschreitenden Gedächtniseinbußen bei dieser Erkrankung führen.
Forscher der Universität Bonn entwickelten synthetische Wirkstoffe
Das Team der Pharmazeutin der Universität Bonn hat für die aktuelle Stress-Studie die Synthese der Wirkstoffe entwickelt und in größeren Mengen für die Experimente hergestellt. „Die Substanz ist dem Koffein sehr ähnlich, hat aber weniger Nebenwirkungen. Sie blockiert ausschließlich die A2A-Rezeptoren und wirkt deutlich stärker als das Koffein“, berichtet Prof. Müller. Der Wirkstoff wurde den Mäusen nicht in großen Mengen verabreicht, sondern entfaltete schon in geringerer Dosierung seinen Effekt.
Intuitiv nutzen viele Menschen die Adenosinrezeptoren blockierende Wirkung von Koffein: „Die Erfahrung zeigt: Wer unter Stress steht, trinkt meist mehr Kaffee oder Tee. Weil in beiden Getränken Koffein enthalten ist, handelt es sich dabei um so etwas wie eine Eigenbehandlung der Betroffenen“, sagt Prof. Müller. Der Koffeingenuss in höherer Dosierung sei zwar auch mit Nebenwirkungen verbunden, aber gegen ein paar Tassen Kaffee oder Tee täglich sei für ansonsten gesunde Personen nichts einzuwenden.
Ansatzpunkt für neue Therapien
Beim Koffein könne es sich um einen sehr interessanten Ansatzpunkt für die Entwicklung neuartiger Stresstherapien handeln, blickt die Pharmazeutin der Universität Bonn in die Zukunft. Inwieweit die Substanz zur Behandlung der Folgen von größerem Stress beim Menschen – etwa von der Verbesserung der Gedächtnisleistung bis hin zur Therapie von posttraumatischen Belastungsstörungen – hilfreich sein könnte, müssten jedoch erst noch klinische Studien erweisen.
Publikation: Caffeine acts through neuronal adenosine A2A receptors to prevent mood and memory dysfunction triggered by chronic stress, „Proceedings of the National Academy of Sciences“ (PNAS)
Weitere Informationen:
http://www.pnas.org/cgi/doi/10.1073/pnas.1423088112 Publikation im Internet
Quelle: idw
Frauen reagieren anders. Männer auch.
Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Seit wenigen Tagen läuft in Kanada die Frauen-WM im Fußball. Mit einem hohen Sieg über die Elfenbeinküste ist die deutsche Nationalmannschaft optimal gestartet. Welche Effekte die Fernsehübertragung der Spiele auf das Publikum haben kann, zeigt eine neue Studie zweier Würzburger Wissenschaftler.
„Eine gigantische Enttäuschung“: So lautete die Schlagzeile vor rund fünf Jahren in der Süddeutschen Zeitung. Obwohl zuvor als haushoher Favorit gehandelt, waren Deutschlands Fußballerinnen bei der Weltmeisterschaft im eigenen Land mit einem bitteren 0:1 gegen Japan frühzeitig im Viertelfinale ausgeschieden. Dem Entsetzen in Deutschland stand der Jubel in Japan gegenüber.
Wie sich solche Sportereignisse auf die Stimmung und bestimmte Einschätzungen der Zuschauer auswirken, haben damals zwei Wissenschaftler der Universität Würzburg untersucht: Holger Schramm, Professor für Medien- und Wirtschaftskommunikation am Institut für Mensch-Computer-Medien, und sein Mitarbeiter Johannes Knoll. Jetzt haben sie die Ergebnisse in der Fachzeitschrift Communication Research veröffentlicht, dem derzeit höchst gerankten Journal im Bereich der Medien- und Kommunikationswissenschaft.
Deutliche Effekte bei fußballverrückten Männern
Die zentrale Aussage der Studie fasst Holger Schramm so zusammen: „Das Ergebnis eines angeschauten Fußballspiels beeinflusst die Stimmung und allgemeine Einschätzungen der Zuschauer merklich – allerdings nur bei fußballverrückten Männern, die sich stark mit dem Team identifizieren.“ Für ihre Untersuchung haben die Wissenschaftler 180 Fernsehzuschauer jeweils nach einem Sieg und nach einer Niederlage der deutschen Nationalmannschaft während der Frauenfußball-WM 2011 einen Online-Fragebogen ausfüllen lassen. Dabei sollten die Teilnehmer sowohl Angaben zu ihrer aktuellen Stimmung machen als auch Aussagen treffen beispielsweise über ihr Selbstwertgefühl, ihre ökonomische Situation und ihre Zufriedenheit mit der Arbeit ihrer Regierung.
Wie erwartet, waren Fernsehzuschauer, die den Sieg der Frauen-Nationalmannschaft im zweiten Spiel der Vorrunde gesehen hatten, nach dem Spiel besser gelaunt als davor. Umgekehrt sank die Stimmung bei den Zuschauern, die die Niederlage im Viertelfinale gesehen hatten – allerdings nicht auf eine signifikante Art und Weise. Aus diesem Grund konzentrierten sich die Wissenschaftler bei der Auswertung der Daten nur noch auf das gewonnene Spiel. Dabei zeigte sich: Nur Männer, die sich moderat bis stark mit dem deutschen Team identifizierten, zeigten nach dem Sieg eine Veränderung ihrer Stimmung. Frauen allgemein und Männer, die sich nur wenig mit dem deutschen Team identifizierten, zeigten hingegen kaum Stimmungsveränderungen.
Frauen sind am Wettkampf interessiert, Männer am Ergebnis
„Wir führen diesen Unterschied zwischen den Geschlechtern darauf zurück, dass Männer stärker an Wettbewerb und am Ergebnis solcher Wettkämpfe interessiert sind als Frauen“, erklärt Holger Schramm. Frauen könnten sich demnach zwar genauso stark mit „ihren“ Teams identifizieren und diese anfeuern wie Männer; am Ausgang dieses Wettkampfs seien sie jedoch in der Regel weniger interessiert.
Und weil sich Männer – zumindest bislang – mit der Nationalmannschaft der Männer deutlich stärker identifizieren als mit dem Team der Frauen, gehen die Wissenschaftler davon aus, dass diese Effekte bei Sportturnieren mit männlicher Beteiligung noch deutlich höher ausfallen könnten.
Gute Stimmung wirkt sich auf andere Urteile aus
Ähnlich fiel das Ergebnis aus bei der Untersuchung weitergehender Effekte des Vorrunden-Siegs, etwa auf das Selbstvertrauen, das Urteil über die persönliche ökonomische Situation und die Zufriedenheit mit der Regierung. Auch in diesen Punkten erwiesen sich nur männliche Zuschauer, die sich moderat bis stark mit „ihrem“ Team identifizierten, als beeinflussbar. Männer, die besonders intensiv mit den deutschen Frauen mitfieberten, hatten nach dem Sieg ein höheres Selbstbewusstsein, sie bewerteten ihre ökonomische Situation besser und waren mit der Arbeit ihrer Regierung deutlich zufriedener als noch vor Spielbeginn. Dieser Effekt hielt sogar über drei Tage hinweg an. Kein Einfluss zeigte sich wiederum bei Männern, die sich kaum bis gar nicht mit dem deutschen Team identifizierten, und bei Frauen.
Der Schluss, ein deutscher Sieg im Fußball garantiert der Bundesregierung gute Noten, ist nach Aussage der Wissenschaftler allerdings nur indirekt gültig: „Die Einschätzung von Menschen gegenüber ökonomischen und politischen Aspekten basiert im Wesentlichen auf ihrer aktuellen Stimmung“, erklärt Holger Schramm. Allerdings könne diese Stimmung durch Sportereignisse merklich beeinflusst werden. So gesehen, sei es durchaus sinnvoll, wenn Politiker und andere Entscheidungsträger die Nähe zu großen Sportereignissen suchen in der Hoffnung, einige der positiven Aspekte auf ihre Person und ihre Ideen zu übertragen.
Effects of Women’s Football Broadcastings on Viewers‘ Moods and Judgments: Investigating the Moderating Role of Team Identification and Sex. Holger Schramm and Johannes Knoll, Communication Research, DOI: 10.1177/0093650215583894
Kontakt
Prof. Dr. Holger Schramm, Institut für Mensch-Computer-Medien
T: (0931) 31-83735, holger.schramm@uni-wuerzburg.de
Quelle: idw
Zu dick? Zu dünn? – Selbstwahrnehmung unter der Lupe
Stephanie Bertenbreiter Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für biologische Kybernetik
Max-Planck-Wissenschaftler nutzen lebensgroße 3D-Avatare zur Körperwahrnehmung
Von jedem von uns gibt es Fotos, von denen wir wünschten sie wären nie entstanden. Wir finden uns darauf vielleicht zu dick oder die Kleidung sitzt nicht – wir bevorzugen jene Bilder, die uns vorteilhaft erscheinen lassen. Nur unter bestimmten Bedingungen akzeptieren wir uns also so, wie wir sind. Doch welche Kleidungsstücke erscheinen uns besonders schmeichelhaft? Und welche Farben haben einen Einfluss darauf, wie wir unser Körpergewicht wahrnehmen? Wissenschaftler vom Max-Planck-Institut für biologische Kybernetik sind diesen Fragen nun auf den Grund gegangen.
Um zu untersuchen, wie Menschen ihren Körper wahrnehmen, verwenden Forscher meist Zerrbilder von Fotografien oder zeichentrickähnliche Abbildungen des Körpers. Nutzt man jedoch Fotos oder Abbildungen, ist es schwierig die Körperwahrnehmung systematisch zu untersuchen. Man erhält keine ausreichenden Informationen darüber, wie sich die Gewichtszunahme beziehungsweise -abnahme auf andere Körperteile wie Arme, Beine oder Gesicht auswirkt. Dennoch deuten viele Forschungsreihen darauf hin, dass auch gesunde Menschen ihren Körper nicht so wahrnehmen, wie er wirklich ist.
Ivelina Piryankova, Wissenschaftlerin in der Forschungsgruppe für Körper- und Raumwahrnehmung von Betty Mohler am Max-Planck-Institut für biologische Kybernetik nutzte realistische 3D-Körpermodelle von Frauen zwischen 20 und 40 Jahren, um deren Wahrnehmung ihres eigenen Körpers zu untersuchen. Sie wollte wissen, inwieweit ihre Wahrnehmung der Realität entspricht. Die Avatare dafür entwickelte die Forschungsgruppe gemeinsam mit der Abteilung für Perzeptive Systeme am Max-Planck-Institut für Intelligente Systeme.
Insbesondere untersuchte die Informatikerin Piryankova, ob die Form dieses Avatars und sein Farbmuster einen Einfluss auf die Gewichtswahrnehmung haben. Welche Rolle spielen diese Aspekte bei der Selbstwahrnehmung? Hierzu wurden die Körper der Frauen zunächst gescannt und ihr BMI leicht verändert. Die Avatare hatten im Versuch dann entweder dieselben Körperproportionen wie die Probandinnen oder aber Durchschnittsmaße.
Die Wissenschaftler konnten so messen, wie akkurat Menschen ihr aktuelles Körpergewicht in Abhängigkeit von Figur und Muster einschätzen. Es stellte sich heraus, dass die Probanden das eigene Körpergewicht richtig einschätzen konnten. Auffällig war dabei aber, dass Frauen offenbar bereitwillig einen schlankeren Körper als ihren eigenen akzeptieren, nicht jedoch einen dickeren. Wurde die farbbasierte Information geändert und ein Schachbrettmuster auf den Körper der Avatare gelegt, also das Kleidungsmuster geändert, tendierten die Teilnehmerinnen generell zu den schlankeren Versionen.
Kooperationsprojekt: Biometrische Avatare in Virtueller Realität
„Unsere Forschungsergebnisse können nun genutzt werden, um neue Methoden zur Messung der Selbstwahrnehmung für Personen zu entwickeln, die in dieser Hinsicht sehr empfindlich reagieren. Auf diese Weise können wir ihnen sogar alternative Erfahrungen ermöglichen“, erklärt die Wissenschaftlerin Piryankova. Gemeint sind Menschen mit Körperwahrnehmungs- und Körperbildstörungen, zum Beispiel Patienten mit Essstörungen oder jene, die nach einem Schlaganfall einzelne Gliedmaßen nicht als ihre eigenen erkennen.
Im Rahmen eines vom Werner Reichardt Centrum für Integrative Neurowissenschaften (CIN) unterstützten Kollaborationsprojekts der Klinik für Psychosomatische Medizin und Psychotherapie am Universitätsklinikums, der Minervagruppe Körper- und Raumwahrnehmung am Max-Planck-Institut für biologische Kybernetik und der Abteilung für Perzeptive Systeme am Max-Planck-Institut für Intelligente Systeme untersuchen die Wissenschaftler nun die Wahrnehmung von Patienten bezüglich ihrer Körperdimensionen wie Gewicht oder der Arm- und Beinlänge.
Der 4DScanner – Geburtshilfe für einen Avatar
Damit der Avatar wirklichkeitsgetreu aussieht und sich in seiner Computer-Welt realistisch bewegt, brauchen seine Schöpfer möglichst detaillierte Informationen über den Körper des realen Vorbilds – auch in Bewegung. Genau diese Daten liefert der erste vierdimensionale Ganzkörper-Scanner. Entwickelt hat den 4D-Scanner Michael J. Black, Direktor am Max-Planck-Institut für Intelligente Systeme, gemeinsam mit dem amerikanischen Unternehmen 3dMD. Um die Körperform und deren Haut realistisch abbilden zu können, wird eine Person mit einem schnell pulsierenden Fleckenmuster beleuchtet und zusätzlich mit roten und blauen Quadraten bedruckt. Beide Muster helfen den Forschern, die dreidimensionale Oberfläche des Körpers und die Haut wahrheitsgetreu zu rekonstruieren. Mit 60 Aufnahmen pro Sekunde zeichnen 22 Stereo- und 22 Farbkameras den Körper in verschiedenen Haltungen und Aktivitäten auf.
Für die oben beschrieben Forschung wurde jedoch nur der Körper gescannt. Zukünftig soll jedoch auch die vierte Dimension – die Avatare in Bewegung – mit genutzt werden.
Originalpublikation:
Piryankova IV, Stefanucci JK, Romero J, de la Rosa S, Black MJ and Mohler BJ (September-2014) Can I recognize my body’s weight? The influence of shape and texture on the perception of self ACM Transactions on Applied Perception 11(3:13) 1-18.
Piryankova IV, Wong HY , Linkenauger SA, Stinson C, Longo MR , Bülthoff HH and Mohler BJ (August-2014) Owning an Overweight or Underweight Body: Distinguishing the Physical, Experienced and Virtual Body PLoS ONE 9(8) 1-13
Ansprechpartner:
Betty Mohler, PhD
Tel.: 07071 601- 214
E-Mail: betty.mohler@tuebingen.mpg.de
Dr. Ivelina Piryankova
Tel.: 07071 601- 214
E-Mail: ivelina.piryankova@tuebingen.mpg.de
Christina Bornschein / Stephanie Bertenbreiter
Presse- & Öffentlichkeitsarbeit
Tel.: 07071 601-777/-222
E-Mail: presse-kyb@tuebingen.mpg.de
Das Max-Planck-Institut für biologische Kybernetik forscht an der Aufklärung von kognitiven Prozessen auf experimentellem, theoretischem und methodischem Gebiet. Es beschäftigt rund 300 Mitarbeiterinnen und Mitarbeiter aus über 40 Ländern und hat seinen Sitz auf dem Max-Planck-Campus in Tübingen. Das MPI für biologische Kybernetik ist eines der 83 Institute und Forschungseinrichtungen der Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Weitere Informationen:
http://tuebingen.mpg.de/startseite/detail/zu-dick-zu-duenn-selbstwahrnehmung-unt…
http://www.kyb.tuebingen.mpg.de/de/
http://www.kyb.tuebingen.mpg.de/de/forschung/fg/mohlergroup.html
Anhang
Zu dick? Zu dünn? – Selbstwahrnehmung unter der Lupe
https://idw-online.de/de/attachment44393
Quelle: idw
Schwankungen im Nordatlantikstrom: kein Trend in Sicht
Eberhard Scholz Pressestelle
Universität Bremen
Wissenschaftler der Universität Bremen untersuchen Langzeit-Schwankungen beim Wassermassentransport des Golfstroms in den Nordatlantik. Ihre Studie ist jetzt im „Journal of Geophysical Research“ vorgestellt worden.
Das Szenario wird oft beschrieben: Der Nordatlantikstrom (NAC) als Fortsetzung des Golfstroms wird schwächer. Europa wird sich abkühlen. Mit der Frage, ob es so kommt, haben sich Wissenschaftler der Universität Bremen beschäftigt. Ihre Aussage: Bei den Transport-Schwankungen wärmerer Wassermassen in den Nordatlantik ist derzeit kein Trend nachweisbar.
Professorin Monika Rhein und ihrem Team vom Institut für Umweltphysik und dem Zentrum für Marine Umweltwissenschaften (MARUM) ist es erstmals gelungen, eine 21-jährige kontinuierliche Zeitreihe der Stärke des Nordatlantikstroms (NAC) beim Einströmen vom West- in den Ostatlantik zu erstellen. Die Ergebnisse wurden soeben im renommierten Fachjournal „Journal of Geophysical Research“ veröffentlicht. „Dies ist die erste Studie, die langfristige Transport-Schwankungen aus dem offenen Nordatlantik liefert“, sagt die Bremer Umweltphysikerin Monika Rhein. Möglich wurde dies durch den Einsatz von Bodenecholoten, die in einer Nord-Süd-Linie am Mittelatlantischen Rücken über mehrere Jahre verankert waren. „Unsere Messungen zeigen, dass der NAC beim Einstrom in den Ostatlantik immer noch halb so stark ist wie der Golfstrom in der Floridastraße“, erläutert Dr. Achim Roessler, der Erstautor der Studie, „aber die Stärke kann über vier bis neun Jahre hinweg um mehr als 30 Prozent schwanken“. Ein Teil dieses Signals ist mit dem atmosphärischen Zustand über dem Nordatlantik, der sogenannten Nordatlantischen Oszillation, verknüpft.
Der NAC ist eine der wichtigsten Meeresströmungen des Nordatlantiks. Als direkte Fortsetzung des Golfstromes transportiert er warme und salzreiche Wassermassen aus den Subtropen in unsere Breiten. Diese Wärme gelangt weit nach Norden und wird nach und nach an die Atmosphäre abgegeben. Der NAC hat somit für das vergleichsweise milde europäische Klima eine große Bedeutung. Wie stark der NAC-Transport ist und auf welchen Zeitskalen Schwankungen erzeugt werden, war bisher weitgehend unbekannt.
Die verankerten Bodenecholote senden kontinuierlich akustische Signale aus und messen die Laufzeit bis zur Meeresoberfläche und zurück. Aus diesen Laufzeiten und aus der Abhängigkeit der Schallgeschwindigkeit von Druck, Temperatur und Salzgehalt wurden die Wassertransporte berechnet. Die Daten einer vierjährigen Verankerungsperiode konnten in der aktuellen Studie durch Satellitenmessungen der Wasserbewegungen an der Meeresoberfläche auf 21 Jahre verlängert werden.
Derzeit ist die Bremer Arbeitsgruppe auf dem deutschen Forschungsschiff „Maria S. Merian“ im subpolaren Nordatlantik wieder unterwegs. Im Rahmen der Forschungsreise MSM-43 werden die neuesten Messdaten ausgelesen und weitere Geräte verankert.
Publikation: Roessler, A., M. Rhein, D. Kieke, and C. Mertens (2015), Long-term observations of North Atlantic Current transport at the gateway between western and eastern Atlantic, J. Geophys. Res., 120, doi:10.1002/2014JC010662.
Weitere Informationen:
Universität Bremen
Fachbereich Physik/Elektrotechnik
Institut für Umweltphysik
Prof. Dr. Monika Rhein
Tel. 0421 218 62160
mrhein@physik.uni-bremen.de
http://www.ocean.uni-bremen.de
Quelle: idw
Wie denkt der Mensch?
Julia Bird Unternehmenskommunikation
Universitätsklinikum Heidelberg
Mit modernsten Mess- und Analysemethoden gelingt es immer besser, dem Gehirn beim Denken zuzuschauen. Über neue Erkenntnisse zur Physiologie des Gehirns, über Möglichkeiten und Grenzen der Hirnforschung sprach der Neurophysiologe Professor Dr. Andreas Draguhn bei Medizin am Abend am 17. Juni 2015.
Das Gehirn gibt seine Geheimnisse nur sehr langsam preis – zu komplex ist das Zusammen-spiel der Millionen Nervenzellen. „Die Hirnforschung erklärt uns zwar schon vieles über uns, unser Verhalten und unsere Denkleistungen, stellt uns aber nach wie vor vor unzählige ungelöste Fragen“, sagt Professor Dr. Andreas Draguhn, Direktor der Abteilung für Neuro- und Sinnesphysiologie am Institut für Physiologie und Pathophysiologie des Universitätsklinikums Heidelberg. Wie neue Erkenntnisse der Neurowissenschaften helfen, die Vorgänge in unserem Denkorgan besser zu verstehen, was man mit diesem Wissen anfangen oder auch nicht anfangen kann, erklärte der renommierte Neurophysiologe in seinem Vortrag bei Medizin am Abend am Mittwoch, 17. Juni 2015.
Erfolge in der Hirnforschung erfahren immer wieder große Aufmerksamkeit sowohl in Wissenschaftskreisen als auch der medialen Öffentlichkeit: So ging der Nobelpreis für Physiologie und Medizin 2014 an die Entdecker des inneren Navigationssystems, dem Sitz des Orientierungs¬sinns im Hirn. Doch hilft dieses Wissen Menschen, die sich schlecht orientieren können? „Nein“, so der Experte, „davon sind wir noch weit entfernt. Momentan versuchen die Neurowissenschaften Denkvorgänge mit Aktivitätsmustern im Gehirn in Einklang zu bringen. Also z.B. zu klären, wie das Gehirn Erinnerungen abspeichert, was passiert, wenn diese abgerufen werden und wir etwas wiedererkennen. Im Fall der örtlichen Erinnerung weiß man das nun.“
Kann das Wissen um Hirnentwicklung und -rhythmen das Lernen erleichtern?
Neue Erkenntnisse über Lernen und Gedächtnis lassen aber dennoch hoffen, irgendwann Strategien entwickeln zu können, die das Lernen hirngerechter gestalten und damit auch für Menschen mit Lernschwierigkeiten leichter machen. Ein erster Schritt in diese Richtung ist die sogenannte Neurodidaktik, die Erkenntnisse zur Hirnreifung bei Kindern und Jugendlichen, zu Wahrnehmungsspannen, Lernen unter Stress sowie Schlaf-Wachrhythmen einbezieht. Zwischen den experimentellen Fragestellungen der Hirnfroscher und der komplexen Realität des Schulunterrichts klafft aber immer noch eine große Lücke. Deshalb tragen die Erkenntnisse der Neurobiologie bis heute nur wenig Konkretes zur Pädagogik bei.
Anders sieht es bei angeborenen Sinnesstörungen, wie Schielen oder Taubheit, aus. Hier gibt das aktuelle Wissen um die kindliche Hirnentwicklung ein klares Zeitfenster für die Behandlung vor. Wird dieses nicht eingehalten, verkümmern die entsprechenden Hirnareale. Im Fall des Schielens wird der Sinneseindruck eines Auges vom Gehirn mit der Zeit unterdrückt, das Auge, obwohl gesund und funktionsfähig, bleibt dann lebenslang blind. Dazu kommt es in den westlichen Industrienationen dank entsprechender Beratung und Behandlungsmöglichkeiten kaum noch. Inzwischen ist die Medizin sogar noch einen Schritt weiter: So können speziell entwickelte Videospiele mit dreidimensionaler Optik die behandelbare Phase verlängern, indem sie zur Nutzung des unterdrückten Auges anregen und Vernetzungen im Gehirn stärken.
Neurodegenerativen Erkrankungen: Therapeutische Hoffnungen bisher nicht erfüllt
In der Therapie psychiatrischer und neurodegenerativer Erkrankungen wie Alzheimer ist man so weit noch nicht. Auf diesen Gebieten forschen Mediziner intensiv daran, Veränderungen in der Hirnfunktion zu verstehen, Krankheitsmechanismen zu entschlüsseln, Ansatzpunkte für Therapien zu finden oder, wie im Fall psychiatrischer Erkrankungen, herauszufinden, wie sich bereits etablierte Therapien auf Hirnfunktionen auswirken. „Die Einblicke in die Funktion des Hirns haben bei machen Syndromen schon sehr effektive Therapien auf den Weg gebracht, zum Beispiel bei der Parkinson-Erkrankung. „Dennoch wurden die großen Hoffnungen in grundlegend neue Therapien zur Wiederherstellung verlorener Hirnfunktionen noch nicht eingelöst“, so Draguhn.
Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 12.600 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 1.900 Betten werden jährlich rund 66.000 Patienten voll- bzw. teilstationär und mehr als 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg.
Weitere Informationen:
http://www.klinikum.uni-heidelberg.de/Medizin-am-Abend.132249.0.html Medizin am Abend
Quelle: idw
Nahrungsmittelallergien: Ist ein Umdenken bei der Säuglingsernährung erforderlich?
Dr. Ulrich Kümmel Presse- und Öffentlichkeitsarbeit
Gesellschaft für Pädiatrische Allergologie und Umweltmedizin e. V.
Noch bis vor wenigen Jahren galt besonders bei Kindern mit familiärem Allergierisiko die Empfehlung, hochallergene Nahrungsmittel wie Hühnerei, Erdnuss oder Baumnüsse erst spät in die Ernährung einzuführen. Nun wurde in einer in England durchgeführten Untersuchung gezeigt, dass die frühe Einführung von Erdnüssen in die Säuglingsernährung zwischen dem vollendeten 4. und 11. Lebensmonat zu einer deutlichen Reduzierung der Häufigkeit von Erdnussallergien führen kann. Zurzeit vollkommen unklar ist jedoch, welche Nahrungsmittel früh und regelmäßig gegeben werden sollten.
Über Jahrzehnte hinweg lautete die Empfehlung von Allergologen, hoch allergieauslösende Nahrungsmittel, wie z. B. Erdnüsse, zur Vorbeugung von Nahrungsmittelallergien zu meiden. Die Empfehlung galt besonders für Säuglinge und Kinder mit einem erhöhten familiären Allergierisiko. Gerade diese Vorsicht könnte aber möglicherweise eher zu einer Zunahme der Allergien führen, wie eine in England durchgeführte Studie anhand der frühen Einführung von Erdnüssen in die Säuglingsernährung zeigt (www.leapstudy.co.uk).
Die Ergebnisse der so genannten LEAP-Studie (Learning Early About Peanut) deutet darauf hin, dass die frühe Einführung von Erdnüssen in die Säuglingsernährung zwischen dem vollendeten 4. und 11. Lebensmonat zu einer deutlichen Verminderung der Rate an Erdnussallergien führen kann. Die Wissenschaftler vermuten, dass der kindliche Magen-Darm-Trakt im ersten Lebensjahr durch eine regelmäßige Auseinandersetzung mit Nahrungsmitteln eine Toleranz statt einer allergischen Immunantwort entwickeln könnte. Laut Dr. Lars Lange, einer der beiden Koordinatoren der Wissenschaftlichen Arbeitsgruppe Nahrungsmittelallergie der GPA, ist jedoch zurzeit noch gänzlich ungeklärt, welche Nahrungsmittel früh und regelmäßig gegeben werden sollten. Darüber hinaus bestehe bei Gabe zum Beispiel von Erdnüssen oder anderen Nüssen bei kleinen Kindern die Gefahr der Aspiration, was zu lebensbedrohlichen Erstickungsereignissen führen könne. Sinnvolle Zubereitungen hoch allergener Nahrungsmittel als Alternative stünden für dieses Alter jedoch kaum zur Verfügung.
Im Rahmen der Studie wurden nur Kinder untersucht, die unter einer ausgeprägten Neurodermitis litten, also Kinder mit einem bekannt erhöhten Risiko für eine Nahrungsmittelallergie. Daher lassen sich die Ergebnisse nicht ohne weiteres auf gesunde Kinder übertragen. Darüber hinaus zeigte sich, dass ein recht großer Teil der an Neurodermitis erkrankten Kinder (ca. 10%) bereits vor dem ersten Kontakt mit Erdnüssen allergisch waren und auf die erste Gabe mit Allergiesymptomen reagierten.
Noch gravierender war das Risiko allergischer Reaktionen in einer zuvor veröffentlichten Studie aus Australien, bei der ebenfalls das Prinzip der frühen Einführung, allerdings mit Hühnerei getestet wurde. Hierbei erhielten Kinder mit Neurodermitis bereits im Alter von 4 Monaten Hühnerei. Ziel der der Untersuchung war, eine Hühnereiallergie, die in Australien besonders häufig ist, zu verhindern. Diese Studie wurde von den Initiatoren vorzeitig abgebrochen, weil zu viele Kinder bereits beim ersten Kontakt mit Hühnereiweiß zum Teil schwere allergische Symptome zeigten.
Die notwendige Konsequenz vor der frühen Einführung bestimmter Nahrungsmittel wäre also, alle Kindern mit Neurodermitis vorsorglich vor dem ersten Kontakt einem Allergietest zu unterziehen und bei den Allergietest-positiven Kindern orale Nahrungsmittelprovokationen durchzuführen, ein teures und zeitaufwändiges Prozedere.
Trotz der ermutigenden Ergebnisse ist die Zeit für einen Paradigmenwechsel noch nicht gekommen, so Prof. Bodo Niggemann, Koordinator der Wissenschaftlichen Arbeitsgruppe Nahrungsmittelallergie der GPA. Im Moment laufen in Deutschland und weltweit weitere Studien zur frühen Beikosteinführung von bisher vermiedenen Nahrungsmitteln. Bis zum Vorliegen der Studienergebnisse sind seriöse Empfehlungen hinsichtlich der Einführung potentiell allergener Nahrungsmittel nicht möglich. Wenn Kinder aber einen Kontakt mit Nüssen oder Erdnuss zum Beispiel in Form von Brotaufstrichen bereits problemlos vertragen, sollten diese Nahrungsmittel regelmäßig verabreicht werden, um dem Körper die Möglichkeit zur Toleranzentwicklung zu erhalten.
Wissenschaftliche Arbeitsgruppe Nahrungsmittelallergie der Gesellschaft für Pädiatrische Allergologie und Umweltmedizin e. V. (GPA)
Dr. med. Lars Lange, Bonn
Prof. Dr. med. Bodo Niggemann, Berlin
Weitere Informationen:
http://www.leapstudy.co.uk LEAP Studie
http://www.gpau.de/mediathek/pressemitteilungen/ Pressemitteilungen der GPA
Quelle: idw
Wasser-Ressourcenpreis der Rüdiger Kurt Bode-Stiftung geht an Prof. Dr. Klaus Kümmerer
Anke Meis DSZ – Deutsches Stiftungszentrum
Stifterverband für die Deutsche Wissenschaft
Die Rüdiger Kurt Bode-Stiftung vergibt den mit 100.000 Euro dotierten Wasser-Ressourcenpreis an Prof. Dr. Klaus Kümmerer, Leuphana Universität Lüneburg, für seine Arbeiten zur Entwicklung innovativer Strategien und Konzepte für eine nachhaltige Nutzung der globalen Wasserressourcen.
Das Kuratorium der Stiftung wählte Kümmerer auf Empfehlung seiner beratenden Jury (Prof. i.R. Dr. Siegmar Breckle, Universität Bielefeld, Abteilung Ökologie; Prof. Dr. Peter Krebs, TU Dresden, Direktor des Instituts für Siedlungswasserwirtschaft und Vorsitzender der Water Science Alliance; Prof. Dr. Uwe Schneidewind, Präsident des Wuppertal Instituts für Klima, Umwelt, Energie) aus zahlreichen Bewerbungen aus. Der Preis wurde am 17. Juni 2015 im Rahmen der 6. Water Research Horizon Conference in Berlin verliehen.
Der Preis
Der Konkurrenzkampf um die immer knapper werdende Ressource Wasser wird die globale Entwicklung in den nächsten Jahrzehnten prägen. Die Hauptgründe sind Bevölkerungswachstum, Klimawandel und nicht nachhaltige Nutzung der Wasserressourcen. Bereits heute lebt etwa ein Drittel der Weltbevölkerung unter Bedingungen, die durch mittleren bis starken Wassermangel gekennzeichnet sind. Mit ihrem Preis zeichnet die Bode-Stiftung Forscherpersönlichkeiten aus, die herausragende Strategien und Konzepte für eine nachhaltige Nutzung der globalen Wasserressourcen entwickeln. Mit einer Dotation von 100.000 Euro gehört der Wasser-Ressourcenpreis zu den großen deutschen Stiftungspreisen.
Der Preisträger
Prof. Dr. Klaus Kümmerer (*1959) ist seit 2010 Professor für Nachhaltige Chemie und Stoffliche Ressourcen an der Leuphana Universität Lüneburg. Er studierte Chemie in Würzburg und Tübingen, wo er auch promovierte. Nach einer Tätigkeit am Öko-Institut in Freiburg wechselte er an die dortige Universität, wo er sich habilitierte. Er war als Visiting Professor an der Case Western Reserve University (Cleveland, OH, USA). Am Institut für Umweltmedizin und Krankenhaushygiene am Universitätsklinikum Freiburg leitete er als Professor für Umwelthygiene und Umweltchemie die Sektion für Angewandte Umweltforschung. Seine Forschungsschwerpunkte sind Nachhaltige Chemie, Stoffliche Ressourcen und Spurenstoffe in der aquatischen Umwelt. Er unterhält eine Vielzahl internationaler Kooperationen, ist Mitglied diverser nationaler und internationaler Kommissionen und Gremien, Founding Editor der Zeitschrift Sustainable Chemistry and Pharmacy sowie Mitherausgeber weiterer internationaler wissenschaftlicher Zeitschriften.
Mit der Preisvergabe an Klaus Kümmerer würdigt die Stiftung die konsequente Umsetzung seines interdisziplinären und lösungsorientierten Ansatzes. Seine Arbeiten zur Abbaubarkeit von Arzneistoffen in der aquatischen Umwelt sind wegweisend. Das von ihm entwickelte Konzept „Benign by design“ erlaubt, in einer frühen Phase der Chemikalien- und Arzneistoffentwicklung die Abbaubarkeit miteinzuplanen, um entstehende Probleme nicht allein mit rein technischen End-of-Pipe-Technologien zu lösen. In herausragender Weise gelingt es Kümmerer, Praxis und Forschung zu verknüpfen. Hohe Akzeptanz genießt er sowohl in der Scientific Community als auch bei Praxispartnern in der Industrie.
Die Preisverleihung
Die Preisverleihung fand am Mittwoch, 17. Juni 2015 im Rahmen der 6. Water Research Horizon Conference im Botanischen Garten und Museum Berlin statt, die von der Water Science Alliance (WSA) durchgeführt wird. Die WSA ist eine Plattform zur Stärkung der interdisziplinären Wasserforschung in Deutschland, in deren Fokus die Synergiebildung zwischen deren Kompetenzträgern, die Entwicklung innovativer Forschungsideen und die Förderung junger Wissenschaftler/innen stehen. (Infos zum Programm: Jörg Seegert, info@watersciencealliance.org).
Die Rüdiger Kurt Bode-Stiftung im Stifterverband für die Deutsche Wissenschaft
Die Stiftung wurde 2009 vom Hamburger Pharmazeuten und Unternehmer Rüdiger Bode zur Förderung der interdisziplinären Forschung auf dem Gebiet der Lebens- und Naturwissenschaften errichtet. Schwerpunkt des im Jahr 2009 aufgelegten Stiftungsprogramms ist die Vergabe des Wasser-Ressourcenpreises, der alle drei Jahre vergeben wird – erstmalig im Jahr 2012 an Frau Professor Claudia Pahl-Wostl.
Für weitere Informationen:
Anke Meis
Leiterin Kommunikation und Öffentlichkeitsarbeit
DSZ – Deutsches Stiftungszentrum GmbH
im Stifterverband für die Deutsche Wissenschaft
Barkhovenallee 1
45239 Essen
Tel.: (02 01) 84 01-2 04
anke.meis@stifterverband.de
Quelle: idw
UDE: Gut Freund mit den Bakterien – Abfall- und Wasserexperten auf internationaler Leitmesse
Ulrike Bohnsack Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Sie nennen sich Bakterienflüsterer und sind oft in Klärwerken und auf Deponien unterwegs. Oder mit anderen Worten: Sie kümmern sich um angewandte Bioprozesse im technischen Umweltschutz.
Bakterien helfen, Verunreinigungen oder Biogas, etwa Methan, abzubauen. „Je besser es ihnen geht, desto besser machen sie ihre Arbeit“, so Prof. Dr. Martin Denecke. Für den Betrieb von Kläranlagen und Deponien, aber auch wenn neue geplant werden, ist es wichtig zu wissen, wo genau die Bakterien sitzen, wo sie sich wohlfühlen und mit welchen Arten sie zusammenarbeiten.
Ihre „Freunde“, wie Deneckes Team sie nennt, schauen sie sich genau an: Wie sehen die Bakterien aus? Wie sind DNA, Atmungsrate, Abwärme, Arbeitstempo und Proteinmuster?
„Die Proteine beispielsweise sagen uns etwas über die Abbauvorgänge, aber auch, ob etwas nicht stimmt mit unseren Helfern. Finden sich etwa Stressproteine im Belebtschlamm der Kläranlage, kann das auf eine zu hohe Temperatur oder Vergiftung hinweisen. Bakterien, die Methan in Deponieböden abbauen, verraten sich hingegen durch ihre Abwärme. Als Ingenieure können wir nun festlegen, wie der Boden und die anderen Bedingungen sein müssen, damit es optimal läuft.“
Für ihre Arbeit, die von Kommunen wie auch Industrie geschätzt wird, nutzen sie empfindliche Wärmekameras, Spezial-Mikroskope, aber auch selbst entwickelte Geräte: „Wir haben mit der FH Mannheim ein automatisches Mustererkennungssystem für fädige Bakterien entwickelt. Diese können in Kläranlagen große Schäden verursachen. Das System erkennt und quantifiziert die Bakterien sekundenschnell, wofür man vorher Stunden gebraucht hat.“
Auch ein Toximeter haben die UDE-Forscher entwickelt. Ein Sensor überwacht den Sauerstoffverbrauch der Bakterien – dieser sinkt oder stoppt nämlich, wenn sie geschädigt werden. So lassen sich frühzeitig Schadstoffe in Klärbecken erkennen.
Weitere Informationen:
Prof. Dr. Martin Denecke, Tel. 0201/183-2742, martin.denecke@uni-due.de
Quelle: idw
Rohstoffe aus Industriewässern gewinnen – mit Membranadsorbern
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart entwickeln Wissenschaftler Membranadsorber, mit denen sich Schad- und Wertstoffe aus Wasser selektiv abtrennen lassen. Diese Technologie kann einerseits zur Wasseraufbereitung eingesetzt werden, ein großes Potenzial liegt aber speziell in der Rückgewinnung von wertvollen Metallen.
Im Zuge knapper werdender Ressourcen gewinnt das Recycling von Rohstoffen immer mehr an Bedeutung. Insbesondere Sondermetalle sind aufgrund ihres Werts (Edelmetalle) oder ihrer Verfügbarkeit (Seltene Erden) für die Industrie enorm wichtig. In industriellen Prozess- und Abwasserströmen sind beträchtliche Mengen dieser metallischen Rohstoffe enthalten.
Auch bei Feststoffen wie Elektronikschrott oder Aschen aus Verbrennungsprozessen erfolgt in der Regel eine nasschemische Aufarbeitung, um Metalle aus dieser Matrix herauszulösen. Hier sind weitere, zum Teil sehr aufwendige Prozessschritte nötig. Um die Wertstoffe aus dem Wasser wiederzugewinnen, bedarf es also kostengünstiger und effizienter Trennverfahren. Das Fraunhofer IGB entwickelt hierfür spezielle Membran-adsorber.
Mixed-Matrix-Membranen binden Wertstoffe
Mithilfe von Membranen lässt sich Wasser filtern, wobei in erster Linie die Porengröße bestimmt, welche Stoffe durchgelassen werden. Die unter der Membranoberfläche gelegenen porösen Strukturen blieben dabei bisher ungenutzt. Hier setzt die am Fraunhofer IGB neu entwickelte Adsorbertechnologie an.
»Dabei integrieren wir Partikel, die im Wasser gelöste Stoffe adsorptiv binden, gut zugänglich in den Mikroporen der Membranen«, erläutert Dr. Thomas Schiestel, der am IGB die Gruppe »Anorganische Grenzflächen und Membranen« leitet. Auf diese Weise entstehen sogenannte Mixed-Matrix-Membranen, die Wasser nicht nur durch die Zurückhaltung von Stoffen filtern, sondern die enthaltenen Wertstoffe gezielt festhalten können.
Membranen mit Adsorberpartikeln individuell funktionalisiert
Aufgrund der Vielzahl nutzbarer Partikel können die Membranen für den jeweils angedachten Zweck funktionalisiert werden. So lassen sich selektiv ganz bestimmte Wertstoffe in reiner Form aus dem Wasser gewinnen. »Membranadsorber mit Schwefelharnstoffgruppen binden beispielsweise über 0,8 Gramm Silber pro Quadratmeter Membranfläche, Phosphonat-Membranadsorber 1,5 Gramm«, beschreibt IGB-Wissenschaftler Schiestel.
Zudem ist es möglich, verschiedene Partikel in einer einzigen Membran zu kombinieren, um mehrere unterschiedliche Stoffe gleichzeitig zu binden. Dies hat vor allem bei der Abwasserreinigung große Vorteile. Durch die Variation der Partikeloberfläche und die Kombination unterschiedlicher Partikel stellt das IGB Membranadsorber her, deren Trenneigenschaften flexibel für Anwendungen in den Bereichen Trinkwasser, Prozesswasser und Abwasser angepasst werden können.
Wenn es um die Wirtschaftlichkeit der Trennverfahren geht, kommt der Regenerierbarkeit der Membranen eine besondere Bedeutung zu. Bei den am IGB entwickelten Membransystemen erreichten die Fraunhofer-Wissenschaftler eine vollständige Regeneration der Adsorber. Kupfer lässt sich auf diese Weise um den Faktor 100 anreichern.
Das Forscherteam am Fraunhofer IGB wird nun in weiteren Arbeiten das Prinzip der Membranadsorber auf Hohlfasermembranen übertragen. Diese ermöglichen sowohl eine höhere spezifische Trennfläche als auch ein höheres spezifisches Adsorptionsvolumen.
Originalliteratur
K. Niedergall, M. Bach, T. Hirth, G.E.M. Tovar, T. Schiestel (2014) Removal of micropollutants from water by nanocomposite membrane adsorbers, Sep. Purif. Technol. 131: 60-68
K. Niedergall, M. Bach, T. Schiestel, G.E.M. Tovar (2013) Nanostructured composite adsorber membranes for the reduction of trace substances in water: the example of bisphenol A, Industrial Chemical Research ACS Special Issue: Recent Advances in Nanotechnology-based Water Purification Methods, Ind. Eng. Chem. Res. 52/39 14011, DOI: 10.1021/ie303264r
Weitere Informationen:
http://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2015/rohstoffe…
Quelle: idw
Hydrothermale Prozesse – Plattformtechnologie in einer biobasierten Wirtschaft
Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Ergebnistreffen des Innovationsforums Hydrothermale Prozesse am 15./ 16. Juni 2015
Hydrothermale Produkte und Verfahren in den Markt bringen – so ist das Kernanliegen der potenziellen Anwender, Verfahrensentwickler und Akteure im Innovationsforum „Hydrothermale Prozesse“ formuliert. Konkrete Wertschöpfungsketten basierend auf wasserreicher Biomasse stehen dabei im Fokus der Ergebnistagung, die am 15./16. Juni 2015 in Leipzig stattfand.
Die Akteure im Innovationsforum entwickelten in fünf Anwendungsfeldern Projektansätze entlang der gesamten Wertschöpfungskette, um die letzten Herausforderungen auf dem Weg zur Marktreife zu erreichen. Aktuelle Hindernisse und spezifische Marktzugänge werden auf der Tagung vorgestellt und gemeinsam diskutiert.
Hydrothermale Prozesse (HTP) wandeln unter Druck und Temperatur feuchte Biomasse in feste, flüssige oder gasförmige Kohlenstoffträger um. Diese können vielseitig in der chemischen Industrie, in der Energiewirtschaft, als Düngemittel oder als Werkstoff eingesetzt werden. Durch die Entwicklung dieser speziellen Verfahren ist es möglich, bisher wenig genutzte Potenziale von Reststoff- und Biomasseströmen zu erschließen. Ziel ist die Verknüpfung von Technologieentwicklern mit der veredelnden Industrie, Anlagenbauern und Forschungspartnern im Endproduktbereich.
Zum zweitägigen Treffen des Innovationsforums am 15./16. Juni 2015 im Mediencampus der Villa Ida in Leipzig wurde der aktuelle Stand der Entwicklungen vorgestellt, rechtliche Fragestellungen erörtert, Projektideen geschmiedet und erfolgversprechende Wege des Markteintritts von Produkten aufgezeigt.
Das Innovationsforum „Hydrothermale Prozesse“ wird vom Bundesministerium für Bildung und Forschung im Programm „Unternehmen Region“ gefördert.
Nähere Details finden Sie unter: www.dbfz.de/htp
Forschung für die Energie der Zukunft – DBFZ
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz zum bestehenden, vor allem aber auch zu einem zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit.
Weitere Informationen:
https://www.dbfz.de/htp
Quelle: idw
Alles über Web-Technologien lernen: Kostenloser Online-Kurs für jedermann
Rosina Geiger Presse- und Öffentlichkeitsarbeit
Hasso-Plattner-Institut für Softwaresystemtechnik (HPI)
Potsdam. Einen kostenlosen offenen Onlinekurs zu den Technologien des World Wide Web bietet das Hasso-Plattner-Institut (HPI) ab Montag, 1. Juni, an. Jeder Interessierte kann sich dafür auf der Internet-Bildungsplattform des Instituts anmelden: https://open.hpi.de/courses/webtech2015.
HPI-Direktor Prof. Christoph Meinel erläutert während des sechswöchigen Massive Open Online Courses (MOOC) die dem Web zugrunde liegenden Basistechnologien, aber auch Webservices und die Techniken der Webprogrammierung. Ferner geht es darum, wie Suchmaschinen im Internet Inhalte und Dienstangebote finden und wie das Cloud Computing künftig den Zugriff auf Rechenleistungen grundlegend verändert.
Der Kurs wird in englischer Sprache gehalten. Zugangsbeschränkungen gibt es nicht. Erfolgreiche Absolventen erhalten ein Zertifikat des HPI. Bei dem neuen Onlinekurs von openHPI.de handelt es sich um den 21. seiner Art seit dem Start der Plattform im September 2012. Mittlerweile sind dort mehr als 87.000 Lernende aus über 150 Ländern aktiv. 183.000 Einschreibungen sind registriert.
Quelle: idw
Blutanalysen sprechen dafür, dass viel rotes Fleisch das Diabetesrisiko erhöht
Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Wie zahlreiche Beobachtungsstudien zeigen, haben Menschen, die viel rotes Fleisch essen, ein erhöhtes Risiko für Typ-2-Diabetes. Die Ursachen für diese Risikobeziehung sind jedoch noch nicht geklärt. Ein Forscherteam um Clemens Wittenbecher und Matthias Schulze vom Deutschen Institut für Ernährungsforschung (DIfE) hat nun Biomarker* im Blut von Studienteilnehmern identifiziert, die erste Hinweise auf die Stoffwechselmechanismen geben, die der Risikobeziehung zugrunde liegen könnten und somit für einen kausalen Zusammenhang sprechen.
Die Forscher publizierten kürzlich ihre Ergebnisse in der Fachzeitschrift American Journal of Clinical Nutrition (Wittenbecher et al.; DOI: 10.3945/ajcn.114.099150).
Die von der EU und vom Bundesministerium für Bildung und Forschung (BMBF) geförderte Studie führten die Wissenschaftler im Verbund mit Partnern des Deutschen Zentrums für Diabetesforschung (DZD) e.V. durch.
Große Langzeit-Beobachtungsstudien kommen weltweit zu dem Ergebnis, dass ein hoher Konsum von rotem Fleisch, das heißt Rind-, Schweine- oder Lammfleisch, mit einem erhöhten Typ-2-Diabetesrisiko verbunden ist. Auch die Daten der Potsdamer EPIC**-Studie weisen darauf hin. Wie sie zeigen, geht der tägliche Verzehr von 150 Gramm rotem Fleisch mit einem um ca. 80 Prozent erhöhten Erkrankungsrisiko einher. Eine ähnliche Risikoerhöhung beobachteten die Wissenschaftler auch in Verbindung mit dem Rauchen von mehr als 20 Zigaretten pro Tag, mit einer Zunahme des Taillenumfangs um 7,6 cm oder in Zusammenhang mit einer erblichen Vorbelastung durch Mutter oder Vater. Welche Stoffwechselprozesse der Risikobeziehung zwischen dem Verzehr von rotem Fleisch und Typ-2-Diabetes zugrunde liegen und ob bestimmte im Fleisch enthaltene Stoffe wie Eisen hierfür eine Rolle spielen, ist jedoch noch nicht hinreichend erforscht.
Um mehr über die Zusammenhänge zu erfahren, analysierte das Team um die beiden Epidemiologen Wittenbecher und Schulze die Blutproben von 2.681 Potsdamer EPIC-Studienteilnehmern. Von diesen waren 688 im Verlauf der Studie an einem Typ-2-Diabetes erkrankt. Die Ernährungsgewohnheiten und den Fleischverzehr der Studienteilnehmer erfassten die Wissenschaftler mit Hilfe von Fragebögen.
Insgesamt überprüften die Forscher 127 verschiedene Biomarker im Blut der Teilnehmer, wobei 21 dieser Marker sowohl bei Frauen als auch bei Männern mit dem Fleischverzehr in Beziehung standen. Bei sechs dieser Biomarker waren die beobachteten Konzentrationsänderungen zudem mit einem erhöhten Diabetesrisiko verbunden. So hatten Studienteilnehmer mit einem hohen Ferritinspiegel*** und einem niedrigen Spiegel des Eiweißbausteins Glyzin ein erhöhtes Diabetesrisiko. Ebenso waren bei diesen Teilnehmern die Werte von vier Lipiden**** verändert, die von der Leber ans Blut abgegeben werden.
„Hohe Ferritinspiegel bedeuten, dass die Eisenspeicher voll sind und können auf eine hohe Eisenaufnahme hinweisen. Wie wissenschaftliche Untersuchungen zeigen, führt ein Zuviel an Eisen dazu, dass sich in den Körperzellen verstärkt hochreaktive Moleküle bilden, welche die Zellen schädigen. Wissenschaftler sprechen in diesem Zusammenhang auch von oxidativem Stress“, erklärt Wittenbecher, Erstautor der Studie. „Da Glyzin ein zentraler Bestandteil der körpereigenen Systeme ist, welche die Zellen vor oxidativem Stress schützen, und gleichzeitig Entzündungsreaktionen entgegenwirkt, könnten hohe Ferritinspiegel und niedrige Glyzinwerte annehmen lassen, dass der Körper einem erhöhten oxidativen Stress ausgesetzt und vor Entzündungen weniger gut geschützt ist. Dies wiederum könnte den Zusammenhang zwischen dem Verzehr von rotem Fleisch und Diabetes erklären, da oxidativer Stress sowie Entzündungsreaktionen nach neuestem Wissensstand zur Typ-2-Diabetes-Entstehung beitragen“, so Wittenbecher weiter. Die veränderten Lipidwerte würden zudem auf einen gestörten Fettstoffwechsel der Leber hinweisen, der nach Angaben der Wissenschaftler ebenso zur Krankheitsentstehung beitragen könne.
„Unsere Ergebnisse lassen somit annehmen, dass nicht eine einzelne Substanz, die im roten Fleisch enthalten ist, in Zusammenhang mit dem Diabetesrisiko steht, sondern dass der gewohnheitsmäßig hohe Verzehr von rotem Fleisch den Stoffwechsel über verschiedene Wege in einer Weise beeinflusst, die langfristig die Entstehung eines Typ-2-Diabetes begünstigt“, sagt Studienleiter Matthias Schulze.
„Beobachtungsstudien wie die EPIC-Studie sind zwar nicht geeignet, um kausale Risikobeziehungen zweifelsfrei zu beweisen. Sie geben jedoch gute Hinweise auf die Stoffwechselmechanismen, die einer solchen Beziehung zugrunde liegen könnten“, sagt Wittenbecher. „Unsere Ergebnisse liefern damit nicht nur neue Ansatzpunkte, um die Effekte des Fleischkonsums in Stoffwechselstudien gezielter und detaillierter zu untersuchen. Sie stützen auch die aktuelle Ernährungsempfehlung, den Verzehr von rotem Fleisch zu verringern, um einer Typ-2-Diabetes-Erkrankung vorzubeugen“, ergänzt Schulze.
Hintergrundinformationen:
* Biomarker sind charakteristische biologische Merkmale, die objektiv gemessen werden und auf einen normalen biologischen oder krankhaften Prozess im Körper hinweisen können. Bei einem Biomarker kann es sich um Zellen, Gene, Stoffwechselprodukte oder bestimmte Moleküle wie Hormone handeln. Als eingängiges Beispiel sei das Blutbild genannt, das Hinweise auf den Gesundheitszustand des Patienten gibt (Quelle: Wikipedia).
** EPIC steht für European Prospective Investigation into Cancer and Nutrition. Sie ist eine der größten prospektiven („vorausschauenden“) Studien, welche die Zusammenhänge zwischen Ernährung, Krebs und anderen chronischen Erkrankungen wie Typ-2-Diabetes untersucht. An der EPIC-Studie sind zehn europäische Länder mit insgesamt 519.000 weiblichen und männlichen Studienteilnehmern im Erwachsenenalter beteiligt. In Deutschland gehören das Deutsche Krebsforschungszentrum (DKFZ) in Heidelberg sowie das DIfE zu den EPIC-Studienzentren. Die Potsdamer EPIC-Teilstudie schließt mehr als 27.500 erwachsene Studienteilnehmer/innen ein. Bei der Auswertung einer prospektiven Studie ist es wichtig, dass die Teilnehmer zu Beginn der Studie noch nicht an der zu untersuchenden Krankheit leiden. Die Risikofaktoren für eine bestimmte Erkrankung lassen sich so vor ihrem Entstehen erfassen, wodurch eine Verfälschung der Daten durch die Erkrankung weitestgehend verhindert werden kann – ein entscheidender Vorteil gegenüber retrospektiven Studien.
*** Ferritin (lat. ferrum, ‚Eisen‘), auch Depot-Eisen, ist ein Proteinkomplex, der in Tieren, Pflanzen und Bakterien vorkommt, wo er als Speicherstoff für Eisen dient. Bei gesunden Menschen sind ca. 20 Prozent des gesamten Eisens in Ferritin gespeichert. Die Ferritinkonzentration im menschlichen Blutserum ist ein aussagekräftiges Maß für den gesamten Eisenspeicher des Organismus (Quelle: Wikipedia).
**** Lipide sind ganz oder zumindest größtenteils wasserunlösliche Stoffe, die in verschiedene Klassen unterteilt sind. Im menschlichen Körper werden sie z. B. zum Aufbau von Zellmembranen als Baustoffe verwendet, dienen als Energiespeicher oder Botenstoffe. Die in der neuen Studie identifizierten Phospholipide (Diacyl-Phosphatidylcholine C36:4 und C38:4, Lysophosphatidylcholin C17:0 sowie Sphingomyelin C14:1) kommen in Zellmembranen und frei im Blut vor. Sie üben vermutlich wichtige Funktionen als Botenstoffe aus und könnten das mit dem Fleischverzehr assoziierte Diabetesrisiko vermitteln.
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD). Näheres unter http://www.dzd-ev.de.
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u. a. in Form der Leibniz-WissenschaftsCampi -, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro. Weitere Informationen unter http://www.leibniz-gemeinschaft.de.
Kontakt:
Prof. Dr. Matthias Schulze
Abteilung Molekulare Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2434
E-Mail: mschulze@dife.de
Clemens Wittenbecher
Abteilung Molekulare Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 33200 88-2454
E-Mail: clemens.wittenbecher@dife.de
http://www.dife.de
Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=MEP
Informationen zur Abteilung Molekulare Epidemiologie am DIfE
Quelle: idw
Umwelt-Oscarverleihung: Projekt „Biobind“ der Uni Rostock auf Platz 2
Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock
Bei Ölkatastrophen in Meeren könnte Rettung bald vom Himmel fallen
Das Verbundprojekt BIOBIND unter Gesamtprojektleitung von Prof. Dr.-Ing. Fokke Saathoff vom Lehrstuhl für Geotechnik und Küstenwasserbau der Agrar-und Umweltwissenschaftlichen Fakultät der Uni Rostock hat zwei große internationale Preise erhalten: Der „GreenTec Awards“, Europas größter Umwelt-und Wirtschaftspreis, geht an innovative Projekte, die Maßstäbe in Sachen Umwelttechnologien setzen. Mit dem „Galileo Wissenspreis“ werden Erfindungen und Initiativen ausgezeichnet, die einen verantwortungsvollen Lebensstil im Einklang mit der Umwelt unterstützen und das Thema Nachhaltigkeit vorantreiben. BIOBIND gewann die Silbermedaille in beiden Kategorien.
Worum geht es bei Biobind? „Wir haben ein luftgestütztes Ölhavariebekämpfungssystem als Ergänzung zu anderen Systemen entwickelt“, sagt Prof. Saathoff. Es ermögliche eine schnelle Analyse und Überwachung von Ölverschmutzungen auf See sowie eine zeitnahe Bekämpfung und Reinigung, vor allem in küstennahen Bereichen und Flachwassergebieten bei schlechtem Wetter mit hohem Seegang. Im Klartext: Bei Ölkatastrophen in unseren Meeren könnte die Rettung demnächst vom Himmel fallen. Dabei werden biologisch abbaubare Binder (Aktenordner) aus Holzfaserstoffen mit Mikroorganismen bestückt und von Flugzeugen aus abgeworfen. BioBind ermöglicht eine zeitnahe Bekämpfung und Reinigung in den Gewässern. Mit einem extra entwickelten System werden die Binder geborgen und ihrer Verwertung zugeführt.
Professor Saathoff: „Was sich so einfach anhört -das Erkennen des Ölteppichs, das Vorhersagen der Verdriftung, das Heranziehen von ölabbauenden Mikroorganismen kombiniert mit Ölanalysen, die Entwicklung der Holz-Binder, das Tränken dieser Binder mit den Mikroorganismen, der Abwurf aus dem Flugzeug, die landseitige oder noch mehr die seeseitige Bergung der Binder mit Netzen, das Entsorgen und nicht zu vergessen das ganze Management der einzelnen Partner- war wirklich eine große Herausforderung für die Forschung und konnte nur als Team bewältigt werden.“
Uni-Rektor Professor Wolfgang Schareck würdigt die Forschung des Teams um Professor Saathoff als „innovativen Umweltschutz“, der dem Land MV gut zu Gesicht stehe. Seine exzellente Forschung, die gut in die Profillinie Maritime Systeme passe, verknüpfe Prof. Saathoff als Hochschullehrer mit einer soliden Ausbildung der Studierenden.
Das Verbundprojekt BIOBIND zum Thema Ölhavariebekämpfung wurde von den Gutachtern im November 2014 in der Kategorie „Wasser & Abwasser“ unter die TOP 10 gewählt. Gleichzeitig mit Erreichen dieses Levels wurden die 14 Kategorien durchforstet und insgesamt nur ganze 10 Projekte aus den 140 nominierten ausgewählt und für den ProSieben – Sat 1- Galileo Wissenspreis nominiert. Auch hier wurde BIOBIND in die Top 10 gewählt. Nach dieser Vorauswahl der Jury fand eine öffentliche Online-Abstimmung statt, die einen neuen Rekord von über 100 000 registrierten Stimmabgaben aufgestellt hat.
Anfang 2015 stand nach der Online-Abstimmung fest, dass BIOBIND in der Kategorie „Wasser & Abwasser“ des GreenTec Awards auf Platz 2 und beim ProSieben – Sat 1- Galileo Wissenspreis auf Platz 1 lag. Alle Sieger wurden für das „RECALL“ gesetzt und in jeder Kategorie wurden erneut von Gutachtern die Projekte der Plätze zwei bis zehn neu bewertet und nur zwei weitere Ideen, unabhängig vom Ausgang der Online-Abstimmung, in die Top 3 gewählt. Vertreten waren sowohl international bekannte Marken wie BMW oder G-Star als auch renommierte Universitäten und Institutionen wie das Fraunhofer Institut. Ebenso im Rennen um den ersten Platz befanden sich Unternehmen aus der Energiebranche wie RWE und Naturstrom sowie engagierte Start-ups wie the Ocean Cleanup aus den Niederlanden. BIOBIND war im Februar 2015 in beiden oben genannten Kategorien erneut unter den Top 3 dabei.
Prof. Saathoff: „Natürlich sind wir als gesamtes Projektteam stolz auf diese beiden Preise, insbesondere auf den 2. Platz beim Umweltoscar, dem ProSieben – Sat 1- Galileo Wissenspreis. Warum die Prominentenjury uns allerdings vom ersten Platz gestoßen hat, den wir nach der Online-Abstimmung mit mehr als dreimal so viel Stimmen als die Konkurrenz noch innehatten, wurde nicht ganz klar. Aber Platz 2 von 250 ist ja auch nicht schlecht.“
Prof. Saathoff weiter: „Mein Dank gilt allen, die direkt und indirekt zum Gelingen dieses außergewöhnlichen Projektes beigesteuert haben. Angefangen vom Geldgeber, dem Bundeministerium für Wirtschaft und Technologie, über alle Ideengebern bis zu den diversen Behördenvertretern sowie den Kolleginnen und Kollegen der sieben einzelnen Projektpartner, die allesamt aus dem Osten Deutschlands stammen.“ Text: Wolfgang Thiel
HINTERGRUND
Die GreenTec Awards, Europas größtem Umwelt- und Wirtschaftspreis, zeichnen zukunftsweisende Produkte aus, die marktfähig und profitabel sind, aber auch die natürlichen Ressourcen schonen und schädliche Emissionen reduzieren. Die WirtschaftsWoche und Experten des GreenTec Awards suchen jedes Jahr wissenschaftliche Projekte in 14 verschiedenen Kategorien, um innovative Ideen zu prämieren. Dieser internationale Preis wird seit 2008 jährlich an Unternehmen, wissenschaftliche Einrichtungen oder private Projekte verliehen, um ökologisches und ökonomisches Engagement sowie den Einsatz von Umwelttechnologien zu honorieren und zu fördern. Der Preis will Technologie und Umwelt in Einklang bringen und eine breite Öffentlichkeit für Umweltengagement und technische Innovationen begeistern.
Der ProSieben – Sat 1- Galileo Wissenspreis, der sogenannte Umweltoscar, zeichnet Erfindungen und Initiativen aus, die unser Leben in der Umwelt harmonischer gestalten oder helfen, die Umwelt zu schützen. Der ProSieben – Sat 1- Galileo Wissenspreis wählt aus allen 14 Kategoreine des GreenTec Awards Projekte und Ideen aus, die folgende Kriterien erfüllen:
Die Erfindung ist neu.
Die Idee hilft, die Umwelt zu schonen.
Technik spielt bei der Erfindung eine Rolle.
Die Erfindung hat schon Erfolge erzielt oder weist eine klare Vorstellung davon auf, wie sie die Zukunft verändern kann.
Weitere Informationen:
http://www.biobind.de/
http://www.greentec-awards.com/greentec-awards.html
http://www.auf-gk.uni-rostock.de/
Kontakt:
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Lehrstuhl für Geotechnik und Küstenwasserbau
Prof. Dr.-Ing. Fokke Saathoff
E-Mail: fokke.saathoff@uni-rostock.de
Tel.: +49 381 498-3700 oder 0172 52 97 961
Quelle: idw
Intelligente Denitrifikation für die Aquakultur
Christian Colmer Pressestelle
ttz Bremerhaven
Neues Modul zur Steuerung der Wasserqualität in Aquakulturanlagen soll Nitratwerte dynamisch regeln und Kosten reduzieren.
Die SubCtech GmbH, das Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und das ttz Bremerhaven entwickeln im Rahmen des vom ZIM-BMWi geförderten Forschungsprojektes NikoDe ein neues Steuer-Modul für Denitrifikationsfilter in Aquakulturanlagen.
„Ziel der gemeinsamen Arbeit ist eine kontinuierliche und automatische Kontrolle des Bio-Filters ohne manuelle Eingriffe, bei der die vorgegebene Nitratkonzentration im Prozesswasser genau eingehalten wird“, sagt Projektleiter Carlos Espinal vom ttz Bremerhaven.
Die SubCtech GmbH aus Kiel wird die Anlage bauen und ist für ihre messtechnische Auslegung verantwortlich. Nach der Fertigstellung eines Prototyps wird die Arbeitsgruppe Aquakultur des AWI das Modul im Zentrum für Aquakulturforschung in Bremerhaven testen. Das ttz Bremerhaven begleitet das Vorhaben mit nass-chemischen Analysemethoden und entwickelt Algorithmen, mit denen die Wasserwerte interpretiert werden sollen.
Neues System soll helfen, Zeit und Geld zu sparen
Das neue System soll helfen, Zeit und Geld zu sparen. Herkömmliche, kombinierte Technologien zur Steuerung der Wasserqualität in Aquakulturanlagen müssen aufwendig aufeinander abgestimmt und manuell überwacht werden. Durch den Einsatz des neuen Moduls sinkt der Aufwand dafür erheblich. Besteht heute noch die Gefahr, dass es bei fehlerhaften Einstellungen des Bio-Filters im schlimmsten Fall zum Fischsterben kommt, wird dies zukünftig verhindert, indem die Wasserwerte permanent erfasst und automatisch optimiert werden.
Die Fördersumme aus dem Zentralen Innovationsprogramm Mittelstand (ZIM) des BMWi beträgt rund 600.000 €. NikoDe ist aus dem vom ttz Bremerhaven koordinierten „Technologie Netzwerk Aquakultur AQUZENTE“ (http://www.aquzente.net) hervorgegangen. Die Projektpartner haben ihre Arbeit im März 2015 aufgenommen, die Laufzeit von „NikoDe – Nitratkontrollierte Denitrifikation“ beträgt 24 Monate.
Das ttz Bremerhaven ist ein unabhängiges Forschungsinstitut und betreibt anwendungsbezogene Forschung und Entwicklung. Unter dem Dach des ttz Bremerhaven arbeitet ein internationales Experten-Team in den Bereichen Lebensmittel, Umwelt und Gesundheit. Seit mehr als 25 Jahren begleitet es Unternehmen jeder Größenordnung bei der Planung und Durchführung von Innovationsvorhaben und der Akquisition entsprechender Fördermittel auf nationaler und europäischer Ebene. http://www.ttz-bremerhaven.de
Weitere Informationen:
http://www.ttz-bremerhaven.de
http://www.facebook.com/ttzBremerhaven
http://www.twitter.com/ttzBremerhaven
http://www.xing.com/companies/ttzbremerhaven
Quelle: idw
Deutsches Biomasseforschungszentrum veröffentlicht den Jahresbericht 2014
Paul Trainer M.A. Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum
Die wissenschaftliche Arbeit an neuen Forschungsvorhaben, fortschreitende Planungen der Baumaßnahmen auf dem DBFZ-Gelände, die Ausrichtung verschiedenster Fachveranstaltungen, neue Publikationen und die inhaltliche Definition neuer Forschungsschwerpunkte und wissenschaftsbasierter Dienstleistungen: zahlreiche Themen bestimmten im Jahr 2014 die Arbeit am Deutschen Biomasseforschungszentrum in Leipzig. Nachzulesen sind diese und eine Vielzahl weiterer Themen im DBFZ-Jahresbericht 2014.
Der Jahresbericht des DBFZ stellt auf insgesamt 180 Seiten die umfangreiche wissenschaftliche Arbeit des Deutschen Biomasseforschungszentrums anhand der neu definierten Forschungsschwerpunkte und wissenschaftsbasierter Dienstleistungen sowie zahlreicher weiterer Aspekte vor. Damit bietet der Tätigkeitsbericht einen detaillierten Überblick über den Forschungsstand im Bereich der energetischen und stofflichen Biomassenutzung. In einem Interview mit der Geschäftsführung des DBFZ wird neben einer Vielzahl weiterer Aspekte unter anderem zu Status Quo und Zukunft der Biomassenutzung Stellung genommen: „Als alternativer Energieträger mit seinen zahlreichen Anwendungsmöglichkeiten (Wärme, Strom, Kraftstoffe) ist die Biomasse aus dem Energiemix der Zukunft nicht wegzudenken. Tatsächlich muss und wird sich in den kommenden Jahren und Jahrzehnten jedoch der Fokus verschieben, d.h. die künftige Bioenergieforschung muss den Systemübergang von der modernen zur ’smarten‘ Bioenergiebereitstellung bereiten“, so Prof. Dr. Michael Nelles, der wissenschaftliche Geschäftsführer des DBFZ.
Im Jahr 2014 bearbeiteten die Wissenschaftler des DBFZ bis zu 150 Projekte aus den verschiedensten Bereichen (Kraftstoffe, Strom, Wärme) und mit den unterschiedlichsten inhaltlichen Schwerpunkten. Hierbei handelte es sich primär um im Wettbewerb eingeworbene Drittmittelprojekte. Ergänzend dazu wurden auch direkte Aufträge von Partnern aus der Wirtschaft und für Ministerien bearbeitet. Das Themenspektrum der wissenschaftlichen Arbeit reichte von „Algenproduktion und Umwandlung in Flugzeugtreibstoffe“ über das große EU-Projekt „SECTOR“ zur Torrefizierung, die „integrierte energetische Verwertung von Rückständen aus Bioraffinerien“ im Rahmen des BMBF-Spitzenclusters „BioEconomy“ bis hin zu „Klimaeffekten einer Biomethanwirtschaft“ oder die technisch-ökonomische Begleitforschung des Bundeswettbewerbes „Bioenergie-Regionen“. Neben zahlreichen wissenschaftlichen Ergebnissen gibt der Jahresbericht außerdem einen detaillierten Überblick über die personelle, finanzielle und organisatorische Entwicklung des Leipziger Forschungszentrums.
Der Jahresbericht 2014 kann auf der Webseite des DBFZ kostenlos als deutsche oder englische PDF-Variante bezogen werden.
Weitere Informationen:
https://www.dbfz.de/referenzen-publikationen/jahresberichte.html
Quelle: idw
Innovative Strömungsturbinen in Flüssen und Meeren
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Das 2010 in Grenoble gegründete Unternehmen HydroQuest hat eine Reihe von Energieanlagen entwickelt, die in der Lage sind, Strom aus hydrokinetischer Energie aus Flussströmungen, Flussmündungen und Meeren zu generieren. In enger Partnerschaft mit EDF, der französischen Ingenieurhochschule Grenoble INP und dem nationalen Zentrum für wissenschaftliche Forschung CNRS wurden über mehr als zehn Jahre Forschungsprojekte zum Thema Wasserkraft in Speziallabors durchgeführt.
Die Flussturbinen von HydroQuest bestehen nicht wie die herkömmlichen Turbinen aus einer Schraube, sondern aus zwei Turbinensäulen mit vertikalen Achsen. Das auf diese Weise modular gestaltete System ermöglicht es somit, bis zu drei Turbinen auf beiden vertikalen Achsen zu positionieren, um die Anlage dadurch an verschiedene Wassertiefen anpassen zu können. Es ist ein einfaches und zugleich robustes System, das zudem ausgezeichnete wirtschaftliche Erträge erzielt. Die Flussturbinen, mit einer Leistung im zweistelligen Kilowattbereich pro Einheit, werden als Turbinenfarmen mit einer Gesamtkapazität von einigen hundert Kilowatt bis zu 1 oder 2 Megawatt verkauft. Das Unternehmen hat bereits an mehreren Standorten in Grenoble, Französisch Guyana und Orléans Anlagen installiert.
Der Weltmarkt für Flussturbinen wird in den nächsten zehn Jahren auf 15 Mrd. € geschätzt. Eine große Anzahl von Bächen, Flüssen und Flussmündungen könnten als Ergänzung zu anderen Energiequellen mit Turbinen ausgestattet werden, insbesondere in Frankreich. Nach den Flussturbinen möchte sich HydroQuest jetzt auf den Markt für Meeresströmungskraftwerke konzentrieren. Das Unternehmen hat bereits ein Partnerschaftsabkommen mit dem Unternehmen Constructions Mécaniques de Normandie (CMN), einer der wichtigsten französischen Werften in Cherbourg, abgeschlossen, um gemeinsam Meeresströmungskraftwerke weltweit zu entwickeln.
Ab 2015 werden in einer ersten Demonstrationsanlage Tests durchgeführt, um die Vorteile der Technologie zu bestätigen: Modularität, Widerstandsfähigkeit und vor allem hervorragende Wirtschaftlichkeit.
Auf dem Internationalen Kongress für erneuerbare Meeresenergien Thetis EMR am 20. und 21. Mai 2015 in Nantes hatte HydroQuest die Vermarktung seiner Flussströmungskraftwerke Tidal River angekündigt.
Die von HydroQuest in Orléans installierte Flussturbine wird die erste Turbine in Frankreich sein, die in den kommenden Wochen an das Stromnetz angeschlossen wird. Das Unternehmen beabsichtigt nun, seine Präsenz in Frankreich und im Ausland, insbesondere in Afrika, Lateinamerika, Asien, Italien, Brasilien und Russland auszubauen.
Das innovative Flussturbinenmodel HydroQuest River nutzt die kinetische Energie der Flüsse. Somit ist die Stromerzeugung stabiler und vorhersehbarer. Durch seinen vollständig modularen Aufbau ist die Anlage an jedes Flussprofil mit mindestens 2 Meter Tiefe adaptierbar.
Zwei Modelle werden in Frankreich angeboten: HydroQuest River 1,40 und 2,80 mit einer oder zwei Etagen und einer elektrischen Anschlussleistung von 40 kW bzw. 80 kW. Sie weisen dank der Schutzgitter eine sehr gute Beständigkeit gegen Ablagerungen auf und haben aufgrund der niedrigen Geschwindigkeit der Turbinen nur geringe Auswirkungen auf die Umwelt, insbesondere auf die Tierwelt.
Weitere Informationen:
– Webseite der Firma HydroQuest (auf Englisch): http://www.hydroquest.net/en
Quellen:
– „HydroQuest lance la commercialisation de sa gamme d’hydroliennes fluviales“, Pressemitteilung des online Energiemagazins Enerzine, 21.04.2015 – http://da.feedsportal.com/c/33218/f/548286/s/46820362/sc/3/l/0L0Senerzine0N0C70C…
– „Des hydroliennes dans les fleuves et dans les mers“, Pressemitteilung des Institut polytechnique de Grenoble (Grenoble INP), November 2014 – http://www.grenoble-inp.fr/grenoble-in-press/des-hydroliennes-dans-les-fleuves-e…
Redakteurin:
Daniela Niethammer, daniela.niethammer@diplomatie.gouv.fr
Quelle: idw
Weltgesundheitsorganisation WHO: Nutzen des Mammographie-Screenings überwiegt nachteilige Effekte
Corinna Heinrich Presse- und Öffentlichkeitsarbeit
Kooperationsgemeinschaft Mammographie
Das unabhängige Expertengremium, welches von der International Agency for Research on Cancer (IARC) der WHO einberufen wurde, kommt zu dem Schluss, dass der Nutzen des MammographieScreenings für Frauen zwischen 50 und 69 Jahren klar den potenziellen Schaden überwiege. Für Teilnehmerinnen werde die Brustkrebssterblichkeit um etwa 40 Prozent gesenkt. Die zusammengefassten Ergebnisse wurden heute online im New England Journal of Medicine veröffentlicht.
Die 29 unabhängigen Experten aus 16 Ländern zogen für ihre Bewertung alle überprüften wissenschaftlichen Ergebnisse heran. In Anbetracht der großen Verbesserungen in der Mammographietechnik und der Brustkrebstherapie kam das Gremium zu dem Schluss, dass die Relevanz der 25 bis 30 Jahre alten, randomisiert kontrollierten Studien (RCT) in Frage zu stellen ist. Die besten Daten zur Bewertung der Effekte eines Mammographie Screenings lieferten nach Auffassung der IARC die qualitativ hochwertigen Beobachtungsstudien aus den aktuellen qualitätsgesicherten Brustkrebsfrüherkennungs-Programmen. Insbesondere inzidenzbasierte Kohorten-Studien mit langem Follow-up und Adjustierungen für Lead Time sowie für zeitliche Trends und geographische Unterschiede werden vom Expertengremium als geeignet angesehen ebenso wie Fall-Kontrollstudien nach sorgfältiger Prüfung ihrer methodischen Limitationen.
Weltgesundheitsorganisation WHO: Nutzen des Mammographie-Screenings überwiegt nachteilige Effekte Das unabhängige Expertengremium, welches von der International Agency for Research on Cancer (IARC) der WHO einberufen wurde, kommt zu dem Schluss, dass der Nutzen des MammographieScreenings für Frauen zwischen 50 und 69 Jahren klar den potenziellen Schaden überwiege. Für Teilnehmerinnen werde die Brustkrebssterblichkeit um etwa 40 Prozent gesenkt. Die zusammengefassten Ergebnisse wurden heute online im New England Journal of Medicine veröffentlicht. 04.06. 2015 / Berlin. Die 29 unabhängigen Experten aus 16 Ländern zogen für ihre Bewertung alle überprüften wissenschaftlichen Ergebnisse heran. In Anbetracht der großen Verbesserungen in der Mammographietechnik und der Brustkrebstherapie kam das Gremium zu dem Schluss, dass die Relevanz der 25 bis 30 Jahre alten, randomisiert kontrollierten Studien (RCT) in Frage zu stellen ist. Die besten Daten zur Bewertung der Effekte eines Mammographie Screenings lieferten nach Auffassung der IARC die qualitativ hochwertigen Beobachtungsstudien aus den aktuellen qualitätsgesicherten Brustkrebsfrüherkennungs-Programmen. Insbesondere inzidenzbasierte Kohorten-Studien mit langem Follow-up und Adjustierungen für Lead Time sowie für zeitliche Trends und geographische Unterschiede werden vom Expertengremium als geeignet angesehen ebenso wie Fall-Kontrollstudien nach sorgfältiger Prüfung ihrer methodischen Limitationen.
Literatur:
Lauby-Secretan B et al. for the International Agency for Research on Cancer Handbook Working Group (2015)
Breast-Cancer Screening – Viewpoint of the IARC Working Group. June 3, 2015DOI: 10.1056/NEJMsr1504363
Detaillierte Ausführungen der IARC Working Group werden publiziert in: Handbook of Cancer Prevention Volume 15.
Independent UK Panel on Breast Cancer Screening (2012) The benefits and harms of breast cancer screening: an independent review. Lancet 380 (9855): 1778-86.
Health Council of the Netherlands (2014) Population screening for breast cancer: expectations and developments. The Hague: Health Council of the Netherlands; publication no. 2014/01E. U.S.
Preventive Services Task Force (2015) Breast Cancer Screening Draft Recommendations, publication online April 20, 2015: http://screeningforbreastcancer.org/
Hintergrund:
Das deutsche Mammographie-Screening-Programm Jährlich nehmen rund 2,7 Millionen Frauen am Mammographie-Screening teil. Das entspricht einer Teilnahmerate von rund 56 Prozent. Bei rund 17.000 Frauen wurde innerhalb eines Jahres im Mammographie-Screening-Programm Brustkrebs entdeckt (2011). Rund 12.000 der aufgespürten Karzinome sind maximal 2 Zentimeter groß und haben die Lymphknoten noch nicht befallen. Von den 130.000 zur Abklärung einer Auffälligkeit einbestellten Frauen wird bei 34.000 Frauen eine Gewebeentnahme erforderlich. Die Hälfte dieser Frauen erhält die Diagnose Brustkrebs, das sind 13 Prozent aller Frauen, die zur Abklärung eingeladen wurden. Die Teilnahme am Mammographie-Screening-Programm ist freiwillig. Die Untersuchung dient dazu, Brustkrebs möglichst früh zu erkennen. Sie schützt jedoch nicht vorbeugend davor, an Brustkrebs zu erkranken. Weitere Informationen zu Vor- und Nachteilen des Mammographie-Screenings unter: www.mammo-programm.de
Kooperationsgemeinschaft Mammographie
Die Kooperationsgemeinschaft Mammographie ist in gemeinsamer Trägerschaft von den gesetzlichen Krankenkassen und der Kassenärztlichen Bundesvereinigung (KBV) im August 2003 gegründet worden. Ihre Aufgabe ist die Koordination, Qualitätssicherung und Evaluation des Mammographie-Screening-Programms. Im Jahr 2005 gingen die ersten Screening-Einheiten an den Start. Seit 2009 ist das Programm in Deutschland flächendeckend umgesetzt.
Quelle: idw
Wärme und Sauerstoffmangel setzen Meeresbewohner zunehmend unter Druck
Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Wer leben will, muss atmen und ausreichend Energie aufbringen, um sich zu bewegen, Nahrung zu suchen oder sich fortzupflanzen. Dieser Leitsatz gilt für uns Menschen ebenso wie für die Tierwelt der Ozeane. Den meisten Meerestieren werden diese überlebenswichtigen Tätigkeiten künftig jedoch schwerer fallen.
Das zeigt eine neue Studie im Fachmagazin Science, in der deutsche und US-amerikanische Biologen erstmals einen allgemeingültigen Grundsatz zu den gemeinsamen Auswirkungen der Ozeanerwärmung und des Sauerstoffmangels auf das Leistungsvermögen der Meeresbewohner definiert haben. Ihr Fazit: Im Zuge des Klimawandels werden die Tiere ihren Sauerstoff- und Energiebedarf in ihren sich verändernden angestammten Lebensräumen kaum mehr decken können. Die Folge: Die Arten wandern in kühlere Regionen oder größere Wassertiefen ab, Ökosysteme werden umgewälzt, die Artenvielfalt schrumpft.
Um die Auswirkungen des Klimawandels auf das Leben in den Weltmeeren genauer und global vorhersagen zu können, suchen Meeresbiologen seit langem nach allgemein gültigen Prinzipien, mit denen sich die Lebensbedingungen in den Ozeanen und deren Grenzen beschreiben lassen. Eine Kernfrage dabei lautet: Wie wirken sich die Erwärmung der Meere und die damit verbundene Abnahme des Sauerstoffgehaltes im Wasser auf das Leistungsvermögen der Meereslebewesen aus? Denn: „Soll ein Tier etwas leisten, kostet dies Energie, die das Tier zusätzlich zu seinem Grundumsatz aufbringen muss. Meereslebewesen gewinnen diese zusätzliche Energie, indem sie mehr Sauerstoff aus dem Wasser aufnehmen und veratmen. In welchem Ausmaß dies jedoch möglich ist, hängt zum einen von der Wassertemperatur ab; zum anderen von der Frage, wie empfindlich diese Art auf Sauerstoffmangel reagiert“, erläutert Co-Autor und Meeresbiologe Prof. Hans-Otto Pörtner vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung.
Er und seine US-amerikanischen Kollegen Curtis Deutsch, Brad Seibel, Aaron Ferrel und Raymond B. Huey haben in der neuen Studie die Fähigkeit der Tiere, ihren Energieumsatz zu steigern, für ausgewählte Tierarten berechnet und im Anschluss mit den Temperaturen und den Sauerstoffkonzentrationen der Weltmeere in Beziehung gesetzt. Dabei herausgekommen ist ein sogenannter Stoffwechselindex für jede Art, der für sauerstoff-atmende Meeresbewohner eine deutliche Grenze definiert: „Meerestiere wie zum Beispiel Aalmuttern, Steinkrabben oder Kabeljau können nur dort leben, wo sie so viel Sauerstoff vorfinden, dass sie bei Bedarf ihre Stoffwechselrate um das Zwei- bis Fünffache des Grundumsatzes steigern können. Das heißt, jede Tierart hat sich nicht nur auf einen bestimmten Temperaturbereich spezialisiert. Um zu überleben, ist sie auch auf einen ausreichend hohen Sauerstoffgehalt angewiesen“, sagt Erstautor Curtis Deutsch von der Universität Washington, Seattle.
Im Zuge des fortschreitenden Klimawandels stellt sich für die Meeresbewohner deshalb folgendes Problem: Je wärmer das Wasser wird, desto weniger Sauerstoff kann es aufnehmen und speichern. Gleichzeitig benötigen die Tiere im wärmeren Wasser mehr Energie und Sauerstoff, um ihren Grundumsatz sicherzustellen. Das wiederum bedeutet: Je wärmer die Meere werden, desto weiter sinkt die Fähigkeit seiner Bewohner, ihren Sauerstoffverbrauch je nach Art um das Zwei- bis Fünffache ihres Grundumsatzes zu steigern und somit Bewegung, Futtersuche oder Fortpflanzung zu ermöglichen. „Wird es zu warm und unterschreitet der Sauerstoffgehalt einer Meeresregion die artspezifischen Mindestanforderungen der Lebewesen, müssen die Tiere ihren angestammten Lebensraum verlassen. Meist wandern sie dann in kühlere Regionen ab. Das heißt, sie verlagern ihre Lebensräume entweder polwärts oder in größere Wassertiefen. Beim Kabeljau und vielen anderen Fischarten beobachten wir diese Verschiebung des Lebensraumes schon jetzt“, sagt Hans-Otto Pörtner.
Dieses Phänomen der Artenverschiebung können die Wissenschaftler in ihrer Studie für alle Breitengrade vorhersagen. Zudem verstärkt es sich in jenen Regionen, in denen der Sauerstoffgehalt des Wassers zusätzlich sinkt, etwa durch die zunehmende Wasserschichtung oder weil der Mensch viele Nährstoffe in das Meer einleitet, welche dann wiederum das Wachstum sauerstoffzehrender Mikroorganismen forcieren.
Besonders deutliche Veränderungen der Tierwelt erwarten die Forscher für die Polarmeere. „Im Nord- und Südpolarmeer ist das Wasser sehr kalt, aber auch sehr sauerstoffreich. Die dort lebende Tierwelt hat sich im Laufe der Evolution auf diese Lebensbedingungen eingestellt und wird nur wenige Anpassungsmöglichkeiten haben, wenn es zu der kombinierten Erwärmung und Sauerstoffabnahme kommt. Stattdessen werden wärmeliebende Arten Einzug halten, die an höhere Wassertemperaturen und geringere Sauerstoffkonzentrationen angepasst sind. Sie werden die polaren Arten verdrängen“, sagt Hans-Otto Pörtner.
Im Nordpazifik zum Beispiel beobachten Forscher schon jetzt einen stärkeren Rückgang der Sauerstoffkonzentration als wärmebedingt erwartet wurde. In solchen Meeresregionen verengt sich die geografische Verbreitung der Arten drastisch, was natürlich zur Folge hat, dass dort auch die Fischerei in einem großen Maße von den Veränderungen betroffen ist.
Aus Forscherperspektive bietet das neue Konzept des Stoffwechselindexes nun die Chance, bessere Vorhersagen zu treffen. „Wir haben jetzt einen universellen Ansatz zur Verfügung, um die klimabedingten Veränderungen der geografischen Verbreitung von Arten und ihrer Produktivität besser zu erfassen“, sagt Hans-Otto Pörtner. Jetzt sei es Aufgabe der Wissenschaft, weitere Arten auf ihren Stoffwechselindex und dessen Grenzen hin zu untersuchen. „Nach und nach kann so ein komplettes Bild dessen entstehen, was wir in unserer Studie in den ersten Zügen skizziert haben“, so Hans-Otto Pörtner.
Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Quelle: idw
Übergewicht und Persönlichkeit
Dr. Anne Klostermann Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Psychologie (DGPs)
Die Behandlung von Übergewicht könnte effektiver werden, wenn die Persönlichkeit der Teilnehmerinnen und Teilnehmer berücksichtigt wird. Zu diesem Ergebnis kommen Psychologen der Universitäten Bamberg und Bochum in einer Zusammenschau von mehr als 70 einschlägigen Studien. Ihre Analysen zeigen, dass Übergewicht, Adipositas und „Essanfälle“ mit bestimmten Persönlichkeitseigenschaften zusammenhängen. Während impulsive Persönlichkeitszüge Essstörungen eher begünstigen, wirken Gewissenhaftigkeit und Selbstkontrolle als Schutzfaktoren vor Essstörungen. Die Ergebnisse der Literaturanalyse wurden jetzt in der Fachzeitschrift „Obesity Reviews“ veröffentlicht.
„Unser Wissen über den Zusammenhang von Persönlichkeit, Übergewicht und übermäßigem Essensgenuss hat sich in den letzten Jahren deutlich verbessert“, sagt Sabine Löber, Professorin für Klinische Psychologie und Psychotherapie an der Universität Bamberg. „Wir können mittlerweile klar sagen, dass Menschen mit entsprechenden Essstörungen häufiger impulsiv und weniger selbstkontrolliert sind als Personen mit Normalgewicht“.
70 Studien aus den Jahren 1993 – 2013
Die Forscher analysierten Studien, die zwischen 1993 und 2013 durchgeführt wurden und in denen jeweils der Zusammenhang zwischen Persönlichkeit und Übergewicht beziehungsweise Adipositas (Fettleibigkeit) sowie Binge-Eating Störung (sogenannte „Essanfälle“) untersucht wurde. Den Untersuchungen lag in den meisten Fällen das Fünf-Faktoren-Modell der Persönlichkeit zugrunde. Nach diesem Modell lässt sich die Persönlichkeit eines jeden Menschen auf diesen fünf Faktoren einordnen: Neurotizismus (dazu gehören Eigenschaften wie Ängstlichkeit, Impulsivität, Verletzlichkeit), Extraversion (Geselligkeit, Selbstsicherheit, Abenteuerlust), Gewissenhaftigkeit (Kompetenz, Pflichtbewusstsein, Ehrgeiz, Selbstkontrolle), Verträglichkeit (Vertrauen, Geradlinigkeit, Empfindsamkeit) und Offenheit (Fantasie, ästhetisches Empfinden, Ideen).
Impulsivität: Risikofaktor für „Essattacken“
Welche Persönlichkeitsfaktoren spielen eine Rolle bei Essstörungen und Übergewicht? Die Analysen zeigen: Übergewichtige Menschen sind neurotischer und insbesondere impulsiver als Normalgewichtige, das heißt sie können ihr Handeln schlechter an langfristigen Konsequenzen ausrichten. Übergewichtige sind auch extravertierter und empfänglicher für Belohnungen als Normalgewichtige. Diese auch Belohnungssensitivität genannte Eigenschaft bezieht sich darauf, dass man zum Beispiel bei der Nahrungsmittelaufnahme besonderen Genuss empfindet. Impulsivität und Belohnungssensitivität scheinen zudem besonders bei Menschen ausgeprägt zu sein, die unter einer Binge-Eating Störung leiden. Belohnungssensitivität ist insbesondere bei Männern ein Risikofaktor.
Schutz durch Selbstkontrolle
Gewissenhaftigkeit hingegen erweist sich für beide Geschlechter als Schutzfaktor gegen Übergewicht. Eine wichtige Rolle spielt in diesem Zusammenhang die Selbstkontrolle, das heißt die Fähigkeit, Belohnungen aufzuschieben und längerfristig zu planen. Verträglichkeit und Offenheit scheinen dagegen nicht mit Übergewicht zusammenzuhängen.
Henne oder Ei – die Frage der Kausalität
Sind Menschen nun dicker, weil sie neurotisch sind oder sind sie neurotischer, weil sie dick sind? Beide Zusammenhangsrichtungen sind möglich, doch zeigen die bisherigen Langzeitstudien, dass Neurotizismus tatsächlich ein Risikofaktor und Gewissenhaftigkeit ein Schutzfaktor für späteres Übergewicht darstellt.
Nutzen für die Therapie von Übergewicht
„Die Therapie von Adipositas kann von diesen Erkenntnissen profitieren“, sagt Sabine Löber. „Bei der Entstehung von Übergewicht spielen individuelle Merkmale eine wichtige Rolle. Diese Aspekte sollten in der Therapie berücksichtigt werden. So könnte beispielsweise ein Selbstregulationstraining, in dessen Rahmen Strategien zum Umgang mit Impulsivität und Belohnungssensitivität geübt werden, dazu beitragen, die Ursachen von Übergewicht und Essattacken anzugehen und könnte insofern eine wichtige Ergänzung zu anderen Behandlungsformen der Adipositas sein“.
Die Originalstudie finden Sie hier:
Gerlach, G., Herpertz, S., Loeber, S. (2015). Personality traits and obesity: A systematic review. Obesity Reviews, 16 (1): 32-63. doi: 10.1111/obr.12235
Weitere Informationen:
Prof. Dr. Sabine Löber
Lehrstuhl für Klinische Psychologie und Psychotherapie
Otto-Friedrich-Universität Bamberg
Markusplatz 3
96047 Bamberg
Tel.: 0951 8631884
E-Mail: sabine.loeber@uni-bamberg.de
Quelle: idw
Regenerative Energien – Mehr Wasserstoff durch neue Nanopartikel
Luise Dirscherl Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München
Wasserstoff ist ein vielversprechendes Speichermedium für regenerativ erzeugten Strom. LMU-Forscher haben jetzt Eisen-Nickel-Oxid-Nanopartikel synthetisiert, mit deren Hilfe die Wasseroxidation bis zu zehnmal effektiver abläuft.
Die Zukunft der erneuerbaren Energien hängt eng damit zusammen, wie effizient sich der erzeugte Strom speichern lässt. Ein vielversprechendes Speichermedium ist Wasserstoff. Er entsteht mit Hilfe des Stroms aus Wasser und kann je nach Bedarf wieder als Energiequelle genutzt werden.
Seine elektrochemische Herstellung beinhaltet zwei gekoppelte Reaktionen. In der ersten, der Wasseroxidation, entstehen Sauerstoff und freie Elektronen. In der zweiten Reaktion, der Wasserreduktion, bildet sich mit Hilfe dieser Elektronen der Wasserstoff. Sind ausreichend freie Elektronen vorhanden, läuft dieser zweite Schritt problemlos ab. Der limitierende Faktor ist die Wasseroxidation. Derzeit forschen viele Wissenschaftler an Materialien, den sogenannten Katalysatoren, die diese Reaktion erleichtern sollen.
Ein Team um Thomas Bein, Professor für Physikalische Chemie an der LMU und Koordinator des Bereichs Energiekonversion bei der Nanosystems Initiative Munich (NIM), und Professor Dina Fattakhova-Rohlfing von der LMU und NIM haben jetzt Nanopartikel aus Nickel und Eisen entwickelt, mit deren Hilfe die Wasseroxidation bis zu zehnmal effektiver abläuft als mit vergleichbaren Verbindungen. Zudem sind die Partikel einfach herzustellen, günstig und vielfältig einsetzbar.
Bewusst langsame Synthese
Verantwortlich für den Erfolg sind die Mischung aus Nickel und Eisen, die kristalline Struktur der Partikel und ihre außergewöhnlich geringe Größe. „Mit den herkömmlichen Synthesemethoden entstehen Partikel grundsätzlich in dem thermodynamisch stabilsten Zustand“, erklärt Ksenia Fominykh, Erstautorin der Veröffentlichung. „In unserer Methode spielt die bewusst langsame Reaktionsgeschwindigkeit die entscheidende Rolle. Denn sie ermöglicht, dass auch weniger stabile, sogenannte metastabile Phasen entstehen und sich dadurch unter anderem außergewöhnliche Mischverhältnisse von Nickel und Eisen in unseren Nanopartikeln bilden können.“
Die Charakterisierung der Struktur und besonders die Eisenverteilung in dermaßen kleinen Teilchen stellt eine große Herausforderung dar und bedarf spezieller analytischer Methoden. In Zusammenarbeit mit den Gruppen von Professor Christina Scheu (MPI Düsseldorf) und Dr. Ivelina Zaharieva (FU Berlin) gelang es den LMU Forschern, die Struktur vollständig aufzuklären.
Vielfach höhere Ausbeute
Die von den Münchner Chemikern entwickelten Partikel weisen eine einheitliche kristalline Struktur auf und sind mit bis zu 1,5 Nanometer Durchmesser außergewöhnlich klein. Entsprechend groß ist daher das Verhältnis Oberfläche zu Volumen, was entscheidend zur hohen katalytischen Aktivität beiträgt. Wie effektiv ihre Nanopartikel sind, zeigt den NIM-Wissenschaftlern die Anzahl an Sauerstoff-Molekülen, die pro Sekunde und zugänglichem Nickel-Atom gebildet werden. Die Rate liegt zehnmal höher als bei allen bisher in der Literatur beschriebenen Versuchen mit vergleichbaren Nickel-Eisen-basierten Verbindungen.
Die Kombination der sehr großen katalytisch aktiven Oberfläche mit der hohen Kristallinität der Nanoteilchen ist zudem mitverantwortlich dafür, dass die Stuktur auch nach dauerhafter Elektrolyse unter hohen Strömen intakt bleibt. Dies ist besonders wichtig, da Stabilität eines der größten Probleme bei der Entwicklung von Katalysatoren darstellt.
Anwenderfreundliche Nanopartikel
Auch sonst sind die Partikel sehr anwenderfreundlich. Eine Besonderheit der Synthese ist die Entstehung nicht verklumpter Nanokristalle, die als Teilchen-Dispersion vielseitig einsetzbar sind. So lassen sie sich zum Beispiel als elektrochemisch aktive dünne Schicht auf beliebige Unterlagen aufbringen oder alternativ als Einzelteilchen verteilen, was für die Entwicklung von komplexeren katalytischen Systemen erfolgversprechend ist.
„Die außergewöhnlich hohe katalytische Aktivität unserer Nanopartikel zeigt, wie groß der Einfluss von Synthesestrategie und Nanomorphologie auf die Eigenschaften der entstehenden Materialien ist“, erklärt Dina Fattakhova-Rohlfing. „Aktuell arbeiten wir daran, die katalytische Aktivität von Nanomaterialien nicht nur durch die Größe sondern auch durch den gezielten Einbau von Defekten zu erhöhen. Ziel ist die Entwicklung noch effektiverer Materialien für unterschiedliche Energieanwendungen.“
(ACS Nano, DOI: 10.1021/acsnano.5b00520) (NIM, bz)
http://pubs.acs.org/doi/abs/10.1021/acsnano.5b00520
Kontakt:
Prof. Dina Fattakhova-Rohlfing
Department Chemie der LMU
Tel.: 089-2180-77604
E-Mail: dina.fattakhova@cup.lmu.de
Prof. Thomas Bein
Department Chemie der LMU
Tel.: 089-2180-77621
E-Mail: bein@lmu.de
Quelle: idw
Starke Gewichtszunahme im jungen Erwachsenenalter ist mit erhöhtem Darmkrebsrisiko verbunden
Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Potsdam-Rehbrücke – Wie eine wissenschaftliche Auswertung von 12 Beobachtungsstudien nun zeigt, ist bereits im jungen Erwachsenenalter, d. h. zwischen 18 und 25 Jahren, eine Gewichtszunahme von durchschnittlich 15,2 Kilogramm mit einem um 22 Prozent erhöhten Darmkrebsrisiko verbunden. Männer sind dabei hinsichtlich einer Krebserkrankung des Dickdarms besonders gefährdet. Bezüglich des Enddarms waren keine geschlechtsspezifischen Unterschiede zu beobachten.
Das Forscherteam um Krasimira Aleksandrova vom Deutschen Institut für Ernährungsforschung (DIfE) und Sabrina Schlesinger von der Christian-Albrechts-Universität zu Kiel veröffentlichten ihre Ergebnisse nun in der Fachzeitschrift Obesity Reviews (Schlesinger et al., 2015; DOI 10.1111/obr.12286).
Darmkrebs ist die dritt- bzw. die zweithäufigste Krebsform, an der Männer bzw. Frauen in Deutschland erkranken. Bei etwa der Hälfte der Betroffenen verläuft die Krankheit tödlich. Verschiedene Beobachtungsstudien weisen darauf hin, dass starkes Übergewicht ein wesentlicher Risikofaktor für diese Erkrankung ist, wobei die meisten Studien den Body-Mass-Index (BMI)* verwenden, um das Körpergewicht bzw. die Körperfettmenge der Studienteilnehmer einzuordnen.
„In die Berechnung des BMI fließt das Körpergewicht insgesamt, also auch das Gewicht der fettfreien Körpermasse mit ein. Daher ist der BMI als Indikator für die Körperfettmenge nicht ganz so gut geeignet. Das Körperfett ist jedoch vermutlich der entscheidende Faktor, der über seinen Einfluss auf den Stoffwechsel zur Krebsentstehung beiträgt“, sagt Sabrina Schlesinger. „Da wir davon ausgehen, dass eine Gewichtszunahme im Erwachsenenalter hauptsächlich auf eine Zunahme des Körperfetts zurückzuführen ist, wählten wir für unsere Untersuchung daher das Maß der Gewichtszunahme als einen präziseren Indikator für die Körperfettmenge“, ergänzt Krasimira Aleksandrova.
In ihrer Meta-Analyse wertete das Forscherteam die Daten von 12 verschiedenen Beobachtungsstudien aus dem In- und Ausland aus. Insgesamt beinhalteten diese Studien die Daten von 16.151 erstmals an Darmkrebs erkrankten Menschen.
Wie die Wissenschaftler feststellten, hatte das Ausgangsgewicht keinen Einfluss auf den untersuchten Zusammenhang. Pro 5 Kilogramm, die die Teilnehmer über die Jahre (im Mittel 12,2 Jahre**) zulegten, erhöhte sich das Darmkrebsrisiko um 4 Prozent. Die beobachtete Risikobeziehung für Dickdarmkrebs war bei Männern etwas stärker ausgeprägt als bei Frauen, wobei die Epidemiologen für Enddarmkrebs keine signifikanten Unterschiede zwischen den Geschlechtern feststellten.
„Um das Darmkrebsrisiko zu minimieren, ist es wichtig, nicht nur mit zunehmendem Alter auf ein normales Körpergewicht und vor allem einen normalen Körperfettanteil zu achten, sondern bereits schon in jungen Jahren damit zu beginnen“, fasst Aleksandrova die Ergebnisse zusammen. „Denn unsere Ergebnisse bestärken erneut die Annahme, dass insbesondere das Körperfett eine entscheidende Rolle für die Erkrankung spielt“, erklärt Schlesinger. „Derzeit arbeiten wir daran, die biologischen Mechanismen aufzuklären, die hinter dem beobachteten Zusammenhang stehen“, ergänzt Aleksandrova.
Hintergrundinformationen:
* Die Formel für den Body-Mass-Index lautet: BMI = Körpergewicht in kg/(Körperlänge in m)2.
** Die einzelnen Studien weisen unterschiedliche Nachverfolgungszeiten auf. Diese umfassen in den jeweiligen Studien einen Zeitraum von 7,1 bis 18 Jahren. Der grobe Mittelwert liegt bei 12,2 Jahren.
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung (DZD).
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u. a. in Form der Leibniz-WissenschaftsCampi -, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 18.100 Personen, darunter 9.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,64 Milliarden Euro.
Kontakt:
Dr. Krasimira Aleksandrova
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal
E-Mail: Krasimira.Aleksandrova@dife.de
Dr. Sabrina Schlesinger
Institut für Epidemiologie
Christian-Albrechts Universität zu Kiel
Arnold-Heller-Str. 3, Haus 1
Universitätsklinikum Schleswig-Holstein (UKSH)
24105 Kiel
E-Mail: sabrina.schlesinger@epi.uni-kiel.de
Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=EPI
Informationen zur Abteilung Epidemiologie am DIfE
Quelle: idw
Biogas effizienter erzeugen – Forschungsverbund für neue Technologien
Madlen Domaschke Pressestelle
Technische Universität Bergakademie Freiberg
Das Bundesministerium für Wirtschaft und Energie hat einen Förderantrag zur Entwicklung innovativer, hocheffizienter Technologien zum Einsatz von Biomethan bewilligt. Das Projekt inTeBi soll einen Technologiesprung in der Biogaserzeugung, -aufbereitung und -nutzung bewirken. Neben der TU Bergakademie Freiberg sind die DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie, der Gas- und Wärme-Institut Essen e.V., das Leibniz-Institut für Katalyse sowie das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik am Gesamtprojekt beteiligt.
Ob Grünschnitt, Essensreste oder Gülle – dank Biogasanalgen lässt sich aus Reststoffen und Abfällen noch Energie, Wärme oder Sprit gewinnen. Rund 8.000 Biogasanlagen stehen derzeit in Deutschland. Laut Fachverband Biogas entspricht die heutige Biogasproduktion in Deutschland rund 20 Prozent der derzeitigen Erdgasimporte aus Russland, mit dem verbleibenden Potenzial könnten weitere zehn Prozent ersetzt werden.
In einem neuen Forschungsverbund wollen Wissenschaftler nun Verfahren entwickeln, die eine kostengünstigere und „grüne“ Erzeugung und Einspeisung von Biogas ermöglichen. Im Rahmen des Projekts „Entwicklung innovativer, hocheffizienter Technologien zur Aufbereitung von Biogas/Biomethan über die komplette Wertschöpfungs- und Verwertungskette“ (inTeBi) wird die herkömmliche Wertschöpfungskette von Biomethan durch innovative und hocheffiziente Technologien gezielt erweitert. So kann die Leistung von Biogasanlagen um bis zu 90 Prozent, die Effizienz um bis zu zehn Prozent gesteigert werden. In verschiedenen Teilprojekten geht es unter anderem um die Biogaserzeugung an sich: Klassische Biogasanlagen sollen in die Lage versetzt werden, überschüssigen elektrischen Strom in Methan umzuwandeln, das anschließend ohne eine kostenintensive CO2-Abtrennung ins Erdgasnetz eingespeist werden kann.
Auch die TU Bergakademie Freiberg ist mit der Professur Reaktionstechnik des Instituts für Energieverfahrenstechnik und Chemieingenieurwesen an inTeBi beteiligt. Die Forscher suchen nach Wegen, kritische Spurenstoffe bei Einspeisung von Biogas ins Erdgasnetz zu entfernen. „Technisch müssen Schwefelwasserstoff und Sauerstoff aus dem Biogas entfernt werden, um eine Korrosion im Erdgasnetz zu vermeiden und die Emission von schädlichem Schwefeldioxid bei der späteren Verbrennung zu reduzieren. Unser Part ist die Entwicklung von effizienten Katalysatoren zur Schwefelwasserstoff- und Sauerstoff-Minderung“, erklärt Prof. Sven Kureti, der mit seinem Lehrstuhl am Projekt beteiligt ist. Die Katalysatorentwicklung solle dabei auf wissensbasiertem Wege erfolgen: Nach einer eingehenden physikalisch-chemischen Charakterisierung der neuen Katalysatoren folgen mechanistische und kinetische Studien, um schließlich die Eigenschaften der Katalysatoren zu identifizieren, die für die Umsetzung der Schadgase verantwortlich sind.
Koordinator des Projekts inTeBi ist die DBI – Gastechnologisches Institut gGmbH Freiberg (DBI-GTI). Neben der TU Bergakademie Freiberg sind weiterhin auch die DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie (DVGW-EBI), der Gas- und Wärme-Institut Essen e.V. (GWI), das Leibniz-Institut für Katalyse (LIKAT) sowie das Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik (UMSICHT) am Gesamtprojekt beteiligt. Das Gesamtprojekt teilt sich in zwei Phasen und startete am 1. Mai 2015. Die Fördersumme für die erste Phase beträgt 2,9 Mio. Euro.
Weitere Informationen:
http://www.tu-freiberg.de – Homepage der TU Bergakademie Freiberg‘
http://www.dbi-gruppe.de/intebi.html – weitere Projektinfos‘
Quelle: idw
Neue Saison für den „Mückenatlas“ – Stechmückenbeobachtung in Deutschland geht weiter
Monique Luckas Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.
Das Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) in Müncheberg und das Friedrich-Loeffler-Institut (FLI), Bundesforschungsinstitut für Tiergesundheit, auf der Insel Riems bei Greifswald, setzen den seit 2012 erfolgreich laufenden „Mückenatlas“ fort. Die Bundesanstalt für Landwirtschaft und Ernährung (BLE) fördert die weitere Erforschung von Stechmücken in Deutschland für die kommenden drei Jahre. Zu den geförderten Maßnahmen gehören die Erfassung der Stechmückenarten in Deutschland durch das gezielte Aufstellen von Fallen im Bundesgebiet und das Citizen Science-Projekt Mückenatlas.
Durch Einsendungen von Bürgerinnen und Bürgern konnten die Forscher des ZALF und des FLI bereits zwei Stechmückenarten nachweisen, die bisher in Deutschland nicht als etabliert galten: die Asiatische Buschmücke Aedes japonicus und die Asiatische Tigermücke Aedes albopictus. Die Asiatische Buschmücke hat sich seit 2012 in Westdeutschland stark ausgebreitet. Neben der Verbreitung der Buschmücke untersuchen die Forscher in diesem Sommer insbesondere, ob Exemplare der Tigermücke, die 2014 im Raum Freiburg in Baden-Württemberg gefunden wurden, überwintert haben.
„Sollten es die eher wärmeliebenden Tigermücken geschafft haben, den Winter am Oberrhein zu überstehen, besteht eine günstige Ausgangsposition für den Aufbau einer gefestigten Population dieser Stechmückenart in Süddeutschland“, sagt Projektleiterin Doreen Werner vom ZALF. „Angesichts der milden Temperaturen im vergangenen Winter ist das nicht unwahrscheinlich.“
Aedes albopictus hat sich seit dem Erstnachweis Ende der 1980er Jahre in Südeuropa weit verbreitet und drängt immer weiter nach Norden vor. Nördlich der Alpen wurden bislang noch keine etablierten Populationen dokumentiert. Die Asiatische Tigermücke gilt als potenzieller Überträger zahlreicher Krankheitserreger und führte in Südfrankreich, Kroatien und Norditalien zur Übertragung des Erregers für Chikungunya- und Dengue-Fieber.
Die Asiatische Buschmücke ist von Natur aus bestens an das mitteleuropäische Klima angepasst, für viele Erreger aber bisher nur aus dem Labor als Überträger bekannt. Ob sie zukünftig im europäischen Raum als Überträger eine Rolle spielen wird, bleibt abzuwarten. Doch auch das geografische und saisonale Auftreten einheimischer Arten ist für die Bewertung des zukünftigen Risikos der Übertragung von Krankheitserregern durch Stechmücken wichtig.
Der Mückenatlas
Um die Verbreitung von Mückenarten in Deutschland flächendeckend erfassen zu können, haben Wissenschaftler des ZALF und des FLI im Jahr 2012 das Citizen Science-Projekt „Mückenatlas“ ins Leben gerufen. Das Forscherteam bittet darin um die Einsendung von Stechmücken aus allen Gebieten Deutschlands. Die Stechmücken sollen unbeschädigt eingefangen, tiefgefroren und anschließend an das ZALF geschickt werden. Die Mückenfänge werden in eine zentrale deutsche Datenbank eingegeben, mit deren Hilfe die räumliche und geografische Verbreitung der Stechmückenarten Deutschlands kartografiert wird. Die erhaltenen Daten dienen der Bewertung des Risikos, das von der Übertragung von Krankheitserregern durch Stechmücken in Deutschland ausgehen könnte. Seit April 2012 wurden über 25.000 Stechmücken aus 41 Arten eingeschickt. Mehr Informationen zum „Mückenatlas“ und dem Fangen von Mücken sind unter www.mueckenatlas.de zu finden.
Weitere Informationen:
http://www.mueckenatlas.de
http://www.zalf.de
http://www.fli.bund.de
Quelle: idw
Mikroreaktor Biodiesel aus Altspeisefetten mit überkritischem Methanol
Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Neues Förderprojekt der Deutschen Bundesstiftung Umwelt
Biodiesel wird heute bevorzugt aus frischen Pflanzenölen hergestellt. Dies geschieht unter Einsatz eines Katalysators, der nach der Umesterung aufwändig abgetrennt werden muss. Frische Pflanzenöle als Rohstoff stehen wegen ihrer Konkurrenz zur Lebensmittelherstellung in der Kritik. In diesem Projekt soll ein neues Verfahren auf Basis von Altspeisefett entwickelt werden. Die Anforderungen an die Verarbeitung dieses Rohstoffes sind groß, da er Verunreinigungen und freie Fettsäuren enthält, die die Umesterung erschweren. Im neuen Verfahren soll überkritisches Methanol in einem Mikroreaktor verwendet werden. Bei erfolgreichem Verlauf würde ein katalysatorfreies Verfahren zur Verfügung stehen, das die Biodieselgewinnung aus stark verunreinigtem und preiswertem Altspeisefett ermöglicht.
Zielsetzung:
In dem geplanten Vorhaben soll die Grundlage für ein neues Verfahren zur Biodieselherstellung aus Altspeiseölen und -fetten geschaffen werden. Biodiesel, chemisch Fettsäuremethylester, ist ein Kraftstoff, der durch Umesterung von pflanzlichen oder tierischen Fetten und Ölen hergestellt wird. Das gebräuchlichste Verfahren ist die basisch katalysierte Umesterung. Dabei kommen als Katalysatoren üblicherweise Natronlauge oder Natriummethylat zum Einsatz.
Ziel dieses Projektes ist die Entwicklung eines Verfahrens, das es erlaubt, auch Altspeiseöl von schlechter Qualität oder die Abfallprodukte aus der Biodieselproduktion als Rohstoff ohne hohen Ausbeuteverlust zu verwenden. Das Verfahren soll ohne Katalysator auskommen und ein Endprodukt von so guter Qualität liefern, dass aufwändige Reinigungsschritte nicht mehr nötig sind. Dazu sollen Methanol im überkritischen Zustand eingesetzt und gleichzeitig mikrostrukturierte Reaktoren verwendet werden. Die Verwendung von überkritischem Methanol, das bei Temperaturen von 250 bis 350° C und Drücken von 80 bis 400 bar realisiert wird, erfordert druckstabile Reaktoren wie z. B. die Mikroreaktoren des Forschungspartners, dem Karlsruher Institut für Technologie (KIT). Ferner bieten die Mikroreaktoren den Vorteil, durch ihr sehr großes Oberflächen-Volumen-Verhältnis hohe Wärmeleistungen rasch transportieren zu können. Dazu soll zunächst am KIT eine Versuchsanlage vorbereitet werden, um Untersuchungen mit überkritischem Methanol in Mikroreaktoren durchzuführen. Es sind auch laserbasierte Verfahren vorgesehen, um innerhalb eines Mikrokanals die chemische Reaktion in-situ beobachten zu können. Mit dieser Versuchsanlage soll das Verfahren erprobt und optimiert werden.
In der zweiten Hälfte des Vorhabens sind die Verfahrensentwicklung sowie die Auslegung des Mehrkanal-Mikroreaktors und die Wirtschaftlichkeitsbetrachtung vorgesehen.
Bei erfolgreichem Verlauf des Vorhabens würde das neue Verfahren folgende Vorteile mit sich bringen:
– Es würde einen breiten Rohstoffeinsatz von Altspeisefetten mit hohem Gehalt an freien Fettsäuren ermöglichen.
– Der Katalysator würde wegfallen (und damit auch der Umgang mit einem Gefahrstoff).
– Der Prozesswassereinsatz würde reduziert werden.
– Der Anfall an minderwertigen Nebenprodukten und Seifen würde wegfallen bzw. verringert werden.
– Die Anzahl der Prozessschritte bei der Umesterung könnte deutlich reduziert werden.
– Die Verwendung der Mikroreaktoren würde die Wärmerückgewinnung und damit eine Erhöhung der Energieeffizienz ermöglichen.
Einschätzung:
Biokraftstoffe, wie Bioethanol oder Biodiesel, spielen eine wichtige Rolle beim Klimaschutz und bei der Energieversorgung. Durch ihre Verwendung sinkt die Abhängigkeit von immer knapper werdenden fossilen Rohstoffen. Mit der Erneuerbaren Energien Richtlinie der EU soll der Anteil der erneuerbaren Energien im Verkehrssektor bis zum Jahr 2020 auf 10 % gesteigert werden. Umweltvorteile liefert Biodiesel insbesondere dann, wenn der Rohstoff nicht frisches Pflanzenöl, sondern Altspeisefett ist. Dessen Verarbeitung zu Biodiesel erfordert aufgrund der recht inhomogenen Beschaffenheit und der Verunreinigungen eine besondere Prozessführung. Die heute etablierten Anlagen zur Herstellung von Biodiesel wurden ursprünglich überwiegend für die Verwendung von Rapsöl konzipiert und entwickelt. Altspeisefett, insbesondere jenes mit einem hohen Anteil an freien Fettsäuren, macht die Entwicklung neuer und effizienter Prozesse erforderlich. Biowerk Sohland GmbH ist jetzt schon in der Lage, Altspeisefett als Rohstoff zu verwenden – derzeit werden fast 80 % des Biodiesels bei Biowerk Sohland aus Altspeisefett gewonnen. Jedoch gelingt es nicht, Altspeiseöle mit sehr hohen Fettsäuregehalten oder anderen starken Verunreinigungen, wie Wasser und Feststoffen, energieeffizient und chemikalienarm zu verarbeiten. Aus Umweltgesichtspunkten sind aber gerade diese Rohstoffe von besonderem Interesse und versprechen ein besonders hohes Umweltentlastungspotenzial.
Ansprechpartner zum Projekt:
Projektpartner: Biowerk Sohland GmbH, Sohland an der Spree, Sachsen
Name: Protze
Vorname: Corina
Tel., Fax: 035936/455 0 035936/455 29
E-Mail: c.protze@biowerk-sohland.de
AZ: 31249
Fördersumme DBU: 245.402 Euro
Quelle: idw
Das Geheimnis des menschlichen Alterns
Astrid Bergmeister Communications
CECAD – Cluster of Excellence at the University of Cologne
Eines der faszinierendsten Themen: Warum altern wir? Es kommt leise, unaufhaltsam, trifft jeden: Welche Prozesse laufen im Körper ab, während er altert? Prof. Dr. Björn Schumacher vom Exzellenzcluster CECAD an der Universität zu Köln gibt spannende Einblicke in einem neuen Buch.
Die Molekularbiologie hat in den letzten zwei Jahrzehnten immense Fortschritte erzielt: Wir wissen heute, welche Gene unsere Lebensdauer begrenzen, und auch, warum die Fehlfunktion eines einzigen winzigen Proteins eine altersbedingte Krankheit wie Alzheimer auslöst. Wir gewinnen ständig neue aufregende Einblicke in Zellteilung und Zellstoffwechsel und deren Gefahrenquellen. Kein Wunder, dass immer häufiger Mediziner davon träumen, den Alterungsprozess so aufzuhalten, dass die alterstypischen Erkrankungen erspart bleiben.
Doch wie realistisch sind solche Hoffnungen auf ewige Jugend? Und was muss, solange es den Jungbrunnen nicht auf Rezept gibt, gesellschaftlich in die Wege geleitet werden, um zu verhindern, dass aus einer alternden eine morbide Gesellschaft wird?
Prof. Schumacher: „Eine Verlängerung der Lebenszeit ohne Verlängerung der Gesundheitsspanne beschwört das Horrorszenario einer morbiden Gesellschaft herauf. Würde es uns gelingen, durch entsprechende Prävention das Einsetzen altersbedingter Erkrankungen zu verzögern oder zu verhindern, würde sich die individuelle Gesundheitsspanne verlängern. Nur so können wir verhindern, dass die alternde Gesellschaft zu einer alterskranken Gesellschaft wird. Dazu bedarf es Investitionen in die biologische Alternsforschung, allerdings steht dem die mangelnde Innovationsfreude der Pharmaindustrie entgegen – die lieber bereits vorhandene Wirkstoffe neuverpackt und minimal verbessert, statt ein ganz neues Medikament zu entwickeln, was risikoreich und kostspielig ist.“
Im CECAD Exzellenzcluster arbeiten über 400 Wissenschaftlerinnen und Wissenschaftler dem Ziel entgegen, die Ursachen des Alterns zu erforschen, um altersbedingten Erkrankungen vorbeugen zu können. Prof. Schumacher, geschäftsführender Direktor des CECAD Forschungszentrums und Präsident der Deutschen Gesellschaft für Alternsforschung, ist besonders daran gelegen, auch der Allgemeinheit in verständlicher und
zugänglicher Form Einblicke in das Wissen um die Ursachen des Alterns und in die Zukunftsperspektiven einer gesund alternden Gesellschaft zu geben.
„Das Geheimnis des menschlichen Alterns: Die überraschenden Erkenntnisse der noch jungen Alternsforschung“ erscheint am 18. Mai 2015 im Blessing Verlag.
Kontakt:
Prof. Dr. rer. nat. Björn Schumacher
Exzellenzcluster CECAD
Universität zu Köln
Telefon +49 221 478-84202
bjoern.schumacher@uni-koeln.de
Astrid Bergmeister MBA
Leiterin CECAD PR & Marketing
Universität zu Köln
Telefon + 49 (0) 221-478 84043
astrid.bergmeister@uk-koeln.de
Weitere Informationen:
http://www.cecad.uni-koeln.de
Quelle: idw
Neue Studie: Testosteron ist besser als sein Ruf – es fördert auch soziales Verhalten
Birgit Kruse Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg
Dass eine hohe Konzentration von Testosteron im Blut den Menschen aggressiv macht, ist eine bekannte Tatsache. Neu ist, dass das männliche Sexualhormon auch soziales Verhalten fördert. Den Einfluss von Testosteron auf das menschliche Sozialverhalten hat Luise Reimers, Doktorandin im Forschungsteam von Jun.-Prof. Dr. Esther Diekhof (Arbeitsgruppe Neuroendokrinologie in der Abteilung Humanbiologie am Biozentrum Grindel der Universität Hamburg) untersucht. Das Ergebnis der Studie wurde jetzt im Schweizer open access-Journal „Frontiers in Neuroscience“ veröffentlicht.
Testosteron ist bekannt für seinen Einfluss auf das Verhalten in Situationen von Konkurrenz bzw. Wettbewerb und Bedrohung, und man verbindet mit dem Hormon eher negative Eigenschaften wie erhöhte Aggressionsbereitschaft, Dominanz oder unsoziales Verhalten. Obwohl es auch Studien gibt, die einen prosozialen Effekt von Testosteron nachweisen konnten, wurden bisher Faktoren wie „Gruppenzugehörigkeit“ nicht in Testosteron-Verhaltensstudien einbezogen. Daher hat die Nachwuchswissenschaftlerin erforscht, inwiefern Testosteron das Verhalten während einer Konkurrenzsituation zwischen Gruppen beeinflusst.
Bei der Studie wurden 50 männliche Fußballfans getestet, die am PC ein sogenanntes Gefangenendilemma spielen mussten. Das Gefangenendilemma wird in der Verhaltensforschung angewendet, um Altruismus (Selbstlosigkeit) in Form von kooperativem Verhalten bzw. Egoismus zu erforschen. Bei dem Spiel wird untersucht, inwieweit die Spielerinnen und Spieler nur ihren eigenen Nutzen maximieren oder auch die Interessen anderer in ihre Entscheidungen mit einbeziehen und mit ihnen kooperieren. In dieser Studie wurde die körpereigene Testosteronkonzentration anhand von Speichelproben gemessen, die am Morgen des Testtages abgegeben wurden.
Die Fußballfans spielten das Gefangenendilemma auf zweierlei Weise: Zum einen sollten sie für sich selbst Punkte sammeln. Zum anderen gab es einen Wettbewerb, bei dem sie in der Gruppe gegen Fans der anderen Vereine spielen sollten und am Ende der Verein gewann, der als Gruppe die meisten Punkte hatte – die Teilnehmer mussten also zwischen persönlichem Gewinn und dem Erfolg ihrer Gruppe abwägen.
Die Daten zeigten, dass Testosteron bei Männern z.B. den Verzicht auf persönliche Vorteile zum Wohle der eigenen Gruppe oder eine erhöhte Kooperationsbereitschaft gegenüber eigenen Gruppenmitgliedern fördert. Dies galt vor allem in Situationen, bei denen sie sich für die eigene Gruppe einsetzen und gegen andere behaupten mussten.
Für Rückfragen:
Luise Reimers
Universität Hamburg
Biozentrum Grindel und Zoologisches Museum
Tel.: 040 42838-9213
E-Mail: luise.reimers@uni-hamburg.de
Zum Original-Artikel:
http://journal.frontiersin.org/article/10.3389/fnins.2015.00183/full
Quelle: idw
DBU: Outdoorkleidung soll umweltfreundlicher werden
Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)
Uni Bremen ermittelt mit DBU-Förderung Gefahrenpotenziale von Chemikalien in Textilien
Bremen. Der Frühling lockt Naturfreunde wieder an die frische Luft. Und die wollen für jede Wetterlage mit schmutzabweisender, wasserdichter und atmungsaktiver Kleidung gut ausgerüstet sein. Doch deren Produktion hat ihren Preis: „Diese Eigenschaften werden standardmäßig durch Fluorkohlenstoffverbindungen erreicht, die in die Umwelt gelangen, schwer abbaubar sind und sich in Organismen anreichern können. Den Herstellern von Outdoortextilien fehlen häufig fundierte Kriterien, um umweltfreundlichen Alternativen den Vorzug geben zu können“, sagt Dr. Heinrich Bottermann, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU). Um das zu ändern, fördert die DBU fachlich und mit knapp 300.000 Euro ein Forschungsprojekt am Zentrum für Umweltforschung und nachhaltige Technologien (UFT) der Universität Bremen. Als Entscheidungshilfe für die Textilienhersteller, vertreten durch den Bundesverband der Deutschen Sportartikel-Industrie (BSI), sollen die Umweltgefahren ermittelt und Alternativen zusammengeführt und untersucht werden.
„Sport-, Outdoortextilien und Berufsbekleidung haben häufig wasser-, öl- und schmutzabweisende Eigenschaften, die mit speziellen Fluorkohlenstoffverbindungen erzeugt werden. Neben diesen gewollten Eigenschaften sind viele Vertreter dieser Substanzklasse aber auch giftig, schwer abbaubar, verbleiben sehr lange in der Umwelt und reichern sich in Organismen an“, erklärt Projektleiter Dr. Stefan Stolte vom UFT. Zu dieser Gruppe gehöre auch die Perfluoroctansäure, die seit kurzem als besonders besorgniserregend eingestuft werde. Deshalb suchten die Sportartikelhersteller nach Alternativen. Diese Alternativchemikalien, die imprägnierend wirken und umwelt- und gesundheitsverträglich sind, will Stolte zusammen mit seinen Kollegen Dr. Marianne Matzke und Sonja Faetsch am UFT untersuchen.
Dafür sollen in Outdoor-Kleidung angewendete Textilveredelungschemikalien ausgewählt und ihre Umweltgefahrenpotenziale untersucht werden. „Als möglichen Ersatz untersuchen wir unter anderem fluorfreie Alternativstoffe“, sagt Stolte. Die Molekülstrukturen und physikalisch-chemische Eigenschaften werden erste Rückschlüsse zu möglichen human- und ökotoxikologischen Wirkungen erlauben.
Danach werden unterschiedliche Textilchemikalien in (öko-)toxikologischen Tests experimentell untersucht. Stolte: „Das ist die Voraussetzung dafür, die umwelt- und gesundheitsschädliche Wirkung der einzelnen Substanzen in den Textilien beurteilen zu können.“ Die in dem Projekt zusammengetragenen und ermittelten Daten zu den Gefahrenpotenzialen der Textilchemikalien sollen so aufbereitet werden, dass sie vor allem ohne fachlich-ökotoxikologisches Wissen als Entscheidungshilfe für die Auswahl der Textilien genutzt werden können. Dieser Prozess wird durch das Umweltbundesamt (UBA) als begleitender Partner unterstützt.
„Das Ziel besteht darin, den Herstellern von Outdoor-Produkten wissenschaftlich belegbare Entscheidungskriterien an die Hand zu geben, damit sie umweltgefährdende Chemikalien in Textilien durch gesundheits- und umweltverträgliche Alternativen ersetzen können“, sagt Dr. Maximilian Hempel, DBU-Referatsleiter für Umweltchemie. Somit verspreche das Projekt ein erhebliches Umweltentlastungspotenzial, indem die giftigen und umweltgefährdenden Chemikalien aus der Kleidung möglichst verbannt werden.
Weitere Informationen:
https://www.dbu.de/123artikel36120_335.html
Quelle: idw
Jeder fünfte Arbeitnehmer leidet unter gesundheitlichen Stressfolgen
Miriam Kaufmann Presse- und Öffentlichkeitsarbeit
SRH FernHochschule Riedlingen
Die gesellschaftliche Aufmerksamkeit für die Gesundheit am Arbeitsplatz, insbesondere für psychische Erkrankungen, ist in den vergangenen Jahren deutlich gestiegen. Die SRH Fernhochschule beschäftigt sich auf vielfache Weise mit dieser Thematik.
Ob das Bundesministerium für Arbeit und Soziales, die Krankenkassen oder die Weltgesundheitsorganisation WHO, sie skizzieren seit Jahren eine Zunahme an Arbeitsunfähigkeit durch psychische Erkrankungen, hervorgerufen durch den Job. Laut einer Prognose der WHO werden die durch Arbeit verursachten Erkrankungen, insbesondere Depressionen, 2020 die zweithäufigste Krankheitsursache der Welt sein. Und die Technische Universität Dresden sagt voraus, dass mehr als jeder dritte EU-Bürger mindestens einmal im Jahr an einer arbeitsbedingten psychischen oder neurologischen Störung leiden wird. Höchste Zeit also, zu reagieren.
Bereits seit 2013 bietet die SRH Fernhochschule den Bachelor-Studiengang Prävention und Gesundheitspsychologie an und trägt so dazu bei, die zukünftigen Fachkräfte für das Thema der (psychischen) Gesundheit am Arbeitsplatz zu sensibilisieren. Im kommenden Herbst erweitert sie ihr Studienangebot um den gleichnamigen Studiengang mit einem Abschluss Master of Science – eine zukunftsträchtige Neuerung vor dem Hintergrund der zunehmenden Relevanz der (psychischen) Gesundheit im Arbeitsplatz. Und Studierende der Hochschule entwickeln aktuell gemeinsam mit dem Seniorenzentrum Konrad-Manopp-Stift Riedlingen ein betriebliches Gesundheitsmanagement.
Wie groß das Interesse der Öffentlichkeit ist, sich intensiv mit Fragen und Lösungen der psychischen Gesundheit am Arbeitsplatz auseinanderzusetzen, konnte die SRH Fernhochschule erst kürzlich erfahren. In Zusammenarbeit mit den Freunden & Förderern der SRH Fernhochschule Riedlingen veranstaltete sie unter dem Motto „Gesundheit – Arbeit – BGM (Betriebliches Gesundheitsmanagement)“ einen mehrtägigen Workshop. Bereits weit im Voraus war dieser ausgebucht. Die Stiftung Kulturverrückt führte zum Auftakt der Veranstaltung mit ihrem Theaterstück „Totalausfall“ vor Augen, wie persönliche, private, gesellschaftliche und berufliche Faktoren in den seelischen Zusammenbruch führen können – Eine „sehr gelungene Einstimmung in die Thematik“ urteilten die Workshopteilnehmer. Experten der Kooperationspartner Pfalzklinikum Klingenmünster, Stiftung Kulturverrückt, OPINIO Forschungsinstitut, Metropolregion Rhein-Neckar, BKK GILDEMEISTER SEIDENSTICKER sowie der SRH Fernhochschule hielten Fach- und Impulsvorträge. Unter anderem wurde über „Erschöpfung – Burnout – Depression: Gesellschaftspolitscher Zeitgeist oder seelische Erkrankung?“ und „Verhaltenspräventive Ansätze der Initiative Gesunde Unternehmen“ referiert. In Workshops erarbeiteten die Teilnehmer – darunter Personalmanager, Führungskräfte, Mitarbeiter mit Personalverantwortung, Personal- und Organisationsentwickler sowie Coaches – Handlungsstrategien für (ihr) Unternehmen. In einer Abschlussdiskussion wurden die Ergebnisse zusammengetragen und erörtert.
Das große Interesse und die positiven Rückmeldungen der Teilnehmer – „sehr gut vorbereitete Vorträge, tolles „Ausholen“ ins Thema über das professionelle Theaterstück, sehr kurzweilige Veranstaltung“ – bestätigen die SRH Fernhochschule darin, ihre Aktivitäten für das Thema psychische Gesundheit am Arbeitsplatz weiter zu verfolgen.
Weitere Informationen:
http://www.fh-riedlingen.de
Quelle: idw
Pfiffige Fische rund um Mallorca
Saskia Donath Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
… und die Fischer gucken in die Röhre bzw. auf die regungslose Pose
Um angesichts der weltweiten Überfischung der Ozeane den Zustand der Fischbestände abzuschätzen, werden häufig Fangdaten herangezogen. Die Annahme ist: Je weniger die Fischer in einer gewissen Zeitspanne fangen, desto kleiner der Bestand. Die Wissenschaftler Dr. Josep Alós und Prof. Dr. Robert Arlinghaus vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und der Humboldt-Universität zu Berlin konnten nun mittels Unterwasservideotechnik zeigen, dass bestimmte Fischarten in befischten Fanggründen viel schlechter an den Haken gehen als in Meerschutzgebieten, obwohl sich überall ähnlich viele Tiere tummeln. Das Ergebnis stellt das Fischbestandsmonitoring und die nach hohen Fängen strebenden Angler und Fischer vor Herausforderungen.
Mallorca ist gerade unter Deutschen als Urlaubsparadies beliebt. Dichtgepackt liegen die sonnenhungrigen Gäste an den Stränden oder genießen den Bootsausflug vor der Felsküste. Für die meisten unbemerkt vollzieht sich vor „Ballermanns Küste“ in der Fischwelt gleichzeitig ein interessantes Phänomen – ein Wettstreit zwischen schlauen Fischen und fanghungrigen Fischern ist entbrannt.
Im Rahmen eines von der Europäischen Union geförderten Forschungsprojekts untersuchen der spanische Wissenschaftler Josep Alós in Kooperation mit dem Halbspanier und Fischereiprofessor Dr. Robert Arlinghaus vom Leibniz-Institut für Gewässerökologie und Binnenfischerei und der Humboldt-Universität zu Berlin seit mehreren Jahren die mallorquinischen Kleinfischbestände. Konkret untersuchen die beiden Forscher, wie die Fische auf Befischung und Unterschutzstellung reagieren. Im Jahre 2013 stellten die Forscher unter Rückgriff auf standardisierte Angelmethoden fest, dass kleinräumige Meeresschutzgebiete im Vergleich zu stark von Anglern frequentierten Gebieten vermeintlich höhere Fischbestände und größere Fische beherbergen. Eine nun im renommierten Canadian Journal of Fisheries and Aquatic Sciences publizierte Folgestudie, die neben dem Angeln auch auf Unterwasservideos als Bestandserhebungsmethode zurückgriff, stellt dieses frühen Ergebnisse in Frage. Der Grund sind clevere Fische, die sich effektiv den Nachstellungen der Angler entziehen, ohne dass die Bestände rückläufig sind.
Wo viele Angler sind vermeidet der Schriftbarsch den Haken
Das Forscherteam untersuchte zwei mallorquinische Fischarten. Beide haben die gleiche Größe und denselben Lebensraum, unterscheiden sich jedoch in ihren Ernährungsgewohnheiten. Der Schriftbarsch ist ein Fleischfresser. Auf seinem Speiseplan stehen kleine Fische und Krebse, während sich die Ringelbrasse maßgeblich von nicht mobilen Algen und Muscheln ernährt. Die Brasse kann es sich also leisten, vorsichtig die vermeintliche Nahrung zu inspizieren. Für den Schriftbarsch wäre ein solches Verhalten evolutionärer Selbstmord – wartet ein Tier zu lange, schwimmt die Beute einfach davon. Das Resultat ist, dass der Schriftbarsch viel aggressiver ist als die Ringelbrasse, doch gibt es auch innerhalb der Arten unterschiedliche Charaktere, die sich besser oder schlechter fangen lassen. Und das hat Folgen für die Fänge der Angler.
Die Forscher untersuchten 54 Testgebiete. Diese wurden so ausgewählt, dass sie den gleichen Lebensraum wiederspiegeln, sich aber in der Intensität der Nutzung durch Angler unterscheiden. Die Wissenschaftler ermittelten mittels Videoaufnahmen, wie die Fische auf einen mit einem Köder bestückten Angelhaken reagieren. Um die Empfänglichkeit für Befischung zu beurteilen, maßen sie die Zeit vom Erscheinen des Fisches im Kameraausschnitt bis zum Biss an einem von fünf Ködern. Gleichzeitig wurden die Fische gezählt und so ihre Häufigkeit ermittelt.
Beim Schriftbarsch war ein ausgeprägter Zusammenhang zwischen der Angelintensität in einem Gebiet und dem Verhalten gegenüber den Ködern nachzuweisen: Während die Schriftbarsche in Meeresschutzgebieten aggressiv die Köder attackierten, taten sie das in den befischten Gebieten kaum mehr. Die Ringelbrasse hingegen war in allen Testgebieten vergleichbar schlecht fangbar. Eine mögliche Erklärung ist, dass die aggressivsten Fleischfresser unter den Schriftbarschen mit der Zeit aus dem Bestand ausselektiert wurden und nur diejenigen überlebten, die Gene für Vorsichtigkeit in sich trugen. Diese konnten sich in der Folge ungestört vermehren und haben so zur fischereilichen Selektion auf „Unfangbarkeit“ beigetragen. Eine andere Erklärung ist schlicht die mit der Zeit gesammelte Einsicht, dass bestimmte Köder für die Fische gefährlich sind. Allerdings hätten dann auch die Ringelbrasse eine Verhaltensreaktion auf Beangelung zeigen müssen. Diese zeigten sich jedoch von der Befischung vollständig unbeeindruckt.
Die Fangraten bilden nicht den Zustand der Fischbestände ab
Obwohl die Fangrate der Schriftbarsche in den befischten Gebieten nur etwa halb so groß war wie in den Meeresschutzgebieten – unter Wasser tummelten sich in allen Gebieten ähnlich viele Fische. Die Meeresschutzgebiete hatten also höchstens eine Schutzfunktion für den Erhalt bestimmter Fischverhaltenstypen innerhalb einer Art, einen Effekt auf die Häufigkeit der Tiere hatten sie hingegen nicht, ganz im Gegensatz zu den Rückschlüssen der Forscher in ihrer ersten Studie aus dem Jahre 2013. Die Fangraten waren in den Schutzgebieten nur deswegen höher, weil die Schriftbarsche weniger scheu waren, nicht weil sie in Schutzgebieten häufiger waren. Die in den befischten Arealen verbliebenden Tiere schlugen dem angebotenen Haken schlicht ein Schnippchen.
„Die Ergebnisse lassen vermuten, dass in stark befischten Gebieten die Fangraten einiger Fische stark zurückgehen können, ohne dass die Fischbestände proportional sinken“, kommentiert der Erstautor Josep Alós. „Alarmierende Meldungen über dramatisch rückgehende Fischbestände im Zeitverlauf, die auf reinen Fangdaten beruhen, wie zum Beispiel aus der Langleinenfischerei bei Thunfischen, Dorschen oder Schwertfischen, könnten ihre Ursache auch in steigender Hakvermeidung der über mehrere Generation befischten Populationen haben. Wir müssen unsere Bestandserhebungsmethoden auf den Prüfstand stellen und das sich rasch anpassende Fischverhalten in die Studienschlussfolgerungen einbeziehen. Vielleicht beherbergen befischte Gebiete mehr Fische als wir manchmal glauben“, so das Fazit von Professor Dr. Robert Arlinghaus.
Quellen (download unter www.besatz-fisch.de)
Alós, J., Arlinghaus, R. (2013).Impacts of partial marine protected areas on coastal fish communities exploited by recreational angling. Fisheries Research, 137: 88 – 96.
Alós, J., Palmer, M., Trías, P., Díaz-Gil, C., Arlinghaus, R. (2015). Recreational angling intensity correlates with alteration of vulnerability to fishing in a carnivorous coastal fish species. Canadian Journal of Fisheries and Aquatic Sciences, 72: 217-225.
KONTAKT
Dr. Josep Alós
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
alos@igb-berlin.de
Weitere Informationen:
http://www.igb-berlin.de
Quelle: idw
Koalas ernähren sich eigenartig – aber haben sie auch eigenartige Bakterien?
Saskia Donath Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
Koalas ernähren sich fast ausschließlich von Eukalyptusblättern. Benötigen sie deshalb spezifische Mikroorganismen, die ihnen bei der Verdauung ihrer Nahrung helfen? Wissenschaftler des Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) haben die Zusammensetzung von Bakteriengemeinschaften in verschiedenen Verdauungsorganen untersucht. Sie fanden bei Koalas jedoch keine ungewöhnlichen oder speziellen Mikrobengemeinschaften, wenn sie diese mit jenen anderer Säugetiere verglichen.
Die Ergebnisse zeigen außerdem, dass nichtinvasive Proben wie z.B. Kotproben, die üblicherweise zur Untersuchung der Zusammensetzung von Mikrobengemeinschaften verwendet werden, wohlmöglich keine präzise Beschreibung des Darmmikrobioms des Wirtes liefern. Die Studie wurde nun in dem wissenschaftlichen Fachmagazin „Scientific Reports“ veröffentlicht.
Der Koala (Phascolarctos cinereus) ist ein baumbewohnendes Beuteltier, welches eine einzigartige Ernährungsweise hat, die fast ausschließlich aus Eukalyptusblättern besteht. Das Blattwerk des Eukalyptusbaumes gilt eigentlich als sehr ungünstige Nahrung, da es nicht nur nährstoffarm ist, sondern auch viele Verbindungen enthält, die für die meisten Tiere giftig sind. Es wird angenommen, dass Bakterien eine wichtige Rolle bei der Verdauung von Eukalyptusblättern spielen. Dennoch ist nicht bekannt, ob eine so exklusive Ernährungsweise die Zusammensetzung der Bakteriengemeinschaften, oder Mikrobiome, bei Koalas beeinflusst.
Ein internationales Team von Wissenschaftlern der Abteilung für Wildtierkrankheiten des Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) in Berlin, der University of the Sunshine Coast (Australien), der University of Illinois at Urbana-Champaign (USA) und des Tiergarten Schönbrunn in Wien haben das Koala-Mikrobiom mittels DNA-Sequenzierung (Next Generation Sequencing) charakterisiert. Die Forscher fanden heraus, dass sich das orale sowie das Darmmikrobiom von Koalas ähnlich zusammensetzen wie die Mikrobiome der gleichen Körperregionen anderer Säugetierarten. Folglich scheint die einzigartige Ernährungsweise der Koalas die Mikrobengemeinschaften in den Verdauungsorganen nicht zu beeinflussen. Des Weiteren wurden Rektalabstriche und Kotproben zum ersten Mal mittels Hochdurchsatzsequenzierung verglichen, um zu prüfen, ob diese Probentypen das Koala-Darmmikrobiom gleichwertig beschreiben. Rektalabstriche enthielten die gesamte Vielfalt der auch in Kotproben enthaltenen Bakterien und noch zusätzliche Gattungen bzw. Arten. Dies deutet darauf hin, dass Bakteriengemeinschaften im Kot lediglich einen Bruchteil der komplexen darmbewohnenden Mikrobengemeinschaften repräsentieren. Darüber hinaus wurden die Kotmikrobiome der in Gefangenschaft gehaltenen Koalas mit vorhandenen Daten von wilden Koalas verglichen, um zu testen, ob die Gefangenschaft wesentliche Veränderungen im Koala-Mikrobiom hervorruft. Da sich laut den Ergebnissen die Profile der gefangenen und wilden Koalas ähnelten, scheint die Gefangenschaft die mikrobielle Gesundheit von Koalas nicht zu beeinträchtigen.
Auch das Mikrobiom der Koala-Augen wurde untersucht, da Koalas häufig unter Augenkrankheiten leiden, die durch Chlamydieninfektionen verursacht werden. Die Ergebnisse zeigten eine sehr vielfältige Mikrobengemeinschaft, ähnlich den Augenmikrobiomen anderer Säugetierarten. Dabei traten jedoch Bakterien einer bestimmten Familie, die bei anderen Säugetieren nicht beobachtet wurde, in ungewöhnlich hoher Zahl auf. Um festzustellen, ob dies die Anfälligkeit von Koalas für Chlamydieninfektionen bedingt, sind weitere Untersuchungen notwendig.
Dies ist die erste Studie, welche die Zusammensetzung des Augenmikrobioms einer nichtmenschlichen Säugetierart mithilfe von Hochdurchsatzsequenzierung beschreibt. Sie zeigt den gesunden Grundzustand des Koala-Auges, mit welchem künftig die Mikrobiome von Krankheitszuständen verglichen werden können.
Publikation:
Alfano N, Courtiol A, Vielgrader H, Timms P, Roca AL, Greenwood AD (2015): Variation in koala microbiomes within and between individuals: effect of body region and captivity status. SCI REP. Doi: 10.1038/srep10189.
Kontakt:
Leibniz-Institut für Zoo- und Wildtierforschung (IZW)
Alfred-Kowalke-Str. 17
10315 Berlin
Niccolò Alfano
Tel.: +49 30 5168-455
alfano@izw-berlin.de
Steven Seet
Tel.: +49 30 5168-125
seet@izw-berlin.de
Weitere Informationen:
http://www.izw-berlin.de
Quelle: idw
Wo leben die glücklichsten Kinder?
Dr. Dirk Frank Marketing und Kommunikation
Goethe-Universität Frankfurt am Main
Children’s Worlds Studie veröffentlicht Ergebnisse
FRANKFURT/LONDON/ZÜRICH. Mehr als 50.000 Kinder wurden in 15 verschiedenen Ländern zu Erfahrungen, Perspektiven und Wohlbefinden befragt. Die Children’s Worlds Studie, in der Acht- bis Zwölfjährige in so unterschiedlichen Ländern wie Nepal und Norwegen, Äthiopien und Israel oder Deutschland und Südkorea direkt befragt wurden, ist bislang einzigartig. Der Bericht, der heute veröffentlicht wird, bringt wichtige Erkenntnisse, die zur Verbesserung der Lebenssituation von Kindern auf der ganzen Welt genutzt werden können. Die Jacobs Foundation hat dieses fortlaufende, internationale Projekt während der letzten drei Jahre gefördert.
Kinder erleben große Unterschiede. In europäischen Ländern sind sie zufriedener mit ihren Freundschaften, während Kinder aus afrikanischen Ländern tendenziell glücklicher mit ihrem Schulleben sind. Kinder in nordeuropäischen Ländern hingegen sind insbesondere unzufrieden mit ihrem Aussehen und ihrem Selbstbewusstsein. Die Mehrheit der 53.000 befragten Kinder in allen 15 Ländern bewertet ihre Lebenszufriedenheit auf einer Skala von null bis zehn in der Gesamtheit als positiv. Allerdings variiert der prozentuale Anteil der Kinder mit sehr hohem Wohlbefinden: Demnach rangieren die Türkei mit 78 % sowie Rumänien und Kolumbien mit 77 % ganz vorne, während in Südkorea nur 40 % ein hohes Wohlbefinden haben. Der Prozentsatz des niedrigen Wohlbefindens liegt bei 2 % in Rumänien und Kolumbien und wiederum bei über 7% in Südkorea und Südafrika.
Das Wohlbefinden der Kinder in Deutschland Für die deutschen Ergebnisse hebt Studienleiterin Sabine Andresen von der Goethe-Universität Frankfurt hervor: „Kinder in Deutschland sind im hohen Maße mit ihren Freundinnen und Freunden zufrieden. Mit Blick auf die Erwachsenen ist ihnen wichtig, dass sie ernst genommen und einbezogen werden. Generell sinkt das Wohlbefinden bei den Zwölfjährigen, vor allem Mädchen sind weniger zufrieden mit ihrem Aussehen. Im Vergleich zu anderen Ländern zeigt sich außerdem, dass Kinder in Deutschland weniger über ihre Rechte und die Kinderrechtskonvention wissen.“ Neben diesen Ergebnissen gibt die Studie auch Auskunft über grundlegende Aspekte wie Familie, Freundschaften, Geld und Besitz, Schulleben, Wohnumgebung, Freizeit und Zeitnutzung, persönliches Wohlbefinden und Kinderrechte. Hiermit liegen wichtige Informationen für Politik, Pädagogik und Wissenschaft vor.
Simon Sommer, Head of Research bei der Jacobs Foundation, betont die Bedeutung für die verschiedenen Handlungsfelder: „Wir sind hocherfreut, den ersten Bericht dieser neuen internationalen Studie vorzustellen. Die Stiftung ist stolz darauf, ein Teil davon zu sein, komplexe Forschung zugänglicher zu machen und dem Ziel eines besseren Verständnisses der kindlichen Lebenswelt durch die eigene Perspektive der Kinder, einen Schritt näher gekommen zu sein. Durch innovative Forschungsprojekte wie dieses möchten wir den Transfer von Forschung in die Praxis stärken und Impulse für politische Entscheidungsträger und Vertreter der Ge