Neue Schwerpunkte für die Erforschung der Ozeanversauerung
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Damit die Erforschung der Ozeanversauerung weiterhin große Fortschritte machen kann, müssen auseinanderstrebende Bereiche zu einer ganzheitlichen Betrachtung zusammenfinden, fordern Prof. Ulf Riebesell vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Dr. Jean-Pierre Gattuso vom französischen Centre National de la Recherche Scientifique (CNRS). Die beiden international anerkannten Experten ziehen im Fachmagazin „Nature Climate Change“ Bilanz und zeigen neue Herausforderungen auf.
Das Thema Ozeanversauerung hat in den vergangenen zehn Jahren einen eindrucksvollen Sprung auf die wissenschaftliche Agenda absolviert. Auch Entscheidungsträgern und der Öffentlichkeit wird „Das andere Kohlendioxid-Problem“ zunehmend bewusst. Zeit für den nächsten Schritt: In der Januar-Ausgabe des Fachmagazins „Nature Climate Change“ rufen Prof. Ulf Riebesell, Professor für Biologische Ozeanografie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, und Dr. Jean-Pierre Gattuso vom französischen Centre National de la Recherche Scientifique (CNRS) die internationale Wissenschaftsgemeinde auf, ihre Kräfte zu bündeln. Nur so ließen sich zukünftige Herausforderungen meistern. Nach Einschätzung der beiden Experten müssen Reaktionen ganzer Lebensgemeinschaften, die Auswirkungen der Versauerung in Kombination mit anderen Stressfaktoren sowie die Chancen einer Anpassung durch Evolution jetzt verstärkt untersucht werden. „Die auseinanderstrebenden Bereiche der Versauerungs-Forschung müssen zu einer ganzheitlichen Betrachtung zusammenfinden“, unterstreicht Prof. Riebesell.
Für die Forscher liegt auf der Hand, dass Ozeanversauerung nicht als einziger Stressfaktor auftritt. Temperaturanstieg, Sauerstoff-Rückgang, Überdüngung, Verschmutzung und andere Faktoren beeinflussen die Entwicklung mariner Organismen und Lebensgemeinschaften zusätzlich. „Die Effekte können miteinander oder gegeneinander wirken – das müssen wir ausloten“, so Prof. Riebesell. „Aber je mehr Parameter ein Experiment abdecken soll, desto größer wird der Aufwand. Weil immer mehr Werte voneinander differieren können, sind Ergebnisse ähnlicher Studien außerdem schwerer als bisher zu vergleichen und zu verifizieren.“
Wie einzelne Arten auf Ozeanversauerung allein reagieren, ist mittlerweile recht gut erforscht: Kalkbildende Organismen wie Korallen, Muscheln oder Schnecken geraten unter Stress. Sie benötigen zusätzliche Energie, um der Belastung standzuhalten. Diese Energie fehlt dann für andere biologische Prozesse, etwa das Wachstum oder die Fortpflanzung. Eine wichtige Frage sei bisher jedoch so gut wie unbeantwortet, urteilt der Kieler Meeresbiologe. „Selbst wenn man die Reaktionen aller einzelnen Arten kennen würde, könnte man nicht absehen, wie sich diese im Gefüge einer Lebensgemeinschaft ausprägen. Dafür sind Informationen über Konkurrenz-Beziehungen und Wechselwirkungen zwischen den Nahrungsebenen unerlässlich.“
Laborexperimenten zufolge ist eine Anpassung durch Evolution möglich. Je schneller sich eine Art vermehrt und je größer ihre Population ist, desto besser stehen die Chancen, dass sie sich durch Selektion oder Mutation an neue Lebensbedingungen anpassen kann. „Die Frage ist jedoch: Läuft die Adaption schnell genug ab, damit ein Organismus seine Funktion innerhalb der sich wandelnden Lebensgemeinschaft aufrechterhalten kann? Außerdem ist ungeklärt, inwiefern sich Laborergebnisse auf die Natur übertragen lassen“, erklärt Prof. Riebesell.
Damit die Erforschung der Ozeanversauerung weiterhin große Fortschritte machen kann, sei es nötig, ihre drei auseinanderstrebenden Entwicklungszweige – die Kombination von Umweltfaktoren, Interaktionen zwischen den verschiedenen Ebenen des Nahrungsnetzes und die Anpassung durch Adaption – zusammenzuführen, urteilen die beiden Wissenschaftler. „Dies erfordert interdisziplinäre Anstrengungen, zum Beispiel im Rahmen von Langzeit-Experimenten, die die Auswirkungen mehrerer Stressfaktoren über viele Generationen hinweg auf der Ebene von Lebensgemeinschaften untersuchen. Laborexperimente müssen in enger Verzahnung mit Feldstudien und Modellrechnungen stattfinden“, rät Prof. Riebesell. „Hier sind auch die Wissenschaftsorganisationen gefordert, Forschungsmittel verstärkt für national und international vernetzte, disziplinübergreifende Projekte bereitzustellen.“ Da die Zeit drängt, sollte jetzt, da grundlegende Konzepte bekannt sind, ein besonderes Augenmerk auf gesellschaftlich relevante Aspekte gelegt werden. „Nur so wird es möglich sein, schließlich auch Handlungsoptionen für politische Entscheidungen und Management-Strategien zu geben.“
Originalpublikation:
Riebesell, U., Gattuso, J.-P. (2015), Lessons learned from ocean acidification research. Reflection on the rapidly growing field of ocean acidification research highlights priorities for future research on the changing ocean. Nature Climate Change 5, 12-14 (2015), doi: 10.1038/nclimate2456
Hintergrund: Ozeanversauerung und das Projekt BIOACID
Die Ozeane nehmen etwa ein Drittel des von Menschen produzierten Kohlendioxids (CO2) auf. So verbleibt eine geringere Menge dieses Klimagases in der Atmosphäre – die globale Erwärmung wird verlangsamt. Doch im Meer reagiert das Kohlendioxid zu Kohlensäure. Das Wasser wird saurer und damit zu einer Gefahr für große und kleine Lebewesen. Im Rahmen des am GEOMAR koordinierten Forschungsverbunds BIOACID (Biological Impacts of Ocean Acidification) untersuchen 14 Institutionen, wie marine Lebensgemeinschaften auf Ozeanversauerung reagieren und welche Konsequenzen dies für das Nahrungsnetz, die Stoff- und Energieumsätze im Meer sowie schließlich auch für Wirtschaft und Gesellschaft hat. Eine Liste der Mitglieds-Institutionen, Informationen zum wissenschaftlichen Programm und den BIOACID-Gremien sowie Fakten zur Ozeanversauerung sind auf der Website www.bioacid.de zu finden.
Bildmaterial:
Unter www.geomar.de/n2228 steht Bildmaterial zum Download bereit. Video-Footage auf Anfrage.
Weitere Informationen:
http://www.bioacid.de BIOACID (Biological Impacts of Ocean Acidification)
http://www.geomar.de/fileadmin/content/service/presse/Pressemitteilungen/2014/Oz… „Ozeanversauerung.
Zusammenfassung für Entscheidungsträger
http://www.iaea.org/ocean-acidification Ocean Acidification International Coordination Centre (OA-ICC)
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.cnrs.fr Centre National de la Recherche Scientifique (CNRS)
Quelle: idw
Biogas: Energiepflanzen-Mix für natürliche Spurenelemente
Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen
In mehr als 3.000 Biogasanlagen in Deutschland funktioniert die Produktion von Biogas nur unter Zugabe industriell hergestellter Spurenelemente. Wissenschaftler der Universität Göttingen sowie des Deutschen Biomasseforschungszentrums (DBFZ) und des Helmholtz-Zentrums für Umweltforschung (UFZ) in Leipzig suchen nun nach pflanzlichen Alternativen.
Biogas: Energiepflanzen-Mix für natürliche Spurenelemente
Bund fördert Verbundprojekt unter der Leitung der Universität Göttingen mit 1,1 Millionen Euro
(pug) In mehr als 3.000 Biogasanlagen in Deutschland funktioniert die Produktion von Biogas nur unter Zugabe industriell hergestellter Spurenelemente. Diese Anlagen werden fast ausschließlich mit Mais betrieben, und Mais ist nicht in der Lage, die für die Biogasbildung notwendigen Spurenelemente wie Kobalt oder Nickel in ausreichender Menge aufzunehmen. Wissenschaftler der Universität Göttingen sowie des Deutschen Biomasseforschungszentrums (DBFZ) und des Helmholtz-Zentrums für Umweltforschung (UFZ) in Leipzig suchen nun nach pflanzlichen Alternativen zu den industriellen Spurenelementen. Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert das Verbundprojekt über die Fachagentur Nachwachsende Rohstoffe e.V. (FNR) drei Jahre lang mit insgesamt rund 1,1 Millionen Euro.
„Die Verwendung industrieller Spurenelemente birgt verschiedene Umweltrisiken, verursacht zusätzliche Kosten und steht im Konflikt mit der Düngemittelverordnung“, erläutert Projektleiter Dr. Benedikt Sauer vom Interdisziplinären Zentrum für Nachhaltige Entwicklung (IZNE) der Universität Göttingen. „Andere Pflanzen sind im Vergleich zum Mais deutlich besser in der Lage, die für die Biogasbildung notwendigen Spurenelemente aufzunehmen.“ Die Wissenschaftler wollen nun im Freilandversuch die entsprechenden Eigenschaften beispielsweise bei Ackerbohne, Amarant oder Wickroggen untersuchen. Im Labor wollen sie testen, inwieweit bestimmte Pflanzenmischungen die künstlichen Zugaben bei der Biogasproduktion ersetzen könnten.
Weitere Untersuchungen beschäftigen sich mit den Fragen, welche Konzentration an Spurenelementen in einem Fermenter zur Biogasbildung nötig ist beziehungsweise ab welcher Konzentration die Spurenelemente hemmend oder sogar toxisch wirken können. Um ihre Ergebnisse in einem möglichen Folgeprojekt auch praktisch testen zu können, begleiten die Forscher bereits in der ersten Projektphase eine Biogasanlage wissenschaftlich. Ziel des Projekts ist eine höhere Biodiversität im Anbau von Energiepflanzen. „Das ist ein wichtiges Argument für die Akzeptanz von Biogasanlagen“, so Dr. Sauer. „Durch die Abkehr von reinen Mais-Monokulturen hin zu einem vielfältigeren Energiepflanzenanbau werden die Nachhaltigkeitsansprüche an die Biogaserzeugung deutlich besser erfüllt.“
Kontaktadresse:
Dr. Benedikt Sauer
Georg-August-Universität Göttingen
Geowissenschaftliches Zentrum
Abteilung Sedimentologie/Umweltgeowissenschaften
Goldschmidtstraße 3, 37077 Göttingen
Telefon (0551) 39-13736
E-Mail: bsauer@gwdg.de
Weitere Informationen:
http://www.uni-goettingen.de/de/473791.html
Quelle: idw
Altbekannter Oxidationsmechanismus auch in der Atmosphäre aktiv – und das mit weitreichenden Folgen
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.
Forscher entschlüsseln Mechanismus der schnellen Bildung von extrem schwer flüchtigen organischen Verbindungen
Leipzig. Dass Kohlenwasserstoffe durch atmosphärischen Sauerstoff oxidiert werden können ist bereits seit 1875 bekannt. Bisher waren diese sogenannten „Autoxidationsprozesse“ jedoch nur in der kondensierten Phase erforscht. Jetzt ist einem internationalen Wissenschaftlerteam unter Beteiligung des Leibniz-Instituts für Troposphärenforschung (TROPOS) erstmals der Nachweis derartiger Prozesse in der Atmosphäre gelungen.
In Laborexperimenten konnte mit Hilfe von neuesten analytischen Techniken der Mechanismus weitestgehend entschlüsselt werden, der dafür sorgt, dass Kohlenwasserstoffe, die aus der Vegetation in die Luft gelangen, auf einer kurzen Zeitskala von Sekunden in organische Produkte mit bis zu 12 Sauerstoff-Atomen umgewandelt werden können. Diese hochoxidierten Produkte stellen extrem schwerflüchtige Verbindungen dar. Da diese das Partikelwachstum entscheidend vorantreiben können, werden so auch die Wolkenbildung und das Klimasystem beeinflusst, schreiben die Wissenschaftler aus Deutschland, Finnland und den USA im Fachjournal Angewandte Chemie. Die neuen Erkenntnisse könnten helfen, die Auswirkungen von natürlichen Emissionen der Vegetation auf das Klima besser zu verstehen.
Wälder geben große Mengen an flüchtigen organischen Verbindungen (VOCs) ab. Dazu gehören beispielsweise Alpha-Pinen und Limonen, der typische Duft von Nadelwäldern. Deren Reaktionsprodukte bilden das sogenannte sekundäre organische Aerosol. Dabei werden Gase zu Partikelbestandteilen umgewandelt. Diese atmosphärischen Partikel können die Sonnenstrahlung reflektieren oder als Keime für Wolkentropfen fungieren. Prozesse, die großen Einfluss auf das Klima haben und daher von großem wissenschaftlichen Interesse sind. Allerdings sind die dazugehörigen Modellrechnungen bisher sehr ungenau, da es noch breite Wissenslücken dabei gibt, welche Rolle die von den Pflanzen abgegebenen Verbindungen für den Prozess der Partikelbildung und -wachstum genau spielen. Solange diese Prozesse aber nur unzureichend verstanden sind, fällt es schwer, genaue Prognosen zu machen. Eine Unsicherheit, die sich auch auf sämtliche Klimamodelle auswirkt.
Große Unsicherheiten bestehen vor allem beim Wachstum von neugebildeten Partikeln hin zu Wolkenkeimen, an denen Wasser kondensiert und dadurch die Wolkenbildung beginnt. Das Partikelwachstum in Größen von etwa zwei bis einhundert Nanometern würde schwerflüchtige organische Dämpfe erfordern, wurde lange spekuliert. Diese extrem schwer flüchtigen organischen Verbindungen – auf Englisch „extremely low-volatility organic compounds (ELVOCs)“ genannt – wurden erst vor kurzem durch Fortschritte in der Messtechnik nachweisbar. Anfang 2014 wurde dieser Nachweis im Fachmagazin NATURE veröffentlicht.
Über mögliche Bildungswege wurde anschließend in der Fachwelt spekuliert. Mit der jetzt veröffentlichten Studie von Wissenschaftlern des TROPOS und der Universität Helsinki in Zusammenarbeit mit amerikanischen Kollegen lösen die Atmosphärenchemiker einen weiteren Teil des Rätsels. Durch Laborversuche im Strömungsrohr des TROPOS sowie Feldmessungen in Melpitz bei Leipzig und im südfinnischen Hyytiäla konnten die Zwischenprodukte auf dem Wege zur Bildung der ELVOCs identifiziert werden. „Unsere Untersuchungen haben gezeigt, dass die häufigsten Monoterpene wie Limonen und Alpha-Pinen innerhalb von Sekunden hochoxidierte RO2-Radikale mit bis zu 12 Sauerstoff-Atomen und nachfolgend die dazugehörigen nichtradikalischen Endprodukte bilden. Der Gesamtprozess in der Atmosphäre verläuft damit ähnlich zu dem bereits lange bekannten Autooxidationsprozess in der kondensierten Phase“, erklärt Dr. Torsten Berndt vom TROPOS. Unter Autooxidation wird in der Chemie ein Prozess verstanden, bei dem Stoffe mit Luftsauerstoff bei Umgebungstemperatur langsam umgewandelt werden. Diese Selbstoxidation sorgt zum Beispiel auch dafür, dass Kunststoffe spröde werden oder Lebensmittel verderben.
„Die Feldmessungen über den Wiesen von Melpitz und im Nadelwald von Hyytiäla in Finnland bestätigen die Laborergebnisse und weisen die Bedeutung der Autooxidation für die Oxidation der Kohlenwasserstoffe in der Atmosphäre nach. Die gebildeten hochoxidierten RO2-Radikale und ihre nichtradikalischen Endprodukte besitzen wahrscheinlich eine sehr geringe Flüchtigkeit. Deshalb sind sie für das Wachstum atmosphärischer Aerosole entscheidend und beeinflussen so die Wechselwirkungen zwischen Aerosol, Wolken und Klima“, unterstreicht Tujia Jokinen von der Universität Helsinki. Die neuen Erkenntnisse werden also helfen, den Beitrag der Vegetation und damit von verschiedenen Landnutzungsformen auf das Klima genauer abzuschätzen. Dadurch können auch die Klimamodelle verbessert werden, die bisher das Wachstum von Partikeln nicht zufriedenstellend beschreiben konnten.
Tilo Arnhold
Publikation:
Jokinen, T., Sipilä, M., Richters, S., Kerminen, V.-M., Paasonen, P., Stratmann, F., Worsnop, D., Kulmala, M., Ehn, M., Herrmann, H. and Berndt, T. (2014): Schnelle Autoxidation bildet hochoxidierte RO2-Radikale in der Atmosphäre (Rapid autoxidation forms highly oxidiced RO2 radicals in the atmosphere). Angewandte Chemie (International Edition). E-pub ahead of print. doi: 10.1002/ange.201408566
http://dx.doi.org/ 10.1002/ange.201408566
Die Untersuchungen wurden gefördert vom der Europäischen Kommission, der Finnischen Akademie und dem Europäischen Forschungsrat ERC (ATMNUCLE).
Weitere Infos:
Dr. Torsten Berndt, Prof. Hartmut Herrmann
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49-341-2717-7032, -7024
http://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere/
http://www.tropos.de/institut/ueber-uns/mitarbeitende/hartmut-herrmann/
und
Tuija Jokinen, Dr. Mikael Kristian Ehn
Universität Helsinki
Tel. +358-294-151698, -151076
https://tuhat.halvi.helsinki.fi/portal/en/persons/tuija-jokinen%28d67c0c24-6d64-…
https://tuhat.halvi.helsinki.fi/portal/en/persons/mikael-kristian-ehn%280f9f7088…
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7060
http://www.tropos.de/aktuelles/pressemitteilungen/
Links:
Forschung zur Partikelneubildung (Nukleation) am TROPOS:
http://www.tropos.de/forschung/atmosphaerische-aerosole/prozessstudien-auf-klein…
Pressemitteilungen zum Thema:
Neue Gasphasenverbindungen bilden organische Partikelbestandteile (Pressemitteilung vom 26.02.2014)
http://www.tropos.de/aktuelles/pressemitteilungen/details/neue-gasphasenverbindu…
Pflanzen bremsen die Klimaerwärmung (Pressemitteilung vom 28.04.2013)
http://www.tropos.de/aktuelles/pressemitteilungen/details/pflanzen-bremsen-die-k…
NATURE: Neues Oxidationsmittel der Atmosphäre entdeckt, das Luftschadstoffe abbaut (Pressemitteilung vom 08.08.2012)
http://www.tropos.de/aktuelles/pressemitteilungen/details/nature-neues-oxidation…
Wolken verändern die chemische Zusammensetzung und die Eigenschaften von Partikeln (Pressemitteilung vom 02.08.2012)
http://www.tropos.de/aktuelles/pressemitteilungen/details/wolken-veraenderen-die…
Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 89 selbständige Forschungseinrichtungen verbindet. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u.a. in Form der WissenschaftsCampi – , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.200 Personen, darunter 8.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.
http://www.leibniz-gemeinschaft.de
Quelle: idw
Beitrag zum Klimaschutz: Forschung an Gasmotoren
Dipl.-Ing. Stefanie Jost-Köstering Pressestelle
Forschungsvereinigung Verbrennungskraftmaschinen e.V.
Gasförmige Kraftstoffe haben das Potenzial, die CO2-Emissionen aus dem Straßenverkehr deutlich abzusenken. Allerdings zeigen Arbeiten der Forschungsvereinigung Verbrennungskraftmaschinen (FVV), dass noch großer Forschungsbedarf besteht. Motor und Kraftstoff sollen künftig besser aufeinander abgestimmt werden.
Wenig Kohlenstoff, viel Wasserstoff – diese molekularen Eigenschaften von Methan, dem Hauptbestandteil von Erdgas, führen zu einer besonders CO2-armen Verbrennung. Wird ein Motor mit Erdgas statt mit Flüssigkraftstoffen betrieben, stößt er rund ein Viertel weniger Kohlendioxid aus. Zudem können Gasmotoren einen wesentlichen Beitrag zur Energiewende leisten: Technisch ist es möglich, dem Erdgas höhere Mengen Wasserstoff beizumischen, der aus überschüssigem Solar- und Windstrom gewonnen werden kann. Doch wie sollen Motoren für den Betrieb mit Erdgas-Wasserstoff-Gemischen ausgelegt werden? Und wie kann verhindert werden, dass unverbranntes Methan in die Erdatmosphäre gelangt?
Grundsätzlich können moderne Verbrennungsmotoren, die auf Erdgasbetrieb ausgelegt sind, mit einem Wasserstoffanteil von rund 30 Prozent betrieben werden. Würde jedoch der Motor nicht an diese Betriebsart angepasst, stiegen die Stickoxidemissionen. Grund dafür ist die hohe Geschwindigkeit der Wasserstoffverbrennung und die erhöhte Flammentemperatur. Eine Anpassung des Motors an das Gasgemisch ist daher dringend erforderlich – und technisch vor allem durch eine Verstellung des Zündzeitpunkts auch möglich. Dies zeigt eine Übersichtsarbeit, die Professor Dr. Georg Wachtmeister von der Technischen Universität München kürzlich abgeschlossen hat. Im Auftrag der FVV hat Wachtmeister die Ergebnisse aus mehr als 250 wissenschaftlichen Veröffentlichungen zusammengetragen. Dabei wurde deutlich, dass noch erheblicher Forschungsbedarf besteht. „In vielen Punkten liegen wissenschaftliche Arbeiten zum motorischen Verhalten von Erdgas-Wasserstoff-Gemischen gar nicht vor“, so Wachtmeister. Als Beispiel nennt er die Abhängigkeit der Verbrennung von der tatsächlichen Gaszusammensetzung. Beispielsweise ist der Heizwert von Erdgas nicht konstant und liegt bei unkonventionellen Gewinnungsmethoden, zum Beispiel durch Fracking, relativ niedrig. Auch Wasserstoff ist als Kraftstoff nicht genormt. „Wir müssen uns darauf einstellen, eine Vielzahl verschiedener Gase zu verbrennen“, sagt Wachtmeister. „Um Motoren darauf optimal einzustellen, fehlt uns noch das notwendige Wissen.“
In einem derzeit noch laufenden Forschungsvorhaben der FVV beschäftigt sich Wachtmeister gemeinsam mit Professor Dr. Friedrich Dinkelacker von der Leibniz Universität Hannover mit dem Methanschlupf von Gasmotoren. Unter „Methanschlupf“ verstehen die Wissenschaftler das Entweichen von nicht verbranntem Gas in die Umwelt. Dies ist besonders kritisch, weil Methan in der Erdatmosphäre als Treibhausgas wirkt – und zwar rund 20-mal stärker als Kohlendioxid. Den Ursachen für Methanschlupf sind die Wissenschaftler auf der Spur. „Es sind überwiegend lokale Effekte, die zum Methanschlupf führen“, erläutert Dinkelacker. Daher wird die Verbrennung im Rahmen des Vorhabens detailliert simuliert. Validiert werden die Ergebnisse durch Experimente an einem 4,8-Liter-Motor. Dabei zeigte sich bereits, dass ein Zielkonflikt zwischen der Minimierung der Kohlendioxidemission und des Methanschlupfes besteht. So führt ein Verbrennungsverfahren, das mit frühem Schließen des Einlassventils arbeitende Miller-Verfahren, zwar zu einer geringeren NOX-Bildung und je nach Auslegung auch zur einem höheren Wirkungsgrad, aber auch zu höheren Anteilen unverbrannten Kraftstoffes. Wenn das Forschungsvorhaben Ende 2015 abgeschlossen ist, wollen die beteiligten Institute Empfehlungen erarbeitet haben, wie solche Zielkonflikte durch die Gestaltung des Brennraums und der Motorsteuerung optimal zu lösen sind.
Ein weiteres von der FVV koordiniertes Forschungsprojekt beschäftigen sich mit den Verbrennungseigenschaften von Flüssiggas (LPG, Liquified Petroleum Gas). LPG besteht im Wesentlichen aus einem Gemisch der Gase Butan und Propan, die sowohl bei der Erdölförderung als auch in Raffinerien als Nebenprodukt anfallen. Wie effizient dieses Gemisch verbrennt, hängt stark vom Propananteil ab. Wissenschaftler der RWTH Aachen und der Hochschule für Wirtschaft und Technik des Saarlandes untersuchen nun gemeinsam, wie sich verschiedene Gasmischungen verhalten, wenn sie in modernen Ottomotoren mit Direkteinspritzung genutzt werden. Die Ergebnisse des Mitte 2015 vorliegenden Vorhabens sollen vor allem dazu dienen, die Einspritzsysteme für Flüssiggas zu optimieren. Gleichzeitig können sie für die anstehende Überarbeitung der europäischen LPG-Kraftstoffnorm genutzt werden.
Weitere Informationen:
http://www.fvv-net.de
Quelle: idw
Was Verbraucher wirklich möchten
André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen
Im Forschungsprojekt „SmartLive“ werden an der Uni Siegen gemeinsam mit den Nutzern Lösungen für ein intelligentes Zuhause entwickelt.
Wenn das Fenster öffnet, geht die Heizung aus. Wenn das Fenster schließt, heizt die Heizung wieder. Genau bis zu der Temperatur, die vorher eingestellt worden ist. Heizung und Fenster werden drahtlos gesteuert, die Einstellung erfolgt über eine App auf dem Smartphone oder dem Tablet. So kann ein „Smart Home“ funktionieren, ein intelligentes Zuhause. Im Forschungsprojekt „SmartLive“ wollen Wissenschaftlerinnen und Wissenschaftler des Instituts für Wirtschaftsinformatik der Universität Siegen und Partner aus der Industrie Lösungen entwickeln, die auf die Bedürfnisse der Nutzer zugeschnitten sind – und zwar mit den Nutzern gemeinsam.
„Wichtig ist das Nutzer-Erlebnis. Wie fühlt sich das intelligente Haus im Alltag an? Wie muss Technik gestaltet sein, die sich gut anfühlt, einfach ist, Spaß macht? Können wir vielleicht auch vollkommen neue Wohnerlebnisse schaffen? Dies sind Fragen, die wir im Labor nie beantworten können. Hier müssen wir raus ins wahre Leben, um sie gemeinsam mit dem Nutzer zu erforschen“, sagt Gunnar Stevens, Junior-Professor am Lehrstuhl Human-Computer-Interaction. Deshalb stehen der Nutzer des Smart Home und seine Wünsche im Mittelpunkt.
Das Forschungsprojekt wird über drei Jahre vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert und hat ein Gesamtbudget von 1,2 Millionen Euro. Gemeinsam mit privaten Haushalten möchte das Projekt-Team Richtlinien entwickeln, die die Gestaltung der neuen Technologie einfacher machen, indem von Anfang an die Meinung und die Erfahrung der Nutzer einbezogen werden. Es geht um Benutzerfreundlichkeit, um Komfort und um Sicherheit.
Beispielsweise bei der Steuerung der Geräte im Haushalt. Ein „Smart Home“ kann Daten liefern, wie viel Strom welches Gerät verbraucht. Doch ob der alte Kühlschrank nun weg muss oder das angelassene Licht im Flur ein Vermögen kostet, erfährt der Nutzer dann, wenn das „Smart Home“ die Daten in Euro umrechnet und die Stromkosten so sichtbar werden. „Der Nutzer soll es leicht haben. Es geht um seine Erfahrungen im Umgang mit der Technik. Basierend auf diesen Erkenntnissen wollen wir Richtlinien entwickeln. Ziel ist ein Baukasten-System“, sagt Corinna Ogonowski, die Projektleiterin. Dieses Baukasten-System können kleine und mittlere Unternehmen (KMU) für die Entwicklung neuer Produkte verwenden.
Privat-Haushalte gesucht
Für „SmartLive“ werden noch Privat-Haushalte aus der Region Siegen-Wittgenstein gesucht, die mitmachen. Die einzigen Voraussetzungen sind ein Smartphone und ein Internet-Anschluss. Wer Interesse hat, kann sich über die Homepage www.praxlabs.de ab sofort anmelden.
Beteiligte
Lehrstuhl Wirtschafsinformatik und Neue Medien, Universität Siegen (Prof. Dr. Volker Wulf)
Lehrstuhl Human-Computer Interaction, Universität Siegen (Jun.-Prof. Dr. Gunnar Stevens)
Devolo AG, Aachen (Dr. Markus Wächter)
ProSyst Software GmbH, Köln (Kai Hackbarth)
the peak lab. GmbH & Co KG, Oldenburg (Jens Läkamp)
ASEW – Arbeitsgemeinschaft für sparsame Energie- und Wasserverwendung im VKU GbR, Köln (Stefan Schulze-Sturm)
Weitere Informationen:
http://www.praxlabs.de
Quelle: idw
Stoßwellen fördern Wundheilung
Robin Jopp Presse- und Öffentlichkeitsarbeit
Klinikum der Ruhr-Universität Bochum – Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Plastische Chirurgen vom Bergmannsheil erhalten DGUV-Forschungsförderung
Wie sich extrakorporale, also außerhalb des Körpers erzeugte Stoßwellen auf die Verbesserung der Wundheilung auswirken, untersuchen Forscher der Universitätsklinik für Plastische Chirurgie und Schwerbrandverletzte (Direktor: Prof. Dr. Marcus Lehnhardt). Die Arbeitsgruppe „Klinische und experimentelle Mikrozirkulation“ unter Leitung von Priv.-Doz. Dr. Ole Goertz erhält jetzt eine Förderung der Deutschen Gesetzlichen Unfallversicherung (DGUV) in Höhe von 24.200 Euro, um die Wirksamkeit des Verfahrens am Patienten zu untersuchen. Zielsetzung ist es, eine effektive Therapie zur Beschleunigung der Heilung schlecht heilender Wunden zu entwickeln.
Hochenergetische Schallwellen
Bei dem neuen Verfahren wirken hochenergetische Schallwellen von außen auf das betroffene Körperareal des Patienten ein. In experimentellen Studien erzielten die Forscher hierbei sehr gute Ergebnisse bezogen auf die Förderung der Gefäßneubildung (Angiogenese) und Wundheilung. Für ihre Forschungsarbeiten wurden Priv.-Doz. Dr. Goertz und sein Team bereits 2013 mit dem Cicatrix-Studienpreis ausgezeichnet. Die Übertragung ihrer Erkenntnisse für die therapeutische Anwendung erfolgt jetzt im Rahmen klinischer Patientenstudien.
Über das Bergmannsheil
Das Berufsgenossenschaftliche Universitätsklinikum Bergmannsheil repräsentiert den Strukturwandel im Ruhrgebiet wie kein anderes Krankenhaus: 1890 als erste Unfallklinik der Welt zur Versorgung von verunglückten Bergleuten gegründet, zählt es heute zu den modernsten und leistungsfähigsten Akutkliniken der Maximalversorgung und gehört zum Universitätsklinikum der Ruhr-Universität Bochum (UK RUB). In 23 Kliniken und Fachabteilungen mit insgesamt 652 Betten werden jährlich rund 22.000 Patienten stationär und 61.000 Patienten ambulant behandelt. Mehr als die Hälfte der Patienten kommen aus dem überregionalen Einzugsbereich.
Das Bergmannsheil gehört zum Klinikverbund der gesetzlichen Unfallversicherung e.V. (KUV). Der KUV besteht aus neun berufsgenossenschaftlichen Akutkliniken, zwei Kliniken für Berufskrankheiten und zwei Unfallbehandlungsstellen, den BG-Kliniken. Mit 12.000 Mitarbeitern und jährlich über 500.000 Patienten ist der KUV einer der größten Klinikverbünde Deutschlands. Weitere Informationen: www.bergmannsheil.de, www.k-uv.de
Weitere Informationen:
Priv.-Doz. Dr. Ole Goertz
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Universitätsklinik für Plastische Chirurgie
und Schwerbrandverletzte, Handchirurgiezentrum
Operatives Referenzzentrum für Gliedmaßentumoren
Bürkle-de-la-Camp-Platz 1
44789 Bochum
Tel.: 0234/302-6841
E-Mail: ole.goertz@bergmannsheil.de
Weitere Informationen:
http://www.bergmannsheil.de – Website des Berufsgenossenschaftlichen Universitätsklinikums Bergmannsheil
http://www.k-uv.de – Website des Klinikverbundes der gesetzlichen Unfallversicherung
Quelle: idw
Intelligente, multifunktionelle Infrastruktursysteme f. die zukunftsfähige Wasserver- u. Entsorgung
Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Um „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung – INIS“ geht es bei der Konferenz zur gleichnamigen BMBF-Fördermaßnahme am 20./21.1.2015 im Bürgerhaus Hamburg-Wilhelmsburg. Herzlich eingeladen sind Interessierte aus Wissenschaft, Praxis, Politik und Verwaltung.
http://www.bmbf.nawam-inis.de/de/veranstaltungen/inis-statuskonferenz-2015
http://www.bmbf.nawam-inis.de/sites/default/files/dokumente/veranstaltungen/inis… (Programm-Flyer)
http://www.difu.de/veranstaltungen/2015-01-20/inis-statuskonferenz.html
Einladung zur INIS-Statuskonferenz 2015 am 20. und 21. Januar 2015 in Hamburg
Im Januar 2015 findet die Statuskonferenz zur BMBF-Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung“ (INIS) im Bürgerhaus Wilhelmsburg in Hamburg statt.
Im Fokus der INIS-Statuskonferenz stehen erste Ergebnisse aus den 13 geförderten Verbundprojekten, die sich seit Mitte 2013 den drängenden Herausforderungen der Siedlungswasserwirtschaft widmen und hierfür neue und angepasste systemübergreifenden Lösungsansätze entwickeln.
Die Statuskonferenz steht allen Interessierten Teilnehmern aus Wissenschaft, Praxis, Politik und Verwaltung offen.
Veranstalter:
Bundesministerium für Bildung und Forschung (BMBF), Deutsches Institut für Urbanistik gGmbH (Difu), Forschungsstelle des Deutschen Vereins des Gas- und Wasserfaches (DVGW) an der Technischen Universität Hamburg-Harburg (TUHH), Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA)
Veranstaltungsort:
Bürgerhaus Wilhelmsburg, Mengestr. 20, 21107 Hamburg
Online-Anmeldung bis zum 9. Januar 2015:
http://www.difu.de/webform/statuskonferenz-zur-bmbf-foerdermassnahme-intelligent…
Kosten:
Die Teilnahmegebühr für externe Gäste beträgt 50 Euro. Für Mitglieder des INIS-Verbunds ist die Teilnahme kostenfrei
Ansprechpartnerin zur Anmeldung:
Katja Kreuziger
Tel.: +49 (0)30 39001 172
kreuziger@difu.de
Ansprechpartnerin zum Programm:
Margarethe Langer
Tel.: +49 (0)40 42878 3914
margarethe.langer@tuhh.de
Weitere Informationen:
http://www.bmbf.nawam-inis.de/de/veranstaltungen/inis-statuskonferenz-2015 Details
http://www.difu.de/veranstaltungen/2015-01-20/inis-statuskonferenz.html
Quelle: idw
Wirbel um Saccharin & Co: Maßvoller Konsum von Süßstoff scheint unbedenklich
Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft
Berlin – Aus Sicht der Deutschen Diabetes Gesellschaft (DDG) gibt es nach wie vor keinen Beleg dafür, dass der maßvolle Gebrauch von Süßstoff dem Menschen schadet und etwa das Risiko für Typ-2-Diabetes erhöht. Die Fachgesellschaft tritt damit Befürchtungen entgegen, die nach Veröffentlichung einer tierexperimentellen Studie in der Fachzeitschrift Nature laut geworden waren. Die Studie hatte für Wirbel gesorgt, weil bei Mäusen nach dem Genuss sehr großer Mengen von Süßstoff der Blutzuckerspiegel angestiegen war.
Um diesen Effekt beim Menschen zu erzeugen, seien unrealistisch hohe Dosierungen erforderlich, betont die DDG. Süßstoff sei als gelegentlicher Zusatz für Getränke oder feste Nahrungsmittel im Rahmen eines ausgewogenen Ernährungsplanes für Menschen mit Diabetes mellitus weiterhin sinnvoll und sollte Zuckeraustauschstoffen wie Fruktose vorgezogen werden. Bemerkenswert sei die Studie vor allem in Hinblick auf eine mögliche Rolle von Darmbakterien bei der Modulation der Glukosetoleranz.
Wissenschaftler aus Israel hatten vor kurzem in Nature über Versuche mit Mäusen berichtet, denen sie elf Wochen lang Wasser gaben, das in hoher Konzentration mit Süßstoff versetzt war. Im Vergleich zu Mäusen, die ungesüßtes oder mit Zucker gesüßtes Wasser erhielten, stiegen bei der Süßstoff-Gruppe die Blutzuckerwerte in Glukosetoleranztests unverhältnismäßig stark an. Eine gestörte Glukosetoleranz gilt als Risikofaktor für die Entwicklung eines Typ-2-Diabetes.
In einem weiteren Experiment testeten die Wissenschaftler, ob sich dieser Effekt auch beim Menschen einstellt. Dazu nahmen sieben Probanden eine Woche lang die erlaubte Höchstdosis des Süßstoffs Saccharin zu sich. Ergebnis: Bei vier Teilnehmern verschlechterten sich die Blutzuckerwerte, bei den drei anderen machte sich keine Veränderung in den Glukosetoleranztests bemerkbar. „Aus diesem Ergebnis abzuleiten, dass der Gebrauch von Süßstoff generell das Diabetes-Risiko erhöht, ist jedoch zum jetzigen Zeitpunkt übertrieben“, betont Professor Dr. med. Jochen Seufert, Leiter der Abteilung Endokrinologie und Diabetologie am Universitätsklinikum Freiburg. „Denn um die in den Studien verwendeten Dosierungen im Rahmen einer normalen Ernährung zu erreichen, müsste man beispielsweise literweise mit Süßstoffen gesüßte Diät-Getränke täglich trinken, und das ist unrealistisch“, so Seufert.
Privatdozent Dr. med. Erhard Siegel, Präsident der DDG, rät daher zu einem maßvollen Umgang mit Süßstoff. „Süßstoff ist nach derzeitigem Erkenntnisstand gesünder als etwa Fruchtzucker, der die Blutfette ungünstig beeinflusst und Fettleber, Übergewicht und Typ-2-Diabetes zu fördern scheint“, erläutert Siegel. Als gelegentlicher Zusatz in Getränken oder festen Nahrungsmitteln sei Süßstoff unbedenklich. „Im Übrigen gilt: Sogar Diabetespatienten können Zucker zu sich nehmen – bis zu 50 Gramm pro Tag“, fügt der DDG-Präsident hinzu.
Wichtig ist aus Sicht der DDG eine weitere Erkenntnis, die die Nature-Studie zu Tage förderte. Denn das Wissenschaftler-Team um Jotham Suez ging in einem zweiten Schritt in Experimenten der Frage nach, auf welche Weise Süßstoff die Blutzuckerwerte beeinflusst. Die Ergebnisse legen nahe, dass Süßstoff die Zusammensetzung der Bakterien im Darm verändert. So begünstigt Süßstoff offenbar das Wachstum von Darmbakterien, die die Aufnahme von Zucker ins Blut steigern und damit den Blutzuckerwert erhöhen, vermuten die Forscher. „Dass Süßstoff unseren Stoffwechsel über Darmbakterien beeinflussen kann, ist eine spannende neue Erkenntnis“, erklärt Seufert. „Möglicherweise können wir ja eines Tages Darmbakterien als therapeutisches Mittel zur Behandlung von Diabetes einsetzen.“
Quelle:
Suez, J. et al. Artificial sweeteners induce glucose intolerance by altering the gut microbiota. Nature 514, 181-186 (2014)
doi:10.1038/nature13793
Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit über 8.700 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaft in Deutschland. Sie unterstutzt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der mehr als sechs Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.
Deutsche Diabetes Gesellschaft
Geschäftsstelle
Reinhardtstr. 31
10117 Berlin
Tel.: 030 3116937-11
Fax: 030 3116937-20
info@ddg.info
Weitere Informationen:
http://www.deutsche-diabetes-gesellschaft.de
Quelle: idw
Vorbereitung für den »Stresstest« im Meer
Stephan Nachtigall Presse und Kommunikation
Technische Universität Braunschweig
Studie zur Gruppierung von Multistressoren in »Nature Climate Change« veröffentlicht
Steigende Temperaturen, saureres Wasser und weniger Nährstoffe – der Klimawandel stellt das ökologische Gleichgewicht der Ozeane vor neue Herausforderungen. Viele dieser Stressfaktoren, die so genannten Stressoren, wirken gleichzeitig auf die Meereslebewesen und können sich sogar gegenseitig verstärken oder abmildern. Bisher wurden die Stressfaktoren zumeist individuell und getrennt voneinander betrachtet. Ein internationales Forscherteam hat nun mit Beteiligung der Geoökologin Sinikka Lennartz einen Ansatz entwickelt, der eine systematische und gemeinsame Untersuchung wichtiger Stressoren ermöglicht.
Ihre Studie wird in der aktuellen Ausgabe der Zeitschrift „Nature Climate Change“ veröffentlicht.
Stressfaktoren: unendliche Kombinationsmöglichkeiten
„Das Leben im Meer wird durch das komplexe Gleichgewicht einer Vielzahl von Faktoren wie Nährstoffen, Temperatur und pH-Wert bestimmt. Verändern sie sich, dann verändert sich auch das gesamte ökologische Gleichgewicht.“ erklärt Sinikka Lennartz, Absolventin der Technischen Universität Braunschweig. Während ihres Masterstudiums der Geoökologie konnte sie im Rahmen eines Auslandsaufenthalts an einer Studie mitarbeiten, die nun in der Zeitschrift „Nature Climate Change“ veröffentlicht wird.
Grundlage der Studie waren Untersuchungen des Phytoplanktons, das die Basis der Nahrungskette im Meer bildet und daher für das ökologische Gleichgewicht besonders wichtig ist. „Phytoplankton wird von vielen verschiedenen Stressoren beeinflusst, die bereits einzeln im Labor und in Feldstudien untersucht werden. Wie wissen aber auch, dass diese sich gegenseitig verstärken oder abschwächen können“, erklärt die junge Geoökologin, und ergänzt: „Zusammen ergeben sie fast unendliche Kombinationsmöglichkeiten, was bisher eine gemeinsame, systematische Betrachtung aller wichtigen Stressoren erschwert hat“.
Klimasimulation und statistische Verfahren
Mit Hilfe von Klimasimulationen und einem statistischen Verfahren gelang es dem Forscherteam mehrere dieser Stressfaktoren zu erfassen und zu gruppieren, um ihre Wirkung als so genannte Multistressoren auf das Phytoplankton besser verstehen und abbilden zu können. „Wir haben nun eine bessere Vorstellung davon, welche Faktoren sich in Zukunft regional gleichzeitig ändern und tatsächlich in Zukunft eine Rolle spielen könnten“, fasst Geoökologin Lennartz zusammen.
Neben dem allgemeinen Temperaturanstieg gäbe es beispielweise auch Multistressoren, die an verschiedenen Orten unterschiedlich stark wirken. So zeigten die wichtigen Nährstoffe Phosphat und Eisen dabei einen gegenläufigen Effekt. Wiederum ändern sich Lichtverhältnisse und Nährstoffe simultan, was eine Änderung der Artenzusammensetzung zur Folge haben könnte, erklärt Sinikka Lennartz.
Wie die Studie außerdem zeigt, sind die untersuchten Multistressoren im gesamten Ozean vorhanden. Es sei anzunehmen, so Lennartz, dass sie nicht nur das Phytoplankton, sondern auch weitere Meereslebewesen beeinflussen. „Um die Folgen des Klimawandels besser abschätzen zu können, sollten sie, zusammen mit der tatsächlichen Artenzusammensetzung in einer bestimmten Region, berücksichtigt werden“, erklärt Lennartz. Die Auswirkungen der Multistressoren könnten nun in Labor- und Feldstudien gezielt weiter untersucht und auf weitere Planktonarten angewendet werden. Damit liefert die Studie Grundlagen für einen „Stresstest“ im Meer unter realen Bedingungen.
Zur Publikation
Philip W. Boyd, Sinikka T. Lennartz, David M. Glover and Scott C. Doney (2014) Biological ramifications of climate-change mediated oceanic multi-stressors. Nature Climate Change (AOP 2014-12-01). DOI: 10.1038/nclimate2441
Sinikka Lennartz studierte bis Ende 2013 im Masterstudiengang Geoökologie und konnte in diesem Rahmen einen Forschungsaufenthalt am Woods Hole Institut of Oceanography nahe Boston absolvieren. Dort arbeitete sie zwei Monate unter der Betreuung von Dr. Scott Doney in der Abteilung Marine Chemie und Geochemie. Gegenwärtig ist sie Doktorandin am GEOMAR Helmholtz-Zentrum für Ozeanforschung in Kiel.
Kontakt
Sinikka Lennartz
Marine Biogeochemistry
GEOMAR Helmholtz-Zentrum für Ozeanforschung
Düsternbrooker Weg 20
24105 Kiel
Tel.: 0431/600-4132
E-Mail: slennartz@geomar.de
http://www.geomar.de
Weitere Informationen:
http://blogs.tu-braunschweig.de/presseinformationen/?p=7706
Quelle: idw
Volkskrankheit Adipositas: Fraunhofer-App unterstützt den Therapieerfolg
Britta Klocke Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Software- und Systemtechnik ISST
Hilfe beim Abnehmen: Am Dortmunder Fraunhofer-Institut für Software- und Systemtechnik ISST haben Forscher eine App entwickelt, die adipösen Patienten bei der Gewichtsreduktion zur Seite steht.
Zu viel Zucker, zu viele Kalorien, zu wenig Bewegung: Die Deutschen werden immer dicker – ein Trend, den die jüngsten Zahlen des Statistischen Bundesamts belegen. Jeder zweite Erwachsene hat demzufolge Übergewicht. In den vergangenen Jahren ist der Anteil Übergewichtiger somit kontinuierlich gestiegen. Auch die Zahl der Menschen, die unter Fettleibigkeit – in der Fachsprache Adipositas genannt – leiden, nimmt Jahr für Jahr zu. Mediziner befürchten deshalb, dass in Zukunft ernährungsbedingte Erkrankungen, wie Diabetes mellitus Typ 2 oder arterielle Hypertonie, hierzulande massiv zunehmen werden. Diese Sorge scheint begründet, wie eine kürzlich von Demografie-Forschern veröffentlichte Studie zeigt. Nach Berechnungen der Experten vom Rostocker Zentrum zur Erforschung des Demografischen Wandels könnte bis 2030 insbesondere die Zahl der adipösen über 50-Jährigen um bis zu 80 Prozent steigen.
Gerade angesichts dieser alarmierenden Zahlen sind effiziente Therapiemethoden gefragt, die Betroffene bei der Gewichtsabnahme unterstützen. Besonders nach einem stationären Klinikaufenthalt fällt es Patienten oft schwer, Ratschläge und neu erlernte Verhaltensweisen auch im Alltag umzusetzen. Das jedoch ist für einen langfristigen Behandlungserfolg unabdingbar.
Adipositas Begleiter: App-nehmen zum Abnehmen
Das Fraunhofer-Institut für Software- und Systemtechnik ISST hat deshalb den Adipositas Begleiter entwickelt – eine Android-basierte App, die Betroffenen als Coach zur Seite steht und ihnen dabei hilft, nach einem stationären Aufenthalt in einer Klinik auch Zuhause erfolgreich weiter Gewicht abzunehmen. Die App vereint nicht nur Lern- und Ratgeberelemente, sondern dient den Patienten zugleich als Tagebuch und Feedbackinstrument. Gleichzeitig bietet sie die Möglichkeit, in Kontakt mit anderen Betroffenen zu treten. So kann der Patient sich unter anderem an wichtige Termine seines Tagesablaufs erinnern lassen, Vitalwerte und subjektive Befindlichkeiten dokumentieren. Zudem kann er sich über die App zum Beispiel auch über Sport- und Selbsthilfekurse in der Region informieren.
Auch die menschliche Betreuung durch Fachpersonal kommt mit dem Adipositas Begleiter nicht zu kurz. Die Besonderheit der App: Sie fungiert nicht nur als Mittler zwischen Patienten und Ärzten, sondern ermöglicht zudem die Verbindung zu telemedizinischen Dienstleistern. Durch diese Funktion können die Patienten jederzeit auch in Kontakt mit einem realen Therapeuten treten und sich medizinisch beraten lassen.
Medizinisch evaluiert
Dass dieses Konzept funktioniert, zeigt die erste Evaluation eines Prototyps des Adipositas-Begleiters: Im Rahmen einer Studie mit der Gelderland-Klinik hat sich die App als erfolgsversprechend in der Behandlung adipöser Patienten erwiesen. Probanden, die an einem speziellen Adipositas-Nachsorge-Programm teilnahmen, erzielten im Vergleich zur Kontrollgruppe eine signifikant höhere Gewichtsabnahme in der Phase nach der Entlassung.
In Zukunft soll die App weiterentwickelt und als Medizinprodukt zertifiziert werden. Interessierten Kliniken, Telemedizin-Dienstleistern und anderen Unternehmen stellt das Fraunhofer ISST die App sowie die benötigte IT-Infrastruktur gerne im Rahmen eines Lizenzvertrags zur Verfügung.
Weitere Informationen:
http://www.isst.fraunhofer.de/de/geschaeftsfelder/it-fuer-die-gesundheitsversorg…
Quelle: idw
Energieeffizienz, die sich rechnet
Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO
Neue Mobile App »ENBUS!« begleitet Hausbesitzer auf dem Weg zum energieeffizienten Gebäude
Der Gebäudesektor verursacht 40 Prozent des Primärenergieverbrauchs in Europa. Hausbesitzer, die über Energieeffizienz nachdenken, sehen sich aber unübersichtlichen und teils widersprüchlichen Informationen ausgesetzt. Im EU-Projekt ENBUS! entwickelt das Fraunhofer IAO eine mobile App für Hausbesitzer. Diese errechnet den konkreten Nutzen energieeffizienter Maßnahmen.
»Ich bin Energiesparer« – der Slogan der 80er Jahre erlebt heute als »Energieeffizienz« ein Revival. Doch allein der Umwelt zuliebe engagieren sich damals wie heute nur wenige. Dabei existieren zahlreiche Produkte und Lösungen, die hohe Einsparpotenziale versprechen. Energieeffiziente Maßnahmen sollen aber nicht nur den Wert eines Hauses nachhaltig steigern, sondern auch den Komfort erhöhen, die Bausubstanz sichern und optisch gefallen. Allen voran aber müssen sich die Maßnahmen finanziell rechnen und ökologisch Sinn machen. Dazu müssen konkrete Zahlen im Vorfeld auf den Tisch.
Um Hauseigentümern Orientierung im Informationsdschungel rund um Energieeffizienz im Gebäude zu bieten, hat das Fraunhofer IAO gemeinsam mit Partnern aus Forschung und Industrie im EU-Projekt ENBUS! eine App entwickelt, die eine neutrale und kostenfreie Nutzenabschätzung erlaubt. Denn die Nutzenabschätzung im Vorfeld einer Sanierung ist nicht nur wichtig, sondern auch schwierig: Bauindustrie und Hersteller energieeffizienter Baustoffe und Geräte bewerben ihre Angebote, beraten aber nicht neutral. Neutrale Fachleute hingegen sind teuer und der Prozess ist aufwendig, das schreckt viele Hausbesitzer ab.
Bei der ENBUS!-App kann der Nutzer ein Gebäudemodell und dessen Standort auswählen. Dafür ermittelt die App modellhafte Energieeinsparungen für eine Vielzahl hinterlegter Produkte und Baustoffe und liefert weitere Hilfestellungen rund um »Energieeffizienz im Gebäude«. »Wir möchten nicht nur zeigen, dass sich Energieeffizienz theoretisch lohnt«, sagt Dr. Thomas Fischer, Projektleiter am Fraunhofer IAO. »Wir zeigen Hausbesitzern den konkreten wirtschaftlichen Nutzen einer Investition auf«. Nur so glaubt Dr. Fischer, wird der Hausbesitzer auf dem Weg zu Energieeffizienz angemessen unterstützt und kann anhand konkreter Zahlen – in Euro und Cent bemessen – Entscheidungen treffen.
Die ENBUS!-App ist derzeit als Prototyp für iPhone und iPad verfügbar. Künftig soll die Software auf andere Plattformen ausgeweitet und inhaltlich umfassend ergänzt werden. Ziel ist eine Lösung, die ein konkretes Gebäude möglichst gut abbildet und dennoch einfach nutzbar ist. Gemäß den Vorgaben des Anwenders macht das System dann umfassende Vorschläge für energieeffiziente Verbesserungen im konkreten Fall.
Kontakt:
Dr. Thomas Fischer
Technologiemanagement
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-2037
thomas.fischer@iao.fraunhofer.de
Weitere Informationen:
http://www.iao.fraunhofer.de/lang-de/geschaeftsfelder/technologie-und-innovation…
http://www.enbus.eu
Quelle: idw
Arbeitsunfähigkeit kostet Deutschland 103 Milliarden Euro – Unfallquote so niedrig wie nie
Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin
Dortmund – Knapp 960.000 Arbeitsunfälle wurden 2013 in Deutschland gemeldet. Damit erreichte die Unfallquote mit 24 je 1.000 Vollarbeiter den niedrigsten Stand seit Bestehen der Bundesrepublik. Auch die Zahl der tödlichen Arbeitsunfälle nahm weiter ab. Mit 606 Todesfällen in 2013 sank die Zahl um rund 10 Prozent seit 2010. Durch Arbeitsunfähigkeit fielen nach Schätzungen der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in 2013 rund 1,6 Millionen Erwerbsjahre aus. Dies führte zu einem Produktionsausfall anhand der Lohnkosten von etwa 59 Milliarden Euro. Durch Verlust an Arbeitsproduktivität verlor die deutsche Volkswirtschaft rund 103 Milliarden Euro an Bruttowertschöpfung.
Diese Zahlen nennt der statistische Bericht zum Stand von Sicherheit und Gesundheit bei der Arbeit (SuGA, früher Unfallverhütungsbericht Arbeit), den die BAuA jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt und der – wie in diesem Jahr – alle vier Jahre in einer ausführlichen Fassung erscheint. Als klassische Indikatoren für die Güte von Sicherheit und Gesundheit bei der Arbeit führt der Bericht die Unfallentwicklung und die Anzahl der Berufserkrankungen auf. Der SuGA zeichnet ein Bild der Entwicklungen im Bereich von Sicherheit und Gesundheit bei der Arbeit in Deutschland und Europa im Zeitraum 2010 bis 2013.
Während die Unfallzahlen sanken, steigt die Zahl der Arbeitsunfähigkeitstage wieder an. Lag sie in 2010 noch bei rund 115 Fällen pro 100 gesetzlich Krankenversicherte, gab es in 2013 fast 126 Fälle pro 100 Versicherte. Dabei änderte sich die Dauer einer Arbeitsunfähigkeit mit durchschnittlich etwa 12 Tagen kaum.
Im Jahr 2013 starben 2.357 Menschen an den Folgen einer Berufskrankheit. Dies bedeutet im Vergleich zum Jahr 2010 eine Abnahme um 152 Fälle. Trotz des Verbotes von Asbest 1993 gehen fast zwei Drittel dieser Todesfälle auf die Einwirkung asbesthaltiger Stäube zurück.
Im Vergleich zum Beginn des Berichtszeitraums (2010) sanken die Rentenzugänge wegen verminderter Erwerbsfähigkeit um etwa drei Prozent. Insgesamt gab es 2013 über 175.000 neue Frührenten. Zugleich nehmen jedoch die Rentenzugänge aufgrund von psychischen und Verhaltensstörungen zu. Betrug der Anteil dieser Diagnosegruppe am gesamten Neuverrentungsgeschehen 2010 noch rund 39 Prozent, lag dieser im Jahr 2013 bei fast 43 Prozent. Alle anderen Diagnosen sind von 2010 auf 2013 absolut und prozentual rückläufig.
Der Bericht erscheint alle vier Jahre in einer ausführlichen Version. Die aktuelle Fassung enthält daher neben den statistischen Kennzahlen zu Arbeitsunfällen, zu Berufskrankheiten, zum Arbeitsunfähigkeitsgeschehen und zu Arbeitsbedingungen einen Überblick über Entwicklungen hinsichtlich der Rahmenbedingungen von Arbeit und Gesundheit im Zeitraum 2010 bis 2013.
So greift der SuGa 2013 neben dem Abschluss der ersten Strategie-Periode der Gemeinsamen Deutschen Arbeitsschutzstrategie (GDA) und der Vorstellung des neuen Strategischen Rahmens der Europäischen Union für Gesundheit und Sicherheit am Arbeitsplatz 2014-2020 auch verschiedene weitere Themen auf. In diesem Zusammenhang befasst sich der Bericht beispielsweise intensiv mit der psychischen Belastung, der arbeitsmedizinischen und sicherheitstechnischen Betreuung oder den Zulassungsverfahren im Rahmen der Chemikalien-Gesetzgebung.
Weitere Themen sind Veränderungen des staatlichen Rechts und des Rechts der Unfallversicherungsträger, Aufgaben, Projekte und Schwerpunkte der Länder und der Unfallversicherungsträger, ausgewählte Maßnahmen anderer Arbeitsschutzakteure und Projekte und Aktionen der Schülerunfallversicherung sowie eine Beschreibung des Schülerunfallgeschehens.
Für den jährlichen Bericht „Sicherheit und Gesundheit bei der Arbeit – Unfallverhütungsbericht Arbeit“ (SuGA) wertet die BAuA Informationen über das Arbeits- und Wegeunfallgeschehen sowie über Berufskrankheiten von allen Trägern der gesetzlichen Unfallversicherung aus. Ebenfalls nutzt die BAuA Informationen des Statistischen Bundesamtes, der Krankenkassen, der Gewerbeaufsicht und der BIBB/BAuA-Erwerbstätigenbefragung, um zum Beispiel die Belastungen und Arbeitsunfähigkeit darzustellen.
Sicherheit und Gesundheit bei der Arbeit 2013 – Unfallverhütungsbericht Arbeit; 1. Auflage; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2014; ISBN 978-3-88261-036-9; 339 Seiten. Eine Version im PDF-Format zu Herunterladen steht unter http://www.baua.de/publikationen.
Weitere Informationen unter http://www.baua.de/suga.
Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 650 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de
Weitere Informationen:
http://www.baua.de/dok/5746626
Direkter Link zum Bericht „Sicherheit und Gesundheit bei der Arbeit 2013 – Unfallverhütungsbericht Arbeit“
Quelle: idw
Wie Bodenmikroben durch den Klimawandel aus dem Takt geraten
Susanne Eichacker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Wissenschaftler des Helmholtz Zentrums München haben gemeinsam mit Kollegen der Technischen Universität München (TUM) und des Karlsruher Instituts für Technologie (KIT) erforscht, wie Bodenmikroorganismen auf klimatische Veränderungen reagieren. Ihr Resultat: Extremwetterereignisse wie lange Trockenperioden und starke Niederschläge beeinflussen die Stoffwechselaktivität von Mikroben stark. Dies kann zu einer Veränderung des Stickstoffhaushalts im Boden führen und, in extremen Fällen, sogar Konzentrationen des Treibhausgases Distickstoffmonoxid in der Atmosphäre erhöhen.
Um den Einfluss des Klimawandels auf Bodenmikroorganismen unter möglichst natürlichen Bedingungen zu beobachten, verpflanzten die Wissenschaftler intakte Jungbuchen von einem kühlen, feuchten Standort, der in etwa den heutigen klimatischen Bedingungen entspricht, an eine südwestlich gelegene, wärmere Stelle. Diese spiegelte Temperatur und Niederschlagsprofile wider, wie sie durch den Klimawandel erwartet werden können. „Bodenart und Nährstoffgehalt blieben erhalten“, erläutert Prof. Dr. Michael Schloter, Leiter der Abteilung Umweltgenomik (EGEN) am Helmholtz Zentrum München. „Außerdem haben wir das Szenario zusätzlich verschärft, indem wir lange Trockenperioden, aber auch starke Regenfälle simulierten“, fügt er hinzu.
Um die Dynamik der Bodenmikroflora zu bestimmen, untersuchten die Forscher Markergene von Mikroorganismen, die typischerweise am Stickstoff-Umsatz beteiligt sind. Sie fanden heraus, dass bereits der Standortwechsel ohne zusätzliche Extremwetterbedingungen zu einer drastischen Veränderung der Stoffwechselaktivität und Zusammensetzung der Mikroorganismen führte. „Unter extremen klimatischen Veränderungen wurden diese Effekte noch deutlicher“, erklärt Dr. Silvia Gschwendtner (EGEN), die die Untersuchungen durchführte. Die Ergebnisse weisen darauf hin, dass die Aktivität der Mikroorganismen, die vor allem an der Denitrifikation beteiligt sind, positiv beeinflusst wird. „Das wirkt sich einerseits auf den Wettbewerb zwischen Pflanzen und Mikroorganismen aus. Andererseits könnte es aber auch zu einer erhöhten Emission des klimarelevanten Treibhausgases Lachgas (Distickstoffmonoxid) führen“, sagt Geschwendtner.
Weitere Informationen
Denitrifikation: Bei der D. wird das im Boden vorliegende, pflanzenverfügbare Nitrat zum gasförmigen Stickstoff und zu Stickoxiden verarbeitet
Original-Publikation:
Gschwendtner, S. et al.(2014)Climate change induces shifts in abundance and activity pattern of bacteria and archaea catalyzing major transformation steps in nitrogen turnover in a soil from a Mid-European beech forest, PLOS ONE, doi: 10.1371/journal.pone.0114278
Link zur Fachpublikation:
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0114278
Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.200 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 34.000 Beschäftigten angehören.http://www.helmholtz-muenchen.de/index.html
Die selbstständige Abteilung Umweltgenomik (EGEN) untersucht die Struktur und Funktion mikrobieller Gemeinschaften im Boden und identifiziert abiotische und biotische Parameter die Abundanz, Diversität und Aktivität der entsprechenden Mikrobiome steuern. Das Ziel ist die genetischen Ressourcen des Bodenmikroflora für eine nachhaltige Biookonomie besser nutzbar zu mache. EGEN gehört dem Department of Environmental Sciences an. http://www.helmholtz-muenchen.de/egen/index.html
Die Technische Universität München (TUM) ist mit rund 500 Professorinnen und Professoren, 10.000 Mitarbeiterinnen und Mitarbeitern und 36.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaft. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Niederlassungen in Brüssel, Kairo, Mumbai, Peking und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel und Carl von Linde geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands.http://www.tum.de/
Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6 000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation. http://www.kit.edu/index.php
Fachlicher Ansprechpartner:
Prof. Dr. Michael Schloter, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187-2304, E-Mail schloter@helmholtz-muenchen.de
Weitere Informationen:
http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…
Quelle: idw
Gesunde Zähne = niedriger Blutdruck. Zahnarztbesuch senkt Herzinfarkt-und Schlaganfallrisiko
Maximilian Broglie Geschäftsstelle
Deutsche Hochdruckliga
Berlin, 2014 – Menschen mit Parodontitis, einer bakteriellen Zahnfleischentzündung, erleiden häufiger einen Herzinfarkt oder Schlaganfall. In einer aktuellen Studie stellten Bluthochdruckforscher nun fest, dass eine Behandlung der Parodontitis auch einen erhöhten Blutdruck wieder absenken kann. Auf der Pressekonferenz anlässlich des 38. wissenschaftlichen Kongresses „Hypertonie und Prävention 2014″ der Deutschen Hochdruckliga e.V.® – Deutsche Gesellschaft für Hypertonie und Prävention (DHL®) am 11. Dezember 2014 in Berlin stellen Experten die Studie vor. Sie erörtern auch, was sich daraus für den Kampf gegen Herz-Kreislauf-Erkrankungen ableiten lässt.
Bei Parodontitis entzündet sich das Zahnfleisch so stark, dass der Zahnhalteapparat Schaden nimmt. Ohne Behandlung lockern sich die Zähne und fallen mitunter sogar aus. Hinzu kommt: Menschen mit Parodontitis leiden häufiger als jene mit gesunden Zähnen an Erkrankungen, die den ganzen Körper betreffen. Dazu gehört neben Diabetes vor allem Bluthochdruck. Noch ist der Zusammenhang zwischen Bluthochdruck und der Zahnfleischerkrankung nicht abschließend ergründet. „Sehr wahrscheinlich sind jedoch dieselben Bakterien, die die Parodontitis auslösen, auch die Ursache für den erhöhten Blutdruck und die vermehrten Herzinfarkte sowie Schlaganfälle“, erläutert Dr. med. Johannes Baulmann, der die Abteilung für Angiologie der Kardiologischen Klinik am Universitätsklinikum Schleswig-Holstein in Lübeck leitet. Die Erreger verteilen sich im ganzen Körper, so der Experte, und damit auch in den Blutgefäßen. „Dort regen sie entzündliche Prozesse an, die Gefäßwände werden fest und irgendwann sogar brüchig.“ Wie elastisch die Gefäße noch sind, können Forscher mittels der Pulswellengeschwindigkeit messen. Diese beschreibt, wie schnell die Druckwelle des Pulses die Arterien durchläuft. Eine hohe Pulswellengeschwindigkeit zeigt an, dass die Gefäße versteift sind – damit steigt das Risiko von Herz-Kreislauf-Erkrankungen. In einer Vorläuferstudie, deren Ergebnis kürzlich in der Fachzeitschrift PLOS One veröffentlicht wurde, erforschte Baulmann gemeinsam mit anderen Medizinern, dass Patienten mit Parodontitis steifere Gefäße haben und einen höheren zentralen Blutdruck.
In der aktuellen Studie gingen sie der Frage nach, ob sich der Bluthochdruck im Umkehrschluss mit besserer Zahngesundheit wieder absenkt. Sie verfolgten dafür die Behandlungsfortschritte von 100 Patienten mit Parodontitis. Nach zwölf Monaten stellten die Forscher fest, dass Patienten mit erfolgreich bekämpfter Zahnfleischentzündung auch elastischere Blutgefäße hatten. Und besonders eindrucksvoll war für sie, dass der zentrale Blutdruck dieser Patienten gesunken war. „Die Studie gibt erste Hinweise darauf, dass mit der Parodontitis-Behandlung Herz-Kreislauf-Erkrankungen und mögliche Folgen wie Herzinfarkt oder Schlaganfall reduziert werden könnten“, so Baulmann. Bei der Pressekonferenz anlässlich des Kongresses „Hypertonie und Prävention 2014″ der Deutschen Hochdruckliga am 11. Dezember um 12.30 Uhr diskutieren Experten die Bedeutung interdisziplinärer Behandlungsmethoden der Hypertonie und welche grundlegende Rolle die Elastizität der Gefäße für unsere Gesundheit spielt.
Quelle:
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0103449
Weitere Informationen:
http://www.hypertonie2014.de
Quelle: idw
Thementisch: Kläranlagen versus Mikroplastik
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Mikroplastik. Die kleinen Kunststoffpartikel stehen in der Kritik, da sie sich, offensichtlich weitestgehend ungehindert, durch den Wasserkreislauf bewegen und so in die Nahrungskette und langfristig auch in den menschlichen Organismus gelangen können – mit noch unbekannten Folgen. Jüngste Schlagzeilen in den Medien titulierten Kläranlagen als überfordert² hinsichtlich deren Eignung, Mikroplastik aus dem Abwasser herauszufiltern. Doch: Wie überfordert sind die Kläranlagen mit Mikroplastik tatsächlich? Hier fehlen gesicherte Erkenntnisse. Am 18. November 2014 wurde bei Fraunhofer UMSICHT zum Thema »Mikroplastik und Kläranlagen« über den Status quo sowie zukünftige Aufgaben diskutiert.
Mit dem Ziel, die Aktivitäten rund um das Thema Mikroplastik weiter voranzutreiben, organisierte Fraunhofer UMSICHT zusammen mit dem Cluster Umwelttechnologien.NRW am 18. November 2014 einen eintägigen Thementisch mit dem Titel »Mikroplastik und Kläranlagen«. Rund 25 Experten, überwiegend aus der Abwasserbranche, nahmen an der Veranstaltung teil.
Bedarf an Forschung
Ralf Bertling von Fraunhofer UMSICHT eröffnete den Thementisch mit einem Übersichtsvortrag zu Mikroplastik sowie der Vorstellung aktueller Aktivitäten des Instituts in diesem Bereich. Bertling stellte in seinem Vortrag den FuE-Ansatz von Fraunhofer UMSICHT heraus. Dieser Ansatz grenzt sich insofern von bisherigen Denkweisen ab, da er das gesamte Mikroplastik-System als eine Prozesskette mit der Kläranlage als zentralem Bestandteil betrachtet.
Seit März 2014 gibt es bei Fraunhofer UMSICHT mit der »AG Mikroplastik« eine interdisziplinär zusammengesetzte Gruppe von Forschern, in der sich verschiedene Kompetenzen gebündelt dem Thema Mikroplastik widmen. »Es gibt Handlungsbedarf«, heißt es unisono in der AG.
Maren Heß vom Landesamt für Natur, Umwelt und Verbraucherschutz NRW (LANUV) begrüßt diese Aktivitäten. Zum einen seien bisher nur wenige Studien zu Mikroplastik veröffentlicht worden, die zudem meist in Zusammenhang mit Salzwasser und nicht mit Süßwasser stehen. Es fehlten beispielsweise detaillierte Informationen zu Ursprung und konkreter Verbreitung, Anzahl, Qualität und Auswirkungen auf die Umwelt. Zum anderen gebe es bisher keine allgemein gültige und wissenschaftlich belastbare Vorgehensweise zur Bestimmung und Bewertung der Mikroplastikproblematik. »Hier herrscht eindeutig Forschungsbedarf. Für die Zurückhaltung der Forschung sind sicherlich auch fehlende finanzielle Mittel verantwortlich«, fügt Ralf Bertling hinzu.
Bereits etablierte Methoden nutzen
Carmen Nickel, Institut für Energie- und Umwelttechnik e.V. (IUTA) in Duisburg, ist Expertin für Nanotechnologie. Hier gibt es bereits entsprechende Analysemethoden. Nickel stellt die Eigenschaften von Nanomaterial und Mikroplastik gegenüber und möchte bereits etablierte Methoden und Erkenntnisse vom einen in den anderen Bereich überführen: »Was können wir aus unseren bisherigen Erfahrungen mit Nanomaterialien für das Thema Mikroplastik lernen?« Etwa, dass eine Abschätzung über die reine Masse des Mikroplastiks im Abwasser nicht unbedingt aussagekräftig sein muss. Die Oberfläche der gleichen Masse an Partikeln vergrößert sich um ein Vielfaches, je kleiner die Partikel sind. Und umso größer die Oberfläche ist, desto mehr Schadstoffe können sich prinzipiell an ihr anlagern.
Burkhard Hagspiel von der Stadtentwässerung und Umweltanalytik Nürnberg (SUN) hingegen hält die Aufregung um das Thema Mikroplastik in Kläranlagen für übertrieben. Hagspiel begründet dies mit den geringen Mengen Mikroplastik, die in behandeltem Abwasser bisher nachgewiesen wurden. Dennoch fordert auch Hagspiel: »Es bedarf umfangreicher Forschung.«
Unter den Teilnehmern des Thementischs waren auch Forscher aus Belgien und Frankreich. Kris De Gussem vom belgischen Kläranlagenbetreiber AQUAFIN referierte zu durchgeführten Mikroplastik-Untersuchungen in einer Kläranlage. Außer am Zulauf und Ablauf wurden auch innerhalb der Kläranlage, hinter Sandfang, Vorklär- und Belebungsbecken, unterschiedliche Mikroplastik-Konzentrationen ermittelt. Hieraus resultierte eine erste Mikroplastik-Bilanz für eine Kläranlage. Auch De Gussem regte eine Vereinheitlichung der Analysemethoden sowie weitere Untersuchungen in Kläranlagen an.
Jürgen Bertling, Abteilungsleiter Werkstoffsysteme bei Fraunhofer UMSICHT, stellt in seinem Vortrag heraus, dass vor allem die Entstehung von Mikroplastik durch Verwitterung von Kunststoffen bislang noch viel zu wenig untersucht ist. Nichtsdestotrotz sieht er vor allem aufgrund der Langlebigkeit von Polymeren (10 000 Jahre und mehr) eine drastische Reduktion des Mikroplastikeintrags als zwingend erforderlich – nicht zuletzt aus einem ästhetisch verstandenen Umweltschutz. Bertling zeigte darüber hinaus, dass die Bestimmung der Mikroplastikmenge in hohem Maße von einer korrekten Ermittlung der Partikelgrößenverteilung abhängig ist. Andernfalls kann die Gefährdung schnell um zwei bis drei Zehnerpotenzen unter- oder überschätzt werden.
Initiative Mikroplastik
Die Veranstaltung wurde von den Teilnehmern als sehr guter Einstieg in weitere zielgerichtete Aktivitäten bewertet. Als ein wichtiges Ziel wurde die Vereinheitlichung der Untersuchungsmethoden formuliert. Außerdem wurde ein Bedarf an weiteren, verlässlichen Daten zu Quantität und Qualität von Mikroplastik in Kläranlagen formuliert. Gemeinsames Fazit ist, dass diese Ziele nur mit weiteren Studien, sprich weiteren Untersuchungen von Mikroplastik in Kläranlagen, zu erreichen sind. Dabei sind vor allem auch verfahrens-, polymer- und partikeltechnische Aspekte stärker als bisher einzubeziehen, um ein umfassendes Bild und Lösungsansätze abzuleiten. Die Fraunhofer-UMSICHT-Teilnehmer schlugen die Gründung einer »Initiative Mikroplastik« vor, welche sich der Klärung der Fragestellungen rund um Mikroplastik widmet. Der Vorschlag stieß auf ein positives Echo, sodass weitere Aktivitäten zu erwarten sind.
²Mikroplastik überfordert Kläranlagen, SPIEGEL ONLINE Wissenschaft, 10/2014
Cluster Umwelttechnologien.NRW
In regionalen und überregionalen Netzwerken (Clustern) kooperieren unterschiedliche Akteure entlang der Wertschöpfungskette, um Synergien zu nutzen und dadurch die Wettbewerbsfähigkeit der einzelnen Partner zu stärken und Wachstumspotenziale zu erhöhen. Für die Umsetzung der NRW-Clusterpolitik im Bereich Umwelttechnologie ist das Ministerium für Klimaschutz, Umwelt, Landwirtschaft, Natur- und Verbraucherschutz des Landes NRW verantwortlich. Das Clustermanagement Umwelttechnologien.NRW setzt sich interdisziplinär aus Wissenschaftlern und Umweltingenieuren unter der Führung der Grontmij GmbH zusammen. Eines der Hauptziele ist es, die Innovationsfähigkeit in NRW weiter auszubauen und eine gemeinsame Identität der Umwelttechnikbranche zu schaffen. Der Cluster Umwelttechnologien.NRW bietet eine landesweite Plattform für die über 3 500 Unternehmen der Umweltwirtschaft in NRW. Das Clustermanagement hat am 19. Mai 2009 seine Arbeit aufgenommen.
AG Mikroplastik
Die AG Mikroplastik, gegründet im März 2014, ist Teil des Formats »Werkstattgespräch«, das von der Ideenfabrik »Zukünftige Produkte« bei Fraunhofer UMSICHT initiiert wurde. Zehn Teilnehmer aus unterschiedlichen Forschungsbereichen widmen sich u. a. den thematischen Schwerpunkten Mikroplastik in der Umwelt und in Wasserkreisläufen, Entfernung und Substitution von Mikroplastik, Zersetzungskinetik von Kunststoffen, biotische Zersetzungsprozesse, Toxizität und Schadstoffanreicherung sowie Mikroplastik und Kläranlagen. »In der AG können wir viele Kompetenzen zusammenführen – von der Werkstoffentwicklung für biologisch abbaubare Mikropartikel über experimentelle Untersuchungen zu Bewegungsmustern von Partikeln in Gewässern und ihrer Abtrennbarkeit aus Abwasserströmen bis hin zur Frage, wie aus Kunststoffverpackungen oder Plastiktüten kleine Mikropartikel entstehen «, erklärt Jürgen Bertling, Initiator der AG.
Quelle: idw
Thermoelektrische Abwärmenutzung: Neues Design spart Material
Fraunhofer IPM, Holger Kock Kommunikation
Fraunhofer-Gesellschaft
Wissenschaftlern am Fraunhofer IPM ist es gelungen, den Materialeinsatz bei der Herstellung thermoelektrischer Module um die Hälfte zu reduzieren – bei gleicher Leistung. Dank des geringeren Materialverbrauchs werden die Module zukünftig deutlich günstiger und auch leichter sein. Fraunhofer IPM stellt das neue Moduldesign auf der »4. Tagung Thermoelektrik« im Dezember vor.
Die Thermoelektrik gehört zu den Zukunftstechnologien für das so genannte »Energy Harvesting«. Dazu zählt z. B. die Nutzung überschüssiger Abwärme: Thermoelektrische Module wandeln dabei Wärme direkt in Strom um und können so zur besseren Energieeffizienz beitragen. Für einen breiten Einsatz der Energiewandler – z. B. im Auto, in Energiesystemen oder Industrieanlagen – müssen die Module deutlich effizienter und preisgünstiger werden. Mit der optimierten Modul-Geometrie ist Fraunhofer IPM der Marktreife nun einen großen Schritt näher gekommen: Bei gleicher Leistung und Effizienz genügt jetzt die Hälfte des üblicherweise eingesetzten thermoelektrischen Materials. Vergleichsmessungen haben gezeigt, dass weitere wichtige Moduleigenschaften wie thermischer Leitwert, Innenwiderstand sowie die Seebeck-Spannung der optimierten Module im Vergleich zu Modulen mit herkömmlicher Geometrie unverändert bleiben.
Forschungsarbeiten auf dem Gebiet der Thermoelektrik konzentrieren sich bis dato vor allem auf die Verbesserung thermoelektrischer Materialien, weniger auf deren Verarbeitung und deren Einsatz in Modulen. Neue Materialien wie Halb-Heusler-Verbindungen, Skutterudite oder Silicide, die vor allem für Anwendungen bei hohen Temperaturen eingesetzt werden, erreichen heute eine deutlich höhere Effizienz als noch vor wenigen Jahren. Dies ist jedoch nur die Grundvoraussetzung für den Einsatz der Thermoelektrik auf breiter Front. Für die meisten Anwendungen sind diese High-Tech-Materialien bisher zu teuer. Hier bedeutet die Materialeinsparung bei der Modulfertigung einen großen Schritt in Richtung Industrialisierung. Gleichzeitig sind die signifikanten Gewichtseinsparungen bei gleichbleibender Leistungsfähigkeit insbesondere für mobile Anwendungen wie im Automobilbereich entscheidend. Und das Designkonzept erlaubt weitere Verbesserungen.
Weitere Informationen:
http://www.ipm.fraunhofer.de/de/gf/energiesysteme-thermoelektrik.html
Thermoelektrische Energiesysteme von Fraunhofer IPM
Quelle: idw
Rohstoffeffizienz-Preis 2014: Neues Textil filtert Wertmetalle aus Industrieabwässern
Für die Entwicklung eines Textils, das in der Lage ist, Wertstoffe aus industriellen Abwässern zu filtern, haben Dr. Klaus Opwis vom Deutschen Textilforschungszentrum Nord-West (DTNW) Krefeld und Frank Grüning vom Institut für Energie- und Umwelttechnik (IUTA) Duisburg am 4. Dezember den Rohstoffeffizienz-Preis 2014 erhalten. Das Bundesministerium für Wirtschaft und Energie (BMWi) und die Deutsche Rohstoffagentur würdigen mit dieser Auszeichnung besondere Beiträge zur Sicherung der Rohstoffversorgung. Das Forscherteam hatte darüber hinaus mit dieser Innovation das Finale in der Bewerbung um den Otto von Guericke-Preis der AiF Arbeitsgemeinschaft industrieller Forschungsvereinigungen erreicht. Der Preis wird einmal im Jahr für herausragende Leistungen der Industriellen Gemeinschaftsforschung (IGF) vergeben und ist mit 5.000 Euro dotiert. Die vorwettbewerbliche IGF wird im Innovationsnetzwerk der AiF und ihrer 100 Forschungsvereinigungen organisiert und vom BMWi mit öffentlichen Mitteln gefördert.
Neben Elektroschrott stellen industrielle Prozess- und Abwässer eine wichtige Wertmetallquelle dar. „Wegen der zu geringen Konzentration war es bisher schwer möglich, diese ‚wertvolle Fracht‘ mit konventionellen Methoden herauszufiltern. Vielfach lohnte sich auch der Aufwand nicht.“, beschreiben die Wissenschaftler die bisherige Situation. Ziel des Forschungsvorhabens war es daher, mittels eines textilen Adsorbermaterials die relevanten Metalle zu isolieren und zurückzugewinnen.
In dem ausgezeichneten IGF-Vorhaben – organisiert von den AiF-Mitgliedern Institut für Energie- und Umwelttechnik (IUTA) und Forschungskuratorium Textil (FKT) – fixierten Opwis und Grüning zunächst Polyelektrolyte an verschiedenen Textilien. Diese Moleküle sind in der Lage, aus bestimmten Lösungen Wertmetalle „herauszufischen“. Mit Hilfe von Polyesterstoff konnten die Forscher – zunächst im Labormaßstab – unterschiedliche Edelmetalle wie Gold, Silber, Platin und Palladium binden. Das Verfahren wurde in einem weiteren Schritt praxistauglich umgesetzt: Es gelang, aus mehreren hundert Litern Abwässer der Leiterplattenindustrie pro Kilogramm Textil 20 Gramm Palladium zurückzugewinnen.
Die Ergebnisse des Forschungsvorhabens lassen viele weitere Anwendungsmöglichkeiten des innovativen Adsorbertextils erkennen. Insbesondere kleinen und mittleren Unternehmen der deutschen Textilindustrie ist es möglich, mit geringem Aufwand ein textiles Spezialprodukt herzustellen und entsprechend zu vermarkten. Für mittelständische Unternehmen der metallverarbeitenden Industrie besteht ein Anreiz, mit Hilfe des Textilmaterials auch aus niedrigkonzentrierten Reststofflösungen hochwertige Metalle zurückzugewinnen, gegebenenfalls sogar dort, wo sich eine Aufbereitung bisher mit konventionellen Methoden nicht lohnte oder unmöglich war. Die mittelstandsgeprägte Branche des Anlagebaus zieht ebenfalls großen Nutzen aus dem IGF-Projekt, beispielsweise durch die Konstruktion stationärer Filtermodule bei industriellen Anwendern.
Ansprechpartner zum Projekt
Deutsches Textilforschungszentrum Nord-West;
Dr. Klaus Opwis, opwis@dtnw.de, Telefon: +49 2151 843 205
Institut für Energie- und Umwelttechnik;
Frank Grüning, gruening@iuta.de, Telefon: +49 2065 418 213
Über die AiF
Die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. ist ein 1954 gegründetes, industriegetragenes Innovationsnetzwerk zur Förderung von Forschung und Entwicklung im Mittelstand. Es verknüpft die Interessen von Wirtschaft, Wissenschaft und Politik. Aufgabe ist es, als Dachverband von 100 branchenspezifischen Forschungsvereinigungen die Volkswirtschaft Deutschlands in ihrer Wettbewerbsfähigkeit nachhaltig zu stärken. Die AiF als gemeinnütziger Verein ist Träger der Industriellen Gemeinschaftsforschung und betreut über die AiF Projekt GmbH und die AiF F∙T∙K GmbH, ihre einhundertprozentigen Tochtergesellschaften, weitere Förderprogramme der öffentlichen Hand. Im Jahr 2013 setzte die AiF rund 490 Millionen Euro an öffentlichen Fördermitteln ein.
Weitere Informationen:
http://www.aif.de
Quelle: idw
Bald Brennstoffe aus Kohlendioxid?
Dr. Renate Hoer Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Effektives Katalysatorsystem für die photokatalytische Reduktion von CO2 zu Kohlenwasserstoffen
Kohlenwasserstoffe sind immer noch unsere bedeutendsten Energieträger, aber müssen sie zwangsläufig aus fossilen Quellen gewonnen werden? Warum nicht den Verbrennungsprozess umkehren und sie aus CO2 aufbauen? Dies ließe sich mit einem durch Sonnenenergie getrieben Verfahren realisieren, sobald geeignete Katalysatoren zur Verfügung stehen. Wissenschaftler aus Japan und China stellen in der Zeitschrift Angewandte Chemie jetzt ein neues, besonders effektives photokatalytisches System vor – vielleicht ein weiterer Schritt auf dem Weg zu CO2-neutralen Kraft- und Brennstoffen.
Verschiedene Katalysatoren für die photokatalytische Reduktion von CO2 wurden bereits entwickelt, z.B. auf der Basis von Strontiumtitanat (SrTiO3, STO) oder Titandioxid (TiO2). Angesichts der speziellen Energieniveaus dieser zwei Halbleitermaterialien schien den Forschern um Jinhua Ye eine Heterostruktur aus beiden Stoffen besonders erfolgversprechend. Die Wissenschaftler vom National Institute for Materials Science (Japan) und dem U-NIMS Joint Research Center der Tianjin University (China) stellten Anordnungen koaxial ausgerichteter STO/TiO2-Nanoröhrchen her. Die Röhrchen bestückten sie gleichmäßig mit Nanopartikeln aus einer Gold-Kupfer-Legierung als Co-Katalysator. Hydrazin-Hydrat (N2H4•H2O) dient als Wasserstoffquelle und sorgt für die notwendige reduzierende Atmosphäre. So gelang es den Forschern, CO2 sehr effizient in CO, Methan (CH4) und weitere Kohlenwasserstoffe umzusetzen.
Bestrahlung mit Sonnenlicht setzt Elektronen in den Halbleiter-Röhrchen frei. Dank der STO/TiO2-Heterostrukturen lässt sich die damit verbundene Ladungstrennung besser aufrecht erhalten als bei den reinen Substanzen. Die Elektronen werden auf die bimetallischen Edelmetall-Nanopartikel übertragen und von dort weiter auf das CO2, das entstehende CO und weitere gasförmige Zwischenprodukte. Die hohe Oberfläche der Röhrenbündel und die Porosität der Wände der Nanoröhrchen sorgen für eine hohe Gasdiffusion und sorgen für einen effektiven Transport der Ladungen. Aufgrund spezieller Legierungseffekte können die Gold-Kupfer-Nanopartikel den Rücktransport photogenerierter Elektronen in den Halbleiter wesentlich effektiver aufhalten als die Reinmetalle. Das Hydrazin-Hydrat liefert den benötigten Wasserstoff, sorgt für einen Elektronen-Nachschub am Katalysator und schafft eine reduzierende Atmosphäre, die die Metall-Nanopartikel über lange Zeit stabilisiert. Wird dagegen Wasser als Wasserstoff-Quelle genutzt, ist eine rasche Deaktivierung des katalytischen Systems zu verzeichnen. Das CO2 wird an den Nanopartikeln zunächst zu CO und dann weiter zu CH4 und anderen Kohlenwasserstoffen reduziert. Bei einem Verhältnis von Gold zu Kupfer von 3:1 in der Legierung ist der Anteil der entstehenden Kohlenwasserstoffe am höchsten.
Angewandte Chemie: Presseinfo 41/2014
Autor:
Jinhua Ye, National Institute for Materials Science (Japan), http://www.nims.go.jp/units/erm/project_1/JYE/yejinhua.htm
Permalink to the original article: http://dx.doi.org/10.1002/ange.201409183
Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.
Weitere Informationen:
http://presse.angewandte.de
Quelle: idw
Blutdrucksenkendes Salz bald auf dem Markt?
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
CEN Nutriment ist ein KMU aus Dijon, dass Untersuchungen und klinische Studien für die Industrie durchführt, die sich heute einer neuen EU-Verordnung zu nährwert- und gesundheitsbezogenen Angaben gegenübersieht. Vor wenigen Monaten hat das KMU einen Vertrag mit dem deutschen Hersteller und Vertreiber von Nahrungsergänzungsmitteln, Han Biotech GmbH, und dem südkoreanischen Hersteller von Blutzuckermessgeräten, Biotech CO. LTD., abgeschlossen. Ziel ist die Entwicklung eines Salzes, das durch die Zugabe von Chitin aus Krabbenschalen weniger blutdrucksteigernd wirkt als herkömmliche Salze.
In einer Studie konnte nachgewiesen werden, dass die Verwendung des modifizierten Salzes, und eine gleichzeitige Verringerung der konsumierten Salzmenge, eine deutliche Senkung des Bluthochdrucks zur Folge hatte.
Die Ergebnisse der Studie wurden in der Fachzeitschrift International Angiology veröffentlicht.
Es wurde ein Antrag auf Zulassung der gesundheitsbezogenen Angaben bei der Europäischen Behörde für Lebensmittelsicherheit (EFSA) eingereicht. Das südkoreanische Unternehmen hat bereits ein internationales Patent für dieses Produkt angemeldet, und in Belgien ist es schon als Nahrungsergänzungsmittel zugelassen. CEN Nutriment und HAN Biotech haben in diesem Sommer einen Vertrag abgeschlossen, in dem sie zu gleichen Teilen ein Drittel des südkoreanischen Unternehmens erwerben.
In einem nächsten Schritt ist der Aufbau einer Produktionsstätte für dieses Salz in Frankreich geplant. In Anbetracht der Tatsache, dass allein in Europa täglich mehrere Hundert Tonnen Salz verkauft werden, wäre ebenfalls ein Forschungszentrum für Salz in Dijon denkbar, begeistert sich der Vorsitzende von CEN Nutriment.
Quelle: BE France 295 – 20/11/2014 – http://www.bulletins-electroniques.com/be_france_295.htm
Übersetzerin: Jana Ulbricht, jana.ulbricht@diplomatie.gouv.fr
Quelle: idw
Wissenschaftlicher Taucheinsatz im Toten Meer: Der Salzsee ist in Gefahr
Madlen Domaschke Pressestelle
Technische Universität Bergakademie Freiberg
Das Tote Meer ist nicht nur besonders salzig, es wird auch immer weniger: Der Was-serspiegel ist in den vergangenen 30 Jahren um 28 Meter gesunken – und das hat Konsequenzen für Mensch und Umwelt. Wissenschaftliche Taucher von der TU Berg-akademie Freiberg waren gemeinsam mit Forschern des Helmholtz-Zentrums für Umweltforschung (UFZ) sowie Mitarbeitern des Unternehmens EvoLogics vor Ort, um Frischwasserzutritte am Seeboden zu finden, die helfen können, das System besser zu verstehen.
Das Ökosystem und die es verändernden Prozesse besser zu verstehen – das war das Ziel des Forschungseinsatzes in Israel. Prof. Broder J. Merkel, Dr. Thomas Pohl und M.Sc. Mandy Hoyer vom Scientific Diving Center (SDC) der TU Bergakademie Freiberg hatten es bei Ih-rem Einsatz im Toten Meer nicht leicht. Wüstenklima, die angespannte politische Situation sowie die extremen Bedingungen im und um das Wasser machten die Arbeit vor Ort zu einer Herausforderung. „Die hohe Dichte des Wassers und der damit verbundene Auftrieb sowie die Aggressivität der Sole stellten zusätzliche Herausforderungen für das Arbeiten unter Wasser dar“, erklärt Prof. Broder J. Merkel. Das Wasser weist Salzgehalte von durchschnittlich 28 Prozent auf – fast zehnmal höher als die der Weltmeere. Ohne ein Zusatzgewicht von etwa 60 Kilogramm (größtenteils in Form von Bleigewichten) pro erwachsenen Taucher ist der Tauchgang nicht möglich. Das Scientific Diving Center der TUBAF bildet Wissenschaftler für wissenschaftliche Einsätze unter Wasser aus; allerdings sei laut Prof. Merkel ein Taucheinsatz unter solch extremen Bedingungen wie im Toten Meer eher die Ausnahme.
Vor Ort wollten die Freiberger Forscher zusammen mit Wissenschaftlern des UFZ und der Firma EvoLogics erkunden, welche Folgen die Absenkung des Wasserspiegels des Toten Meeres auf die Region und insbesondere das Grundwasser in der Region hat. Dies ist auch Ziel des Helmholtz-Verbundprojektes DESERVE (www.deserve-vi.net), in dem Hydrogeologen des Helmholtz-Zentrums für Umweltforschung seit mehreren Jahren die hydrogeochemische und isotopische Zusammensetzung der Grundwässer in Zusammenarbeit mit Mikrobiologen vom IGB Berlin untersuchen. Seit 2012 existiert die Zusammenarbeit der Tau-cher vom SDC mit den Kollegen vom UFZ.
Das Tote Meer ist, entgegen seinem Namen, kein Meer, sondern ein abflussloser See. In der Region herrscht Wüstenklima und so verdunstet permanent Wasser von der Seeoberfläche und der Wasserspiegel sinkt, wenn er nicht durch Zuflüsse ausgeglichen wird. Diese natürlichen Zuflüsse werden durch menschliches Zutun verändert: Wasser aus dem Jordan, dem Hauptzufluss zum Toten Meer, wird abgeleitet und für Bewässerungsmaßnahmen in der Landwirtschaft sowie für Industrie und private Haushalte genutzt. Das Wasser aus dem Toten Meer selbst wird verdampft, um aus den Rückständen Kalium, Brom, Magnesium und Jod sowie als heilend angepriesene Salze zu gewinnen. All das führt in Summe dazu, dass der Seespiegel dramatisch sinkt. Im Vergleich zu 1980 liegt der Wasserspiegel nun nicht mehr nur 400 Meter unter dem Meeresspiegel, sondern heute bei -428 Meter. In den letzten beiden Jahren sank er um ca. drei Meter; Prognosen gehen davon aus, dass das Tote Meer in 50 Jahren verschwunden sein könnte, wenn die Übernutzung der Wasserressourcen weiterhin in diesem Tempo voranschreitet.
Und das hat weitreichende Konsequenzen für Mensch und Umwelt in der Region. Denn das Wasser des Toten Meeres ist hydraulisch mit dem umliegenden Grundwasser verbunden. Sinkt der Seespiegel, wird automatisch auch der Grundwasserspiegel abgesenkt – die ohne-hin schon knappe Ressource Wasser wird noch rarer. Eine weitere Konsequenz sind massive Einbrüche an der Erdoberfläche.
Die wissenschaftlichen Taucher der TU waren nun auf der Suche nach Frischwasserzutritten, die unter Wasser im Küstenbereich in das Tote Meer fließen. Diese kann man aufgrund von Temperatur- und Dichteunterschieden schon an der Seeoberfläche erkennen. Die Wissenschaftler wollen die einströmenden Wässer sowohl quantitativ als auch qualitativ charakterisieren, um zu verstehen, wie der fallende Wasserspiegel das System verändert.
Die genommenen Wasserproben werden nun in Freiberg, Leipzig und Bremen auf Haupt- und Spurenelemente, anorganischen und organischen Kohlenstoffgehalt, Wasserstoff-, Sauerstoff- und Schwefelisotope sowie die DNA von Mikroorganismen untersucht. Denn das Tote Meer ist zwar kein Lebensraum für Fische, aber dennoch keineswegs tot; insbesondere im Bereich der Frischwasserzutritte gibt es Mikroorganismen. Es bleibt also spannend, welche Erkenntnisse die Ergebnisse bringen werden.
Weitere Informationen:
http://tu-freiberg.de/presse/wissenschaftlicher-taucheinsatz-im-toten-meer
Quelle: idw
Antarktis: Wärme kommt aus der Tiefe
Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
– Wissenschaftler belegen steigende Temperaturen auf dem westantarktischen Schelf –
Die Wassertemperaturen auf dem westantarktischen Schelf steigen. Grund dafür ist vor allem warmes Wasser aus größeren Tiefen, das im Zuge globaler Veränderungen jetzt vermehrt auf die flachen Schelfmeere gelangt. Dort könnte es von unten die Gletscherschmelze beschleunigen und noch mehr große Gletscher ins Rutschen bringen. Das zeigen Daten, die Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zusammen mit Kollegen aus Großbritannien, den USA und Japan jetzt in der internationalen Fachzeitschrift Science veröffentlichen.
Das antarktische Eis ist ein gigantischer Wasserspeicher. Auf dem Südkontinent liegt eine durchschnittlich 2100 Meter dicke Eisdecke, die etwa 70 Prozent des weltweiten Süßwassers beinhaltet. Würden diese Wassermassen komplett freigesetzt, könnten sie den Meeresspiegel um über 60 Meter ansteigen lassen. Kein Wunder, dass Wissenschaftler Veränderungen in der Antarktis aufmerksam beobachten. In dem internationalen Wissenschaftsjournal Science veröffentlichen Forscher aus Deutschland, Großbritannien, den USA und Japan jetzt Daten, die nahelegen, dass vor allem in der Westantarktis die Wassertemperaturen auf den flachen Schelfmeeren steigen. „Dort liegen viele große Gletscher. Die erhöhten Temperaturen haben das Abtauen und Abrutschen dieser Gletscher in den letzten Jahrzehnten beschleunigt und es ist nicht abzusehen, dass dieser Trend nachlässt“, sagt der Erstautor der Studie Dr. Sunke Schmidtko vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.
Für ihre Studie haben er und Kollegen von der University of East Anglia, vom California Institute of Technology sowie von der Universität Hokkaido (Japan) alle ozeanographischen Daten aus den Gewässern rund um die Antarktis zwischen 1960 und 2014 ausgewertet, die in öffentlichen Datenbanken verfügbar waren. Diese Daten zeigen, dass schon zu Beginn der Messungen die Wassermassen in den westantarktischen Schelfmeeren etwas wärmer waren, als zum Beispiel im Weddellmeer. Doch der Temperaturunterschied ist nicht konstant. Seit 1960 steigen die Temperaturen in der westantarktischen Amundsensee und der Bellingshausensee weiter an. „Anhand der Daten konnten wir sehen, dass dieser Prozess von außen verstärkt wird“, sagt Dr. Schmidtko.
Entlang des Kontinentalhangs vor den flachen Schelfmeeren befinden sich rund um die Antarktis in größeren Tiefen Wassermassen, die mit 0,5 bis 1,5 Grad Celsius für antarktische Verhältnisse sehr warm sind. „Diese Wassermassen haben sich in der Westantarktis im Laufe der vergangenen 50 Jahre erwärmt. Und sie liegen nicht mehr so tief wie noch vor 50 Jahren“, so Schmidtko. Speziell in der Amundsensee und der Bellingshausen-See schwappen sie mittlerweile verstärkt auf das Schelf und beschleunigen dort den Erwärmungsprozess.
„Genau in diesen Regionen sind schon länger beschleunigte Gletscherschmelzen beobachtet worden. Wir zeigen, dass ozeanische Veränderungen der vergangenen 50 Jahre diesen Prozess wohl maßgeblich verursacht haben. Das vermehrte Eindringen von wärmeren Wassermassen über die Schelfkante wird mit großer Wahrscheinlichkeit diesen Prozess noch verstärken“, erklärt Co-Autorin Professor Karen Heywood von der University of East Anglia, „das hätte dann Auswirkungen auf die Geschwindigkeit des weltweiten Meeresspiegelanstiegs.“
Die Wissenschaftler lenken die Aufmerksamkeit außerdem auf den Anstieg der warmen Wassermassen im südwestlichen Weddellmeer. Dort herrschen noch sehr kalte Temperaturen von weniger als minus 1,5 Grad Celsius auf dem Schelf vor. Ein größeres Abschmelzen der Eisschelfe ist bisher nicht beobachtet worden. Falls der Anstieg der warmen Wassermassen anhält, ist aber zu erwarten, dass es auch dort zu größeren Veränderungen mit dramatischen Folgen für das Filchner- und eventuell auch Rønne-Eisschelf kommt. So würden dann erstmals auch Gletscher von unten anschmelzen, die nicht zur westlichen Antarktis gehören. Auch sie könnten verstärkt abrutschen.
In wie weit die vielfältige Biologie des südlichen Ozeans von den beobachteten Veränderungen beeinflusst wird, ist nicht abschließend geklärt. Die Schelfgebiete sind unter anderem Laichgebiete für den Antarktischen Krill, eine im Südozean weit verbreitete Garnelenart, welche im Antarktischen Nahrungskreislauf eine Schlüsselstellung einnimmt. So haben Forschungsergebnisse gezeigt, dass sich Laich-Zyklen unter wärmeren Bedingungen verändern. Eine abschließende Bewertung der Auswirkungen steht jedoch noch aus.
Die genauen Ursachen für das weitere Erwärmen und Ansteigen der warmen Wassermassen konnten die Autoren noch nicht ausmachen. „Wir vermuten, dass sie mit großräumigen Veränderungen der Windsysteme über der Südhalbkugel zusammenhängen. Aber welche Prozesse im Einzelnen dabei eine Rolle spielen, muss in zukünftigen Studien noch genauer betrachtet werden“, erklärt Dr. Schmidtko.
Originalarbeit:
Schmidtko, S., K. J. Heywood, A. F. Thompson, S. Aokih (2014): Multi-decadal warming of Antarctic Waters. Science, http://dx.doi.org/10.1126/science.1256
Weitere Informationen:
http://www.geomar.de
Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Quelle: idw
Rapsöl verbessert im Vergleich zu Olivenöl die Cholesterin- und Leberwerte übergewichtiger Männer
Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Potsdam-Rehbrücke – Wie eine Pilotstudie unter Leitung des Deutschen Instituts für Ernährungsforschung (DIfE) nun zeigt, verbessert der tägliche Konsum von 50 g Rapsöl im Vergleich zu Olivenöl in einem Untersuchungszeitraum von vier Wochen den Cholesterinspiegel sowie die Leberwerte übergewichtiger Männer. Zudem fand das Team um die Mediziner Michael Kruse und Andreas F. H. Pfeiffer vom DIfE Hinweise darauf, dass die Aufnahme von Rapsöl zwar kurzfristig die Produktion von entzündungsfördernden Botenstoffen im Unterhautfettgewebe stimuliert, jedoch langfristig chronischen Entzündungsreaktionen entgegenwirkt.
Das Wissenschaftlerteam veröffentlichte seine Ergebnisse nun in der Fachzeitschrift Molecular Nutrition and Food Research (M. Kruse et al.: 2014; DOI 10.1002/mnfr.201400446). An der Pilotstudie waren auch Forscher der Universität Hamburg sowie der Friedrich-Schiller-Universität Jena beteiligt.
Zahlreiche Untersuchungen weisen darauf hin, dass Übergewicht (Adipositas) mit chronischen Entzündungen einhergeht, die das Risiko für einen Herzinfarkt oder Schlaganfall erhöhen. Ebenso leiden übergewichtige Menschen häufig unter Fettstoffwechselstörungen, Bluthochdruck und einer Leberverfettung, die zum Beispiel einem Typ-2-Diabetes oder einer schweren Herz-Kreislauf-Erkrankung vorangehen. Verschiedene Studien lassen dabei annehmen, dass ein hoher Verzehr von Olivenöl, wie er im Rahmen einer mediterranen Ernährung üblich ist, diesen Krankheiten vorbeugen kann.
„Da Nordeuropäer Olivenöl nicht in dem hohen Maße verwenden wie Südeuropäer, wollten wir untersuchen, ob sich heimisches Rapsöl als Alternative anbietet, da es besonders reich an einfach- aber auch mehrfach ungesättigten Fettsäuren ist. Bisher fehlen Ernährungsstudien, welche die Wirkung beider Öle direkt miteinander vergleichen“, sagt Erstautor Michael Kruse.
An der Pilotstudie nahmen 18 übergewichtige Männer* im Alter zwischen 39 und 63 Jahren teil, welche die Mediziner nach dem Zufallsprinzip in zwei gleichgroße Gruppen aufteilten. Die Studienteilnehmer erhielten für vier Wochen zu einer ausgewogenen Kost entweder täglich 50 g raffiniertes Rapsöl oder kaltgepresstes Olivenöl (extra virgin), wobei beide Öle in etwa den gleichen Gehalt an Vitamin E und Polyphenolen** aufwiesen. Die Teilnehmer sollten die Öle zum Beispiel in Form von Salatsaucen oder Pesto verzehren.
Nach der vierwöchigen Diätphase hatten die Teilnehmer wie beabsichtigt weder ab- noch zugenommen. Im Vergleich zur Olivenölgruppe senkte sich der LDL-Cholesterinspiegel der Männer, die Rapsöl verzehrten, um etwa 0,45 mmol/L. Ebenso verbesserten sich ihre Leberwerte. Zum Beispiel verminderte sich der Wert für das Enzym Aspartat-Aminotransferase*** um 18 Prozent. Im Nüchternzustand produzierte das Unterhautfettgewebe dieser Männer zudem deutlich weniger entzündungsförderndes Interleukin-6, wobei allerdings der Verzehr einer Testmahlzeit vorübergehend die Synthese dieses Botenstoffs stimulierte.
„Dauerhaft erhöhte Interleukin-6-Spiegel, die oft bei Übergewicht zu beobachten sind, stehen im Verdacht, eine Insulinunempfindlichkeit der Körperzellen und Typ-2-Diabetes zu fördern“, erklärt Kruse. „Deshalb ist es gut, wenn das Fettgewebe nach der vierwöchigen Diätphase deutlich weniger dieses Botenstoffs synthetisierte als vorher.“
„Aus anderen Studien wissen wir zudem, dass durch Muskelaktivität, zum Beispiel durch Sport, der Interleukin-6-Spiegel im Blut vorübergehend bis um das 100-fache ansteigen kann. Gleichzeitig ist bekannt, dass körperliche Aktivität Stoffwechselkrankheiten vorbeugt. Daher vermuten wir, dass der von uns beobachtete akute, aber kurzzeitige Anstieg der Interleukin-6-Synthese eher eine positive, hormetische**** Wirkung hat“, so Pfeiffer, der die Abteilung Klinische Ernährung am DIfE leitet. „Zusammenfassend weisen unsere Ergebnisse darauf hin, dass der tägliche Verzehr von 50 g Rapsöl dazu beitragen kann, bei übergewichtigen Männern die Leber- und Cholesterinwerte zu verbessern. Weitere Studien mit weitaus größeren Probandenzahlen sind jedoch notwendig, um die von uns beobachteten Effekte genauer zu untersuchen.“
Hintergrundinformation:
* Der Body-Mass-Index (BMI) ist eine Maßzahl für die Bewertung des Körpergewichts eines Menschen in Relation zu seiner Körpergröße. Er berechnet sich, indem man das Körpergewicht (gemessen in Kilogramm) durch das Quadrat der Körperlänge (gemessen in Meter) teilt [kg/m2]. Die Teilnehmer der Pilotstudie wiesen einen BMI zwischen 27 und 35 auf. Eine Person mit einem BMI über 25 gilt als übergewichtig, eine mit einem BMI über 30 als adipös (fettsüchtig).
** Polyphenole sind aromatische Verbindungen, die zu den sekundären Pflanzenstoffen gezählt werden. Viele Polyphenole gelten als gesundheitsfördernd.
*** In der Labordiagnostik wird die Aktivität des Enzyms Aspartat-Aminotransferase aus dem Plasma oder dem Serum bestimmt, um abzuklären, ob eine Leber- oder Gallenwegserkrankung vorliegt. Erhöhte Enzym-Werte im Blut sind in der Regel Folge einer Leber- oder Skelettmuskelerkrankung bzw. eines Herzinfarktes. Starke Erhöhungen findet man bei allen entzündlichen Lebererkrankungen sowie bei toxischen Leberschädigungen (z. B. durch Pilzgifte). Unter einer Antibiotika-Therapie sind oft auch bei sonst Gesunden die Aspartat-Aminotransferase-Werte erhöht. Nach Therapieende sinken die Spiegel wieder auf Normalwerte (Quelle: Wikipedia).
**** Hormesis (griech.: „Anregung, Anstoß“, engl.: adaptive response) ist die schon von Paracelsus formulierte Hypothese, dass geringe Dosen schädlicher oder giftiger Substanzen eine positive Wirkung auf den Organismus haben können. Sie wird heute in der Definition weiter gefasst. Bei medizinisch wirksamen Substanzen ist ein solcher dosisabhängiger Umkehreffekt (hormetischer Effekt) gut nachweisbar (Quelle: Wikipedia).
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung. Näheres unter http://www.dzd-ev.de.
Die Leibniz-Gemeinschaft vereint 89 Einrichtungen, die anwendungsbezogene Grundlagenforschung betreiben und wissenschaftliche Infrastruktur bereitstellen. Insgesamt beschäftigen die Leibniz-Einrichtungen rund 17.200 Menschen – darunter 8.200 Wissenschaftlerinnen und Wissenschaftler – bei einem Jahresetat von insgesamt knapp 1,5 Milliarden Euro. Die Leibniz-Gemeinschaft zeichnet sich durch die Vielfalt der in den Einrichtungen bearbeiteten Themen und Disziplinen aus. Die Forschungsmuseen der Leibniz-Gemeinschaft bewahren und erforschen das natürliche und kulturelle Erbe. Darüber hinaus sind sie Schaufenster der Forschung, Orte des Lernens und der Faszination für die Wissenschaft. Näheres unter http://www.leibniz-gemeinschaft.de.
Kontakt:
Dr. Michael Kruse
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 (0)33200 88-2782
E-Mail: michael.kruse@dife.de
Prof. Dr. Andreas F.H. Pfeiffer
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 (0)33200 88-2771
Tel.: +49 (0)30 450514 422
E-Mail: afhp@dife.de
E-Mail: afhp@charite.de
Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=KLE
Informationen zur Abteilung Klinische Ernährung am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)
Quelle: idw
Acht Jahre REACH – positive Bilanz, aber es bleibt viel zu tun
Fachleute aus Wirtschaft, Wissenschaft und Verwaltung diskutieren auf REACH-Kongress
Bundesumweltministerium (BMUB) und Umweltbundesamt (UBA) ziehen nach acht Jahren REACH eine positive Bilanz: „Die EU-Chemikalienverordnung REACH ist ein wichtiger Fortschritt hin zu einem besseren und nachhaltigen Umgang mit Chemikalien – in Europa und global. Gleichzeitig zeigt die Praxis, dass die Verordnung alle Akteure täglich aufs Neue fordert“, sagte UBA-Präsidentin Maria Krautzberger anlässlich der Eröffnung des deutschen REACH-Kongresses in Dessau-Roßlau mit 200 Fachleuten aus Wirtschaft, Wissenschaft und Verwaltung.
Ein wichtiger Schwerpunkt der Arbeit des UBA zu REACH ist, besonders besorgniserregende Substanzen zu identifizieren: „Das ist wissenschaftlich wie organisatorisch außerordentlich komplex. Manchen geht es hier zu langsam, und doch: Die Liste besonders besorgniserregender Substanzen umfasst inzwischen 155, ab Mitte Dezember vermutlich 161 Stoffe. 18 Vorschläge davon gehen auf Arbeiten des Umweltbundesamtes zurück“, sagte Krautzberger. Für die ersten der besonders besorgniserregenden Stoffe ist schon die Zulassungspflicht nach REACH wirksam, unter anderem für vier Phthalate, die wegen ihrer fruchtschädigenden Wirkung gelistet wurden.
Zulassungspflicht bedeutet, dass die Verwendung des Stoffes nur noch erlaubt ist, soweit die betreffende Anwendung von der EU-Kommission nach einem Zulassungsverfahren, in das alle Mitgliedstaaten involviert sind, explizit zugelassen ist. Unternehmen, die zulassungspflichtige Stoffe weiter einsetzen möchten, müssen in einem Zulassungsantrag die sichere Verwendung nachweisen oder zeigen, dass die beantragte Verwendung für die Gesellschaft insgesamt von Vorteil ist. In jedem Fall werden für die Zulassungen Überprüfungsfristen festgelegt, denn langfristig sollen alle zulassungspflichtigen Substanzen ersetzt werden, entweder durch geeignete Alternativstoffe oder mittels Alternativtechnologien, sofern diese wirtschaftlich und technisch tragfähig sind.
Gerade kleine und mittlere Unternehmen fordern beim Zulassungsverfahren mehr Unterstützung durch die Behörden. „Um den Unternehmen eine größere Planungssicherheit zu geben, werden zukünftig die deutschen Behörden frühzeitig über ihre regulatorische Arbeitsplanung informieren. Im Gegenzug erhalten sie dann von den Firmen praktische Informationen zum Einsatz der Chemikalien, die für die Wahl der angemessenen Regelungsinstrumente wichtig sind. Insgesamt soll das Zulassungsverfahren transparenter und die Zulassungschancen für die Antragsteller vorhersehbarer werden“, so Bundesum-weltministerin Barbara Hendricks. In einem Schreiben mehrerer Mitgliedstaaten an die neue Europäische Kommission mit der Forderung nach ambitionierter Fortentwicklung der Chemikalienpolitik, das auch Ministerin Hendricks unterzeichnete, wurde dieses Thema ebenfalls adressiert.
Ein wichtiges Anliegen von REACH ist die Transparenz, etwa über besorgniserregende Stoffe, die auch in Alltagsprodukten wie Textilien, Spielzeugen oder Haushaltsgeräten stecken können. Auf der Grundlage der REACH-Verordnung können sich Verbraucher erkundigen, ob Produkte solche Chemikalien enthalten. Durch ein Webangebot hat das UBA das Verfahren für alle Akteure vereinfacht – unter http://www.reach-info.de kann man eine Anfrage online stellen. Benötigt werden nur der Produktcode und die Kontaktdaten der Anfragenden. Händler, Hersteller und Importeure müssen dann innerhalb von 45 Tagen kostenlos darüber informieren, welche Stoffe der Kandidatenliste in einem Erzeugnis enthalten sind – unabhängig von einem möglichen Kauf.
Webseite REACH-Kongress
http://www.umweltbundesamt.de/themen/chemikalien/chemikalien-reach/reach-kongress-2014-start
Webseite REACH
http://www.reach-info.de/
Quelle: Umweltbundesamt
Energiekabinett bringt keinen energiepolitischen Durchbruch
Zentrale Fragen des zukünftigen Strommarktes bleiben ungelöst / Energieeffizienz-Pläne leider weiter unter Finanzierungsvorbehalt
„Die heutigen Entscheidungen des Bundeskabinetts stellen leider noch keinen echten Durchbruch dar. Die zentralen energiepolitischen Herausforderungen wie insbesondere eine effektive CO2-Minderung in Europa und berechenbare Perspektiven für dringend notwendige Investitionen in einen hochmodernen konventionellen Kraftwerkspark bleiben ungelöst. Unklar bleibt zudem, wie im Rahmen des Aktionsplans Klimaschutz der zusätzliche Minderungsbeitrag der Stromerzeugung in Höhe von 22 Millionen Tonnen CO2 erreicht werden soll. Völlig unzureichend behandelt das Aktionsprogramm auch die schon heute kosteneffizient realisierbaren CO2-Minderungspotenziale der Kraft-Wärme-Kopplung. Das Potenzial eines verstärkten Erdgas-Einsatzes in der Stromerzeugung und in der Wärmeversorgung wird ebenfalls vernachlässigt“, sagte Hildegard Müller, Vorsitzende der BDEW-Hauptgeschäftsführung in Berlin zu den heute im Bundeskabinett verabschiedeten energiepolitischen Maßnahmen.
„Der Dialog über weiterführende Maßnahmen zur Reduktion der CO2-Emissionen in der Energiewirtschaft muss aus unserer Sicht in die zukünftige Diskussion zu den Perspektiven des Strommarktes eingebettet werden. Die Unternehmen brauchen Klarheit über die langfristigen Rahmenbedingungen für den deutschen Kraftwerkspark. Die Energiewirtschaft bekennt sich ausdrücklich zu den klimapolitischen Zielen der Bundesregierung, wenig zielführend sind aber nationale Maßnahmen, die im Bereich Stromerzeugung nur die nationale CO2-Bilanz statistisch verbessern, während die so eingesparten Treibhausgas-Emissionen nicht tatsächlich vermieden, sondern über den europäischen Emissions-Zertifikate-Handel lediglich ins europäische Ausland verlagert werden.
Grundsätzlich positiv bewertet der BDEW die im Nationalen Aktionsplan Energieeffizienz (NAPE) skizzierten Maßnahmen. Es ist allerdings mehr als bedauerlich, dass noch längst nicht alle Finanzierungsfragen geklärt sind. Maßnahmen, die mit zusätzlichen Ausgaben verbunden sind, hat das Kabinett unter einen Finanzierungsvorbehalt gestellt. Auch ist das Volumen der Maßnahmen zu gering. Dass die Bundesregierung endlich das Instrument der steuerlichen Förderung zur energetischen Gebäudesanierung aufgreift, ist zwar positiv. Es stellen sich jedoch nach einer ersten Bewertung noch Fragen an die Ausgestaltung. Auch die Bundesländer sind weiterhin gefordert, ihre Blockadehaltung der vergangenen Jahre zu überwinden.
Zu den positiven Aspekten zählt, dass die Bundesregierung im Bereich Energieeffizienz auf ordnungsrechtliche Zwangsinstrumente weitgehend verzichtet. Der BDEW hat heute zusammen mit anderen Wirtschaftsverbänden eine Vereinbarung zu Energie-Effizienz-Maßnahmen unterzeichnen. Die Energiewirtschaft beweist damit wieder einmal ihre Bereitschaft zu einem konstruktiven Dialog.
Auch im Bereich Erdgas-Mobilität ist es eine längst überfällige Entscheidung, dass die Steuerermäßigung für umweltschonende Erdgasfahrzeuge, die im Koalitionsvertrag angekündigt wurde, über das Jahr 2018 verlängert werden soll. Hierfür hat sich der BDEW immer wieder nachdrücklich eingesetzt. Aber auch hier gilt, dass die Erwähnung in einem Aktionsprogramm nach wie vor keine Realisierung der Maßnahme ist.
Das Kabinett hat heute zudem auch den Evaluierungsbericht zum Stand der Energiewende verabschiedet. Die Bundesregierung unternimmt mit dem Bericht den Versuch, die Vielfalt der Energiewende-Ziele neu zu strukturieren und zu ordnen. Klar benannt werden dort jetzt die politischen Ziele: CO2-Reduzierung, Versorgungssicherheit, Wettbewerbsfähigkeit und Kernenergie-Ausstieg. Der Ausbau der Erneuerbaren Energien und die Energieeffizienz sind nun Kernziele, die helfen sollen, die politischen Ziele zu erreichen. Auch Steuerungsziele werden benannt. Diese klare Ziel-Priorisierung unterstützen wir. Sie muss Ausgangspunkt einer intensiven Debatte über die zukünftige Ausrichtung der Energiepolitik in Deutschland werden.“
Quelle: BDEW
Wie viel Sauerstoff war im Zürich-See?
Dr. Ernst Guggolz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.
Seit den späten 1980er Jahren sinkt der Sauerstoffgehalt in Binnengewässern. Ein neuer Indikator dokumentiert den Gehalt an Sauerstoff im Tiefenwasser der Seen ähnlich der Jahresringe der Bäume. Wie das funktioniert und was das Verhältnis von Mangan zu Eisen in den Seesedimenten über die Umwelt der Vergangenheit aussagt, steht in den „Nachrichten aus der Chemie“.
Umweltverschmutzung und steigende Wassertemperaturen durch den Klimawandel verringern den Sauerstoffgehalt in Gewässern, sodass Organismen darin an Sauerstoffmangel sterben. Um mehr über die Veränderungen der Sauerstoffgehalte in Seen in der Vergangenheit zu erfahren, haben Forscher Mangan- und Eisenverbindungen in den Sedimenten des Zürichsees untersucht.
Sedimente sind wasserhaltige Schlämme am Seegrund, die aus mineralischen und organischen Bestandteilen bestehen. Je nach Jahreszeit verändert sich die Zusammensetzung der Ablagerungen und somit auch deren Farbe. So ist, ähnlich wie bei den Jahresringen eines Baumes, eine Datierung möglich.
Um die Seesedimente im Tiefenwasser auf ihre Zusammensetzung zu untersuchen, entnahmen Wissenschaftler Bohrkerne. Ein Röntgenfluoreszenz-Kernscanner bestimmt anschließend die Mangan- und Eisenprofile im Sediment. Im Labor verglichen die Forscher die Mangan- und Eisenwerte mit den Sauerstoffmessdaten, die im Zürichsee seit dem Jahr 1936 monatlich in verschiedenen Tiefen erfasst und dokumentiert worden sind. Dabei zeigte sich ein Zusammenhang zwischen dem Verhältnis der beiden Metalle und den Trends der Sauerstoffmessdaten. Demnach ist das Verhältnis der Mangan- und Eisenwerte ein Indikator für den Sauerstoffgehalt im Tiefenwasser und damit für die jeweiligen Umweltbedingungen.
Die Geologen und Geochemiker Sebastian Näher, Adrian Gilli, Yvonne Hamann und Carsten Schubert erläutern in den „Nachrichten aus der Chemie“ das Verfahren, Sauerstoff anhand der Sedimente zu bestimmen, dessen Aussagekraft und Anwendung sowie erste Erkenntnisse über die historische Entwicklung des Zürichsees. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.
Nahezu 60.000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte, das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen sowie der große Stellenmarkt.
Weitere Informationen:
http://www.nachrichtenausderchemie.de „Nachrichten aus der Chemie“
Quelle: idw
Welches Umweltproblem hat Vorrang?
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Umweltdebatten sind von kulturellen Aspekten gefärbt. Zu diesem Schluss kommt der Skandinavist Dr. Reinhard Hennig in seiner Dissertation an der Universität Bonn. Er analysierte Beispiele aus der skandinavischen Umweltliteratur von den 1970er Jahren bis heute. Ergebnis: Was überhaupt als Umweltproblem wahrgenommen, wie darüber diskutiert wird und welche Lösungen vorgeschlagen werden, hängt stark vom nationalen Selbstverständnis ab.
Die Umweltbewegung war anfangs vor allem von ökologischen Fragen geprägt: Welche Risiken birgt die Nutzung der Kernkraft? Wie verbreitet ist das Artensterben? Was sind die Ursachen der globalen Erwärmung? „Für diese Fragen war zunächst vor allem naturwissenschaftliches Knowhow gefragt“, sagt der Skandinavist Dr. Reinhard Hennig. „Doch oft beeinflussen auch literarische Texte die Diskussion von Umweltfragen.“ Damit rücken die „environmental humanities“ zunehmend in den Blickpunkt. Dieses interdisziplinäre Forschungsfeld verbindet unter anderem umweltbezogene Literaturwissenschaft („Ecocriticism“), Umweltethik und Umweltgeschichte.
Einen solch umfassenden Ansatz verfolgte Dr. Hennig in seiner Dissertation an der Universität Bonn über umwelt-engagierte Literatur: Der Skandinavist analysierte und verglich Literaturbelege aus Island und Norwegen, die für einzelne Jahrzehnte repräsentativ sind. Die untersuchten Texte reichen zeitlich von Halldór Laxness‘ provokantem Essay „Der Krieg gegen das Land“ (1970) bis zu Jostein Gaarders Klimawandelroman „Anna“ (2013). Die Dissertation wurde von Privatdozent Dr. Thomas Fechner-Smarsly und Prof. Dr. Rudolf Simek betreut.
Island und Norwegen verfolgen gänzlich verschiedene Umweltthemen
Dr. Hennig ging davon aus, dass aufgrund der historischen und kulturellen Nähe von Island und Norwegen Umweltthemen einen ganz ähnlichen literarischen Niederschlag gefunden haben sollten. In seinen Untersuchungen zeigte sich aber, dass das genaue Gegenteil der Fall ist: Was überhaupt als Umweltproblem wahrgenommen, wie darüber diskutiert wird und welche Lösungen vorgeschlagen werden, unterscheiden sich in Island und Norwegen erheblich. Der Skandinavist führt diese verschiedene Wahrnehmung und den Umgang mit Umweltproblemen auf Unterschiede im nationalen Selbstverständnis der beiden skandinavischen Staaten zurück.
Welche umweltbezogenen Fragen wurden in den vergangenen Jahrzehnten diskutiert? Welche Argumente wurden ausgetauscht? „In Island rücken Klimaerwärmung und globales Artensterben in den Hintergrund. Die Debatten konzentrieren sich auf Naturschutzfragen vor Ort – vorrangig zum Bau von Wasserkraftwerken“, fasst Dr. Hennig zusammen. Da das ursprüngliche Pflanzenkleid auf der Insel weitgehend verschwunden ist, würden die Stauseen vor allem als ein Angriff auf die typische Landschaft der Nation gesehen.
Lange Zeit von fremden Mächten bestimmt, wurde Island erst 1918 formal unabhängig. „Die Angst vor einem Verlust der Souveränität ist jedoch nach wie vor groß“, sagt der Forscher. Deshalb werde der Bau von Wasserkraftwerken als Ausverkauf nationaler Interessen gesehen, weil damit Strom für die Aluminiumindustrie internationaler Großkonzerne produziert werden soll. „In der Literatur wird immer wieder ins Feld geführt, dass damit die Unabhängigkeit Islands riskiert werde. Dieser reflexartige Isolationismus verhindert aber zugleich, dass globale ökologische Probleme überhaupt diskutiert werden“, erklärt Dr. Hennig.
In der norwegischen Literatur wird dagegen deutlich, dass sich das Land als humanitär-ökologische Großmacht versteht. „Entwicklungshilfe, internationale Friedensvermittlung, Schutz von Menschenrechten und der Umwelt werden in Norwegen als positive Verkörperungen einer globalen Sonderrolle der eigenen Nation aufgefasst“, führt der Skandinavist aus. Dieses Selbstbild paust sich auch in der Umweltliteratur durch: Die globalen Herausforderungen wie Artensterben und Klimawandel spielen in den Debatten eine große Rolle. Vor diesem Hintergrund wird jedoch die Erdöl- und Erdgasförderung, eine Haupteinnahmequelle Norwegens, kritisiert: „Schließlich führt die Förderung fossiler Brennstoffe zu mehr Treibhausgasen“, erklärt Dr. Hennig. Dies thematisiere zum Beispiel Jostein Gaarder, Autor des berühmten Philosophie-Romans „Sofies Welt“, in seinem literarischen Frontalangriff auf die Erdölwirtschaft.
Praktische Konsequenzen für die Kommunikation
Bislang sei der große Einfluss von nationaler Identität und kulturellen Hintergründen auf Umweltdebatten nicht ausreichend erkannt worden, stellt der Skandinavist der Universität Bonn fest. Die Ergebnisse der Dissertation haben daher auch ganz praktische Konsequenzen: „Sie zeigen, dass die Kommunikation wichtiger Umweltthemen erfolgreicher sein kann, wenn sie kulturell bedingte Unterschiede berücksichtigt“, sagt Dr. Hennig.
Publikation: Reinhard Hennig: Umwelt-engagierte Literatur aus Island und Norwegen. Ein interdisziplinärer Beitrag zu den environmental humanities. Texte und Untersuchungen zur Germanistik und Skandinavistik, Bd. 66, Verlag Peter Lang, 399 S., 74,95 Euro (Print) und 83,30 Euro (eBook)
Quelle: idw
Studie: Gefahr für die Honigbiene durch die Erwärmung des Weltklimas
Kerrin Zielke Stabsstelle für Presse und Kommunikation
Freie Universität Berlin
Wissenschaftler der Freien Universität und der Bundesanstalt für Materialforschung und -prüfung sowie der Martin-Luther-Universität Halle-Wittenberg und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig sehen eine verstärkte Gefährdung der Honigbiene in Europa. Sie fanden heraus, dass die Verbreitung eines asiatischen Honigbienen-Parasiten in Europa durch einen Anstieg der weltweiten Temperaturen begünstigt wird. Dieser Parasit verursacht Nosemose, eine schwere Erkrankung der Honigbiene. Die Ergebnisse der Studie sind in der jüngsten Ausgabe des Fachjournals „Proceedings of the Royal Society B“ (Biological Sciences) veröffentlicht worden.
Wissenschaftler der Freien Universität und der Bundesanstalt für Materialforschung und -prüfung sowie der Martin-Luther-Universität Halle-Wittenberg und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig sehen eine verstärkte Gefährdung der Honigbiene in Europa. Sie fanden heraus, dass die Verbreitung eines asiatischen Honigbienen-Parasiten in Europa durch einen Anstieg der weltweiten Temperaturen begünstigt wird. Dieser Parasit verursacht Nosemose, eine schwere Erkrankung der Honigbiene. Die Ergebnisse der Studie sind in der jüngsten Ausgabe des Fachjournals Proceedings of the Royal Society B (Biological Sciences) veröffentlicht worden.
Ursprünglich in Europa war allein der Honigbienen-Parasit Nosema apis verbreitet, in Asien der Parasit Nosema ceranae. Erst in jüngerer Zeit wurde Nosema ceranae auch in europäischen Bienenvölkern entdeckt; er hat die Tendenz, den ursprünglichen Parasiten zurückzudrängen. „Nicht allein die Widerstandsfähigkeit des neuen Parasiten begünstigt dessen Ausbreitung, auch klimatische Parameter müssen berücksichtigt werden. Der neue Parasit kann sich unter bestimmten Gegebenheiten besser ausbreiten als der einheimische“, sagt Myrsini Natsopoulou von der Martin-Luther-Universität Halle-Wittenberg. Sie leitete die Studie gemeinsam mit Dino McMahon, Professor an der Freien Universität Berlin und der Bundesanstalt für Materialforschung und -prüfung.
Die Wissenschaftler verglichen das Wachstum der Erreger in Honigbienen, die von beiden Parasitenarten befallen waren, also von der asiatischen Variante Nosema ceranae und vom einheimischen Verwandten Nosema apis. Die Experimente zeigten, dass beide Parasiten das Wachstum des anderen hemmten, aber der asiatische Parasit einen größeren negativen Einfluss auf den Konkurrenten hatte. Indem sie die Konkurrenz der Parasiten untereinander mit klimatischen Faktoren in ein mathematisches Modell integrierten, konnten die Wissenschaftler die relative Häufigkeit der beiden Parasitenarten in der Natur prognostizieren. „Der neue Parasit ist anfälliger für Kälte, was vermutlich mit seiner angenommenen Herkunft aus Ostasien zusammenhängt“, erläutert der Mitautor der Studie Robert Paxton, Professor an der Martin-Luther-Universität Halle-Wittenberg und Mitglied des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig. „Angesichts steigender Temperaturen weltweit legen unsere Erkenntnisse nahe, dass sich das Vorkommen des neuen Parasiten weiter ausbreiten wird und dies womöglich zu weiteren Verlusten von Honigbienenvölkern führt.“
Die Studie wurde finanziert durch das Bundesministerium für Ernährung und Landwirtschaft und die UK Insect Pollinators Initiative.
Publikation
Natsopoulou ME, McMahon DP, Doublet V, Bryden J, Paxton RJ. (2015) Interspecific competition in honey bee intracellular gut parasites is asymmetric and favours the spread of an emerging infectious disease. Proceedings of the Royal Society B: Biological Sciences. 20141896. http://dx.doi.org/10.1098/rspb.2014.1896
Weitere Informationen
Prof. Dr. Dino McMahon, Institut für Biologie der Freien Universität Berlin und Bundesanstalt für Materialforschung und -prüfung (BAM), Telefon: 030 / 8104-3837, E-Mail: dino-peter.mcmahon@bam.de
Prof. Dr. Robert Paxton, Institut für Biologie der Martin-Luther-Universität Halle-Wittenberg, Telefon: 0345 / 55-26500, E-Mail: robert.paxton@zoologie.uni-halle.de
Quelle: idw
Zeig‘ mir Deine Zähne: Implantate verbessern die Lebensqualität im Alter
Dipl. Biol. Barbara Ritzert Pro Science Communications
Deutsche Gesellschaft für Implantologie im Zahn-, Mund- und Kieferbereich e. V.
Zähne sind ein „Ausweis“ im Gesicht. Wie Menschen von ihrem Gegenüber beurteilt werden, hängt unter anderem vom Zustand ihrer Zähne ab – auch im höheren Alter. Dies zeigt eine Studie, an der erstmals auch ältere Menschen teilnahmen. „Ältere profitieren jedoch nicht nur aus sozialen, sondern vor allem aus medizinischen Gründen von Zahnimplantaten, wenn die Indikation korrekt gestellt und reversible Versorgungen gewählt werden“, erklärt Prof. Dr. Frauke Müller von der Abteilung für Gerodontologie und Prothetik der Universität Genf auf dem 27. Kongress der Deutschen Gesellschaft für Implantologie.
Die natürlichen Zähne bleiben bei einer steigenden Zahl von Menschen bis ins hohe Alter erhalten. „Da gleichzeitig die Lebenserwartung steigt, wächst die Zahl der Patienten, die erst im höheren oder hohen Alter mit Zahnersatz versorgt werden müssen“, erklärt Prof. Dr. Frauke Müller von der Abteilung für Gerodontologie und Prothetik der Universität Genf. Dabei spielt neben der Wiederherstellung der Funktion auch die mundgesundheitsbezogene Lebensqualität eine Rolle, zu der natürlich soziale Faktoren gehören.
Zeig‘ mir Deine Zähne … Vom Erscheinungsbild der Zähne hängt beispielsweise ab, wie Menschen Sozialstatus und Bildungsgrad eines anderen beurteilen. Das Team um Frauke Müller untersuchte, wie Versuchspersonen verschiedener Altersgruppen ältere Menschen (Mann und Frau) beurteilten, auf deren Foto die Forscher mittels Bildbearbeitung die Zahnsituation verändert hatten. Getestet wurde dabei der Einfluss beschädigter, altersgemäßer und idealer Zähne. In allen Altersgruppen beeinflusste der Zustand des Gebisses das Urteil. Je regelmässiger die Zähne, desto höher wurde der soziale Status der abgebildeten Personen bewertet. Nur das Urteil von über 80-jährigen Testpersonen wurde vom Zustand der Zähne weniger beeinflusst.
Implantate verbessern die Kaueffizienz.
„Kauen hat auf den Körper dieselben postiven Effekte wie Sport; die Herzfrequenz steigt, die Muskulatur wird trainiert, Kognition und Konzentration werden günstig beeinflusst“, sagt Professor Müller – und fügt mit einem Augenzwinkern hinzu: „Kauen ist ein Sport, der auch im Sitzen und beim Fernsehen funktioniert.“ Darum ist der Erhalt der Kaufunktion von großer Bedeutung. „Alte Leute sollten so lange wie es geht feste Nahrung zu sich nehmen und nicht, wie es in vielen Pflegeheimen üblich ist, einfach auf pürrierte Nahrung gesetzt werden“, betont Professor Müller. Mit dem Zahnverlust geht auch oft eine unbemerkte Umstellung der Nahrungsauswahl einher – verzehrt wird vorzugsweise, was einfach zu kauen ist. Alte Menschen brauchen zwar weniger Kalorien, aber qualitativ die selben Nahrungselemente wie jüngere Menschen. Darum nehmen implantatprothetische Versorgungen im hohen und auch sehr hohen Alter inzwischen einen unumstrittenen Platz im Behandlungsspektrum für zahnlose Patienten ein.
Flexible Versorgungen.
Da die Menschen älter werden, muss eine Implantatversorgung jedoch anpassungsfähig sein. „Beim Alterungsprozess, ändert sich nicht nur die Physiologie, sondern auch die Anatomie“, erklärt Frauke Müller. Dann kann sich ein Vorteil der Implantate – ihre lange Haltbarkeit – als Nachteil erweisen. Wenn das Seh- und Tastvermögen sowie die Geschicklichkeit schwinden, fällt die Mundhygiene zunehmend schwerer. Wenn Implantatträger zu Pflegefällen werden, sind die Pflegekräfte ebenfalls oft mit der Mundhygiene überfordert. Dann droht eine Entzündung der Gewebe um Implantate herum, die Periimplantitis. Eine Pflegeanweisung des Zahnarztes an das Heim hilft dem Personal bei der individuellen Mundhygiene.
„Wir brauchen aus all diesen Gründen in der Implantologie reversible Lösungen“, betont die Expertin. „Wenn Patienten eine implantatgetragene Prothese nicht mehr tragen wollen oder können, dann muss das, was wir eingesetzt haben, herausschraubbar sein, dann müssen wir die Implantate „schlafen legen“.
Alte Menschen sollten am Fortschritt teilhaben.
„Viele Ältere könnten eine bessere orale Lebensqualität haben, sie werden aber nicht informiert und oft sogar nicht untersucht“, kritisiert Professor Müller. Schon zwei Implantate können beispielsweise im zahnlosen Unterkiefer einer Prothese festen Halt geben. Ob auch ein Implantat ausreichend sein könnte, ist noch unklar, weil Langzeitergebnisse fehlen.
Die negative Einstellung älterer Menschen gegenüber einer Implantatversorgung hat vor allem mit Informationsdefiziten zu tun. Viele ältere Menschen lehnen besonders den chirurgischen Eingriff ab. In solchen Fällen setzt Frauke Müller auf gute Information: „Wenn wir die Patienten über die modernen minimalinvasiven Techniken und über kürzere und schmalere Implantate aufklären, gehen die Vorbehalte zurück.“
Die Deutsche Gesellschaft für Implantologie im Mund-, Kiefer- und Gesichtsbereich e.V. (DGI) ist mit mehr als 8000 Mitgliedern – Zahnärzten, Oralchirurgen, Mund-, Kiefer- und Gesichtschirurgen – die größte wissenschaftliche Gesellschaft im Bereich der Implantologie in Europa und die größte weltweit. Als einzige implantologische Fachgesellschaft ist sie auch Mitglied der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF). Markenzeichen der DGI ist die enge Kooperation von Praktikern und Hochschullehrern. Deren gemeinsames Ziel ist die schnelle Umsetzung gesicherten Wissens und neuer Erkenntnisse in die Praxis durch ein differenziertes Fortbildungsangebot – zum Nutzen von Patientinnen und Patienten. Mehr Informationen: www.dgi-ev.de
Weitere Informationen:
http://www.dgi-kongress.de
Quelle: idw
Zukunft von Feuerwehren und Katastrophenschutz in Gefahr?
Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)
Die Folgen des demografischen Wandels treffen auch den Zivil- und Katastrophenschutz. Die Alterung der Gesellschaft und schrumpfende Zahlen von Personen in jüngeren und mittleren Jahrgängen machen die Rekrutierung freiwilliger Helferinnen und Helfer schwieriger. Vor diesem Hintergrund hatte die Innenministerkonferenz von Bund und Ländern Teilstudien zu neuen Zielgruppen für Feuerwehren und Hilfsorganisationen in Auftrag gegeben. Das iso-Institut für Sozialforschung und Sozialwirtschaft in Saarbrücken hat nun eine analytische Auswertung dieser Studien vorgelegt und Handlungsempfehlungen zum Erhalt der Leistungsfähigkeit des Zivil- und Katastrophenschutzes entwickelt.
In Deutschland sind ehrenamtliche Helferinnen und Helfer für das Funktionieren von Feuerwehren und Hilfsorganisationen im Brand- oder Katastrophenfall unverzichtbar. Diese Säule des Zivil- und Katastrophenschutzes scheint nun unübersehbare Risse zu bekommen: „Es wird immer schwieriger, in diesem Bereich noch genügend freiwillige Helferinnen und Helfer zu finden, die bereit sind, sich über viele Jahre hinweg zu engagieren“, so die Autoren Dr. Volker Hielscher und Lukas Nock vom iso-Institut. Die Auswertung der Wissenschaftler hat nun gezeigt, dass Frauen, Migrantinnen und Migranten sowie ältere Menschen bei Feuerwehren und Hilfsorganisationen bisher noch unterrepräsentiert sind. Bei der Ansprache neuer Zielgruppen steht der Zivil- und Katastrophenschutz allerdings in Konkurrenz zu anderen Organisationen, etwa aus dem Bereich von Pflege und Betreuung oder aus dem Umweltschutz. Zudem sind zielgruppenbezogene Strategien voraussetzungsvoll, weil sie einer interkulturellen Öffnung und eines funktionierenden Gender-Mainstreamings bei den Organisationen bedürfen.
Die Handlungsempfehlungen der Expertise wurden in der Länder-offenen Arbeitsgruppe „Auswirkungen des Demographischen Wandels auf den Bevölkerungsschutz“ der Innenministerkonferenz intensiv diskutiert. Den Hilfsorganisationen wird neben einer Optimierung der Öffentlichkeitsarbeit empfohlen, die Arbeitspraxis der Organisationen kulturell zu öffnen und auch niedrigschwellige Engagementmöglichkeiten anzubieten. An politische Entscheidungsträger geht die Empfehlung, die Anreize für bürgerschaftliches Engagement weiter zu verbessern und Unternehmen sowie Wirtschaftsverbände stärker in die Belange des bürgerschaftlichen Engagements einzubinden. Zur Sicherung der Zukunftsfähigkeit des Zivil- und Katastrophenschutzes wird zudem die Entwicklung einer langfristigen Strategie angeraten, die die Verantwortlichkeiten zwischen Bund und Ländern klärt und die Arbeitsteilung zwischen den Hilfsorganisationen überprüft, so dass Doppelstrukturen abgebaut und Synergieeffekte gewonnen werden können. Schließlich sollte dabei auch das Verhältnis von ehrenamtlichem Engagement und professionellen Kräften der Hilfsorganisationen zeitgemäß ausbalanciert werden. Die Studie ist als iso-Report Nr. 3 zum kostenfreien Download verfügbar unter www.iso-institut.de
Quelle: idw
Leichter Rückgang der Arbeits- und Wegeunfälle im ersten Halbjahr 2014
Deutlicher Anstieg bei den Schulunfällen
Im ersten Halbjahr 2014 ist die Zahl der meldepflichtigen Arbeitsunfälle nach vorläufigen Angaben abermals leicht um 1,1 Prozent gegenüber dem Vorjahreszeitraum gesunken. Gemeldet wurden insgesamt 430.939 Unfälle bei der Arbeit. Noch deutlicher gingen die meldepflichtigen Wegeunfälle zurück: Ihre Zahl sank um 10,7 Prozent auf 86.881. Hintergrund dieser Entwicklung ist der milde Winter 2013/14. Im Winter zuvor hatte es hingegen viel Schnee und Eis gegeben. Dementsprechend waren die Unfallzahlen in die Höhe geschnellt.
2014 ging auch die Zahl der tödlichen Wegeunfälle zurück. Anders sieht es bei den Arbeitsunfällen aus: 211 endeten tödlich, das sind 14 mehr als im ersten Halbjahr 2013.
Erhöht hat sich die Zahl der meldepflichtigen Schulunfälle. Sie stieg um 9,3 Prozent auf 669.214 Fälle. In der Schüler-Unfallversicherung ist jeder Unfall meldepflichtig, der ärztliche Behandlung nach sich zieht. Die Entwicklung der Schülerunfälle ist möglicherweise darauf zurück zu führen, dass immer mehr Kinder und Jugendliche Ganztagseinrichtungen besuchen. Sie verbringen damit mehr Zeit in Bildungseinrichtungen als zuvor.
Auf den Schulwegen passierten hingegen kaum mehr Unfälle als im Vorjahr. Auch die Zahl der tödlichen Schülerunfälle ging zurück: um 6 auf 20.
Quelle: idw
Neues Risiko Pedelec?
Dipl.-Ing. Mario Steinebach Pressestelle
Technische Universität Chemnitz
Arbeitspsychologen und Sportgerätetechniker der TU Chemnitz führten für die Unfallforschung der Versicherer eine Studie zum natürlichen Fahrverhalten von Fahrrad- und Elektrofahrradfahrern durch
Elektrofahrräder (Pedelecs) liegen im Trend. Allein im Jahr 2013 wurden 410.000 dieser Fahrräder verkauft. Tendenz steigend. Damit ergeben sich neue Herausforderungen für die Verkehrssicherheit. Die Frage, wie sich die potenziell höheren Geschwindigkeiten auf das Fahrverhalten und das Unfallgeschehen auswirken, ist bisher völlig offen. Die Unfallforschung der Versicherer untersuchte daher gemeinsam mit der Professur Allgemeine und Arbeitspsychologie der Technischen Universität Chemnitz die Mobilität, die Geschwindigkeit und die Verkehrssicherheit von Elektroradfahrern im Vergleich zu Fahrradfahrern. Dazu wurden Sensoren und Kameras an den Zweirädern von insgesamt 90 Teilnehmern im Alter von 16 bis 83 Jahren installiert. Davon waren 31 Fahrradfahrer, 49 Pedelec-Fahrer (Motorunterstützung bis 25 km/h) und 10 S-Pedelec-Fahrer (Motorunterstützung bis 45 km/h). Über einen Zeitraum von vier Wochen wurde das natürliche Fahrverhalten der Teilnehmer aufgezeichnet. Zudem wurden mittels Befragungen die subjektiven Erfahrungen der Nutzer erfasst.
Im Ergebnis zeichnet die Studie folgendes Bild: Pedelecs werden gegenwärtig vor allem von älteren Personen gefahren. Pedelecs und Fahrräder werden in ähnlichem Umfang und zu ähnlichen Zwecken eingesetzt. Lediglich bei den S-Pedelec-Fahrern dominieren die Arbeitswege. S-Pedelec-Fahrer erreichen statistisch signifikant höhere Durchschnittsgeschwindigkeiten, als Fahrrad- und Pedelec-Fahrer. Pedelec-Fahrer sind geringfügig schneller unterwegs als Fahrradfahrer. Sie scheinen die Motorunterstützung in erster Linie einzusetzen, um mit geringerem Aufwand Geschwindigkeiten zu erzielen wie sie auch mit herkömmlichen Fahrrädern erreicht werden.
Alle drei Zweiradtypen erleben ähnlich häufig kritische Situationen im Straßenverkehr. Am häufigsten werden für alle drei Zweiradtypen Konflikte im Längsverkehr, Einbiegen-/Kreuzen- oder Abbiege-Konflikte beobachtet. Entsprechend der Exposition ereignen sich die meisten Konflikte mit Pkw, gefolgt von Fußgängern und Fahrrad- bzw. Elektrofahrradfahrern. Dahinter verbergen sich typischerweise Vorfahrtsmissachtungen bzw. Auspark- oder Wendemanöver der Pkw sowie Querungen, das Vorauslaufen oder Entgegenkommen von Fußgängern bzw. anderen Radfahrern. Auch die höhere Durchschnittsgeschwindigkeit von S-Pedelec-Fahrern führt zu keiner Häufung von kritischen Situationen. Das Konfliktgeschehen von Pedelec- und S-Pedelec-Fahrern entspricht damit dem klassischen Radunfallgeschehen.
Der Vergleich von Fahrräder und Elektrofahrrädern zeigte, dass Elektrofahrräder per se keinem erhöhten oder anders gelagertem Sicherheitsrisiko als Fahrräder unterliegen. Die potenziell höheren Geschwindigkeiten werden vor allem von S-Pedelec-Fahrern realisiert, während für Pedelec-Fahrer der erhöhte Komfort im Mittelpunkt steht. Die rechtliche Einordnung von Pedelec als Fahrrad und von S-Pedelec als Kleinkraftrad erscheint vor dem Hintergrund der Ergebnisse gerechtfertigt. Aufgrund der höheren Durchschnittsgeschwindigkeit von S-Pedelec-Fahrern ist zu empfehlen, dass diese auch weiterhin nur auf der Fahrbahn zugelassen sind und einer Helm- und Versicherungspflicht unterliegen. Es ist durchaus möglich, dass S-Pedelec-Fahrer zwar nicht häufiger in Unfälle verwickelt sind, aber dann schwerer verletzt werden. Erste Ergebnisse aus der Schweiz legen diesen Schluss nahe.
Die stärkere Variation der Geschwindigkeit von Pedelec-Fahrern im Vergleich zu Fahrradfahrern in Verbindung mit ihrer zunehmenden Verbreitung stellt besondere Anforderungen an die Dimensionierung der Radinfrastruktur. Sie sollte so ausgestaltet sein, dass sichere Überholvorgänge von Zweiradfahrern untereinander möglich sind. Da ein Teil der S-Pedelec-Fahrer immer noch die Radinfrastruktur statt der Fahrbahn nutzt, ist hier verstärkt Aufklärung zu betreiben.
Weitere Informationen:
https://www.tu-chemnitz.de/hsw/psychologie/professuren/allpsy1/verkehr/ncs.php
Kontakt:
Dipl. Psych. Katja Schleinitz, Telefon 0371 531-39161, E-Mail katja.schleinitz@psychologie.tu-chemnitz.de, Dr. Tina Gehlert, Unfallforschung der Versicherer, E-Mail t.gehlert@gdv.de
(Quelle: Unfallforschung der Versicherer, www.udv.de)
Quelle: idw
Rotweinbestandteil Resveratrol wirkt entzündungshemmend
Oliver Kreft Stabsstelle Kommunikation und Presse
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Der in Rotwein vorkommende Naturstoff Resveratrol hemmt die Bildung von Entzündungsfaktoren, die Herz-Kreislauf-Erkrankungen auslösen. Das fand eine Forschergruppe um Juniorprofessorin Dr. Andrea Pautz und Univ. Prof. Dr. Hartmut Kleinert vom Institut für Pharmakologie der Universitätsmedizin Mainz in Kooperation mit Wissenschaftlern der Universität Jena und der Universität Wien heraus. Die Forschungsergebnisse wurden im Wissenschaftsmagazin Nucleic Acids Research publiziert.
Trotz fettreichem Essen findet sich in Frankreich eine geringere Herzerkrankungsrate als in Deutschland. Das sogenannte „French paradox“ wird dem Rotweingenuss der Franzosen zugeschrieben. Dieses Phänomen gab in der Vergangenheit Anlass zu verschiedenen Studien.
In diversen Forschungsprojekten ließ sich bereits zeigen, dass der in Rotwein enthaltene Naturstoff Resveratrol eine schützende Wirkung gegen Herz-Kreislauf-Erkrankungen hat. Doch wie genau sind die Wirkzusammenhänge? Zumindest ein Teil der schützenden Wirkung ist durch die Hemmung der Bildung von Entzündungsfaktoren durch Resveratrol zu erklären. Dieser Nachweis gelang nun einem Forscherteam um Juniorprofessorin Andrea Pautz und Professor Hartmut Kleinert, beide vom Institut für Pharmakologie der Universitätsmedizin Mainz, in einer gemeinsamen Forschungsarbeit mit Professor Oliver Werz von der Universität Jena und Professorin Verena Dirsch von der Universität Wien. Konkret fanden die Wissenschaftler heraus, dass der Naturstoff an das Regulatorprotein KSRP bindet und es dabei aktiviert. KSRP verringert die Stabilität der Boten-RNA (mRNA) für eine Vielzahl von entzündlichen Mediatoren und hemmt so deren Bildung.
„Wir wissen jetzt genauer, wie Resveratrol die Bildung von Entzündungsfaktoren hemmt, die Herz-Kreislauf-Erkrankungen auslösen. Das ist eine wichtige Entdeckung vor dem Hintergrund, dass neuere Forschungen belegen, dass Herzkreislauferkrankungen sehr stark durch Entzündungsprozesse im Körper vorangetrieben werden“, sagt Juniorprofessorin Dr. Andrea Pautz. Herz-Kreislauf-Erkrankungen wie Herzinfarkt und Schlaganfall treten so gehäuft bei chronisch entzündlichen Erkrankungen (wie dem Rheuma) auf. Der Naturstoff Resveratrol hat also insbesondere bei entzündlichen Erkrankungen, die mit einer starken Schädigung des Herz-Kreislauf-Systems einhergehen, ein großes therapeutisches Potential.
Originalpublikation:
Andrea Pautz, Hartmut Kleinert (beide Universitätsmedizin Mainz), Oliver Werz (Universität Jena), Verena Dirsch (Universität Wien) et al. Resveratrol post-transcriptionally regulates pro-inflammatory gene expression via regulation of KSRP RNA binding activity, Nucleic Acids Research, Nucl. Acids Res. (2014) doi: 10.1093/nar/gku1033
Kontakt:
Univ. Prof. Dr. Hartmut Kleinert, Komm. Direktor des Instituts für Pharmakologie, Universitätsmedizin Mainz, Tel. 06131 17 9150, Fax 06131 17 9043, E-Mail: kleinert@uni-mainz.de
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.300 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.500 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein
Quelle: idw
Frühwarnsystem für Deiche besteht Praxistest
Dr. Norbert Aschenbrenner Corporate Communications, Corporate Technology
Siemens AG
Sensoren und eine intelligente Auswertung ihrer Daten können Schäden an Deichen frühzeitig erkennen und so auch größere Abschnitte absichern. Die von Siemens entwickelte Technologie hat ihren Praxistest bestanden: Derzeit ist eine Kette von Sensoren auf einer Länge von fünf Kilometern an einem Deich in Amsterdam installiert und liefert permanent Informationen über dessen Zustand. Nach Abschätzungen von Experten könnte das automatische Deichmonitoring die Instandhaltungskosten um zehn bis maximal 20 Prozent senken.
Deichschutz bekommt angesichts steigender Meeresspiegel und zunehmender Stürme weltweit zunehmende Bedeutung. Mehr als zwei Drittel der Städte in Europa setzen sich bereits jetzt damit auseinander, wie sie sich vor Hochwasser schützen -am Meer und an Flüssen. Nach Angaben des Rückversicherers Munich Re machten Überschwemmungen 2013 knapp 40 Prozent der weltweiten Gesamtschäden aus Naturkatastrophen aus.
Zustandsinformationen in Echtzeit
Waternet Amsterdam, Pilotkunde des Deichmonitorings und Betreiber des örtlichen Trink- und Abwassernetzes und des Deichschutzes, ist verantwortlich für mehr als 1.000 Deichkilometer im Großraum Amsterdam. Auf den 700 Quadratkilometern Land dahinter leben mehr als eine Million Menschen. Je nach Material des Deiches wurden diese bisher alle fünf bis 30 Jahre gewartet. Ob Sand, Lehm, Torf oder Erde – die Stabilität musste in regelmäßigen Intervallen gemessen werden. Alle paar Jahre machten Experten eine Begehung und versenkten Messgeräte im Boden.
Heute sind die Informationen in Echtzeit auf dem Smartphone verfügbar. Um die Batterien zu schonen, kommen die Zustandsmeldungen einmal pro Stunde und im Gefahrenfall im Minutentakt. Erhoben werden die Daten von Sensoren, die etwa alle 100 Meter im Deich versenkt und über und unter der Oberfläche von Wasserläufen installiert werden. Sie messen Temperatur, Druck und Feuchtigkeit im Deich, Wasserstand und Wassertemperatur im Kanal und senden die Ergebnisse via GPRS-Mobilfunk an eine Zentrale, wo die Daten aufbereitet und mit Langzeitwerten abgeglichen werden.
Wärmerer Deich bedeutet eindringendes Wasser
Wenn beispielsweise plötzlich 14 Grad Innentemperatur im Deich gemessen werden, könnte das ein Hinweis sein, dass ein Bruch droht, weil wärmeres Wasser von außen eingedrungen sein muss. Das Grundwasser, und damit normalerweise das Innere des Deichs, hat etwa acht Grad. Das System gleicht die Echtzeitdaten mit gespeicherten Langzeitmessungen ab. Wie hoch ist der Grundwasserpegel? Wie viel Niederschlag fällt normalerweise zu dieser Jahreszeit an dieser Stelle? Herrschte zuvor eine Trockenperiode, kann der Deich also Wasser aufnehmen oder ist er schon gesättigt? Auch das Material des Deichs spielt eine Rolle, weil es Aussagen erlaubt, wie wahrscheinlich ein Abrutschen des Hangs ist.
Die neuronalen Netze unterscheiden zwischen typischen Schwankungen und untypischen Abweichungen und schlagen erst dann Alarm – oft Wochen oder Monate im Voraus. Die Software kann sogar bei gleichen Voraussetzungen exakte Schlüsse ziehen für jene Deichabschnitte, in denen keine Sensoren stecken.
Pressebild:
http://www.siemens.com/press/de/pressebilder/innovationnews/2014/im2014110138cod…
Weitere Informationen:
http://www.siemens.de/innovationnews
Quelle: idw
Bislang kein Hinweis auf Botox-Bakterien in niedersächsischen Biogasanlagen
Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Aktuelle Ergebnisse aus einen Forschungsprojekt des Thünen-Instituts für Biodiversität
Landwirtschaftliche Biogasanlagen vergären organische Reststoffe und pflanzliche Biomasse zu Methan, das als Energiequelle genutzt wird. Der Gärungsprozess wird durch das Zusammenwirken einer komplexen Mikroorganismen-Gemeinschaft verursacht, die typischerweise viele Clostridien enthält. In der Gruppe der Clostridien gibt es neben vielen harmlosen Arten auch einige, die im Zusammenhang mit Vergiftungen und Krankheiten bei Mensch und Tier stehen.
Ob niedersächsische Biogasanlagen mit ihren typischen Substraten (Gülle, Silage, Hühnertrockenkot) auch problematische Clostridien enthält, vor allem den Produzenten des gefährlichen Botulinum-Toxins („Botox“), Clostridium botulinum, und ob sich diese vermehren können, untersucht eine Arbeitsgruppe am Thünen-Institut für Biodiversität in Braunschweig in Zusammenarbeit mit der Hochschule für Angewandte Wissenschaft und Kunst (HAWK), Fakultät Ressourcenmanagement (Göttingen). Die Arbeiten werden durch das Niedersächsische Landwirtschaftsministerium gefördert.
Die Thünen-Forschergruppe unter der Leitung von Prof. Dr. Christoph Tebbe setzt für ihre Untersuchungen neuartige molekulare Methoden ein. Sie sequenziert einzelne Abschnitte der Erbsubstanz (DNA), um so Hinweise auf das Vorkommen von C. botulinum zu erhalten. Der einzig gültige Beweis, ob C. botulinum vorhanden ist, muss allerdings im Mäuse-Test erfolgen, denn nur im lebenden Tier kann die Wirksamkeit bewiesen werden. „Dank unseres molekularen Verfahrens können Mäuse-Tests für die Untersuchung von Umweltproben extrem eingeschränkt werden“, so Tebbe.
Bisher wurden in dem Projekt eine halbe Millionen Gene aus den Substraten, Fermentern und Nachgärern untersucht. Tatsächlich fanden sich Gene, die auf C. botulinum hinweisen, wenn auch nur in sehr niedriger Häufigkeit: Je nach Probe zwischen 0,003 bis 0,18 % aller Clostridien. Gene für das Botulinum-Toxin konnten dabei nicht nachgewiesen werden. Auch die Mäusetest mit ausgewählten verdächtigen Proben, durchgeführt von einem zertifizierten Labor, gaben Entwarnung: Alle getesteten Proben waren für Mäuse nicht giftig. Tebbe: „Der molekulare Nachweis zeigt, dass es eng verwandte Bakterien von C. botulinum gibt, die keine Botulinum-Toxine bilden können“.
Noch steht die Analyse weiterer 50 Millionen Gene aus; das Projekt soll bis Ende 2014 abgeschlossen sein. Bis heute weist jedoch kein einziges Ergebnis des gesamten Projekts darauf hin, dass sich Toxin-bildende C. botulinum Bakterien oder andere problematische Clostridien in einer Biogasanlage vermehren und so eine Gefahr für die Gesundheit von Mensch und Tier darstellen können.
Ansprechpartner:
Prof. Dr. Christoph Tebbe
Thünen-Institut für Biodiversität, Braunschweig
Tel.: 0531 596-2553, E-Mail: christoph.tebbe@ti.bund.de
Quelle: idw
Mehr Methan aus der Tiefe des Meeres: Schlammvulkane als Quelle des Treibhausgases Methan
Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie
Der Schlammvulkan Haakon Mosby in der Barentssee vor Norwegen stößt jährlich mehrere hundert Tonnen des Treibhausgases Methan aus. Ein Forscherteam unter der Leitung des Bremer Max-Planck-Instituts berichtet jetzt über seine Langzeitbeobachtungen in der Zeitschrift NATURE Communications. Über 431 Tage lang sammelten sie Temperatur-, Druck- und pH-Daten und dokumentierten mit einer Unterwasserkamera 25 Ausbrüche von Schlamm und Gas. Vier dieser Ausbrüche waren so gewaltig, dass sie die Unterwasserlandschaft drastisch veränderten. Anhand ihrer Daten berechneten die Wissenschaftler, dass aus dem Schlammvulkan ungefähr 10-mal mehr Gas austritt als bislang angenommen.
An Land sind Tausende dieser Schlammvulkane bekannt; und auch im Ozean, zwischen 200 und 4000 Meter Wassertiefe, werden immer mehr solcher methanspeienden Strukturen gefunden. So der Haakon Mosby Schlammvulkan vor Norwegen. Wissenschaftler schätzten bislang, dass Unterwasservulkane jährlich 27 Millionen Tonnen zum weltweiten Methanausstoß beitragen, das sind mehr als 5% der insgesamt 500 Millionen Tonnen. Doch könnte der Anteil auch noch höher liegen, da nicht alle Kontinentalränder vermessen sind und es keine Dauerbeobachtungsstationen im Meer gibt.
Der innere Rhythmus der Schlammvulkane
Strömen Gas und Schlamm kontinuierlich aus oder gibt es einen chaotischen Rhythmus, ähnlich wie bei einem Schluckauf? Ist es ein Fließgleichgewicht, das nur manchmal durch Eruptionen gestört wird? Im Fließgleichgewicht ändern sich die einzelnen Ströme nicht. Gas steigt kontinuierlich von unten aus dem Schlot auf, ein bestimmter Teil davon geht in die Wassersäule über, der Rest wird durch mikrobielle Prozesse im Meeresboden inaktiviert. So ein Fließgleichgewicht können Forscher mit Sensoren gut erfassen, mit mathematischen Formeln beschreiben und Prognosen aufstellen. Eruptionen finden aber nur selten statt – um sie in der Tiefsee zu beobachten, brauchen Meeresforscher dauerhafte Observatorien. Ein solches haben die Wissenschaftler um Dirk de Beer entwickelt.
Ein biologischer Filter aus Mikroorganismen inaktiviert das Methan
Man weiß, dass ein Großteil des Methans nicht in die Atmosphäre gelangt, denn besondere methanfressende Mikroorganismen wandeln das Treibhausgas schon im Meeresboden zu Karbonat um, sofern sie ausreichende Konzentrationen an Oxidationsmittel wie Sulfat finden. Diese Mikroorganismen sind sehr langsam, denn ihre Generationszeit beträgt 3-6 Monate. Doch was passiert, wenn sie durch Eruptionen und Umwälzungen des Meeresbodens gestört würden?
Störung des Fließgleichgewichts
Strömt das Gas kontinuierlich, funktioniert dieser biologische Filter am Meeresboden gut. Bei einer Störung dieses Fließgleichgewichts, also einer Eruption, sind die Mikroorganismen schlicht überfordert und das Gas steigt fast ungehindert in die Wassersäule auf. Das passiert, wenn die austretenden Fluide sehr schnell ausströmen und die Oxidationsmittel nicht ausreichend nachfließen. Oder wenn die Eruption die Schichtung des Schlamms so durcheinandergewirbelt hat, dass der Lebensraum der methanfressenden Mikroorganismen zerstört.
Das Langzeit-Observatorium nimmt kontinuierlich Daten auf
Um zu sehen, wann und wie oft der Vulkan ausbricht, stationierten die Forscher eine Plattform mit verschiedenen physikalischen und chemischen Sensoren auf dem Haakon Mosby-Schlammvulkan in über 1200 Meter Wassertiefe. Der Vulkan deckt eine kreisförmige Fläche mit einem Kilometer im Durchmesser ab und erhebt sich nur zehn Meter über das umliegende Terrain. Er wird von eiskaltem Bodenwasser überströmt – doch je tiefer man im Meeresboden misst, desto wärmer wird es. Dr. Tomas Feseker vom MARUM Zentrum für marine Umweltwissenschaften der Universität Bremen sagt: „Wir konnten im Zentrum des Schlots in einem Meter Tiefe über 25 Grad Celsius messen, die Wärme wird durch aus der Tiefe aufsteigende gasreiche Fluide geliefert.“
Mit dem Observatorium LOOME wollten die Forscher prüfen, ob die im Meeresboden dieses Schlammvulkans befindlichen Gashydrate manchmal durch Hitzepulse aufgelöst werden und als Gas entweichen können. Sie stellten dazu im Juli 2009 ihr Observatorium nahe dem aktiven Zentrum auf und verlegten mit Hilfe des ferngesteuerten Roboters MARUM-QUEST an Bord der FS Polarstern die Kabel zu ihren Sensoren. Im Laufe des Jahres veränderte sich der Vulkan mehrmals. Die Thermometer zeigten steigende Temperaturen, Gase stiegen auf und drückten den Meeresboden um über einen Meter nach oben und um über hundert Meter zur Seite. Anschließend sank der Boden wieder langsam in sich zusammen.
10-mal mehr Methan als bisher angenommen
Dr. Dirk de Beer vom Max-Planck-Institut für Marine Mikrobiologie und wissenschaftlicher Leiter des sogenannten LOOME Observatoriums erläutert die Ergebnisse: „Diese Eruptionen werden vom aufsteigenden Gas aus tieferen Schichten des Vulkans angetrieben. Zusätzlich führt jede Eruption zu Temperaturerhöhungen an der Oberfläche und die im Schlamm gefrorenen Gashydrate gehen vom festen Zustand in den gasförmigen über. Das Methan kann in die Wassersäule aufsteigen. Unsere Berechnungen zeigen, dass ungefähr 10-mal mehr Methan austritt als bisher angenommen. Ein Großteil dieses im Wasser gelösten Gases erreicht die Atmosphäre aber nicht, sondern wird beim Aufstieg im Meerwasser verteilt und schließlich von Bakterien aufgezehrt.“
Die Forscher haben zehn Jahre alte Meeresboden-Karten des Forschungsgebiets mit heutigen Befunden verglichen und festgestellt, dass sich die Gestalt des Meeresbodens deutlich verändert hat durch Sedimentverschiebungen. Diese horizontale Bewegungen konnten die Forscher genau rekonstruieren, denn ihre tonnenschwere Temperatur-Messlanze legte im Laufe des Jahres eine Strecke von 165 Metern zurück. Überraschend war, dass bei den Eruptionen der Vulkan an den Rändern nicht überlief. Das bedeutet, dass der Schlamm wieder in den Vulkan zurückgelaufen sein muss.
Eine wichtige Erkenntnis dieser Studie ist, dass die Eruptionen den biologischen Filter im Meeresboden schädigen, der das meiste Methan des Haakon Mosby Schlammvulkans zurückhält. Prof. Dr. Antje Boetius, Fahrtleiterin der Expeditionen und Mitautorin der Studie, sagt: „Wir haben durch die erstmals ganzjährige Beobachtung des Schlammvulkans viel über sein Verhalten und den Einfluss auf die Umwelt gelernt. Da Eruptionen solcher Schlammvulkane an Land wie im Meer erhebliche Schlammrutschungen verursachen können und eine erhebliche Quelle von Gas sind, sollte es mehr Dauerbeobachtungsstationen für sie geben.“
Manfred Schlösser
Rückfragen an
Dr. Dirk de Beer, Max-Planck-Institut für Marine Mikrobiologie, Tel. +49 421 2028 802,
dbeer@mpi-bremen.de
Dr. Tomas Feseker, MARUM-Zentrum für marine Umweltwissenschaften Fachbereich Geowissenschaften der Universität Bremen ; feseker@uni-bremen.de
Prof. Dr. Antje Boetius, HGF-MPG Brückengruppe für Tiefseeökologie und -Technologie. Alfred -Wegener-Institut Helmholtz Zentrum für Polar und Meeresforschung und Max-Planck-Institut für Marine Mikrobiologie, Tel. +49 421 2028 860, antje.boetius@awi.de
Originalartikel:
Eruption of a deep-sea mud volcano triggers rapid sediment movement
Tomas Feseker, Antje Boetius, Frank Wenzhöfer, Jerome Blandin, Karine Olu, Dana R. Yoerger, Richard Camilli, Christopher R. German, Dirk de Beer.
Nature Communications, November 2014, DOI: NCOMMS6385
Beteiligte Institute
Max Planck Institute for Marine Microbiology, 28359 Bremen, Germany
MARUM – Center for Marine Environmental Sciences and Faculty of Geosciences, University of Bremen, 28359 Bremen, Germany
GEOMAR, Helmholtz Centre for Ocean Research Kiel, 24148 Kiel, Germany
HGF-MPG Group for Deep Sea Ecology and Technology, Alfred Wegener Institute for Polar and Marine Research in the Helmholtz Association, 27515 Bremerhaven, Germany
IFREMER, Institut Carnot EDROME, RDT/ SI2M F-29280 Plouzané, France
IFREMER, Institut Carnot EDROME, REM/EEP, Laboratoire Environnement Profond, F-29280 Plouzané, France
Woods Hole Oceanographic Institution, Woods Hole, MA 02543, USA
Danksagung: Das Projekt LOOME war Teil des Europäischen Programmes ESONET und von ihm gefördert, weitere Förderer sind die Helmholtz Gemeinschaft, die Max-Planck-Gesellschaft und das Leibniz-Programm der DFG.
Weitere Informationen:
http://www.mpi-bremen.de/Forschung_am_Tiefsee-Schlammvulkan_Haakon_Mosby.html
http://www.esonet-emso.org/ (Webseite Europäischer Meeresboden Observatorien)
Quelle: idw
Training für den „Denkapparat“: Teilnehmende für Studie gesucht
Susanne Bossemeyer Dez. 7.2 – Hochschulstrategie und Kommunikation
FernUniversität in Hagen
Aufmerksamer werden, sich besser konzentrieren und erinnern: Als eine interessante Möglichkeit zur Veränderung des kognitiven Systems werden Computer-basierte Gehirntrainings gesehen. Der Psychologe Dr. Tilo Strobach, FernUniversität in Hagen, sucht Teilnehmende für eine Studie.
Aufmerksamer werden, sich besser konzentrieren und erinnern: Ist der „Denkapparat“ des Menschen flexibel genug, um seine kognitiven Fähigkeiten gezielt verändern zu können? Eine Frage, mit der sich PD Dr. Tilo Strobach schon seit Jahren befasst. Für eine Studie, die er nun durchführen möchte, sucht der Lehrgebietsvertreter Allgemeinen Psychologie: Urteilen, Entscheiden, Handeln an der FernUniversität in Hagen jetzt Teilnehmerinnen und Teilnehmer.
Als eine interessante Möglichkeit zur Veränderung des kognitiven Systems werden zunehmende „strukturierte Computer-basierte Gehirntrainings“ gesehen. In den USA ist dieses Brain Training bereits ein Milliarden-Dollar-Markt. Dabei führen die Teilnehmenden in regelmäßigen Abständen – z.B. einmal täglich oder zweimal wöchentlich – eine bestimmte Aufgabe aus, um grundlegende kognitive Prozesse zu verbessern, z. B. ihre Aufmerksamkeit, ihre Konzentrationsfähigkeit, ihre Wahrnehmung oder vor allem ihr Gedächtnis.
Dr. Strobach möchte nun diese Thematik systematisch und wissenschaftlich untersuchen: Wie wirken Gehirntrainings? Wie effizient sind sie? Sind grundlegende kognitive Prozesse situationsunabhängig und lassen sich die Effekte auf andere Situationen übertragen? Lassen sie sich von den trainierten Aufgaben auf unbekannte Situationen transferieren? Haben sie also „Alltagsrelevanz“? Strobachs Grundlagenforschung zielt auch auf die Bedingungen wie Alter der Teilnehmenden, Trainingszeiten oder Aufgabenkombinationen, die für eine Optimierung der Gehirnleistungen notwendig sind.
Technisch organisiert wird die Studie von der Firma NeuroNations. Die Teilnehmenden erhalten als Dank nach Beendigung der Studie eine sechsmonatige Mitgliedschaft bei dem Start-Up-Unternehmen. „Zudem sind wir optimistisch, dass die Teilnehmenden von den Trainings der Studie profitieren können“, so Strobach. An der Teilnahme Interessierte müssen mindestens 18 Jahre alt sein und einen Internetzugang haben, weil die Aufgaben online gestellt werden. Sie sollten bereit sein, täglich oder alle zwei Tage an 22 Sitzungen zu je ca. 30 Minuten teilzunehmen – nicht im Labor in der FernUniversität, sondern in einer vertrauten Umgebung, vor allem zuhause: „Im Mittelpunkt steht ja die Alltagsrelevanz“, betont Strobach.
Erfahrungen für dieses neue Vorhaben, mit dem er bestimmte Merk- und Aufmerksamkeitskompetenzen trainieren will, bringt der Wissenschaftler mit: Er hat sich bereits mit dem Training von Arbeitsgedächtnissen von Kindern in 2. und 3. Grundschulklassen befasst. Sie sollten sich Tiere merken. Hatte dieses Training Effekte für ihre Lesekompetenz? Und auf ihre mathematischen Leistungen? Auch beim Rechnen muss man sich etwas merken. Strobach: „Zumindest für die Lesekompetenz konnten wir eine Steigerung und damit einen Transfereffekt nachweisen.“
Auch mit einer anderen Untersuchung konnte er positive Effekte nachweisen: bei kommerziellen Videospielen mit komplexen Situationen wie „Ego Shooter“-Spielen. Die Teilnehmenden mussten beim Spielen mehrere Aufgaben gleichzeitig ausführen: etwa ferne Welten Laufen, Schießen und Kommunizieren. „Dabei haben sie ihre Multi-Tasking-Fähigkeiten verbessert“, berichtet der Wissenschaftler. „Auch solche Spiele haben also positive Aspekte.“
Interessierte sollten sich baldmöglichst unter http://www.neuronation.de/fernunihagen informieren.
Quelle: idw
Aktionsbündnis Arbeitsmedizin
Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.
Erstes Projekt des Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses erfolgreich mit auf den Weg gebracht: Stiftungsprofessur für Arbeitsmedizin und Prävention an der Universität zu Lübeck
Das Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses hat sein erstes Projekt erfolgreich mit auf den Weg gebracht: Am 22. Oktober 2014 wurde in Lübeck im Beisein der Ministerin für Soziales, Gesundheit, Wissenschaft und Gleichstellung des Landes Schleswig-Holstein, Kirstin Alheit, sowie Vertretern der Stifter, der Universität zu Lübeck und des Aktionsbündnisses zur Sicherung des arbeitsmedizinischen Nachwuchses ein Vertrag zur Einrichtung einer Stiftungsprofessur für Arbeitsmedizin und Prävention unterzeichnet. Die Einrichtung der Stiftungsprofessur ist ein gemeinsames Ergebnis der Zusammenarbeit einzelner Unfallversicherungsträger, der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege (BGW), der Verwaltungsberufsgenossenschaft (VBG), der Berufsgenossenschaft Transport und Verkehrswirtschaft (BG Verkehr) sowie der Unfallkasse Nord, mit dem Gesundheitsministerium Schleswig Holstein, der Universität zu Lübeck und dem Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses. Zusammen mit der W3-Professur soll ein Institut für Arbeitsmedizin eingerichtet werden. Die Einrichtung der Professur wird zunächst über einen Zeitraum von fünf Jahren mit insgesamt 255.000 Euro pro Jahr von den Stiftern gefördert. Im Anschluss daran soll eine Evaluation über die weitere Zukunft der Professur entscheiden.
Die Stifter waren bei der Vertragsunterzeichnung vertreten durch den Hauptgeschäftsführer der BGW, Professor Dr. Stephan Brandenburg, den Direktor Prävention der VBG, Dr. Andreas Weber, die Hauptgeschäftsführerin der BG Verkehr, Sabine Kudzielka, sowie den Geschäftsführer der Unfallkasse Nord, Jan Holger Stock. Für das Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses war dessen Vorsitzender, Professor Dr. Stephan Letzel, bei der feierlichen Unterzeichnung anwesend.
Ministerin Alheit betonte: „Die arbeitsmedizinische Versorgung Berufstätiger ist eine wichtige Zukunftsaufgabe. Die neu errichtete Professur wird einen für Schleswig-Holstein wichtigen Beitrag zur Nachwuchsförderung im Fach Arbeitsmedizin und zur Forschung in einer sich rasch wandelnden Arbeitswelt leisten. Der Bedarf an arbeitsmedizinischer Beratung und Betreuung wird weiter steigen.“
Der wissenschaftliche Schwerpunkt der Professur soll neben den klassischen arbeitsmedizinischen Themen wichtige Fragestellungen wie beispielsweise arbeitsbedingte muskuloskelettale Erkrankungen, psychosoziale und psychomentale Aspekte der Arbeit, Entwicklung der Gesundheitskompetenz und arbeitsmedizinische Aspekte von Inklusion, Diversität und Verkehrsmedizin erfassen. Die Professur und das zukünftige Institut werden dem profilbildenden Zentrum für Bevölkerungsmedizin und Versorgungsforschung der Universität zu Lübeck zugeordnet. Die Ausschreibung der Professur erfolgt Anfang des nächsten Jahres.
Die Universität zu Lübeck knüpft damit an die Tradition des Instituts für Arbeitsmedizin an, das in den vergangenen Jahren/Jahrzehnten von Prof. Dr. Dr. Richard Kessel in Lübeck geleitet wurde.
Für weitere Rückfragen:
Univ.-Prof. Dr. Stephan Letzel
Vorsitzender des Aktionsbündnisses Arbeitsmedizin
Universitätsmedizin Mainz
Institut für Arbeits-, Sozial- und Umweltmedizin
Obere Zahlbacher Str. 67, 55131 Mainz
letzel@uni-mainz.de
Weitere Informationen:
http://www.dgaum.de/nachwuchs/
Quelle: idw
Ozeanversauerung verändert klimarelevante Funktionen in der obersten Mikroschicht
Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
Ozeanversauerung kann klimarelevante Funktionen verändern, die in der obersten Schicht des Ozeans ablaufen, erklärt eine Gruppe von Wissenschaftlern im Fachmagazin „Journal of Geophysical Research: Oceans“. Laut einer Studie, die unter Leitung des GEOMAR Helmholtz Zentrum für Ozeanforschung Kiel stattfand, spiegelt die Chemie in der obersten Mikroschicht biologische Prozesse aus der darunterliegenden Wassersäule. Die Veränderungen könnten Wechselwirkungen zwischen Ozean und Atmosphäre beeinflussen, etwa den Austausch von Gasen oder die Emission von Gischt-Aerosolen, die Sonnenstrahlen streuen oder zur Wolkenbildung beitragen können.
Wie eine Haut trennt die oberste Mikroschicht das Meer von der Atmosphäre. Mit dem Austausch von Gasen und der Freisetzung von Aerosolen aus der Gischt laufen hier gleich zwei Prozesse ab, die unser Klima maßgeblich mitbestimmen. Während eines Mesokosmen-Experiments beobachteten Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, des Alfred Wegener Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) zum ersten Mal, wie der Ozeanwandel die speziellen physikalischen, chemischen und biologischen Eigenschaften dieses Biofilms verändern kann. Ihre Ergebnisse beschreiben die Forscher im Fachmagazin „Journal of Geophysical Research: Oceans“. Erstautorin ist Dr. Luisa Galgani, die die Studie als Teil ihrer Doktorarbeit am GEOMAR und am AWI durchführte.
„Viele Experimente haben bereits gezeigt, wie Ozeanversauerung – eine Veränderung in der Ozeanchemie, die durch die Aufnahme menschengemachten Kohlendioxids ausgelöst wird – das Wachstum und die Effizienz mariner Bakterien und das Absinken kohlenstoffhaltiger Partikel beeinflusst“, fasst Dr. Luisa Galgani zusammen. „Wir wissen, dass sich in der obersten Mikroschicht das selbe organische Material und die selben Mikroorganismen ansammeln, die auch in der Wassersäule darunter zu finden sind. Darum hatten wir erwartet, dass die Mikroschicht Veränderungen wiederspiegelt, die im Zuge der Ozeanversauerung in der Wassersäule stattfinden. Die Prozesse in diesem Mikromilieu zu verstehen ist wichtig, weil sie Auswirkungen auf unser Klima haben können.“
Um die Folgen der Ozeanversauerung zu untersuchen, simulierten die Wissenschaftler verschiedene zukünftige Szenarien in den KOSMOS Mesokosmen (KOSMOS: Kiel Off-Shore Mesocosms for future Ocean Simulations), die sie im Raunefjord in Norwegen platziert hatten. Die neun Schwimmkonstruktionen, von denen jede 75.000 Liter Meerwasser isoliert, wurden auf verschiedene Kohlendioxid-Niveaus gebracht, die für die kommenden Jahrzehnte und Jahrhunderte erwartet werden. Einen Monat lang beprobte das Team um Dr. Galgani die Wasseroberfläche in sechs Mesokosmen mit einer Plexiglasplatte.
Analysen der Proben belegten die Hypothese, dass die organischen Verbindungen an der obersten Mikroschicht die Entwicklung in der Wassersäule abbilden. Außerdem war bei höheren Kohlendioxid-Konzentrationen mehr Bakterioneuston zu finden, marine Bakterien, die an der Wasseroberfläche leben. Die saureren Bedingungen förderten Veränderungen in der Dynamik von organischem Material. Vor allem eiweißhaltige marine Gelpartikel blieben kleiner; sie waren jedoch häufiger vorhanden und dienten als Nährsubstrat. Mikroorganismen waren in größerer Zahl vertreten und konnten das organische Material, das während der Planktonblüte entstand, effizienter umsetzen.
„Aus früheren Studien wissen wir, dass zusätzliches Kohlendioxid marine Bakterien stimuliert“, erklärt Dr. Galgani. „Angesichts unserer Beobachtungen nehmen wir jetzt an, dass dieser Effekt sehr bedeutsam werden kann: Er kann bedeuten, dass Teile des Lebens im Ozean positiv auf die Aufnahme von Kohlendioxid aus der Atmosphäre reagieren – indem der Stoffwechsel der Mikroben an der Grenzschicht zwischen Luft und Wasser angeregt wird.“
Ein gesteigerter bakterieller Abbau könnte auch die organische Zusammensetzung neu entstehender Gischt-Partikel stark beeinflussen. Von ihrer Komposition hängt ab, inwiefern sie als marine Aerosole mit dem Klimasystem interagieren können. Über den Beitrag der marinen Aerosole zum Klima ist noch immer wenig bekannt. „Wir sind noch weit davon entfernt, zu verstehen, in welcher Weise der Ozean Bausteine für die Wolkenbildung liefert“, betont Prof. Dr. Anja Engel, Leiterin der Gruppe Mikrobielle Biogeochemie am GEOMAR. „Dennoch sind wir davon überzeugt, dass diese Studie uns einen deutlichen Schritt weitergebracht hat. Wir haben uns zum Ziel gesetzt, die Struktur und die Dynamik in der Grenzschicht zwischen Luft und Wasser genauer zu untersuchen. Dann können wir auch besser abschätzen, wie sich die Wechselwirkungen zwischen dem Ozean und der Atmosphäre in der Hoch-CO2-Welt gestalten.“
Die Arbeiten wurden durch die vom Bundesminsterium für Bildung und Forschung (BMBF) geförderten Projekte SOPRAN (Surface Ocean Processes in the Anthropocene) und BIOACID (Biological Impacts of Ocean Acidification) unterstützt und fließen in das internationale Projekt SOLAS (Surface Ocean – Lower Atmosphere Study) ein.
Originalpublikation:
Galgani, L., Stolle. C., Endres, S., Schulz, K. G., Engel, A. (2014), Effects of ocean acidification on the biogenic composition of the seasurface microlayer: Results from a mesocosm study, J. Geophys. Res. Oceans, 119, doi:10.1002/2014JC010188.
Bildmaterial:
Unter www.geomar.de/n2157 steht Bildmaterial zum Download bereit. Video-Footage auf Anfrage.
Ansprechpartner:
Prof. Dr. Anja Engel (GEOMAR FB2/BI) Tel. 0431 600-1510, aengel@geomar.de
Maike Nicolai (GEOMAR Kommunikation & Medien) Tel. 0431 600-2807, mnicolai@geomar.de
Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.bioacid.de BIOACID (Biological Impacts of Ocean Acidification)
http://sopran.pangaea.de SOPRAN (Surface Ocean Processes in the Anthropocene)
http://www.solas-int.org SOLAS (Surface Ocean – Lower Atmosphere Study)
http://www.awi.de Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
http://www.io-warnemuende.de Leibniz-Institut für Ostseeforschung Warnemünde
Quelle: idw
Menschen vor Legionellen aus Kühlanlagen schützen
Stephan Berends Strategie & Kommunikation / Presse
VDI Verein Deutscher Ingenieure e. V.
Der Gesetzgeber reagiert auf die Legionellen-Epidemien 2010 in Ulm und 2013 in Warstein und erarbeitet eine Verordnung, durch die im Lauf des Jahres 2015 Verdunstungskühlanlagen mit Meldepflicht belegt werden sollen. Verdunstungskühlanlagen gelten in beiden Fällen als Quelle der Keime. Die angestrebte Verordnung soll Festlegungen zum hygienisch einwandfreien Betrieb treffen, die im Wesentlichen auf der Richtlinie VDI 2047 Blatt 2 „Rückkühlwerke – Sicherstellung des hygienegerechten Betriebs von Verdunstungskühlanlagen (VDI-Kühlturmregeln)“ basieren.
Die Richtlinie VDI 2047 Blatt 2 beschreibt nicht nur die Hygieneaspekte in Planung, Ausführung und Betrieb von Verdunstungskühlanlagen, sondern legt auch ein Konzept für eine Schulung der verantwortlichen Personen dar. Der VDI geht davon aus, dass in den nächsten drei Jahren ca. 10.000 Menschen im hygienisch sicheren Umgang mit Verdunstungskühlanlagen geschult werden müssen.
Die VDI-Gesellschaft Bauen und Gebäudetechnik wird daher zur Qualitätssicherung ein Schulungspartnersystem initiieren, wie es sich bei den Richtlinien-Schulungen zu VDI 6022 und VDI/DVGW 6023 bewährt hat. Am 8. Januar 2015 können Interessenten an einer Referententätigkeit im Rahmen von VDI-Partnerschulungen an einer Erstschulung in Düsseldorf teilnehmen, um die über den Rahmen ihrer jeweiligen Berufsausbildung hinausgehende erforderliche Qualifikation zu erwerben. Weitere Informationen unter www.vdi.de/schulung-vdi2047.
Der VDI – Sprecher, Gestalter, Netzwerker
Ingenieure brauchen eine starke Vereinigung, die sie bei ihrer Arbeit unterstützt, fördert und vertritt. Diese Aufgabe übernimmt der VDI Verein Deutscher Ingenieure. Seit über 150 Jahren steht er Ingenieurinnen und Ingenieuren zuverlässig zur Seite. Mehr als 12.000 ehrenamtliche Experten bearbeiten jedes Jahr neueste Erkenntnisse zur Förderung unseres Technikstandorts. Das überzeugt: Mit 152.000 Mitgliedern ist der VDI die größte Ingenieurvereinigung Deutschlands.
Weitere Informationen:
http://www.vdi.de/schulung-vdi2047 – Infos zur Schulung
Quelle: idw
Damit es Europas Bienen wieder besser geht
Hans-Christoph Keller Stabsstelle Presse- und Öffentlichkeitsarbeit
Humboldt-Universität zu Berlin
Projekt „Smartbees“ bekommt sechs Millionen Euro von der Europäischen Kommission
Die Vielfalt der Bienenarten in Europa ist in Gefahr. Früher gab es zahlreiche Bienenrassen. Doch in den vergangenen Jahren hat sich die Situation dramatisch verändert.
Einerseits verursacht eine aus Asien stammende Milbe (Varroa destructor) seit vielen Jahren hohe Verluste unter den Europäischen Bienenvölkern (Apis mellifera). Andererseits kommt es zu einer systematischen Verdrängung vieler Europäischer Bienenrassen durch zwei Rassen, die bereits seit einiger Zeit auf Leistung, ruhiges Verhalten und Krankheitsresistenz gezüchtet wurden. Beide Ursachen reduzieren die genetische Vielfalt der Honigbienen in Europa und gefährden die nachhaltige, regional angepasste Bienenhaltung. Die Konsequenzen sind dramatisch für die Landwirtschaft. Dabei geht es nicht nur um weniger Honig oder Wachs. Die Bestäubungsleistung der Bienen hat einen enormen ökonomischen Wert.
Um dem Bienensterben zu begegnen, kooperieren jetzt in dem mit sechs Millionen Euro von der Europäischen Kommission geförderten Projekt „SMARTBEES“ Genetiker, Molekularbiologen, Parasitologen, Virologen, Immunologen, Kommunikationswissen¬schaftler, Mathematiker und Bienenspezialisten aus elf Ländern. Koordiniert wird es von Prof. Dr. Kaspar Bienefeld. Er leitet die Abteilung Zucht und Genetik am Länderinstitut für Bienenkunde in Hohen Neuendorf und ist Honorarprofessor am Albrecht Thaer Institut für Agrar- und Gartenbauwissenschaften der Humboldt-Universität zu Berlin.
Mit dem internationalen Projekt soll der aktuelle Stand der genetischen Vielfalt in ganz Europa analysiert und mit geeigneten Methoden verbessert werden. Zudem werden sich die Wissenschaftler mit der gefährlichen Dreiecksbeziehung Biene-Milbe-Viren beschäftigen und die Mechanismen ergründen, die dazu führen, dass aus im Zusammenspiel mit der Varroamilbe aus harmlosen Viren tödliche Viren werden. Mit modernsten molekulargenetischen Methoden werden die Gründe der unterschiedlichen Widerstandskraft von Bienen gegenüber Varroa und Viren geklärt.
Die Unzufriedenheit der Imker mit den einheimischen Bienenrassen war der zentrale Grund für deren Austausch durch züchterisch verbesserte Rassen. Daher sollen Zuchtstrategien, die sich als sehr erfolgreich erwiesen haben, für die bislang züchterisch vernachlässigten Bienenrassen so modifiziert werden, dass diese Rassen an die Bedürfnisse der lokalen Imkerschaft angepasst werden. Damit kannihre Verdrängung gestoppt werden. Daten aus dem Europäischen Referenzlabor für Bienenkrankheiten werden analysiert, um auch für noch nicht aktuelle aber möglicherweise in Zukunft auftretende Krankheitserreger gewappnet zu sein.
Bienen werden von hunderttausenden Imkern in Europa gehalten. Das bedeutet, dass wissenschaftliche Erkenntnisse und die Entwicklung von neuen Methoden und Strategien nur dann nachhaltig zu einer Verbesserung der Situation führen, wenn die Europäische Imkerschaft involviert wird. Eine Arbeitsgruppe, die auf Wissenstransfer spezialisiert ist, wird die Ergebnisse des Projektes für die Praxis aufbereiten, Lernmodule erstellen und für eine Vernetzung innerhalb und zwischen den Ländern sorgen. Kaspar Bienefeld sagt: „Es ist das erste Mal, dass sich so unterschiedliche Disziplinen gemeinsam und aufeinander abgestimmt mit dem Bienensterben beschäftigen. Die Aufgabe ist komplex, aber das multidisziplinäre Konzept des Projekts eröffnet große Chancen, nachhaltig die Gesundheit und die genetische Vielfalt der Bienen in Europa zu verbessern.“
Kontakt
Prof. Dr. K. Bienefeld
Länderinstitut für Bienenkunde Hohen Neuendorf
Tel.: 03303/ 29 38 30
kaspar.bienefeld@hu-berlin.de
Quelle: idw
Wer bekommt Weihnachtsgeld – was sehen die Tarifverträge vor?
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Rund 54 Prozent der Beschäftigten erhalten eine Jahressonderzahlung in Form eines Weihnachtsgeldes. Rund 15 Prozent erhalten eine Gewinnbeteiligung und 19 Prozent erhalten sonstige Sonderzahlungen. Zu diesem Ergebnis kommt eine Online-Umfrage der Internetseite www.lohnspiegel.de, die vom WSI-Tarifarchiv der Hans-Böckler-Stiftung betreut wird und an der sich rund 10.100 Beschäftigte beteiligt haben. Die Analyse der Befragungsdaten, die im Zeitraum von Juli 2013 bis Juni 2014 erhoben wurden, zeigt, dass die Chancen ein Weihnachtsgeld zu erhalten, ungleich verteilt sind (siehe auch die Grafik in der pdf-Version dieser PM). Besonders groß ist der Vorsprung von Beschäftigten, die nach Tarifvertrag bezahlt werden, gegenüber Beschäftigten in Unternehmen ohne Tarifbindung:
West/Ost: Nach wie vor gibt es Unterschiede zwischen Ost- und Westdeutschland. In Westdeutschland bekommen 57 Prozent, in Ostdeutschland 40 Prozent der Beschäftigten ein Weihnachtsgeld.
Männer/Frauen: Frauen erhalten seltener Weihnachtsgeld als Männer. Bei den Frauen sind es 51 Prozent, bei den Männern dagegen 56 Prozent.
(Un)Befristet Beschäftigte: Beschäftigte mit einem unbefristeten Arbeitsvertrag bekommen zu 56 Prozent ein Weihnachtsgeld, befristet Beschäftigte nur zu 42 Prozent.
Vollzeit/Teilzeit: Vollzeitbeschäftigte erhalten mit 55 Prozent öfter Weihnachtsgeld als Teilzeitbeschäftigte mit 42 Prozent.
Tarifbindung: Eindeutig profitieren die Beschäftigten von einer Tarifbindung ihres Arbeitgebers. Beschäftigte mit Tarifbindung erhalten zu 71 Prozent ein Weihnachtsgeld, Beschäftigte ohne Tarifbindung dagegen nur zu 42 Prozent.
Gewerkschaftsmitglieder: Mitglieder einer Gewerkschaft stehen sich besser. 66 Prozent von ihnen erhalten Weihnachtsgeld, Nichtmitglieder dagegen nur zu 51 Prozent.
Grundsätzlich sehen in den meisten Wirtschaftszweigen die geltenden Tarifverträge ein Weihnachtsgeld vor. Dies zeigt die Auswertung des WSI-Tarifarchivs. Es wird überwiegend als fester Prozentsatz vom Monatseinkommen berechnet (siehe die ausführliche Tabelle in der pdf-Version; Link unten). Die in den einzelnen Tarifverträgen festgelegten Prozentsätze haben sich im Vergleich zu den Vorjahren kaum verändert. Dort, wo die Tarifabschlüsse dieses Jahr höher ausgefallen sind, steigen auch die tariflichen Weihnachtsgelder stärker. Die Spanne reicht von plus 1,8 Prozent in der Energiewirtschaft Ost (AVEU), 2,4 Prozent im Bankgewerbe, 3,0 Prozent in der Druckindustrie über 3,5 Prozent im öffentlichen Dienst (Gemeinden) bis zu 4,5 % in der Kautschukindustrie Hessen, Rheinland-Pfalz, Saarland. In der chemischen Industrie Ostdeutschlands wurde das Weihnachtsgeld von 65 auf 80 % eines Monatsentgelts angehoben, das entspricht einschließlich der Tarifanhebung einem Anstieg um fast 28 Prozent. Für die Metallindustrie Sachsen ist eine Angleichung des Weihnachtsgeldes an das West-Niveau erreicht, was zu einer Steigerung von insgesamt rund 13 % führt.
Ein im Vergleich relativ hohes Weihnachtsgeld erhalten unter anderem die Beschäftigten im Bankgewerbe, in der Süßwarenindustrie, in der westdeutschen Chemieindustrie sowie in der Druckindustrie (95 bis 100 Prozent eines Monatseinkommens). Darunter liegen unter anderem die Bereiche Versicherungen (80 Prozent), Einzelhandel (West, 62,5 Prozent) sowie Metallindustrie (West und Sachsen, 55 Prozent). Im öffentlichen Dienst (Gemeinden, West) beträgt die Jahressonderzahlung (zusammengesetzt aus Urlaubs- und Weihnachtgeld) je nach Vergütungsgruppe zwischen 60 und 90 Prozent. In vielen Bereichen haben die Beschäftigten in den neuen Ländern mittlerweile gleichgezogen.
Weniger als ihre KollegInnen im Westen erhalten die Ost-Beschäftigten z. B. in den Bereichen Chemie (80 Prozent) und öffentlicher Dienst (Gemeinden, 45 – 67,5 Prozent). Kein Weihnachtsgeld erhalten unter anderem die Beschäftigten im Bauhauptgewerbe Ost und im Gebäudereinigerhandwerk.
Für Beamtinnen und Beamte bestehen für die Sonderzahlung im Rahmen der Besoldung jeweils gesonderte gesetzliche Regelungen für den Bund und die einzelnen Bundesländer.
Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 0211/7778-232
E-Mail: Reinhard-Bispinck@boeckler.de
Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de
Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2014_11_03.pdf – Die Pressemitteilung mit Grafik und Tabelle (pdf)
Quelle: idw
Türklinken aus Kupfer gegen Keime: Infektionsvorbeugung im Asklepios Klinikum Hamburg Harburg
Dr.med. Franz Jürgen Schell Konzernbereich Unternehmenskommunikation/Pressestelle
Asklepios Kliniken Hamburg GmbH
Das Asklepios Klinikum Harburg in Hamburg hat große Bereiche seines gerade eröffneten Neubaus mit insgesamt 600 Türklinken aus Kupferlegierungen ausgestattet. Das Projekt ist das bislang größte seiner Art in Europa und den USA. Kupfer wirkt nachweislich antimikrobiell und kann gefährliche Keime wie Bakterien, Pilze und Viren erheblich reduzieren. Eine kürzlich vor Ort durchgeführte stichprobenartige Untersuchung dieser neuen Türklinken aus einer Vollguss-Kupferlegierung hat gezeigt, dass eine Reduzierung von bis zu zwei Drittel der Keime möglich ist. Das ist besonders für Patienten in Risikobereichen wie Intensivstationen und Isolierzimmern von großer Bedeutung.
„Patientensicherheit hat in den Asklepios Kliniken höchste Priorität. Mit dem Einsatz vieler hundert Kupferklinken zur Infektionsprävention in der Asklepios Klinik Harburg setzen wir jetzt einen weiteren Meilenstein beim wichtigen Thema Hygiene und stellen einmal mehr unsere Vorreiterrolle bei der Bekämpfung und Reduzierung gefährlicher Keime, insbesondere der multiresistenten Erreger, unter Beweis“, sagt Dr. Thomas Wolfram, Sprecher der Geschäftsführung der Hamburger Asklepios Kliniken. „Hände sind bekanntlich die Hauptüberträger von Erregern. Dabei spielen Türgriffe als die am häufigsten genutzten Kontaktflächen eine wichtige Rolle. Genau hier setzen wir mit den Klinken aus antimikrobiellem Kupferwerkstoff an“, erläutert Dr. med. Susanne Huggett, Ärztliche Leiterin des Asklepios Großlabors MEDILYS. „Die Klinken bestehen aus rund 70 Prozent Kupfer und haben nachweislich eine stark keimreduzierende Wirkung, wie wir aus eigenen Untersuchungen wissen. Sie sind damit Teil eines umfassenden Bündels von Maßnahmen zur Infektionsprävention, sind also kein Ersatz, sondern eine effektive Ergänzung zu etablierten Hygieneaktivitäten wie der Händedesinfektion, der regelmäßigen Flächendesinfektion und der Schulung von Mitarbeitern in Hygienefragen“, so Dr. Huggett weiter. Auf Grundlage der stichprobenartigen Untersuchung im Sommer 2014 im Asklepios Klinikum Harburg sei damit zu rechnen, dass sich mit Hilfe der Kupferkliniken unter Alltagsbedingungen im Klinikbereich eine Reduzierung der Keime von mehr als 50 Prozent im Vergleich zur Keimbesiedelung auf herkömmlichen Türkliniken erzielen lässt. Das Asklepios Großlabor MEDILYS in Hamburg wird das jetzt angelaufene Projekt in der Asklepios Klinik Harburg mit regelmäßigen Untersuchungen begleiten und in einigen Monaten weitere Untersuchungsergebnisse präsentieren.
„Die Erkenntnis, dass Kupfer eine desinfizierende Wirkung hat, gab es schon im alten Ägypten zur Zeit der Pharaonen. Damals wurden beispielsweise Kupferspäne zur Wunddesinfektion in Salben gerührt. Mit Hilfe der modernen Wissenschaft beginnen wir aber erst heute zu verstehen, auf welche Weise Kupfer diese Wirkung entfalten kann“, sagt Dr. Anton Klassert, Geschäftsführer Deutsches Kupferinstitut Berufsverband. Angesichts der zunehmenden Verbreitung von Bakterien, Pilzen und Viren komme den Jahrhunderte alten Erfahrungen jetzt eine ganz aktuelle Bedeutung zu.
Das Ziel: Infektionen stoppen und die Patientensicherheit erhöhen
In Europa erkrankt jeder 14. Patient während eines Krankenhausaufenthaltes an einer so genannten nosokomialen Infektion, also an einer Infektion, die im zeitlichen Zusammenhang mit dem Krankenhausaufenthalt steht. Zu den unerwünschten Komplikationen zählen Harnwegsinfekte, Wundinfektionen nach Operationen oder Lungenentzündungen nach künstlicher Beatmung. Nach aktuellen Schätzungen kommt es europaweit pro Jahr zu 147.000 Todesfällen, wobei sich allein in Deutschland rund 400.000 bis 600.000 Menschen in Kliniken infizieren. Viele der gewöhnlich in Krankenhäusern oder Altenheimen für Oberflächen genutzten Materialien sind nachgewiesenermaßen eine bevorzugte Quelle für Kreuz-Kontaminationen, das heißt die direkte oder indirekte Übertragung von pathogenen Mikroorganismen von bereits kontaminierten auf nicht kontaminierte Gegenstände oder Personen. Ein Teufelskreis, der auch durch eine verstärkte Flächendesinfektion nicht umfassend zu durchbrechen ist. Hier sind neue, innovative Lösungswege gefragt, die nicht allein auf äußerliche Reinigungsvorgänge setzen. Als Lösung bietet sich hier der Einsatz antimikrobieller Kupferwerkstoffe an, die für hoch frequentierte Kontaktoberflächen verwendet werden und damit eine zusätzliche Barriere gegen nosokomiale Infektionen etwa durch Erreger wie multiresistente Keime (MRSA) darstellen können. Weltweit haben sich deshalb schon mehr als 200 medizinische und öffentliche Einrichtungen entschlossen, antimikrobielle Kupferbauteile einzusetzen – eine Zahl, die weiter wächst, so die Erkenntnisse des Kupferinstitutes.
Vorreiterrolle für Asklepios
Bereits im Jahr 2008/2009 hat die Asklepios Klinik Wandsbek in Hamburg in Zusammenarbeit mit dem Deutschen Kupferinstitut Berufsverband antimikrobielle Kupferwerkstoffe zur Erhöhung der Patientensicherheit eingesetzt. Dabei wurden jeweils über mehrere Monate hinweg im Sommer 2008 und im Winter 2008/2009 zwei Krankenhausstationen mit einigen Dutzend Türgriffen, Türplatten und Lichtschaltern aus speziellen Kupferlegierungen ausgestattet. Die benachbarten Bereiche behielten für den Forschungszweck ihre herkömmlichen Griffe und Schalter aus Aluminium, Edelstahl oder Plastik. Unabhängige Wissenschaftler der Universität Halle-Wittenberg haben regelmäßig Proben genommen und die Anzahl der Keime auf den verschiedenen Kontaktflächen verglichen – mit überzeugendem Erfolg. „Wir sind sehr froh, dass Asklepios diesen Feldversuch damals mit uns zusammen durchgeführt hat, da dadurch eine Initialzündung für das gesamte Projekt erfolgt ist“, so Dr. Anton Klassert. „Mittlerweile haben weltweite Studien und Krankenhausversuche die damaligen Ergebnisse bestätigt bzw. in ihrer Aussage sogar noch übertroffen. Inzwischen konnte unter anderem durch Studien der Medical University of South Carolina auch aufgezeigt werden, dass sich nicht nur die Keimzahlen, sondern auch die Infektionsraten beim Einsatz von massiven antimikrobiellen Kupferlegierungen signifikant verringern und damit die Gefahr nosokomialer Infektionen auf Intensivstationen um bis zu 58 Prozent senken kann,“ so Dr. Klassert.
Antimikrobielle Kupferwerkstoffe wirken nachweislich
Die globalen Studien haben gezeigt, dass Kupferoberflächen nicht nur Antibiotika-resistente Keime inaktivieren, sondern auch viele weitere Erreger; ein Aspekt, den die Asklepios Klinik in Harburg nun durch den Einbau von antimikrobiellen Klinken auf der Intensivstation und in zahlreichen Intensivzimmern nutzt, um die Hygiene weiter zu verbessern. Klassert dazu: „Uns ist dabei wichtig zu betonen, dass der Einbau von antimikrobiellen Kupferprodukten – von denen inzwischen über 100 verschiedene Teile am Markt sind – nicht dazu führen kann und soll, die üblichen Standardhygienemaßnahmen wie Hände waschen oder Desinfektion zu vernachlässigen oder gar nicht mehr durchzuführen. Antimikrobielle Kupferoberflächen sind immer als ergänzende Maßnahme zu der 4-Säulen-Strategie des Robert Koch-Instituts zu betrachten.“ Die im Asklepios Klinikum Harburg eingebauten Kupferklinken der Firma Wilhelm May bestehen aus einer massiven Kupferlegierung, d.h. es handelt sich um keinerlei Beschichtung, sondern um ein Produkt, das vollständig aus einem antimikrobiellem Kupferwerkstoff hergestellt worden ist. Damit ist gewährleistet, dass die keimreduzierende Wirkung auch bei Kratzern oder leichten Beschädigungen erhalten bleibt.
Über das Asklepios Klinikum Harburg
Das Asklepios Klinikum Harburg verfügt aktuell über 774 Betten, beschäftigt 1.500 Mitarbeiter und versorgte 2013 rd. 76.000 Patienten (davon 43.500 ambulant und 32.500 stationär). Der im Sommer 2014 fertiggestellte Neubau (Haus 1) wurde mit einem Aufwand von 52 Millionen Euro realisiert. Das sechsgeschossige Gebäude mit Tiefgarage und neuem, zentralen Eingangsbereich verfügt unter anderem über einen Hubschrauberlandeplatz, eine deutlich vergrößerte Zentrale Notaufnahme, neue Herzkatheterlabore, CT, einen Hybrid-Operationsaal sowie über hochmoderne Intensivstationen mit Platz für 60 Patienten. Die 600 antimikrobiell wirkenden Türgriffe aus Kupfer wurden im Haus 1 im Bereich der Intensivstationen, in den Räumlichkeiten der Stroke Unit sowie in den Isolierzimmern auf verschiedenen Etagen installiert.
Weitere Informationen:
http://www.asklepios.com
http://www.facebook.com/asklepioskliniken
http://www.youtube.com/asklepioskliniken
Quelle: idw
Hochwasservorsorge für Gebäude, Stadt und Region
Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)
In einer neuen Broschüre stellt das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) Konzepte und Instrumente für die Hochwasservorsorge vor. Sie richtet sich sowohl an Hauseigentümer, die bauliche Vorsorge treffen wollen, als auch an Städte und Regionen, die an ganzheitlichen Ansätzen zur Anpassung an den Klimawandel interessiert sind.
Das Heft bündelt Ergebnisse aus Forschungsprojekten und Modellvorhaben des BBSR – vom Objekt bis zur Makroregion. Auf Gebäudeebene steht die bauliche Vorsorge im Fokus: Die Hochwasserschutzfibel und der Hochwasserpass geben Eigentümern Auskunft über Schwachstellen ihrer Häuser und zeigen konkrete Hilfen, um Immobilien robuster gegenüber den Folgen von Überflutungen zu machen. Das Online-Tool ImmoRisk bietet Immobilieneigentümern die Möglichkeit, Risiken von Extremwetter für den Standort ihrer Immobilie zu ermitteln. Künftig soll das Instrument bundesweit geodatenbasiert eine Risikoabschätzung ermöglichen.
Verschiedene Instrumente unterstützen Städte und Gemeinden. Der Stadtklimalotse schafft auf Basis einer Datenbank einen Überblick von Anpassungsmaßnahmen, die Stadtplaner als Baustein für eigene Konzepte nutzen können. Das Werkzeug ist Ergebnis des Forschungsfeldes „Urbane Strategien zum Klimawandel“. Weiterhin werden Möglichkeiten vorgestellt, die Folgen von Starkregen abzufedern. Ein Erfolgsfaktor ist dabei die engere Kooperation zwischen Stadtplanung und Siedlungswasserwirtschaft. „Urbane Gefahrenkarten“ machen transparent, welche Gebiete lokal besonderen Überflutungsrisiken ausgesetzt sind.
Wie auf regionaler Ebene Maßnahmen zur Hochwasservorsorge auch im Siedlungsbestand umgesetzt werden können, zeigen Ergebnisse aus den Modellvorhaben „Raumentwicklungsstrategien zum Klimawandel“. Grenzüberschreitende Projekte aus dem EU-Programm INTERREG werfen zudem ein Schlaglicht auf das Hochwassermanagement entlang der Elbe und ihrer Zuflüsse.
Das Heft „Hochwasservor- und Nachsorge“ ist als Nr. 8/2014 in der Reihe BBSR-Analysen KOMPAKT erschienen. Es ist kostenfrei per E-Mail erhältlich: gabriele.bohm@bbr.bund.de.
PDF-Version:
http://www.bbsr.bund.de/BBSR/DE/Veroeffentlichungen/AnalysenKompakt/2014/DL_08_2…;
Kontakt
Christian Schlag
Stab Direktor und Professor
Tel.: 022899 401-1484
christian.schlag@bbr.bund.de
Dr. Fabian Dosch
Referat I 5 – Verkehr und Umwelt
Tel.: 022899 401-2307
fabian.dosch@bbr.bund.de
***
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.
Quelle: idw
Schon ein Bier verschlechtert die Nachtsicht. Augenärzte raten zu gänzlich nüchternen Autofahrten
Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft
München – Dass schon geringe Mengen Alkohol den Sehsinn „vernebeln“, belegen Augenärzte jetzt wissenschaftlich: Das in alkoholischen Getränken enthaltene Ethanol stört den natürlichen Tränenfilm des Auges, so eine spanische Studie. Dies verschlechtert das Sehvermögen bei Nacht und erhöht die Licht- und Blendempfindlichkeit. Alkoholische Getränke beeinträchtigen also nicht nur generell das Reaktionsvermögen des Fahrers, sondern wirken auch direkt auf die Augen. Diese Effekte treten schon nach Verzehr geringer Mengen Alkohol auf und schränken die Fahrtüchtigkeit ein. Die DOG rät Autofahrern deshalb, insbesondere vor nächtlichen Fahrten gänzlich auf alkoholische Getränke zu verzichten.
Wie stark Alkohol die Reaktionszeit verlangsamt, zeigen die Zahlen: Bei fünf Prozent aller Verkehrsunfälle mit Personenschaden stand mindestens einer der Beteiligten unter Alkoholeinfluss, meldet das Statistische Bundesamt. Die Hälfte davon ereignet sich am Wochenende in der Zeit von 20 bis 24 Uhr. „Besucher von Diskotheken und Kneipen neigen in ihrer Euphorie dazu, die eigene Fahrtüchtigkeit zu überschätzen und ihren Alkoholkonsum zu verharmlosen“, sagt Professor Dr. med. Christian Ohrloff, Pressesprecher der DOG aus Frankfurt. Dabei belegen neue Studien, dass Alkohol nicht nur Koordination und Urteilsvermögen des Fahrers einschränkt, sondern auch unmittelbar die Fähigkeit, bei Nacht zu sehen.
Experten der Universität Granada testeten Kontrastsehen und Blendempfindlichkeit von 67 Probanden vor und nach dem Verzehr unterschiedlicher Mengen Rotwein. Alle Teilnehmer schnitten nach Alkoholkonsum im Sehtest deutlich schlechter ab als im nüchternen Zustand. Schuld daran sei, so die Autoren der Studie, das im Alkohol enthaltene Ethanol. Es löst die äußere, leicht fettige Schicht des Tränenfilms auf, der das Auge bedeckt. Dadurch verdunsten die wässrigen Bestandteile der Tränenflüssigkeit.
Die Folge ist, dass ein alkoholisierter Fahrer Kontraste schlechter erkennt und empfindlicher auf Licht reagiert. Dieser Effekt zeigt sich verstärkt ab einer Blutalkoholkonzentration von 0,5 Promille. Aber auch Probanden, deren Werte unterhalb der gesetzlichen Höchstgrenze lagen, sahen Kontraste schlechter und nahmen vermehrt Lichtschleier wahr. „Entscheidend ist, dass Alkohol generell unser Reaktionsvermögen beeinträchtigt“, sagt Professor Dr. med. Bernhard Lachenmayr, Vorsitzender der Verkehrskommission der DOG aus München. „Dass das Ethanol darüber hinaus das Sehvermögen einschränkt, stützt nur einmal mehr die Empfehlung, sich alkoholisiert gar nicht erst hinters Steuer zu setzen.“
Denn schon bei geringem Alkoholkonsum und normalen Lichtverhältnissen verschlechtert sich die Sicht für den Feiernden kaum wahrnehmbar. Dies sei besonders gefährlich, so Lachenmayr: „Viele Kneipenbesucher halten sich noch für fahrtüchtig, wenn sie ein bis zwei Gläser Bier getrunken haben.“ Nach den oben beschriebenen Erkenntnissen stehe dies einmal mehr in Frage. „Demzufolge können schon geringe Mengen Alkohol dazu führen, dass der Fahrer Fußgänger und Straßenschilder zu spät erkennt oder durch die Scheinwerfer entgegenkommender Autos geblendet wird.“
Quellen:
Castro J, Pozo AM et al., Retinal-Image Quality and Night Vision Performance after Alcohol Consumption, Journal of Ophthalmology Volume 2014 (2014), DOI:10.1155/2014/704823
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.
Weitere Informationen:
http://www.dog.org
Quelle: idw
Gierige Menschen lernen schlechter aus ihren Fehlern
Marco Bosch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg
Wissenschaftler der Universität Würzburg konnten einen Zusammenhang zwischen Gier als Persönlichkeitsmerkmal und riskantem Verhalten herstellen. Über die Ergebnisse ihrer Studie berichtet das Fachmagazin Social Neuroscience in seiner aktuellen Ausgabe.
Hochriskante Spekulationen von Mitarbeitern der Finanzdienstleistungsbranche trugen zu einem Teil zum Auftreten der Finanzkrise bei. Im Sommer 2007 weitet sich die US-amerikanische Immobilienkrise zu einer weltweiten Finanzkrise aus, deren Folgen bis heute die Märkte belasten.
Vor diesem Hintergrund haben die Neuro-Wissenschaftler unter Leitung von Johannes Hewig 2010 mit den Arbeiten an einer nun veröffentlichten Studie begonnen. „Aus Sicht der Psychologie ist es natürlich ungemein spannend, sich der Frage zu stellen, inwieweit Gier als Persönlichkeitsmerkmal riskantes Verhalten vorhersagen kann, und wie sich solche Zusammenhänge erklären lassen“, sagt Professor Hewig von der Universität Würzburg.
Entwicklung eines Tests für das Persönlichkeitsmerkmal Gier
„Zuerst musste der Begriff ‚Gier‘ jedoch präzisiert werden“, erklärt Psychologe Patrick Mussel. Dem Team am Lehrstuhl für Psychologie I an der Universität Würzburg gelang es, das Persönlichkeitsmerkmal Gier zu fassen und einen Test zu entwickeln, mit dem man Gier messen kann. Dies funktioniert über einen Fragebogen, bei dem die Probanden Aussagen in verschiedenen Ausprägungen zu- oder nicht zustimmen können.
„Der Test erfasst den Wunsch nach mehr, koste es was es wolle – einschließlich einem exzessiven Streben nach materiellen Gütern“, sagt Mussel und hebt die wesentliche Bedingung hervor: „Eine gierige Person zeichnet sich in unserer Definition durch die Bereitschaft aus, dass ihr Streben nach mehr auf Kosten von anderen geht.“
Zusammenhang von Gier und Risikoverhalten
An der Risikoaufgabe nahmen 20 Studierende der Wirtschaftswissenschaften teil. Im Labor bearbeiteten die Versuchspersonen die so genannte „Balloon-Analogue-Risk-Task.“ Bei dieser Aufgabe müssen die Probanden einen virtuellen Luftballon, der auf einem Bildschirm dargestellt wird, möglichst weit aufpumpen. Je praller er wird, desto größer ist die Chance auf den Gewinn. Platzt der Ballon jedoch, verliert man alles. Der Student mit dem größten Gewinn bekam am Ende der Durchgänge eine reale finanzielle Entlohnung als Preis.
Danach bearbeiteten die Versuchspersonen den Test zur Erfassung von Gier. „Wie erwartet zeigte sich, dass Personen, die besonders gierig waren, den Ballon häufiger aufpumpten als Personen mit niedrigeren Werten auf Gier“, sagt Mussel. Die Risikoneigung konnte also anhand des Persönlichkeitsmerkmals Gier vorhergesagt werden.
Interessanterweise war dieser Effekt besonders ausgeprägt, wenn sich die Personen zuvor mit der Biografie einer gierigen Person beschäftigt hatten. „Hier wurde das Persönlichkeitsmerkmal Gier gewissermaßen aktiviert“, erklärt Mussel.
Gier erschwert das Lernen aus Fehlleistungen
Zusätzlich wurden während der Risikoaufgabe neuronale Prozesse mittels Elektroenzephalogramm (EEG) verfolgt. „Dies ermöglicht die Untersuchung der zugrundeliegenden kognitiven Prozesse und bietet Ansatzpunkte für Erklärungsmodelle für diese Verhaltensweisen“, so Mussel.
Während der Ballon-Aufgabe zeigte sich im EEG zunächst eine typische Reaktion: Etwa 280 Millisekunden nach der Rückmeldung, ob der Ballon geplatzt war oder nicht, zeigte sich eine Komponente im EEG, die als „feedbackbezogene Negativierung“ bezeichnet wird. Sie zeigt an, ob ein Ereignis besser oder schlechter war als erwartet. Diese Komponente wird als Indikator eines wichtigen neuronalen Prozesses interpretiert, der es uns ermöglicht, aus Fehlern zu lernen und unser Verhalten entsprechend anzupassen.
Was die Forscher überraschte: Für Personen mit hohen Werten auf Gier verschwand die charakteristische Reaktion auf den Feedbackstimulus. Gierige Versuchspersonen zeigten nahezu die gleiche Hirnaktivität, unabhängig von Erfolg oder Nicht-Erfolg beim Aufblasen.
Dies könnte bedeuten, dass gierige Menschen Schwierigkeiten haben, aus Fehlern zu lernen und ihr Verhalten anzupassen. Ähnliche Befunde wurden in früheren Studien bereits für Psychopathie berichtet.
Hohe Boni können Gier bei Managern aktivieren
Die Befunde legen nahe, dass riskantes Verhalten in verschiedenen Kontexten durch Gier als Persönlichkeitsmerkmal beeinflusst ist. Dabei ist dieser Effekt besonders stark, wenn Gier zuvor aktiviert wurde. Solche aktivierenden Einflüsse könnten beispielsweise ein hoher Bonus auf finanzielle Erfolge oder auch Aspekte der Unternehmenskultur sein.
Ein möglicher Erklärungsansatz: Das riskante Verhalten gieriger Personen könnte daher kommen, dass sie negative Reize oder Warnsignale aus der Umwelt ignorieren. Dies könnte auch das Auftreten und Platzen von Spekulationsblasen erklären. Sie entstehen dadurch, dass Investoren in einer Zeit steigender Kurse ihre Anteile zu lange halten und Indizien, die auf einen Umschwung hinweisen, ignorieren.
Weitere Untersuchungen geplant
Als nächstes planen die Würzburger Wissenschaftler die Übertragung ihrer Befunde auf andere Zielgruppen, wie beispielsweise Investmentbanker. Darüber hinaus arbeiten die Psychologen an der Frage, aus welchen Facetten sich Gier zusammensetzt und durch welche Faktoren der Einfluss von Gier auf das Verhalten moderiert wird.
Mussel, P., Reiter, A, M. F., Osinsky, R. & Hewig, J. (2014). State- and trait-greed, its impact on risky decision-making and underlying neural mechanisms. Social Neuroscience, 10.
doi: 10.1080/17470919.2014.965340.
Online abrufbar: http://www.tandfonline.com/eprint/KUkMdk3x3m36HQuNzwSm/full
Kontakt
Patrick Mussel, Fakultät für Humanwissenschaften, Lehrstuhl für Psychologie I
Arbeitsgruppe Differentielle Psychologie, Persönlichkeitspsychologie und Psychologische Diagnostik T. +49-931-31-83782, E-Mail: patrick.mussel@uni-wuerzburg.de
Weitere Informationen:
http://www.tandfonline.com/eprint/KUkMdk3x3m36HQuNzwSm/full Link zur Veröffentlichung
http://www.uni-wuerzburg.de Link zur Universität Würzburg
Quelle: idw
Smartphones: sauberer als gedacht
Jutta Neumann Pressestelle
Hochschule Furtwangen
Smartphones sind weit weniger Bakterienschleudern als befürchtet. Mit einem Alltagstrick bekommt man die Keimbelastung sogar noch besser in den Griff. Ein Forscherteam rund um Prof. Dr. Markus Egert von der Hochschule Furtwangen, Campus Schwenningen, konnte zeigen, dass entgegen anders lautender Horrormeldungen aus dem Internet Smartphone-Touchscreens nur mäßig mit Mikroorganismen belastet sind.
In einer jetzt veröffentlichten Studie bestimmten die Forscher die durchschnittliche Gesamtkeimzahl auf den Touchscreens von Smartphones mit rund einem Keim pro Quadratzentimeter. Dies sind gut 100 Mal weniger Mikroben als man auf der menschlichen Hand oder auch auf dem häuslichen Toilettensitz findet, der gerne als abschreckender Vergleich herangezogen wird.
Allerdings wurden in der Studie auch potentielle Krankheitserreger auf den Touchscreens entdeckt. So wurden z.B., wenn auch in geringen Mengen, Fäkalbakterien wie Escherichia coli nachgewiesen. 50% der sicher identifizierten Arten gehörten zur Risikogruppe 2, das heißt sie waren potentiell pathogen. Zur hygienischen Reinigung empfehlen die Forscher entweder saubere Mikrofasertücher oder – noch besser – alkoholische Brillenputztücher, die die Keimzahl um bis zu 96% reduzieren können. Die Hersteller von Mobilgeräten raten allerdings meist nur zur trockenen Reinigung. Damit lassen sich jedoch lediglich 80% der Keime entfernen, zeigte die Studie.
Aus der Studie hat sich zudem eine wissenschaftliche Zusammenarbeit mit der Zeiss Vision International GmbH aus Aalen zum Thema Reinigung und Hygiene von Oberflächen ergeben. Das Thema Haushaltshygiene und die Mikrobiologie von Gebrauchsgegenständen gehören zu den Hauptarbeitsgebieten von Professor Egert.
DOI: 10.1007/s12223-014-0350-2
Weitere Informationen:
http://link.springer.com/article/10.1007/s12223-014-0350-2 Folia Microbiologica – die Studie (auf Englisch)
Quelle: idw
Bioabfall hält Einzug in die Gastronomie
Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland
Fauchon, Taillevent und Le Napoleon gehören zu den insgesamt 80 Restaurants, Hotels und Catering Anbietern im Großraum Paris, die ihren Bioabfällen einen ganz neuen Stellenwert einräumen.
Ab 2015 sind Restaurants verpflichtet, ab einem bestimmten Schwellenwert (20 Tonnen pro Jahr) ihre Bioabfälle zu sortieren und zu verwerten. Der französische Berufsverband Synhorcat hat bereits im März 2014 eine erste achtmonatige Versuchsreihe gestartet, an der 80 Restaurants, Hotels und Caterer aus Paris freiwillig teilnehmen. Es handelt sich um kleine Bistrots und Cafés, aber auch um renommierte Restaurants und Feinkostläden wie Fauchon, Taillevent und Le Napoleon.
Die Bioabfälle werden in den dichtbesiedelten Städten täglich in Mini-Müllwagen eingesammelt und zu einer Biogasverarbeitungsplattform südlich von Paris transportiert. Dort werden die Bioabfälle zur Erzeugung von Methangas verwertet. Das so erzeugte Biogas wird hauptsächlich direkt an der Biogasanlage zur dezentralen gekoppelten Strom- und Wärmeerzeugung (Kraft-Wärme-Kopplung) in Blockheizkraftwerken (BHKWs) genutzt; seltener wird das Biogas zu Biomethan aufbereitet. Bei der direkten Nutzung wird das Gasgemisch getrocknet, entschwefelt und dann einem Biogasmotor zugeführt, der einen Generator antreibt. Der so produzierte Strom wird in das Netz eingespeist. Der Rückstand nach der Verarbeitung, der so genannte Gärrest, dient als Dünger für die Landwirtschaft.
Insgesamt 200 Tonnen Abfall sollen durch diese Initiative verwertet werden. Die französische Agentur für Umweltschutz und Energie (ADEME) fördert das Projekt mit € 173 600 Euro. Dieses Experiment ist ein Beweis dafür, dass eine sinnvolle Verwertung von in Städten anfallenden Bioabfällen möglich ist. Die Müllfahrzeuge sind mit einem Messinstrument ausgestattet, sodass jeder Gastronom genau verfolgen und dokumentieren kann, wieviel Abfälle er produziert. Dies fördert möglicherweise ein gesellschaftliches Umdenken und könnte zu einer Reduzierung der Abfallproduktion und Verschwendung führen.
Quelle: Pressemitteilung des französischen Ministeriums für Umwelt, Energie und nachhaltige Entwicklung « Transition énergétique : les restaurateurs valorisent les biodéchets »,
http://www.developpement-durable.gouv.fr/Transition-energetique-les.html
Redakteurin: Daniela Niethammer, daniela.niethammer@diplomatie.gouv.fr
Weitere Informationen:
http://www.wissenschaft-frankreich.de
Quelle: idw
Familie und berufliche Mobilität: Welchen Herausforderungen müssen sich Betroffene stellen?
Holger Schleper Geschäftsbereich Kommunikation – Presse- und Informationsstelle
Hochschule Osnabrück
Lisa Hoffmann, Doktorandin im Forschungskolleg „FamiLe – Familiengesundheit im Lebensverlauf“ an der Hochschule Osnabrück, sucht Interviewpartnerinnen und -partner.
Knapp fünf Prozent der Vollzeit erwerbstätigen Personen zwischen 25 und 54 Jahren aus Deutschland, Frankreich, Belgien, der Schweiz, Polen und Spanien sind regelmäßig aus beruflichen Gründen über Nacht nicht zu Hause. Dieses Ergebnis einer wissenschaftlichen Studie stammt bereits aus dem Jahr 2007. Jetzt untersucht eine Doktorandin der Hochschule Osnabrück, welche Konsequenzen sich aus diesen Lebensmodellen für Familien ergeben.
„Berufliche Mobilität wird von Politik und Wirtschaft zunehmend erwartet“, erklärt Lisa Hoffmann. Familien seien hier im wachsenden Maße gefordert. „Ist ein Partner beruflich mobil, stellen sich die Herausforderungen, mit denen Familien im Allgemeinen konfrontiert sind, in verschärfter Form.“ Untersuchungen konnten laut der Soziologin Hoffmann unter anderem nachweisen, dass die berufliche Mobilität Auswirkungen auf die Entscheidung zur Elternschaft haben kann. „Allerdings gilt grundsätzlich, dass wenig über die Bewältigung des Alltags und die damit verbundenen Handlungsstrategien bekannt ist. Auch die Frage, welche Auswirkungen die berufliche Mobilität auf die Familiengesundheit haben kann, ist noch offen.“ Die Ergebnisse von Hoffmanns Arbeit sollen einen Einblick in die Lebenswelt betroffener Familien geben und zur Debatte der Vereinbarkeit von Beruf und Familie beitragen.
Für ihr Forschungsprojekt sucht Hoffmann noch Interviewpartnerinnen und -partner.
Es können alle Familien an der Studie teilnehmen, in denen mindestens ein erwachsener Partner regelmäßig aus beruflichen Gründen über Nacht unterwegs ist und bei denen Kinder mit im Haushalt leben. Wer Interesse an einer Teilnahme oder noch ergänzende Fragen hat, kann sich bei Lisa Hoffmann unter der Adresse hoffmann(at)wi.hs-osnabrueck.de melden.
Hoffmann ist Promovendin im Forschungskolleg „FamiLe – Familiengesundheit im Lebensverlauf“. Das Kolleg ist eine gemeinsame Einrichtung der Hochschule Osnabrück und der Universität Witten/Herdecke und wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.
Ansprechpartnerin:
Lisa Hoffmann, M.A.
Soziologin
Forschungskolleg FamiLe
Hochschule Osnabrück
E-Mail: hoffmann@wi.hs-osnabrueck.de
Weitere Informationen:
http://www.wiso.hs-osnabrueck.de/famile.html
Quelle: idw
Weltmännertag 2014 – Urologen appellieren: Männergesundheit beginnt beim Jungen
Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.
Ob Weltmännertag am 3. November, internationaler Männertag am 19. November oder die weltweite Spendenkampagne für Prostatakrebsforschung und Männergesundheit „Movember“: Der Herbst steht ganz im Zeichen des gesundheitspolitisch noch immer stark vernachlässigten starken Geschlechts.
Die Deutsche Gesellschaft für Urologie e.V. (DGU) und der Berufsverband der Deutschen Urologen e.V. (BDU) appellieren an die Männer, ihre Gesundheitskompetenz zu schärfen und vorhandene Gesundheitsangebote besser zu nutzen – und zwar in jeder Altersgruppe. Sie selbst halten dafür diverse Ratgeber sowie ein umfangreiches Angebot medizinischer Informationen für Interessierte und Patienten auf ihrer Website (www.urologenportal.de) vor und setzen sich mit regelmäßigen Laienforen für die öffentliche Aufklärung ein.
Männergesundheit beginnt bereits beim Jungen, betonen Urologen zum Weltmännertag 2014. Praktisch bedeutet das zum Beispiel die frühzeitige Feststellung medizinischer Fehlbildungen, die Einhaltung eines altersgerechten Impfplans, rechtzeitige Aufklärung über Verhütung und sexuell übertragbare Infektionen sowie die Aufklärung über Selbstuntersuchung zur Früherkennung von Hodenkrebs. „Männliche Jugendliche sind eine wichtige Zielgruppe, um die Männergesundheit langfristig zu verbessern“, sagt DGU-Pressesprecherin Prof. Dr. Sabine Kliesch. „Wir wollen die Jungen frühzeitig sensibilisieren und ihr Gesundheitsbewusstsein wecken, sodass der Gang zum Arzt so selbstverständlich wie bei Mädchen und Frauen wird.“ Zu diesem Zweck engagieren sich DGU und BDU derzeit auf zwei Ebenen. „Zum einen sind wir dabei, eine Jungensprechstunde in urologischen Praxen zu etablieren, die den Jungen auch in der Pubertät einen ärztlichen Ansprechpartner bietet und damit eine Lücke im Männerleben schließt“, so BDU-Pressesprecher Dr. Wolfgang Bühmann. Zum anderen kooperieren die Urologen mit der Ärztlichen Gesellschaft zur Gesundheitsförderung e.V. bei der gesundheitlichen Bildung von Jungen in Schulen.
Was Männer im Laufe ihres Lebens zur „Prävention urologischer Erkrankungen“ von Blase, Nieren und Prostata, für Potenz und Fruchtbarkeit tun können, bringt der gleichnamige Ratgeber von DGU und BDU auf den Punkt. Aufklärung über Prostatakrebsfrüherkennung empfehlen Deutschlands Urologen allen Männern ab 45 Jahren. Nicht zuletzt appellieren die Experten für Männergesundheit am diesjährigen Weltmännertag, altersbedingte urologische Erkrankungen des Mannes wie die gutartige Prostatavergrößerung, Testosteronmangel oder die Erektile Dysfunktion im Sinne einer guten Lebensqualität und der Vermeidung von Folgeerkrankungen abklären und behandeln zulassen.
Weitere Informationen und alle Ratgeber der Urologen finden Interessierte jeden Alters – nicht nur an Männertagen – auf www.urologenportal.de
Weitere Informationen
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de
Weitere Informationen:
http://www.urologenportal.de
Quelle: idw
Internationaler Tag der Flüsse: Schlechte Karten
Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
Flüsse durchströmen die meisten unserer großen Städte und übernehmen wichtige Funktionen für den Menschen. Damit sie auch in Zukunft nutzbar bleiben, fordert die EU-Wasserrahmenrichtlinie bis 2015 eine systematische Verbesserung aller europäischen Gewässer. Zum „Internationalen Tag der Flüsse“ am Sonntag, 28. September, erklärt Dr. Christian Wolter, Wissenschaftler am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin, warum dies vor allem in stärker besiedelten Gebieten nicht ganz einfach ist. „Der urbane Einfluss lässt andere Verbesserungsmaßnahmen oftmals wirkungslos erscheinen“, sagt Wolter.
Ob plätschernder Bach oder reißender Strom – Flüsse sind Lebensraum für eine Vielzahl von Arten und haben zugleich eine große Bedeutung für den Menschen. Sie dienen der Trinkwasserversorgung, als Wirtschaftswege oder der Freizeitnutzung. Um all diese Funktionen zu sichern, wurde im Jahr 2000 die EU-Wasserrahmenrichtlinie aufgelegt. Seither ist neben der Wasserqualität auch der gute ökologische Zustand aller Gewässer ein verbindliches Entwicklungsziel, das heißt ein relativ naturnaher, nur wenig vom Menschen beeinflusster Gewässerzustand.
Flüsse unter Stress
Aktuell sind über die Hälfte der europäischen Flüsse in moderatem oder sogar schlechtem Zustand. „Faktoren wie Flussbettveränderungen und Kanalisierungen verschlechtern die Lebensbedingungen von Fischen und anderen aquatischen Lebewesen“, erklärt Christian Wolter. Der Verlust von Uferbereichen mit ihrer typischen Vegetation bedeute für viele Tierarten, Schutz- und Lebensraum zu verlieren. Zusätzlicher Stress könne durch steigende Wassertemperaturen entstehen. Zudem hat der Klimawandel ein erhöhtes Hochwasserrisiko zur Folge, während hingegen in anderen Regionen Flüsse aufgrund geringerer Niederschläge zu wenig Wasser führen.
Im Laufe der Jahrhunderte wurden alle größeren Flüsse reguliert und verändert, um beispielsweise dem Hochwasserabfluss oder der Schifffahrt zu dienen. Viele von ihnen werden auch heute noch in gleicher Weise genutzt. Aus diesem Grund sieht die Wasserrahmenrichtlinie Ausnahmen vor: Künstliche und erheblich veränderte Gewässer müssen geringere Umweltanforderungen erfüllen und ein gutes ökologisches „Potenzial“ erreichen. Damit ist zum Beispiel die Artenvielfalt gemeint, die sich einstellt, wenn alle ökologisch wirksamen Maßnahmen angewendet werden, die die vorhandene Nutzungen nicht beeinträchtigen.
Versiegelte Flächen in Gewässernähe behindern verbessernde Eingriffe
Doch wo und in welchem Umfang sollten Verbesserungsmaßnahmen durchgeführt werden, um die Wasserrahmenrichtlinie möglichst effizient umzusetzen? Um diese Frage zu beantworten, untersuchte ein IGB-Forscherteam, welche Einflüsse auf welchen räumlichen Skalen relevant sind.
„Bezogen auf den jeweiligen Flussabschnitt fanden wir dabei heraus, dass für Fische naturnahe Uferzonen besonders wichtig sind“, so Wolter. „Für Wirbellose ist hingegen die Laufform der wichtigste Einflussfaktor, denn sie beeinflusst wiederum die Zusammensetzung der Sedimentstruktur, von der das Vorkommen der Tierchen in erster Linie bestimmt wird.“
Ebenso entscheidend für die „Gewässergesundheit“ sind allerdings Effekte auf Einzugsgebiets-Ebene. Urbanisierung oder Verstädterung, insbesondere die Bebauung und Versiegelung von Flächen, ist dabei die dominierende Einflussgröße: „Schon bei einer urbanen Landnutzung von 16 Prozent im Einzugsgebiet lässt sich ein guter ökologischer Zustand für Wirbellose nicht mehr erreichen – ganz unabhängig von den übrigen Einflussfaktoren“, Wolter weiter. Dieses Ergebnis zeige, wie großräumige Einflüsse den Erfolg lokaler Verbesserungsmaßnahmen beeinträchtigen können, aber auch, wie wichtig es ist, bei der Planung und Umsetzung von Managementmaßnahmen das gesamte Einzugsgebiet zu berücksichtigen.
Studie:
Kail, J. & Wolter, C. (2013) Pressures at larger spatial scales strongly influence the ecological status of heavily modified river water bodies in Germany. Science of the Total Environment 454-455: 40-50.
Kontakt:
Dr. Christian Wolter
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
Tel. +49 (0)30 64181 633
E-Mail: wolter@igb-berlin.de
Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) gehört zum Forschungsverbund Berlin e.V. (FVB), einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. In ihnen arbeiten mehr als 1.500 Mitarbeiter. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. Entstanden ist der Forschungsverbund 1992 in einer einzigartigen historischen Situation aus der ehemaligen Akademie der Wissenschaften der DDR.
Weitere Informationen:
http://www.igb-berlin.de
Quelle: idw
Deponiegas kostengünstig aufbereiten
Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH
Aktivkohle zur Gasaufbereitung vor Ort regenerieren
Anstelle von Erdgas kann auch Deponiegas aus Mülldeponien und Kläranlagen in Blockheizkraftwerken verbrannt und energetisch genutzt werden. Um die Turbinen und Motoren nicht vorzeitig zu verschleißen, muss das Gas vorab von unerwünschten Begleitstoffen, z. B. siliziumorganischen Verbindungen, gereinigt werden. Das BINE-Projektinfo „Deponiegas sauber nutzen“ (11/2014) stellt ein Verfahren vor, mit dem das Adsorptionsmittel vor Ort regeneriert wird. Dadurch muss die Aktivkohle seltener ausgetauscht werden. Das Ziel ist, Kosten zu senken und die Gasreinigung wirtschaftlicher zu machen.
Die Adsorption mit Aktivkohle und anschließender Regeneration ist das gebräuchlichste Verfahren zur Gasreinigung. Die Siloxa Engineering AG hat gemeinsam mit Fraunhofer UMSICHT eine Vor-Ort-Regeneration der Aktivkohle durch adsorptive Reinigung entwickelt. In Feldversuchen auf der Deponie Vereinigte Ville in Erftstadt-Liblar bei Köln wurde das Verfahren erprobt. Um zusätzlich die Belastung mit polaren organischen Verbindungen, wie Trimethylsilanol, zu senken, empfehlen die Forscher eine Vorreinigung mit einer Sickerwasserwäsche.
Die Forschungsgruppe entwickelte ein theoretisches Verfahrenskonzept für eine Gasreinigungsanlage mit einem Durchsatz von 1.000 Nm³ pro Stunde: Für dieses Konzept erstellte das Forschungsteam auch eine Betriebskostenanalyse bei einer durchschnittlichen Siliziumbelastung des Deponiegases. Auf dieser Basis berechneten sie bei den spezifischen Betriebskosten einen deutlichen Vorteil des neuen Verfahrens gegenüber einer konventionellen Adsorptionsanlage mit einem Austausch der Aktivkohle. Um das Vor-Ort-Verfahren zur Marktreife zu bringen, müssen weitere Tests unter anwendungsnahen Randbedingungen durchgeführt werden.
Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 92379-0.
BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.
Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr
Quelle: idw
GfK-Umfrage: Zwei-Klassen-Medizin in Deutschland?
Constanze Steinhauser PR
Duale Hochschule Baden-Württemberg
Professoren für BWL-Gesundheitsmanagement über Entwicklungen im Gesundheitssystem
Welche Einschätzungen und Erwartungen haben die Bürger in der nahen Zukunft zum Gesundheitssystem? Das war Gegenstand einer repräsentativen GfK-Umfrage des Studiengangs BWL-Gesundheitsmanagement der Dualen Hochschule Baden-Württemberg (DHBW) Mosbach. Die Ergebnisse nutzen die Professoren für ihre Lehre, um den dualen Studierenden die Herausforderungen des Berufsalltags in der Gesundheitsbranche vor Augen zu führen.
Das prägnanteste Ergebnis der Befragung: 67 Prozent der Teilnehmer gaben an, dass sie eine Zwei-Klassen-Medizin zwischen privat und gesetzlich Versicherten befürchten. Bei Haushalten mit drei Kindern oder mehr sind es sogar 71 Prozent. „Diese Einschätzung ist zwar keinesfalls ein Hinweis auf die tatsächliche Existenz einer Zwei-Klassen-Medizin“, so Prof. Dr. Tobias Lutz, der im Studiengang BWL-Gesundheitsmanagement an der DHBW Mosbach lehrt, „aber bedenklich finde ich, dass diese Zahlen wie auch die anderen Umfrageergebnisse belegen, dass der Wandel im Gesundheitssystem die Menschen in allen Lebenssituationen und Versorgungsbereichen verunsichert.“
So sorgt sich ein Drittel der Bevölkerung um die medizinische Versorgung im ländlichen Raum, in Mecklenburg-Vorpommern und Brandenburg sogar mehr als die Hälfte der Befragten. Knapp 30 Prozent sehen die Pflegeversorgung nicht gewährleistet. „Dass dieser Wert so hoch ausfällt, hat uns überrascht. Denn viel weniger Menschen kommen mit dem Bereich Pflege in Berührung als beispielsweise mit ambulanter oder stationärer Versorgung. Das zeigt, wie relevant das Thema ist“, so Lutz. Dass die Menschen sich zu Recht Sorgen um die zukünftige Entwicklung machen, belegen die Zahlen des Statistischen Bundesamts: In den Jahren von 2001 bis 2011 ist die Zahl der Pflegebedürftigen von gut 2 Millionen auf rund 2,5 Millionen gestiegen. Das Amt schätzt, dass es bis 2030 3,4 Millionen Pflegebedürftige in Deutschland gibt – und dass dann rund 150.000 Pflegekräfte fehlen.
Auch die betriebswirtschaftliche Orientierung im Gesundheitssystem beschäftigt die Bürger. 43 Prozent befürchten laut Umfrage, dass ihre Ärzte oder Krankenhäuser unnötige Behandlungen durchführen würden, wenn sie diese gut abrechnen können. Ein knappes Viertel der Befragten glaubt zudem, dass der Fortschritt in der Medizintechnik in Zukunft die finanziellen Mittel des Gesundheitssystems übersteigen werde. Tobias Lutz und seine Kollegen Prof. Dr. Dr. Frank Elste und Prof. Dr. Björn Peters kennen die Entwicklung: „Über 300 Milliarden Euro flossen in Deutschland 2012 in Gesundheitsausgaben. Dieser Betrag hat sich in den letzten 20 Jahren fast verdoppelt. Auch der Anteil am Bruttoinlandsprodukt stieg in dieser Zeit von 9,6 auf 11,3 Prozent“, erklärt Peters.
„Angesichts solcher Zahlen wird klar, warum wir zunehmend stärker betriebs- und volkswirtschaftliche Faktoren berücksichtigen müssen. Wir haben unzählige medizinische Therapiemöglichkeiten, müssen sie jedoch im wirtschaftlich möglichen und medizinisch notwendigen Rahmen einsetzen“, so Frank Elste. „Gewinnorientierung ist keine falsche Entwicklung. Ökonomisierung darf aber nicht zu Fehlentwicklungen führen wie beispielsweise zu ethisch fragwürdigen Entscheidungen angesichts von Fallpauschalen oder zu schlechterer Betreuung aus Personalmangel.“ Der duale Studiengang BWL-Gesundheitsmanagement bereitet darum seit 2004 Studierende darauf vor, in der Gesundheitsbranche zu arbeiten. Auf dem Stundenplan stehen neben klassischen BWL-Kenntnissen Spezialisierungen in den Bereichen Klinikmanagement, Medizincontrolling und Healthcare Marketing, aber auch Gesundheitspolitik und Medizinethik.
Gesamtgesellschaftliche Herausforderung
Die Entwicklungen des Gesundheitssystems seien nur zusammen zu meistern, sind sich die Professoren des Studiengangs BWL-Gesundheitsmanagement sicher. Deswegen gibt es am Campus Bad Mergentheim zwei Vertiefungsrichtungen: Im Bereich Gesundheitseinrichtungen verbringen die dualen Studierenden ihre Praxisphasen in Krankenhäusern oder Pflegeeinrichtungen, bei Krankenkassen oder Verbänden wie dem Roten Kreuz. Im Bereich Healthcare Industry bilden Unternehmen aus der Pharma- oder Medizintechnikbranche die jungen Leute zusammen mit der DHBW Mosbach aus. Ein Ergebnis der Studie freut Frank Elste besonders: „Die Bürger sind bereit, auch selbst einen Beitrag zu leisten, um die Versorgung zu verbessern. Nur 11 Prozent der Befragten würden wegen steigender Zuzahlungen auf medizinische Leistungen verzichten. Das zeigt, dass nicht nur die Branche, sondern alle diese Situation als gesamtgesellschaftliche Herausforderung ansehen.“
Die Befragung wurde von der GfK in Nürnberg unter 2.000 Bundesbürgern ab 14 Jahre im Zeitraum vom 15. August bis 5. September 2014 durchgeführt und ist repräsentativ für die Gesamtbevölkerung.
Weitere Informationen:
http://www.dhbw-mosbach.de/gesundheitsmanagement.html – Informationen zum Studiengang BWL-Gesundheitsmanagement
Quelle: idw
Städtische Wasserinfrastrukturen nachhaltig (um)gestalten
Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik
Städtische Wasserinfrastrukturen nachhaltig (um)gestalten – Innovative Ansätze und Lösungen für aktuelle Herausforderungen
Terminhinweis: Difu-Seminar, 6. – 7. November 2014 in Berlin
Die Infrastrukturen der Wasserversorgung und Stadtentwässerung sind in jüngerer Zeit verstärkt ins öffentliche Bewusstsein gerückt. Ausschlaggebend hierfür sind Veränderungen wichtiger Rahmenbedingungen. Die Auswirkungen aktueller Bevölkerungsentwicklungen sowie veränderte Niederschläge durch den Klimawandel erfordern mancherorts erhebliche Anpassungen von Netzen und Anlagen. Steigende Preise für Energie und Rohstoffe schlagen sich auf die ohnehin schon in den Schlagzeilen stehenden Wasser- und Abwasserpreise nieder. Und nicht zuletzt stehen Investitionsbedarfe bei der wasserwirtschaftlichen Infrastruktur im Kontrast zu den enger werdenden Finanzierungsspielräumen der öffentlichen Hand. Mit diesem Wandel verändern sich die Anforderungen und Zielsetzungen der Siedlungswasserwirtschaft. Neben dem Gesundheits-, Hochwasser- und Umweltschutz tritt immer stärker die Erwartung eines sparsamen Umgangs mit Energie und Ressourcen in den Vordergrund. Flexible, kostengünstige und robuste Lösungen werden gefordert.
Vor diesem Hintergrund haben in den letzten Jahren intelligente Systemlösungen und Bewirtschaftungskonzepte im Bereich der Siedlungswasserwirtschaft zunehmend an Aufmerksamkeit gewonnen. Der differenzierte Gebrauch von Wasser unterschiedlicher Herkunft und Qualität, die energie- und ressourceneffiziente Entsorgung von Abwasser, die Erschließung der Potenziale des Abwassers für die städtische Energieversorgung sowie die Bewirtschaftung von Regenwasser und die Integration von Regenwassermanagement und Stadt- und Regionalentwicklung stehen dabei im Fokus.
Im Seminar wird ein Überblick über die aktuellen Entwicklungen gegeben. Konzepte des Umbaus und Fallbeispiele innovativer Infrastrukturentwicklung werden vorgestellt:
– Aktuelle Herausforderungen der Siedlungswasserwirtschaft
– Leitbilder zur Zukunft der Siedlungswasserwirtschaft
– Möglichkeiten zur Steigerung der Energie- und Ressourceneffizienz
– Konzepte und Umsetzung energie- und ressourcensparender Infrastruktur
– Integrierte Stadt-, Infrastruktur- und Gebäudeplanung
– Regenwassermanagement
Leitung:
Dr.-Ing. Darla Nickel und Dipl.-Sozialökonom/Dipl.-Volkswirt Jens Libbe, Deutsches Institut für Urbanistik
Programm mit Detailinfos/Konditionen:
http://www.difu.de/veranstaltungen/2014-11-06/staedtische-wasserinfrastrukturen-…
Teilnehmerkreis:
Führungs- und Fachpersonal aus den Bereichen Stadtentwicklung, Bauleitplanung, und Umwelt, Entscheidungsträger aus Unternehmen und Betrieben der Wasserversorgung und Abwasserentsorgung sowie Ratsmitglieder
Veranstalter:
Deutsches Institut für Urbanistik gGmbH (Difu)
Veranstaltungsort:
Deutsches Institut für Urbanistik (Difu)
Zimmerstr. 13-15
10969 Berlin
Ansprechpartnerin/Anmeldung:
Bettina Leute
Tel.: 030/39001-148
Fax.: 030/39001-268
E-Mail: leute@difu.de
Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.
Difu-Website:
http://www.difu.de
Vernetzen Sie sich mit uns über Facebook:
https://www.facebook.com/difu.de
Difu im informationsdienst wissenschaft (idw):
http://www.idw-online.de/de/pressreleases225
***************************************************************
Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden
Weitere Informationen:
http://www.difu.de/veranstaltungen/2014-11-06/staedtische-wasserinfrastrukturen-…
Quelle: idw
Gehirnjogging am Computer hält nicht, was es verspricht
Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung
Die Behauptung, ältere Menschen könnten mit kommerziellen Computerspielen ihre allgemeine geistige Leistungsfähigkeit steigern und der Demenz vorbeugen, ist wissenschaftlich nicht belegt, sagen Wissenschaftler aus Berlin und Stanford. Gemeinsam mit über 70 weltweit führenden Kognitionspsychologen und Neurowissenschaftlern haben sie eine Erklärung veröffentlicht.
Spielend geistig fit. Klingt das nicht verheißungsvoll? Die Werbung lässt uns glauben, dass wir mit bestimmten „Gehirnjogging“-Computerspielen unsere geistige Leistungsfähigkeit steigern und sogar Demenzkrankheiten wie Alzheimer vorbeugen können – und all dies angeblich wissenschaftlich fundiert. Nicht selten ist in der Werbung „von Wissenschaftlern entwickelt“ zu lesen. Doch wie wirksam ist das computerbasierte Gehirnjogging wirklich?
Die bisherige Forschung belegt die Behauptungen der kommerziellen Anbieter nicht, stellen nun über 70 international anerkannte Kognitionspsychologen und Neurowissenschaftler fest. In einer gemeinsamen Erklärung machen sie darauf aufmerksam, dass die Behauptungen der Gehirnjogging-Anbieter wissenschaftlich nicht belegt sind. Ob und wie diese Spiele auf das Gehirn, die geistige Leistungsfähigkeit und die kompetente Bewältigung des Alltags wirken, sei nicht hinreichend erforscht. „Es ist üblich, dass Werbung Produktvorzüge hervorhebt. Oft jedoch hängen die Behauptungen der Spielefirmen nur scheinbar mit der zitierten Forschung zusammen“, sagt Laura Carstensen, Professorin für Psychologie an der Stanford University und Direktorin des Stanford Center on Longevity.
Die Experten, die die gemeinsame Stellungnahme auf Initiative der Stanford University und des Max-Planck-Instituts für Bildungsforschung unterzeichneten, sind sich einig: „Es gibt keine überzeugenden wissenschaftlichen Belege dafür, dass kommerzielle Gehirnjogging-Spiele den alterungsbedingten Abbau der geistigen Leistungsfähigkeit vermindern oder umkehren.“
Auch für Gehirnjogging-Spiele gilt: Übung macht den Meister. Wer viel spielt, steigert seine Leistungen. Die Werbung erweckt aber den Eindruck, dass die Leistungssteigerungen nicht auf die Spiele selbst begrenzt sind. Stattdessen soll einen der Lernerfolg beim Spielen generell schlauer machen, gegen geistigen Abbau schützen und die Kompetenz im Umgang mit Alltagsproblemen steigern. Für dieses Versprechen gibt derzeit es keine überzeugenden wissenschaftlichen Belege.
Allerdings warnen die Forscher auch vor Pessimismus. „Wer körperlich aktiv ist, am sozialen Leben teilnimmt und ein geistig anregendes Leben führt, hat bessere Chancen, geistig gesund zu altern“, betont Ulman Lindenberger, Direktor des Forschungsbereichs Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in Berlin. Gehirn und Verhalten sind bis ins hohe Alter trainierbar. Die Suche nach wirksamen Trainingsprogrammen sei eine wichtige wissenschaftliche und gesellschaftliche Herausforderung.
Kernaussagen der Stellungnahme im Überblick:
• Es ist nicht belegt, dass Gehirnjogging die allgemeine geistige Leistungsfähigkeit steigert.
• Werbung für Gehirnjogging-Spiele, die behauptet, Alzheimer- oder andere Demenzformen verhindern oder heilen zu können, ist wissenschaftlich unbegründet.
• Körperliches Training (aerobes Fitnesstraining) steigert die körperliche Gesundheit und wirkt nachweisbar positiv auf die Durchblutung des Gehirns und auf kognitive Leistungen.
Die gemeinsame Erklärung sowie eine Liste aller Unterzeichner unter: https://www.mpib-berlin.mpg.de/de/presse/2014/10/gehirnjogging-am-computer-haelt…
Hintergrundinformationen
Die Stellungnahme basiert auf einer Initiative von Laura Carstensen, Professorin der Psychologie an der Stanford University und Direktorin des Stanford Center on Longevity, und Ulman Lindenberger, Direktor des Forschungsbereichs Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in Berlin. Bereits 2009 haben Laura Carstensen und Ulman Lindenberger eine gemeinsame Stellungnahme zu diesem Thema herausgebracht, die nun weiterentwickelt und von einer großen Zahl von Wissenschaftlerinnen und Wissenschaftlern unterzeichnet wurde.
Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2014/10/gehirnjogging-am-computer-haelt…
Quelle: idw
Wasser als zentrales Politikum
Marietta Fuhrmann-Koch Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg
Wasser ist eine lebenswichtige, in vielen Regionen der Welt rare Ressource. Die Geographen Prof. Dr. Hans Gebhardt und Prof. Dr. Marcus Nüsser untersuchen am Beispiel des Vorderen Orients sowie Süd- und Zentralasiens, welches Konfliktpotential Wassermangel in sich trägt. Ihre Forschungsarbeiten an der Universität Heidelberg zeigen: Hinter vermeintlich politischen und religiös begründeten Konflikten stecken oft knappe Wasserressourcen – sei es physischer Wassermangel, auch aufgrund des globalen Klimawandels, oder struktureller Wassermangel, also die durch politische Machtkonstellationen bedingte ungleiche Verteilung von Wasser.
Heidelberger Forscher untersuchen das Konfliktpotential von Wassermangel
Wasser ist eine lebenswichtige, in vielen Regionen der Welt rare Ressource. Die Geographen Prof. Dr. Hans Gebhardt und Prof. Dr. Marcus Nüsser untersuchen am Beispiel des Vorderen Orients sowie Süd- und Zentralasiens, welches Konfliktpotential Wassermangel in sich trägt. Ihre Forschungsarbeiten an der Universität Heidelberg zeigen: Hinter vermeintlich politischen und religiös begründeten Konflikten stecken oft knappe Wasserressourcen – sei es physischer Wassermangel, auch aufgrund des globalen Klimawandels, oder struktureller Wassermangel, also die durch politische Machtkonstellationen bedingte ungleiche Verteilung von Wasser.
„Knappe Wasserressourcen können vor allem dann zum Konflikt führen, wenn große Ströme oder wichtige Grundwasserleiter Grenzen überschreiten“, so Prof. Gebhardt. Solche „transboundary waters“ sind ein weltweit verbreitetes Phänomen: 263 Seen und Flüsse sind grenzüberschreitend, 145 Nationen haben gemeinsam Anteil an Wasserflächen, 13 internationale Wasserressourcen werden von mehr als zwei Nationen genutzt. „Bei transnationalen Strömen sind zumeist die ‚Oberlieger‘ im Vorteil, weil sie die Abflüsse kontrollieren können“, erläutern die Wissenschaftler. Beispiele sind der Euphrat, dessen Wasser in zunehmendem Maße vom „Great Anatolian“-Projekt (GAP) in der Osttürkei genutzt wird – zum Nachteil der Unterlieger Syrien und Irak – sowie die Staudammkaskaden Chinas am oberen Mekong, die die Wassernutzung in den Staaten Laos und Thailand sowie Kambodscha und Vietnam beeinträchtigen.
Eines der ruhenden Gewässer, das an der Universität Heidelberg untersucht wird, ist der unterirdische Disi-Aquifer, der sich auf rund 320 Kilometern Länge vom Süden Jordaniens bis in die Nordregion Saudi-Arabiens erstreckt. Es handelt sich um einen fossilen Wasservorrat, auf den sowohl Agrarunternehmen Jordaniens als auch Saudi-Arabiens zugreifen. Beide Staaten streiten um die Nutzungsrechte des Disi-Aquifers, dessen Vorräte nach internationalen Schätzungen in 30 bis 50 Jahren erschöpft sein werden. Auch den Kaschmir-Konflikt zwischen Indien und Pakistan haben die Forscher unter dem Aspekt knapper Wasserressourcen analysiert. Teil des Konflikts ist ein seit 30 Jahren währender aufwändiger und kostenintensiver Stellungskrieg um den Besitz des Siachen-Gletschers im Norden Kaschmirs. „Die Auseinandersetzungen werden durch geostrategische Erwägungen, nationales Prestigedenken sowie den Wunsch nach Ressourcenzugängen motiviert und sind Erbe der Teilung Britisch-Indiens im Jahr 1947″, erklärt Prof. Nüsser.
An den unterschiedlichen Fallbeispielen zeigt sich, dass die Problemfelder Wassermangel und Wasserkonflikte in Entwicklungs- und Schwellenländern einen integrativen Forschungsansatz erforderlich machen, in dem natur- und gesellschaftswissenschaftliche Methoden kombiniert werden. Daher umfasst das methodische Spektrum der Heidelberger Wissenschaftler nicht nur etablierte empirische Methoden der Sozialforschung, sondern reicht von der satellitengestützten Kartierung bis zur Diskursanalyse.
Hans Gebhardt ist seit dem Jahr 1996 am Geographischen Institut der Universität Heidelberg mit dem Schwerpunkt Anthropogeographie tätig. Zu seinen zentralen Forschungsinteressen gehören die politische Geographie und die Kulturgeographie im Vorderen Orient sowie in Südost- und Ostasien. Prof. Gebhardt betreut als Herausgeber eine Reihe von Standardwerken der Geographie sowie die Geographische Zeitschrift.
Marcus Nüsser forscht und lehrt seit 2006 am Südasien-Institut der Universität Heidelberg. Zu den Forschungsschwerpunkten des Geographen zählen die Mensch-Umwelt- und Hochgebirgs-Forschung, Politische Ökologie sowie Landnutzungssysteme und Ressourcenmanagement in den Ländern Südasiens und des subsaharischen Afrikas. Prof. Nüsser ist Mitherausgeber der Zeitschriften „Mountain Research and Development“ und „Journal of Mountain Science“ sowie Herausgeber der Buchreihe „Advances in Asian Human-Environmental Research“.
Eine ausführlicher Beitrag zu dem Thema „Krieg ums Wasser“ ist in der Ausgabe 4/2014 „Krieg & Frieden“ des Forschungsmagazins „Ruperto Carola“ erschienen:
http://www.uni-heidelberg.de/rupertocarola
Originalpublikationen:
Baghel, R. & Nüsser, M. (2010): Discussing Large Dams in Asia after the World Commission on Dams: Is a Political Ecology Approach the Way Forward? In: Water Alternatives 3 (2): 231-248
Bonn, T. (2013): Wasserpolitik in Jordanien. Das Spannungsfeld zwischen Behörden und Geberorganisationen im jordanischen Wassersektor. Berlin: LIT-Verlag (= Univ. Diss.)
Bonn, T. (2013): On the political sideline? The institutional isolation of donor organizations in Jordanian Hydropolitics. In: Water Policy 15, 728-737 (doi: 10.2166/wp.2013.007)
Gebhardt, Hans (2013): Ressourcenkonflikte und nachhaltige Entwicklung – Perspektiven im 21. Jahrhundert. In: Mitteilungen der Fränkischen Geographischen Gesellschaft, Bd. 59, S. 1-12
Gebhardt, Hans und Eva Ingenfeld (2011): Die Arktis im Fokus geoökonomischer und geopolitischer Interessen. In: Geographische Rundschau, Jg. 63, H. 11, S. 26-33
Nüsser, M. (2014): Technological Hydroscapes in Asia: The Large Dams Debate Reconsidered. In: Nüsser, M. (ed.): Large Dams in Asia: Contested Environments between Technological Hydroscapes and Social Resistance. Dordrecht, Heidelberg, London, New York (= Advances in Asian Human-Environmental Research): 1-14
Nüsser, M. & Baghel, R. (2014): The Emergence of the Cryoscape: Contested Narratives of Himalayan Glacier Dynamics and Climate Change. In B. Schuler (ed.), Environmental and Climate Change in South and Southeast Asia: How are Local Cultures Coping? Leiden, Boston (= Climate and Culture 2): 138-156
Nüsser, M., Schmidt, S. & Dame, J. (2012): Irrigation and Development in the Upper Indus Basin: Characteristics and Recent Changes of a Socio-Hydrological System in Central Ladakh, India. In: Mountain Research and Development 32 (1): 51-61
Kontakt:
Prof. Dr. Hans Gebhardt
Geographisches Institut
Telefon (06221) 54-4572
hans.gebhardt@geog.uni-heidelberg.de
Prof. Dr. Marcus Nüsser
Südasien-Institut (SAI)
Telefon (06221) 54-8922
marcus.nuesser@uni-heidelberg.de
Weitere Informationen:
http://www.uni-heidelberg.de/rupertocarola
Quelle: idw
Elfmeterabwehr: Die Einstellung des Torwarts macht den Unterschied
Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum
So viele Elfmeter abwehren wie möglich – oder möglichst wenige durchlassen?
DGPs-Kongress an der RUB: Trainer sollte seine Methoden an Torwarttyp anpassen
Torwarttrainer sollten ihre Ansprache der Torhüter an dessen Typ anpassen, damit sie möglichst erfolgreich spielen: Wer vom Typ her eher sicherheitsorientiert ist, spielt besser, wenn sein Ziel ist, so wenige Elfmeter wie möglich durchzulassen. Wer hingegen auf Promotion aus ist und sich beweisen will, spielt besser mit der Ansage, so viele Elfmeter wie möglich abzuwehren.
Drucksituationen überwinden
Hintergedanke der Studie war es, eine Möglichkeit zu untersuchen, mit der Drucksituationen überwunden werden können. Der zentrale Punkt dieses Ansatzes war die Theorie zum Regulativen Fokus von Edward T. Higgins, nach der Personen zwei unterschiedliche Strategien verfolgen, wenn sie Aufgaben angehen: Ihr Fokus liegt entweder auf dem ambitionierten Anspruch etwas zu erreichen (Promotion) oder auf einer wachsamen und pflichtbewussten auf Sicherheit bedachten Herangehensweise (Prävention). Neben dieser Typfrage spielt noch eine Rolle, wie eine Drucksituation wahrgenommen wird – ob eher als Bedrohung oder als Chance sich zu beweisen -, und welchen Charakter die Situation objektiv hat: Da zum Beispiel nur 15 bis 25% der Elfmeter nicht verwandelt werden, ist die Elfmetersituation für den Torhüter eine Möglichkeit, Erwartungen zu übertreffen, also eine Promotionschance.
Torwart-Typen untersucht
Ziel der Studie war es zu untersuchen, ob der Regulative Fokus eines Torhüters einen Einfluss auf die Leistung während eines Elfmeters hat und falls ja, welcher Typ von Vorteil ist. „Außerdem interessierte uns die Kombination von Torwart-Typ, der Wahrnehmung und des inhärenten Charakters einer Situation“, erklärt Maximilian Pelka. Er testete 18 Juniorentorhüter zwischen 16 und 19 Jahren, die bis auf zwei Ausnahmen alle zum Zeitpunkt der Erhebung in der jeweiligen höchsten Spielklasse spielten (U17/U19 Junioren Bundesliga West/ teilnehmende Vereine: TSV Bayer 04 Leverkusen, BV Borussia Dortmund 09, RW Ahlen, SpVgg. Erkenschwick 1916, VfB Hüls). Der chronische Regulative Fokus der Torwarte wurde im Vorfeld per Fragebogen erfasst. Direkt vor dem zehn Schuss umfassenden Elfmeterschießen wurden zehn Torwarte mit einer Promotions- und acht Torwarte mit einer Präventionsinstruktion angeleitet: entweder, „es ist dein Anspruch so viele Elfmeter abzuwehren wie möglich“ (Promotion) oder „es ist deine Pflicht so wenige Elfmeter wie möglich durchzulassen“ (Prävention).
Fokus und Instruktionen müssen übereinstimmen
Die Resultate zeigen, dass Torhüter am erfolgreichsten sind, wenn ihr Fokus und die Instruktionen für die Torwartleistung übereinstimmen. „Die Kombination aus individueller Orientierung und situativen Gegebenheiten könnte daher ein innovativer Faktor in der Leistungsoptimierung sein und Ansätze für die Entwicklung individuell angepasster Instruktionen für verschiedene Situationen liefern“, folgert Pelka. Ralf Fährmann (Torhüter des FC Schalke 04) berichtete zuletzt in einem Interview auf spox.com von seinem Ansatz, Torhüter sollten sich nicht sagen: ‚Ich darf den Ball nicht ins Tor bekommen. Dann speichert sich das Gehirn das nämlich so ab, dass man selbst die Gefahr sieht, den Ball doch ins Tor zu bekommen. Stattdessen muss man sich denken: Ich halte jeden Ball‘. Diese Aussage lässt sich durch die Ergebnisse dieser Studie nur bedingt bestätigen. Falls ein Torhüter über einen eher präventiv-orientierten Ansatz verfügt, könnte er mit der ‚Ich darf den Ball nicht ins Tor bekommen‘-Variante auch erfolgreich sein.
Weitere Informationen
Maximilian Pelka, Sportpsychologie, Fakultät für Sportwissenschaft der Ruhr-Universität, 44780 Bochum, Tel. 0234/32-25978, E-Mail: maximilian.pelka@rub.de
Weitere Informationen:
http://www.dgpskongress.de/frontend/index.php – DGPs-Kongress an der Ruhr-Universität
Quelle: idw
Energiespeicher aus Kunststoff
Claudia Hilbert Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
Batterien aus Kunststoff anstatt aus Metall – das klingt zunächst unglaublich, doch Chemiker der Friedrich-Schiller-Universität Jena forschen genau daran. „Unser Ziel ist es, Energiespeicher zu entwickeln, die vollständig aus organischen Rohstoffen bestehen“, erklärt Dr. Martin Hager. „Denn Batterien auf Basis von Polymeren sind nicht nur nachhaltig und risikoarm, sondern sie lassen sich auch relativ einfach herstellen“, verdeutlicht der Leiter der Forschergruppe „Neue polymere Materialien für effiziente Energiespeicher“.
Verschiedene Prototypen solcher organischen Batterien präsentieren die Jenaer Chemiker vom 21. bis 23. Oktober auf der „Materialica“ in München. Die Materialica ist eine internationale Fachmesse für Werkstoffanwendungen, Oberflächen und Product Engineering. Die Wissenschaftler sind am Gemeinschaftsstand „Forschung für Zukunft“ von Sachsen, Sachsen-Anhalt und Thüringen (Halle B3, Stand 210) zu finden.
Ziel der Jenaer Chemiker ist es, neue Elektrodenmaterialien zu entwickeln, die eine möglichst hohe Kapazität und Zellspannung ermöglichen. Dabei verwenden die Forscher innovative Polymere und stabile Radikale als Aktiveinheiten. Hinzu kommen leitfähige Additive, wie etwa Graphit oder Nanofasern. „Damit sich metallfreie Batterien in Zukunft auf dem Markt durchsetzen, sind unter anderem die Langzeitstabilität und die Ladezeiten der Batterien entscheidend“, erläutert Martin Hager. „In den vergangenen Jahren konnten wir unsere Systeme diesbezüglich stetig verbessern“, so Hager. So sind die organischen Radikalbatterien der Jenaer Forscher bis zu 1.000 Mal wiederaufladbar und die Ladedauer beträgt nur wenige Minuten.
Ein weiterer Vorteil: Die Elektrodenmaterialien lassen sich mittels Tintenstrahldruck ausdrucken. Wie der Tintenstrahldruck von funktionalen Materialien genau funktioniert, das werden die Jenaer Chemiker ebenfalls auf der Materialica in München präsentieren.
Zusätzlich zeigen sie neue polymere Redox-Flow-Batterien, welche organische Polymere als Aktivmaterial im Elektrolyt nutzen. „Durch die Trennung der elektrochemischen Wandlereinheit vom eigentlichen Speichertank kann Leistung und Energieinhalt unabhängig voneinander optimiert und ausgelegt werden“, erläutert Doktorand Tobias Janoschka. Hierdurch können diese Systeme sehr flexibel an die unterschiedlichen Leistungsklassen und die Verfügbarkeit erneuerbarer Energien angepasst werden.
Kontakt:
Dr. Martin Hager
Institut für Organische Chemie und Makromolekulare Chemie der Universität Jena
Humboldtstr. 10, 07743 Jena
Tel.: 03641 / 948227
E-Mail: martin.hager@uni-jena.de
Tobias Janoschka
Institut für Organische Chemie und Makromolekulare Chemie der Universität Jena
Humboldtstr. 10, 07743 Jena
Tel.: 03641 / 948239
E-Mail: tobias.janoschka@uni-jena.de
Weitere Informationen:
http://www.uni-jena.de
Quelle: idw
Wie Erfahrungen die Persönlichkeit von Mensch und Tier beeinflussen
Jörg Heeren Pressestelle
Universität Bielefeld
Tagung am Zentrum für interdisziplinäre Forschung der Universität Bielefeld
Der Mensch wird nicht als Persönlichkeit geboren. Das Tier, so scheint es, auch nicht. „Reaktionsnorm“ nennen Biologen das Zusammenspiel von Umweltfaktoren und genetischen Eigenschaften, die im Laufe der Entwicklung eines Individuums bestimmen, wie ein Organismus sich verhält. Das Verhalten verändert sich im Rahmen dieser Reaktionsnorm im Lauf des Lebens. Die dadurch mögliche Flexibilität stellt, da ist sich die Wissenschaft einig, einen wesentlichen Schrittmacher der Evolution dar.
Wie diese Flexibilität bei verschiedenen Tierarten einschließlich des Menschen zu Veränderungen führt und ob es bestimmte Lebensabschnitte gibt, in denen sie besonders wichtig ist, diskutieren Forscher vom 29. September bis zum 1. Oktober auf der internationalen Tagung „Neue Aspekte der Verhaltensentwicklung: lebenslange Anpassung im Verhalten?“ am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.
Jedes Lebewesen macht im Laufe seines Lebens unterschiedliche Erfahrungen, die sich auf sein Verhalten auswirken. „Wir gehen davon aus, dass diese Verhaltensplastizität ein Anpassungsprozess ist, der das Verhalten während der Lebensgeschichte eines Individuums und auch über die Generationsgrenze hinaus beeinflusst“, sagt Fritz Trillmich, Professor für Verhaltensforschung an der Universität Bielefeld. Zusammen mit Kolleginnen und Kollegen aus Münster und Osnabrück hat er einen Kreis von etwa 60 Ökologen, Evolutionsforschern, Neurowissenschaftlern, Verhaltensforschern und Psychologen aus zehn Ländern eingeladen, um die Reaktionen von ganz unterschiedlichen Lebewesen auf ökologische und soziale Faktoren und die Veränderung dieser Reaktionen im Laufe des Lebens dieser Organsimen zu diskutieren. Vögel kommen dabei ebenso in den Blick wie Kaninchen, Makaken und Menschen. „Wir wollen herausarbeiten, welche Regeln der Evolution von Reaktionsnormen zugrunde liegen, welche Stadien es in diesem Prozess zwischen Zeugung und Tod gibt, wie sich die Verhaltensveränderungen auf die Fitness von Lebewesen auswirkt und was im Körper passiert, wenn solche Veränderungen vor sich gehen“, erklärt Trillmich. Damit erweitern die Forscher eine Perspektive, die seit einiger Zeit die Individuen und ihre Entwicklung anstelle statistischer Durchschnittsgrößen in den Blick nimmt.
Weitere Informationen:
http://www.uni-bielefeld.de/ZIF/AG/2014/09-29-Trillmich.html
Quelle: idw
Brustkrebsangst: Vorbeugend operieren oder nicht?
Dr. med. Svenja Ludwig Pressestelle
Deutsche Krebshilfe e. V.
Online-Umfrage „Entscheidungsfindung bei familiärer Belastung für Brust- und Eierstockkrebs
Welche Gründe bewegen eine Frau, ihre gesunde Brust operativ abnehmen zu lassen? Die vorbeugende Entfernung der Brust als Vorsorgeoption bei erblichem Brustkrebs ist bekannt und wird nicht nur in Medizinerkreisen kontrovers diskutiert.
Die betroffenen Frauen müssen sich über sehr komplexe medizinische Zusammenhänge informieren, um eine solch schwierige Entscheidung treffen zu können.
Aber was geschieht wirklich? Reichen die Beratungen der Fachleute aus, welche Rolle spielen psychische Faktoren oder auch die finanzielle Belastungen? Ob und wie Frauen ausreichend Informationen bekommen, will eine Umfrage klären, die sich auf der Homepage des BRCA Netzwerkes abrufen lässt.
Befragt werden gesunde oder bereits erkrankte Frauen, die eine familiäre Belastung für Brust- und Eierstockkrebs haben, einen Gentest durchführen ließen und sich für oder gegen eine Operation entschieden haben.
Im Rahmen einer wissenschaftlichen Arbeit sollen Parameter entwickelt werden, die künftige Betroffene bei ihrer Entscheidung über eine mögliche, tiefgreifende operative Veränderung ihres Körpers begleiten können.
Eine erbliche Ursache wird für mindestens 25 Prozent der 72.000 Neuerkrankungen an Brustkrebs vermutet. Für eine vorbeugende Mastektomie entscheiden sich aktuell rund 30 Prozent der Frauen mit einer familiären Belastung für Brustkrebs.
Zur Umfrage geht es hier: http://www.brca-netzwerk.de
Das BRCA-Netzwerk – Hilfe bei familiärem Brust- und Eierstockkrebs ist eine bundesweite tätige Selbsthilfeorganisation. Ziel des gemeinnützigen Vereins, der durch die Deutsche Krebshilfe gefördert wird, ist es, Austausch und weitreichende Informationen für Angehörige aus Risikofamilien anzubieten.
Ansprechpartnerin: Andrea Hahne, Vorstandsvorsitzende, Telefon: 0173-2944843
BRCA-Netzwerk – Hilfe bei familiärem Brust- und Eierstockkrebs – e.V.
Thomas-Mann-Str. 40, 53111 Bonn
Tel.: 0228 / 33889-100, Fax: 0228 / 33889-110
info@brca-netzwerk.de
www.brca-netzwerk.de
Weitere Informationen:
http://www.brca-netzwerk.de
Quelle: idw
Reportage über Flussforschung erhält Deutschen Preis für Wissenschaftsfotografie
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Bremen/Leipzig. UFZ-Fotograf André Künzelmann zählt auch in diesem Jahr wieder zu den Gewinnern des Deutschen Preises für Wissenschaftsfotografie, der jährlich von der Zeitschrift „bild der wissenschaft“ und dem Düsseldorfer Pressebüro Brendel ausgeschrieben wird. Prämiert wurde die Fotoreportage „Joint Danube Survey 3“, die in enger Zusammenarbeit mit UFZ-Wissenschaftlern um den Chemiker Dr. Werner Brack im vergangenen Sommer auf der Donau entstand.
(Die Website zur Pressemitteilung (inkl. Foto) finden Sie unter: http://www.ufz.de/index.php?de=33215)
„Dem Fotografen ist es gelungen, viele Facetten der wissenschaftlichen Arbeit in seiner Reportage festzuhalten: Schlingpflanzen, tote Fische, Plastikeimer und Gummistiefel sind auf seinen Fotos genauso überzeugende Attribute der Forschung wie das hochtechnisierte Labor auf dem Schiff für die Probenanalyse. Die Komposition der Motive macht neugierig, mehr über die Flussexpedition zu erfahren“, lobt die Jury die Reportage von der Donau. „Über diese Anerkennung freue ich mich ganz besonders – zumal diese Fotoreportage eine echte logistische Herausforderung war. Ich hatte effektiv nur zwei Tage, um mir einen Überblick vor Ort zu verschaffen und kannte die Mannschaft vorher nicht. Bei einem straffen Zeitplan der Wissenschaftler, wo jeder Handgriff sitzen muss, Fragen und Wünsche eines „Außenstehenden“ zu berücksichtigen, erfordert großes Verständnis auf beiden Seiten. Als Fotograf steht man dann die ganze Zeit „unter Strom“, um die besten Momente nicht zu verpassen und diese trotz schwierigem Licht festhalten zu können.“, berichtet André Künzelmann über die Expedition auf der Donau, bei der die prämierte Fotoreportage entstand. Der Diplommeteorologe hat sich in den vergangenen zehn Jahren am UFZ auf Wissenschaftsfotografie spezialisiert. Daneben ist er auch als Kameramann und Unterwasserfotograf tätig. Sein Wissen gibt er in Foto-Workshops an Wissenschaftler weiter sowie initiiert Treffen und Ausstellungen der Fotogruppe des UFZ.
Der renommierte Wettbewerb richtet sich an Fotografen, die aktuelle Forschung und Technologie ansprechend und ungewöhnlich ins Bild setzen. Unterstützt wird die Initiative von der Fraunhofer Gesellschaft, der Universität Bremen sowie dem Journalisten-Onlineservice supress-redaktion.de. Er ist mit insgesamt 12.000 Euro dotiert und wurde in diesem Jahr bereits zum neunten Mal von der Zeitschrift bild der wissenschaft und dem Düsseldorfer Pressebüro Brendel vergeben. Aus den rund 100 Einsendungen wählte die Jury unter dem Vorsitz des Fotografen Ronald Frommann insgesamt vier Preisträger in drei verschiedenen Kategorien aus. Die Preisverleihung findet am 22. November 2014 ab 11.00 Uhr im Haus der Wissenschaft in Bremen statt. Dort sind die Bilder auch ausgestellt.
Die alle sechs Jahre stattfindende gemeinsame Donauuntersuchung aller Anrainerstaaten ist eine der größten wissenschaftlichen Flussexpeditionen weltweit. Um den Einfluss von Chemikalien und anderen Stressfaktoren auf die Gewässer-Ökosysteme der Donau zu erfahren, beprobten drei Forschungsschiffe sechs Wochen lang die Donau über 2.300 km von Passau bis zum Donaudelta. An 68 Positionen wurden zahlreiche Proben des Flusswassers, der Sedimente, sowie der Tier- und Pflanzenwelt gesammelt. Viele Proben wurden direkt im Labor der Forschungsschiffe untersucht, andere gingen zur weiteren Analyse an verschiedene Speziallabore in Europa. So wurde eine Bestandsaufnahme der Flora und Fauna des Ökosystems Donau möglich. Die „Joint Danube Survey“ 2013 war gleichzeitig der Startschuss für das große europäische Forschungsprojekt SOLUTIONS, das vom UFZ koordiniert wird. In ihm arbeiten Wissenschaftler aus 13 europäischen Ländern sowie China, Australien und Brasilien zusammen, um zu verstehen, wie sich Chemikalien im Wasser auf Flussökosysteme und die menschliche Gesundheit auswirken.
Tilo Arnhold
„deutscher preis für wissenschaftsfotografie“:
http://fotopreis.tpk6.de/html/preistraeger2014/kuenzelmann.html
Weitere Informationen:
André Künzelmann
Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341- 235-1635
https://www.ufz.de/index.php?de=644
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: 0341-235-1635, -1630
http://www.ufz.de/index.php?de=640
Links:
Preis für ungewöhnliche Darstellung der Waldforschung (Pressemitteilung vom 25. November 2013)
http://www.ufz.de/index.php?de=32217
EU-Projekt SOLUTIONS
http://www.solutions-project.eu/
Titelstory „Patient Fluss“ im UFZ-Newsletter Februar 2014
http://www.solutions-project.eu/wp-content/uploads/2014/03/UFZ-Newsletter-2014-0…
UFZ-Video „Alles fließt: SOLUTIONS + Joint Danube Survey“
http://www.youtube.com/watch?v=tMe8l13nR6Q&list=UUU8LTdpFv0DTZmye02sK_Mg
Beitrag bei 3sat-nano über SOLUTIONS vom 17.06.2014:
http://www.3sat.de/mediathek/?mode=play&obj=40815
Joint Danube Survey
http://www.danubesurvey.org/
Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg mehr als 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/
Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 35.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).
http://www.helmholtz.de/
Weitere Informationen:
http://www.ufz.de/index.php?de=33215
Quelle: idw
Was tun mit dem Huhn? Mangelnde Küchenhygiene kann krank machen
Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)
BfR-Film informiert Verbraucher über Küchenhygiene
Hygienemängel beim Umgang mit Lebensmitteln sind eine bedeutende Ursache für lebensmittelbedingte Krankheitsausbrüche. Deshalb hat das Bundesinstitut für Risikobewertung (BfR) zu diesem Thema einen zweiminütigen Webfilm unter dem Titel „Was tun mit dem Huhn?“ veröffentlicht. „Daten zu den Erkrankungsfällen zeigen, dass wir auch junge Menschen noch mehr informieren müssen, wie sie mit Lebensmitteln richtig umgehen“, sagt BfR-Präsident Prof. Dr. Dr. Andreas Hensel. „Um diese Zielgruppe zu erreichen, hat das BfR das wichtige Thema Kreuzkontamination, also die Übertragung der Keime von einem meist rohen Lebensmittel auf verzehrfertige Lebensmittel, in einem Videoclip verarbeitet.“
Zum Schutz vor Lebensmittelinfektionen empfiehlt das BfR, rohe Lebensmittel vom Tier vor dem Verzehr gut durchzugaren und somit eine Übertragung vorhandener Krankheitserreger auf verzehrfertige Lebensmittel zu vermeiden. Deshalb sollte ein Kontakt zwischen den rohen und verzehrfertigen Lebensmitteln bei der Lagerung und bei der Zubereitung vermieden werden. Hände und Küchenutensilien, wie Messer und Schneidebretter, sollten sofort nach Kontakt mit rohen Lebensmitteln vom Tier gründlich mit warmem Wasser gewaschen und abgetrocknet werden. Das neue BfR-Video „Was tun mit dem Huhn?“ vermittelt diese Tipps auf unterhaltsame Art und zeigt am Beispiel von frischem Hähnchenfleisch, wie eine Kreuzkontamination entstehen kann. Es ist abrufbar unter http://www.bfr.bund.de.
Campylobacter und Salmonella sind die häufigsten Erreger bakterieller Lebensmittelinfektionen. Eine Übertragung dieser Bakterien kann durch Geflügelfleisch erfolgen, das nicht ausreichend gegart wurde oder vor dem Garen mit anderen Lebensmitteln in Kontakt gekommen ist. In Deutschland waren 2011 insgesamt 31,6 % der Proben von Hähnchenfleisch mit Campylobacter, 6,3 % mit Salmonellen besiedelt.
Weitere Informationen für Verbraucherinnen und Verbraucher zum Schutz vor Lebensmittelinfektionen im Privathaushalt finden sich auf der BfR-Homepage unter
http://www.bfr.bund.de/cm/350/verbrauchertipps_schutz_vor_lebensmittelinfektione…
http://www.bfr.bund.de/cm/343/ausgewaehlte_fragen_und_antworten_zum_hygienischen…
Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.
Weitere Informationen:
http://www.bfr.bund.de/de/mediathek.html BfR-Mediathek
Quelle: idw
Wasserpflanzen – Rohstoff für Biogasanlagen? – Forscher untersuchen Machbarkeit
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
Das Helmholtz-Zentrum für Umweltforschung (UFZ), die Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen und das Deutsche Biomasse-Forschungszentrum (DBFZ) untersuchen in einem jetzt begonnenen Projekt, inwieweit sich Wasserpflanzen aus Binnen-Gewässern als Rohstoff für Biogasanlagen eignen.
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert das Vorhaben über seinen Projektträger, die Fachagentur Nachwachsende Rohstoffe e.V. (FNR).
Schnellwachsende Wasserpflanzen können zum Problem werden: Weil sie touristische Nutzungen und den Schiffsverkehr einschränken, muss man sie regelmäßig entfernen. Insbesondere einige nicht-heimische Arten sind sehr konkurrenzstark, da unser Ökosystem sie nicht wirkungsvoll regulieren kann. So hat sich die aus Süd- und Nordamerika eingeschleppte Gattung Elodea in den letzten Jahrzehnten in Deutschland rasant vermehrt. Für die Entkrautung geben Kommunen und anderer Träger jedes Jahr viel Geld aus, die Biomasse wird meistens deponiert.
Bislang konzentrierte sich die Forschung auf Ansätze, die Ausbreitung der Wasserpflanzen einzudämmen. Allerdings bilden diese auch sehr viel Biomasse und enthalten interessante Inhaltsstoffe. Wie also, wenn man aus der Not eine Tugend machte und die Pflanzen als Rohstoffquelle nutzte? Mit dieser ganz neuen Herangehensweise verbinden sich potenziell mehrere Vorteile:
– Wasserpflanzen binden während des Wachstums Phosphate. Ihre Entnahme stellt so eine relativ einfache Möglichkeit dar, die Phosphatbelastung in Gewässern zu reduzieren.
– Aktuell entstehen allein durch die Entsorgung der bei der Gewässer-Entkrautung anfallenden Biomasse Kosten von geschätzten rund 20 Mio. Euro. Durch eine Verwertung ließen sich diese Kosten minimieren.
– Wasserpflanzen zählen zum Landschaftspflegematerial und konkurrieren nicht mit der Nahrungsmittelerzeugung.
– In Biogasanlagen würden Wasserpflanzen relativ große Mengen Phosphor und Spurenelemente eintragen. Der Phosphor verbessert den Düngewert der Gärreste, die Spurenelemente wiederum verringern den Bedarf an entsprechenden Präparaten für die Mikrobiologie in der Anlage.
In dem jetzt begonnenen Vorhaben untersuchen die Wissenschaftler unter anderem die Schmalblättrige Wasserpest (Elodea nuttallii) als Rohstoff für die Biogasgewinnung. Bei ersten Gärversuchen erzielte die Wasserpest Biogaserträge zwischen 415 und 520 Norm-Liter pro kg organische Trockensubstanz (LN/kgOTS) bei einem OTS-Gehalt von 6 bis 10 Prozent in der Frischmasse und einem Methangehalt von durchschnittlich 60,5%. (Zum Vergleich: Der Biogasertrag für Maissilage liegt bei 650 LN/kgOTS.) Der geringe Trockenmassegehalt ist eines der Handicaps, für die es Lösungen zu finden gilt. Das Projektteam verfolgt hier den Ansatz, eine Mischsilage aus Elodea und Stroh bzw. Landschaftspflegeheu herzustellen; die gemeinsame Konservierung mit Mais erwies sich hingegen in ersten Vorversuchen als praktikabel, aber unökonomisch. Neben der Entwicklung eines optimalen Silierverfahrens stehen Potenzialanalysen zum bundesweiten Wasserpflanzenaufkommen auf der Forschungsagenda.
Insgesamt will das Forscherteam die Wasserpflanzennutzung als Biogasrohstoff aus ökonomischer, ökologischer und sozialer Sicht bewerten. Die energetische Nutzung steht im Mittelpunkt des Projektes, die Forscher betrachten aber auch alternative Optionen, mit dem invasiven Bewuchs in Flüssen und Seen umzugehen – etwa die stoffliche Nutzung z.B. für Naturkosmetika und Dünger oder die Eindämmung.
Informationen zum Projekt stehen auf fnr.de im Menü Projekte & Förderung unter den Förderkennzeichen 22403013, 22402014 und 22401914 zur Verfügung.
Weitere Informationen:
http://www.fnr.de/projekte-foerderung/projekte/suche/
Quelle: idw
Informativer Toilettengang
Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung
Emily liebt Paul, Nazis raus, Gib AIDS keine Chance und schließlich Sanifair – Gute Reise: Informationsaustausch in öffentlichen Toiletten ist weit verbreitet. So auch bei den Weißfuß-Wieselmakis, die anstelle von Schrift Duftmarken nutzen, um sich ihren Artgenossen mitzuteilen. Iris Dröscher und Peter Kappeler vom Deutschen Primatenzentrum haben in ihrer jetzt veröffentlichten Studie festgestellt, dass der auf Latrinenbäumen abgegebene Urin dazu dient, Kontakt zu Familienmitgliedern zu halten und Eindringlinge zu warnen. Latrinen sind für nachtaktive Tiere, die nicht im engen Kontakt zueinander leben, verlässliche Informationsquellen und dienen der sozialen Bindung der Tiere untereinander.
Die Nutzung von Latrinen, also speziellen Orten zur Ausscheidung von Exkrementen, ist im Tierreich durchaus verbreitet. Da bislang jedoch unklar war, warum gerade Primaten dieselben Latrinen immer wieder benutzen, haben die DPZ-Wissenschaftler dieses Phänomen nun bei den Weißfuß-Wieselmakis (Lepilemur leucopus) in Süd-Madagaskar untersucht. Sind sie ein Hinweis an andere, dass dieses Gebiet oder dieser Partner verteidigt wird? Oder zeigen sie an, ob ein Weibchen fruchtbar ist? Dienen sie vielleicht dem Informationsaustausch und der sozialen Bindung innerhalb einer Gruppe? Um diese Fragen zu beantworten, haben die Forscher untersucht, wo genau sich die Latrinen befinden und ob diese zu verschiedenen Jahreszeiten oder von Individuen verschiedenen Alters und Geschlechts unterschiedlich genutzt werden. Dafür haben Iris Dröscher und Peter Kappeler 14 Weißfuß-Wieselmakis mit Radiosendern markiert und ihr Verhalten über den Zeitraum eines Jahres beobachtet. Insgesamt kamen dabei über 1000 Beobachtungsstunden zusammen.
Verbundenheit dank Latrine
Weißfuß-Wieselmakis sind nachtaktive Baumbewohner, die ausschließlich im Süden Madagaskars vorkommen und zu den sogenannten Lemuren gehören. Jede Familie, die aus den Eltern und ihrem Nachwuchs besteht, bewohnt zwar ein eigenes Gebiet, allerdings gehen sich die Familienmitglieder meist aus dem Weg, weder schlafen Wieselmaki-Paare auf denselben Bäumen noch gehen sie gemeinsam auf Futtersuche. Etwas hat die Familie aber gemeinsam: zentral im Territorium gelegene Latrinenbäume, welche die Tiere gezielt immer wieder aufsuchen um dort ihre Notdurft zu verrichten. Iris Dröscher und Peter Kappeler haben herausgefunden, dass die Latrinen dazu dienen, die Vertrautheit und die soziale Bindung zwischen den einzelnen Mitgliedern einer Wieselmaki-Gruppe aufrecht zu erhalten, da diese sonst nur sehr wenig Kontakt zueinander haben. Die Duftsignale werden vor allem über den am Baumstamm befindlichen Urin aufgenommen, während der sich am Boden des Latrinenbereiches akkumulierende Kot nicht wesentlicher Bestandteil des Informationsaustausches ist.
Botschaft: Mein Weibchen wird verteidigt!
Auffällig war, dass männliche Tiere öfter die Latrinen aufsuchten, wenn sie einen Eindringling in ihrem Territorium wahrgenommen hatten. Außerdem setzten Männchen Duftmarken aus ihren spezialisierten Drüsen ausschließlich in Latrinen ab. „Die Latrinen werden also auch verwendet um anzuzeigen, dass hier jemand ist, der seine Partnerin verteidigt“, sagt Iris Dröscher, Doktorandin in der Abteilung Verhaltensökologie und Soziobiologie am Deutschen Primatenzentrum.
Latrinen als verlässliche Informationsquellen
„Über Duftmarken werden eine Vielzahl an Informationen wie die sexuelle und individuelle Identität transportiert und können außerdem dazu dienen, die eigene Präsenz zu signalisieren,“ so Dröscher. „Die Latrinen werden genutzt, um Individuen-spezifische Informationen auszutauschen.“
„Gerade nachtaktive Arten, die unter eingeschränkten Sichtverhältnissen und im losen Kontakt mit ihren Partnern leben, brauchen verlässliche Informationsquellen, um ihr Sozialgefüge aufrecht zu erhalten“, sagt Peter Kappeler, Leiter der Abteilung Verhaltensökologie und Soziobiologie am DPZ und Professor an der Universität Göttingen. „Dieses Informationszentrum haben die Weißfuß-Wieselmakis in den Latrinenbäumen gefunden.“
Link zum Artikel: http://link.springer.com/article/10.1007/s00265-014-1810-z
Originalpublikation
Dröscher I, Kappeler PM (2014): Maintenance of familiarity and social bonding via communal latrine use in a solitary primate (Lepilemur leucopus). Behavioral Ecology and Sociobiology Epub ahead of print. doi:10.1007/s00265-014-1810-z
Kontakt
Iris Dröscher
Tel: +49 551 39-7345
E-Mail: iris.droescher@gmail.com
Dr. Susanne Diederich (Kommunikation)
Tel: +49 551 3851-359
E-Mail: sdiederich@dpz.eu
Weitere Informationen:
http://link.springer.com/article/10.1007/s00265-014-1810-z – Link zur Originalpublikation
http://www.dpz.eu/de/infothek/mediathek/videos.html – Link zum Video „Interne Kommunikation bei Weißfuß-Wieselmakis“
Quelle: idw
Ein gesunder Lebensstil ist mit einem verminderten Darmkrebs-Risiko verbunden
Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke
Potsdam-Rehbrücke – Wer nicht übergewichtig ist, nicht raucht, Alkohol nur in Maßen konsumiert, körperlich aktiv ist und sich gesund ernährt, hat ein um etwa ein Drittel vermindertes Risiko, an Dickdarm- bzw. Mastdarmkrebs zu erkranken. Dies ist das Ergebnis einer großen europäischen Langzeitstudie (EPIC*) mit über 347.000 weiblichen und männlichen Studienteilnehmern im Erwachsenenalter. Das Wissenschaftlerteam unter Führung von Krasimira Aleksandrova und Heiner Boeing vom Deutschen Institut für Ernährungsforschung (DIfE) veröffentlichte nun seine Daten in der Fachzeitschrift BioMed Medicine (Aleksandrova, K. et al., 2014, 12:168).
Darmkrebs** gehört zu den häufigsten Krebsarten. Nach Angaben der International Agency for Research on Cancer erkranken weltweit etwa 746.000 Männer und 614.000 Frauen jährlich an dieser Krankheit, wobei diese Krebsform besonders häufig in Ländern mit westlichem Lebensstil auftritt. Dies legt den Schluss nahe, dass das gehäufte Auftreten dieser Krebsform mit bestimmten Merkmalen der westlichen Lebensart verbunden ist. In der Tat haben in den letzten Jahren verschiedene Studien Lebensstilfaktoren identifiziert, die jeweils für sich allein genommen mit dem Darmkrebs-Risiko in Zusammenhang stehen. Hierzu zählt zum Beispiel auch die Art der Ernährungsweise.
Neu an der aktuellen Studie ist nun, dass sie erstmals die kombinierten Effekte von fünf gesundheitsfördernden Lebensstilmerkmalen auf das Darmkrebsrisiko in einer europäischen Bevölkerungsgruppe untersucht hat. Die Wissenschaftler stuften dabei folgende Merkmale als risikosenkend ein: Nichtraucher zu sein, Alkohol nur in einem moderaten Maß zu trinken, ein normales Körpergewicht zu haben, wobei der Taillenumfang von Frauen kleiner als 80 cm und der von Männern kleiner als 94 cm sein sollte, körperlich aktiv zu sein sowie sich gesund zu ernähren. Im Rahmen der vorliegenden Studie bedeutete dies, sich mit vergleichsweise viel Gemüse, Obst und Vollkornprodukten, reichlich Nüssen und Samen, ausreichend Fisch und Joghurt, aber mit wenig rotem Fleisch und Wurstwaren zu ernähren.
Wie die Untersuchung zeigt, hatten Studienteilnehmer, die zwei der gesundheitsfördernden Merkmale aufwiesen, im Vergleich zu Personen, auf die kein oder nur ein günstiges Lebensstilmerkmal zutraf, ein um 13 Prozent verringertes Risiko, an Darmkrebs zu erkranken. Wiesen die Teilnehmer drei der untersuchten Merkmale auf, sank ihr Erkrankungsrisiko um 21 Prozent, wobei sich bei vier Merkmalen ihr Risiko sogar um 34 Prozent verringerte. Kamen alle fünf Merkmale zusammen, sank das Risiko um 37 Prozent.
„Wie unsere Ergebnisse zeigen, verringert sich das Darmkrebsrisiko umso mehr, je mehr man etwas für seine Gesundheit tut. Unsere Daten haben ergeben, dass durch eine gesunde Lebensführung bis zu 22 Prozent der Darmkrebs-Neuerkrankungen bei Männern bzw. bis zu 11 Prozent der Erkrankungen bei Frauen vermeidbar wären“, sagt Aleksandrova, Erstautorin der Studie. „Das Umsetzen dieses Wissens in gesellschaftlich aktiv unterstützte Präventionsstrategien könnte wesentlich dazu beitragen, ein frühes und häufiges Auftreten dieser Krebsform zu vermeiden und damit viel persönliches Leid zu verhindern“, ergänzt Heiner Boeing, Leiter der Potsdamer EPIC-Studie.
Hintergrundinformation:
Quelle:
Combined Impact of Healthy Lifestyle Factors on Colorectal Cancer: A Large European Cohort Study
Krasimira Aleksandrova, Tobias Pischon, Mazda Jenab, H. Bas Bueno-de-Mesquita, Veronika Fedirko, Teresa Norat, Dora Romaguera, Sven Knüppel, Marie-Christine Boutron-Ruault, Laure Dossus, Laureen Dartois, Rudolf Kaaks, Kuanrong Li, Anne Tjønneland, Kim Overvad, J Ramón Quirós, Genevieve Buckland, María-José Sánchez, Miren Dorronsoro, María-Dolores Chirlaque, Aurelio Barricarte, Kay-Tee Khaw, Nicholas Wareham, Kathryn E Bradbury, Antonia Trichopoulou, Pagona Lagiou, Dimitrios Trichopoulos, Domenico Palli, Vittorio Crogh, Rosario Tumino, Alessio Naccarati, Salvatore Panico, Peter Siersema, Petra H Peeters, Ingrid Ljuslinder, Ingegerd Johansson, Ulrika Ericson, Bodil Ohlsson, Elisabete Weiderpass, Guri Skeie, Kristin Benjaminsen Borch, Sabina Rinaldi, Isabelle Romieu, Joice Kong, Marc Gunter, Heather Ward, Elio Riboli and Heiner Boeing; BMC Medicine 2014, 12:168
http://www.biomedcentral.com/1741-7015/12/168
* EPIC: European Prospective Investigation into Cancer and Nutrition. Die EPIC-Studie ist eine prospektive (vorausschauende) Studie, die Zusammenhänge zwischen Ernährung, Krebs und anderen chronischen Erkrankungen wie Typ-2-Diabetes untersucht. An der EPIC-Studie sind 23 administrative Zentren in zehn europäischen Ländern mit insgesamt 519.000 Studienteilnehmern im Erwachsenenalter beteiligt. Die Potsdamer EPIC-Studie ist mit mehr als 27.000 Teilnehmern ein Teil der EPIC-Studie.
Die aktuellen Studienergebnisse basieren auf den Daten von 347.237 Frauen und Männern im Alter zwischen 25 und 70 Jahren. Während der Nachbeobachtungszeit von 12 Jahren erkrankten 3.759 dieser Teilnehmer an Darmkrebs.
** Bei Darmkrebs (kolorektales Karzinom) handelt es sich um einen bösartigen Tumor des Dickdarms oder des Mastdarms. Er entwickelt sich meist aus Darmpolypen, die sich im Verlauf von wenigen Jahren bösartig verändern. Im Jahre 2010 wurde die Krankheit bei 62.400 Menschen in Deutschland neu diagnostiziert und im Jahr 2012 starben knapp 26.000 daran (Quelle: Robert Koch Institut).
Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsbedingter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Forschungsschwerpunkte sind dabei Adipositas (Fettsucht), Diabetes, Herz-Kreislauf-Erkrankungen und Krebs. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung e. V. (DZD) http://www.dzd-ev.de. Das DZD ist ein nationaler Verbund, der Experten auf dem Gebiet der Diabetesforschung bündelt und im Sinne der translationalen Forschung Grundlagenforschung, Epidemiologie und klinische Anwendung verzahnt.
Die Leibniz-Gemeinschaft vereint 89 Einrichtungen, die anwendungsbezogene Grundlagenforschung betreiben und wissenschaftliche Infrastruktur bereitstellen. Insgesamt beschäftigen die Leibniz-Einrichtungen rund 17.200 Menschen – darunter 8.200 Wissenschaftlerinnen und Wissenschaftler – bei einem Jahresetat von insgesamt knapp 1,5 Milliarden Euro. Die Leibniz-Gemeinschaft zeichnet sich durch die Vielfalt der in den Einrichtungen bearbeiteten Themen und Disziplinen aus. Die Forschungsmuseen der Leibniz-Gemeinschaft bewahren und erforschen das natürliche und kulturelle Erbe. Darüber hinaus sind sie Schaufenster der Forschung, Orte des Lernens und der Faszination für die Wissenschaft. Näheres unter http://www.leibniz-gemeinschaft.de.
Kontakt:
Dr. Krasimira Aleksandrova
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal
E-Mail: Krasimira.Aleksandrova@dife.de
Prof. Dr. Heiner Boeing
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal
Tel.: +49 (0)33200 88 2711
E-Mail: boeing@dife.de
Weitere Informationen:
http://www.dife.de/forschung/abteilungen/epic-potsdam-studie.php
Hinweise zur Potsdamer EPIC-Studie
Quelle: idw
Einzigartige Fließwasserlabore nehmen Betrieb auf.
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Magdeburg. Mit einer Serie von bislang einzigartigen mobilen Laboren wollen Wissenschaftler in den kommenden Jahren die Auswirkungen des Klima- und Landnutzungswandels auf die Fließgewässer in Mitteldeutschland untersuchen. Am Montag hat die dazu neu geschaffene Forschungsinfrastruktur MOBICOS offiziell ihren Betrieb aufgenommen. Die Labore sind Teil des TERENO-Netzwerkes zur Erdbeobachtung und werden vom Helmholtz-Zentrum für Umweltforschung (UFZ) an verschiedenen Standorten in Sachsen-Anhalt betrieben.
Finanziert wurde MOBICOS mit rund 3,5 Millionen Euro als Ausbauinvestition der Helmholtz-Gemeinschaft durch das Bundesministerium für Bildung und Forschung (BMBF) sowie die Länder Sachsen-Anhalt und Sachsen.
Wollen Wissenschaftler die Wechselwirkungen zwischen Landnutzung, Klimawandel und dem ökologischen Zustand der Bäche und Flüsse untersuchen, dann stehen sie vor einem Dilemma: Im Freiland sind die Veränderungen zwar gut zu beobachten. Da aber viele Faktoren wirken, lässt sich oft nicht sicher sagen, welcher davon wie stark zur Veränderung beiträgt. Im Labor lassen sich dagegen viele Parameter gezielt beeinflussen. Aber sind die Bedingungen dann noch realistisch? Ein Ausweg könnte ein neuer Ansatz sein: Das Labor wird einfach an das Gewässer verlagert.
Seit 2013 stellen Forscher des UFZ Speziallabore, die in transportablen Containern untergebracht sind, an verschiedenen Standorten in Sachsen-Anhalt auf. Diese MOBICOS (Mobile Aquatic Mesocosms) genannten Fließwasserlabore ermöglichen es nun, dass ökologische Untersuchungen und Experimente naturnah durchgeführt werden können. Sie funktionieren, in dem Wasser aus dem zu untersuchenden Fließgewässer in Versuchsbecken in den Containern geleitet und dort analysiert oder „experimentell“ manipuliert wird. „So ist es zum Beispiel unter realistischeren Bedingungen als im Labor möglich, die Reaktion von Ökosystemen auf neuartige Stressoren wie Mikroschadstoffe zu prüfen oder zu untersuchen, wie sich Veränderungen der Wassertemperatur, des Nährstoffgehalts oder der Schadstoffbelastung auf das Gewässerökosystem auswirken“, erklärt Prof. Markus Weitere vom UFZ in Magdeburg. Die Wissenschaftler wollen zudem Maßnahmen entwickeln, die helfen können, unerwünschte Verbindungen abzubauen und dadurch die natürlichen Funktionen von Fließgewässern und deren Ökosystemleistungen zu stärken. „Wir wollen uns unter anderem das Wachstum von Biofilmen in diesen Gewässern genauer ansehen“, berichtet MOBICOS-Koordinator Dr. Helge Norf. „Die ökologische Funktion von Biofilmen wird immer noch massiv unterschätzt. Dabei spielen Bakterien, Algen und andere Mikroorganismen eine entscheidende Rolle bei den Stoffumsatzprozessen in Fließgewässern.“ Mithilfe der Gewässerlabore rückt auch die Lösung eines anderen Rätsels in Reichweite: Wieso breiten sich invasive Arten wie die Asiatische Körbchenmuschel im Rhein stark aus, in der Elbe aber nicht? Gerade für Arten, die sich im Labor schwer kultivieren lassen, sind die mobilen Labore eine ideale Lösung, um sie naturnah genau unter die Lupe zu nehmen.
Insgesamt sind jetzt sechs der Fließwasserlabore in Betrieb und ermöglichen damit Vergleiche zwischen kleinen, unbelasteten Bächen wie dem Oberlauf der Bode und großen belasteten Flüssen wie der Elbe. Zwei weitere Container sind in Planung.
Da MOBICOS aus kleineren, beweglichen Labormodulen besteht, die sowohl einzeln als auch modular verwenden werden können, sind die Wissenschaftler vergleichsweise flexibel. Dadurch können sowohl die Größe als auch die Bestückung der Mesokosmen je nach wissenschaftlicher Fragestellung optimiert und auch dem verfügbaren Gelände angepasst werden. Im Gegensatz zu festen Installationen können die Container bei Bedarf einfach umziehen. Schließlich verändert sich die Wasserqualität der Flüsse auch im Laufe der Jahre.
„Dieser experimentelle Ansatz ergänzt perfekt unsere Beobachtungsplattform TERENO (TERrestrial ENvironmental Observatories), die größte, langfristig betriebene Infrastruktur zur Umweltbeobachtung in Deutschland. Im Rahmen von TERENO hat die Helmholtz-Gemeinschaft insgesamt vier Observatorien in Deutschland eingerichtet, in denen die Auswirkungen des globalen Wandels auf regionaler Ebene erforscht werden. Das UFZ-Untersuchungsgebiet in Mitteldeutschland reicht dabei vom Hochharz über das Gebirgsvorland bis hinab zu den großen Flüssen wie der Elbe und dem Großraum Halle-Leipzig“, betont Dr. Steffen Zacharias, der TERENO am UFZ koordiniert. Die mobilen Mesokosmen werden auch dabei helfen zu erklären, wieso die Konzentration an Huminstoffen in Talsperren in den letzten Jahren angestiegen ist. Diese gestiegenen Konzentrationen beunruhigen die Wasserversorger. Um den Weg des Kohlenstoffs zu verfolgen, haben die Wissenschaftler im Einzugsgebiet der Rappbodetalsperre im Harz umfangreiche Messtechnik installiert.
Wie auch bei den anderen TERENO-Projekten wird die MOBICOS-Infrastruktur künftig nicht nur den eigenen Forschern zur Verfügung stehen, sondern eine Plattform bilden, die auch von externen Forschergruppen für Experimente genutzt werden kann. Bereits jetzt laufen Kooperationen bzw. gemeinsam betreute studentische Abschlussarbeiten mit verschiedenen Hochschulen, etwa der Hochschule Magdeburg-Stendal, der TU Dresden, der Universität zu Köln, der Universität Koblenz-Landau oder der TU Bergakademie Freiberg.
Tilo Arnhold
Weitere Informationen:
Prof. Dr. Markus Weitere, Dr. Helge Norf
Department Fließgewässerökologie am Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0391-810-9600, -9988
http://www.ufz.de/index.php?de=14086
http://www.ufz.de/index.php?de=20742
und
Dr. Steffen Zacharias
TERENO-Koordinator am Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341- 235-1381
http://www.ufz.de/index.php?de=16348
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: 0341-235-1635, -1630
http://www.ufz.de/index.php?de=640
Weiterführende Links:
Wasserforschung in Containern
http://www.helmholtz.de/gb12/erde_und_umwelt/projekte_aus_der_forschung/wasserfo…
Mobile Aquatische Mesokomen (MOBICOS)
http://www.ufz.de/index.php?de=31865
http://www.ufz.de/index.php?de=21440
http://www.ufz.de/index.php?en=31436
Wasser und Ökologie
http://www.ufz.de/index.php?de=22241
Überraschung inbegriffen (bild der wissenschaft plus / Wasserwissen, S. 26-28)
http://www.wissenschaft.de/documents/12054/42257/Supp_WasserWissen_07-2012.pdf/4…
Nachhaltigkeit im Fluss (UFZ-News, April 2012, S.6):
http://www.ufz.de/export/data/global/33391_UFZ_Newsletter_apr12_WEB_geschuetzt.p…
Wieso steigt die Konzentration an Huminstoffen in den Talsperren? Magdeburger Forscher untersuchen globales Problem für die Trinkwasserversorgung (Pressemitteilung vom 20. März 2013):
http://www.ufz.de/index.php?de=31449
Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg mehr als 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/
Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 35.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).
http://www.helmholtz.de/
Weitere Informationen:
http://www.ufz.de/index.php?de=33250
Quelle: idw
Männer mögen fröhliche Frauen
Dr. Ellen Katz Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Tübingen
Studie zum geschlechtsspezifischen Lesen von Körpersprache aktuell in Cerebral Cortex veröffentlicht.
Unsere Körperbewegungen sagen oft mehr über uns aus, als wir wahrhaben wollen. So ist es nicht nur schwieriger, bei non-verbaler Kommunikation zu täuschen, es kann sogar zuverlässig auf den emotionalen Zustand geschlossen werden.
Eine Forschergruppe um Prof. Dr. Marina Pavlova von der Radiologischen Universitätsklinik Tübingen ging Geschlechtsunterschieden bei der Wahrnehmung von Körpersprache auf den Grund und fand, dass es dabei auf die Emotion ankommt.
Körpersprache ist in unserem Alltag von größter Bedeutung, sei es bei non-verbaler Kommunikation oder sozialer Wahrnehmung. Obwohl nach gängiger Auffassung Frauen beim Verstehen non-verbaler Signale den Männern überlegen sein sollen, sind Unterschiede zwischen den Geschlechtern kaum erforscht. Dabei besteht unter anderem eine klare medizinische Relevanz. Die Mehrzahl neurologischer Entwicklungsstörungen sowie psychiatrischer und psychosomatischer Erkrankungen, bei denen auch die non-verbale Wahrnehmung und Kommunikation beeinträchtigt sind (wie Autismus, ADHS, Schizophrenie, Depression, Angst- und Essstörungen), betrifft die Geschlechter in unterschiedlichem Ausmaß und Verhältnis. Ohne die zugrunde liegenden neurobiologischen Geschlechtsunterschiede zu verstehen, ist aber eine personalisierte Medizin undenkbar.
Unter Federführung von Prof. Dr. Marina Pavlova, Abteilung für Biomedizinische Magnetresonanz am Universitätsklinikum Tübingen, die seit Jahren international Pionierarbeit auf dem Gebiet der Wahrnehmung von Körpersprache und sozialer Kognition leistet, wurden Geschlechtsunterschiede nun differenziert erforscht.
In einer ersten Untersuchung sollten gesunde Versuchsteilnehmer erkennen, ob eine an der Tür klopfende Person fröhlich, neutral oder wütend gestimmt war. In der zweiten Studie wurden Emotionen gehender Menschen beurteilt. In beiden Fällen waren Männer beim Erkennen fröhlicher Körpersprache besser als Frauen, Frauen wiederum bei wütenden Bewegungen. Insbesondere konnte gezeigt werden, dass Männer fröhlich gehende Frauen am besten erkennen.
Mit Hilfe eines bildgebenden Verfahrens (Magnetenzephalographie, MEG) konnte bei Frauen eine frühere und höhere Aktivität über dem rechten Temporallappen nachgewiesen werden, einer Gehirnregion, in der die neuronalen Netzwerke für Bewegungswahrnehmung und Erkennen emotionaler Körpersprache überlappen. Bei Männern wird eine spätere Gehirnaktivität über dem Frontalhirn aufgezeichnet, dort, wo sozial relevante Entscheidungen getroffen werden. Es scheint, dass die Gehirne beider Geschlechter sich unterschiedlicher spezifischer Strategien zum Lesen von Körpersprache bedienen.
Trotz neurobiologischer Unterschiede kann das beobachtete Verhalten beider Geschlechter ähnlich sein. Die unterschiedliche Gehirnaktivität kann sogar als Anpassungsstrategie gesehen werden. Um eine angepasste soziale Reaktion zu zeigen, könnten Männer eher auf Entscheidungsebene zurückgreifen, während bei Frauen reine visuelle Wahrnehmungsprozesse im Vordergrund stehen könnten. Dennoch können solche Mechanismen oder deren Ausfall der geschlechtsunterschiedlichen Prädisposition für bestimmte neuropsychiatrische Erkrankungen zugrunde liegen.
Die weit verbreitete Annahme, dass Frauen generell non-verbale Signale besser verstehen, konnte also nicht bestätigt werden. Geschlechtsunterschiede beim Verstehen von Körpersprache gibt es aber durchaus, und zwar abhängig von der Art der Emotion: Männer erkennen besser fröhliche, Frauen wütende Körpersignale.
Außerhalb der Medizin und Neurowissenschaften sind diese Ergebnisse auch für unser Alltagsleben von großer Bedeutung: scheinbar mögen Männer einfach fröhliche Frauen.
Originalpublikationen
Pavlova MA, Sokolov AN, Bidet-Ildei C. (2014). Sex differences in the neuromagnetic response to biological motion. CEREBRAL CORTEX advanced online access. doi: 10.1093/cercor/bhu175. (IF 8.3)
Krüger S, Sokolov AN, Enck P, Krägeloh-Mann I, Pavlova MA. (2013). Emotion through locomotion: gender impact. PLoS ONE, 8(11): e81716. doi: 10.1371/journal.pone.0081716. (IF 3.5)
Sokolov AA, Krüger S, Enck P, Krägeloh-Mann I, Pavlova MA. (2011). Gender affects body language reading. FRONTIERS PSYCHOLOGY 2:16 doi:10.3389/fpsyg.2011.00016. (IF 2.8)
Quelle: idw
Infrastruktur und Energiemanagement: Geschwisterpaar der Wasserwirtschaft
Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock
Prof. Jens Tränckner von der Uni Rostock plädiert für neue Ansätze bei der Niederschlagsentwässerung, insbesondere in den Innenstädten. Viele freie Flächen würden bebaut und die abzuführende Niederschlagsmenge nehme ständig zu. Rostock bietet da bereits mit integralen Entwässerungskonzepten Lösungen für die Zukunft an. Auf der Rostocker Abwassertagung am 14. November werden diese Probleme erörtert.
Die Wasserwirtschaft steht vor neuen Herausforderungen. Regional und weltweit. Der Rostocker Wissenschaftler Professor Jens Tränckner fordert: „Die kommunalen Entwässerungssysteme müssen intelligent weiterentwickelt werden“. Im Osten Deutschlands sei die Siedlungswasserwirtschaft nach der Wende erfolgreich aufgebaut und modernisiert worden. „Nach fast 25 Jahren steht aber nun eine Re-Investitionswelle an“, sagt der 46-jährige Inhaber des Lehrstuhls für Wasserwirtschaft der Universität Rostock (Stiftungsprofessur der Eurawasser Nord GmbH). Insbesondere die Maschinentechnik wie Gebläse, Pumpen, Rührwerke müssen erneuert werden.
Parallel sei der demografische Wandel, also die schrumpfende Bevölkerung, zu bedenken. Gerade im ländlichen Raum sei die Infrastruktur für Abwasser nicht mehr ausgelastet. Das hat einerseits betriebliche Konsequenzen, sprich das Wasser befindet sich länger im Kanalnetz, was zu lästigem Geruch, aber auch zur Korrosion der unterirdischen Technik führt. Das größere Problem sieht Prof. Tränckner mit hohen Fixkosten für die Betreiber der Wasserwirtschaft.
„Infrastruktur und Energiemanagement sind deshalb ein Geschwisterpaar der Wasserwirtschaft“, sagt Prof. Tränckner. Dieser Gedanke ist auch das Motto der diesjährigen Rostocker Abwassertagung, die im November stattfindet. „ Aufgrund der Langlebigkeit der überwiegend leitungsgebundenen Infrastruktur zur Wasserversorgung und zum Abwassermanagement müssen mögliche Lösungskonzepte auch für die künftigen Probleme frühzeitig entwickelt und umgesetzt werden“.
Im Klartext heiße das: neue Investitionen müssten so geplant werden, dass sich für die nächsten 25 Jahre sowohl die Energie-als auch Infrastrukturkosten im vertretbaren Rahmen halten. Dabei könne die Wasserwirtschaft auch einen Beitrag zur Energiewende leisten, ist Prof. Träckner überzeugt. Einerseits seien Kläranlagen die größten kommunalen Energieverbraucher, andererseits werde in Kläranlagen durch Faulung der anfallenden Klärschlämme Strom produziert, der gegenwärtig von den Abwasserentsorgern zur Reduzierung ihres eigenen Verbrauches genutzt wird. „Dieser Anteil lässt sich sowohl durch neue verfahrenstechnische Konzepte der Abwasserreinigung aber auch durch Annahme von Biomasse oder energiehaltigen Reststoffen (Co-Substrate) deutlich erhöhen, ist Tränckner überzeugt.
Das vorhandene Potenzial und wie man dieses im Stromverbund nutzen kann, auch darüber werden sich die Experten auf der Abwassertagung austauschen. Prof. Tränckner sieht einen weiteren Aspekt, der Lösungen verlangt. Infrastrukturplanung der Wasserwirtschaft und Stadtplanung müssen enger miteinander verzahnt werden. Es werde immer mehr Infrastruktur für immer weniger Menschen errichtet. „Das wird auf lange Sicht teuer“, sagt der Professor. Er plädiert für neue Ansätze in der Niederschlagsentwässerung, insbesondere in den Innenstädten. Viele freie Flächen würden bebaut und die abzuführende Niederschlagsmenge nehme ständig zu. Rostock bietet da bereits mit integralen Entwässerungskonzepten Lösungen für die Zukunft an, welche ebenfalls auf der Tagung vorgestellt werden. Text: Wolfgang Thiel
Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Prof. Dr. Jens Tränckner
Tel: 0381 498 3640
Mail: jens.traenckner@uni-rostock.de
https://abwassertagung.auf.uni-rostock.de/
Quelle: idw
Förderung der Arbeitsfähigkeit von Arbeitnehmern
Dr. Maren Wagner Pressestelle
Bergische Universität Wuppertal
Netzwerk an der Bergischen Universität lädt zur Konferenz nach Berlin
Der Anteil älterer Arbeitnehmerinnen und Arbeitnehmer wird infolge des demografischen Wandels immer größer. Die Arbeits- und Beschäftigungsfähigkeit – vor allem von älteren Beschäftigten – zu erhalten und zu fördern, ist eine große Herausforderung für Unternehmen und Politik. Aktuelle Erkenntnisse zur Förderung der Arbeitsfähigkeit stand im Mittelpunkt einer Tagung von rund 100 Vertretern aus Wissenschaft und Praxis in Berlin am 20. und 21. Oktober. Veranstalter ist das deutsche WAI-Netzwerk an der Bergischen Universität Wuppertal.
Seit 2003 können Betriebe in Deutschland mit Hilfe des sogenannten „Work Ability Index“ (WAI) die aktuelle und künftige Arbeitsfähigkeit von älter werdenden Beschäftigten erfassen und bewerten. Damals wurde auf Initiative der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin das nationale WAI-Netzwerk an der Bergischen Universität gegründet.
„Der WAI-Fragebogen zur Messung der Arbeitsfähigkeit wird in Deutschland zurzeit in immer mehr Unternehmen im Gesundheits- und Demografiemanagement eingesetzt“, sagt Laura Mathiaszyk vom WAI-Netzwerk. Auf der dritten WAI-Konferenz in Berlin werden jetzt an zwei Tagen aktuelle Erkenntnisse zur Förderung der Arbeitsfähigkeit von Beschäftigten vorgestellt und zwischen Wissenschaftlern und Praktikern diskutiert. Die 100 Teilnehmerplätze waren bereits vor Anmeldeschluss ausgebucht.
Das WAI-Netzwerk an der Bergischen Universität Wuppertal wird vom Bundesministerium für Arbeit und Soziales (BMAS) im Rahmen der Initiative Neue Qualität der Arbeit unter dem Motto „Zukunft sichern, Arbeit gestalten“ finanziell gefördert. Es hat derzeit rund 1.600 Mitglieder aus Unternehmen, Beratung und Wissenschaft.
Kontakt:
Laura Mathiaszyk
Bergische Universität Wuppertal, Institut für Sicherheitstechnik
WAI-Netzwerk
Telefon 0202/439-3636
E-Mail wai@uni-wuppertal.de
Weitere Informationen:
http://www.arbeitsfaehigkeit.uni-wuppertal.de
Quelle: idw
Mehrheit der Ärzte befürwortet flächendeckende Einführung von Telemedizin
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Die Mehrheit der im Rahmen eines Projekts in Kaiserslautern befragten Ärzte ist für eine flächendeckende Einführung von Telemedizin zur Betreuung von Patienten mit Herzinsuffizienz oder Herzrhythmusstörungen in ihrem Arbeitsumfeld. Sie erwarten davon unter anderem eine Optimierung der Versorgung und eine Erhöhung der Therapietreue. Eine gemeinsame elektronische Patientenakte wird von den Medizinern als weniger wichtig eingeschätzt. Das sind einige Ergebnisse einer Befragung des Fraunhofer-Instituts für Software-Engineering, der Deutschen Stiftung für chronisch Kranke und des Westpfalz-Klinikums Kaiserslautern, die heute auf der Herbsttagung der Deutschen Gesellschaft für Kardiologie (DGK) in Düsseldorf präsentiert wurde.
Fokus auf schnellere und effizientere Versorgung
Telemedizinische Versorgungsangeboten ermöglichen es, „der Zunahme an chronischen Erkrankungen und den strukturellen Veränderungen der medizinischen Angebotssituation, zum Beispiel die abnehmende Verfügbarkeit fachärztlicher Expertise im ländlichen Raum zu begegnen. Das gilt insbesondere für Herz-Kreislauf-Erkrankungen“, so Studienautorin Silke Steinbach auf der DGK-Tagung. „Als regionaler Lösungsansatz unterstützt das Modellprojet E.He.R. die Schaffung einer qualitativ hoch wertigen und effizienten Versorgung mittels telemedizinischer Betreuung von Patienten mit Herzinsuffizienz oder Herzrhythmusstörungen.“
Weil die Akzeptanz durch alle Beteiligten eine Voraussetzung für die nachhaltige Implementierung eines neuen Versorgungskonzeptes sei, so die Expertin, wurde im Rahmen der Projektevaluation die Einschätzung von Ärzten in der Region Westpfalz mittels Fragebögen, in Einzelinterviews und in Workshops eingeholt.
„In Rahmen der Anforderungs- und Bedarfsanalyse legten die befragten Ärzte den Fokus auf eine Verbesserung der schnellen und effizienten Patientenversorgung“, so die Expertin. „Durch Telemedizin sollen Abläufe standardisiert und optimiert werden, um Patienten optimal zu versorgen und eine Entlastung der Ärzte herbeizuführen. Als weniger wichtig wurde eine gemeinsame IT-Infrastruktur und eine gemeinsame elektronische Patientenakte gesehen.“ Einen entscheidenden Vorteil sehen die Mediziner laut Befragung in der Erhöhung der Therapietreue von Herzinsuffizienz-Patienten durch die regelmäßige Übermittlung von Vitalparametern im Rahmen der telemedizinischen Begleitung. Generell erwarten die Mediziner ein geschärftes Bewusstsein der Patienten für ihre medizinische Situation und einen selbständigeren Umgang mit der Erkrankung.
„Zusammenfassend steht die Mehrzahl der befragten Ärzte, nämlich 58,3 Prozent, einer flächendeckenden Einführung von Telemedizin in ihrem Arbeitsumfeld positiv gegenüber. Nur eine Minderheit von 12,5 Prozent spricht sich gegen Telemedizin aus“, so die Studienautorin. Allerdings wollen die Mediziner die Telemedizin-Leistungen auch entsprechend abgegolten sehen: 56,5 Prozent der befragten Ärzte verlangen eine Regelvergütung dafür, 39,1 Prozent sehen eine Vergütung im Rahmen von Disease Management Programmen und 30,4 Prozent als Angebot der Integrierten Versorgung (IV) als Optionen.
Quelle: DGK Abstract Steinbach et al., Telemedizin als Element der flächendeckenden Versorgung für Patienten mit chronischer Herzinsuffizienz – Anforderungen und Bedarf aus ärztlicher Sicht. Projektergebnisse E.He.R.Clin Res Cardiol 103, Suppl 2, Oktober 2014 – Beitrag P407
Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B&K Kommunikation, Roland Bettschart, Dr. Birgit Kofler, Berlin/Wien, Tel.: 030 700159676; +43 1 31943780; kofler@bkkommunikation.com
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8800 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.
Weitere Informationen:
http://www.dgk.org/presse
http://www.ht2014.dgk.org
Quelle: idw
Erdgas-Boom kann den Klimawandel nicht verlangsamen
Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung
Der Erdgas-Boom durch den Einsatz von Technologien wie Fracking wird voraussichtlich nicht zu einer Verringerung der Treibhausgas-Emissionen führen. Die Verbrennung von Erdgas erzeugt im Vergleich zu Kohle zwar nur etwa die Hälfte der CO2-Emissionen pro Energieeinheit. Aber wenn Erdgas reichlich verfügbar und somit billig wird, hat dies letztlich auch einen höheren Energieverbrauch zur Folge. Die schmutzige Kohle würde durch Gas nur zum Teil ersetzt, wie eine jetzt in der Fachzeitschrift Nature erscheinende Studie zeigt.
Die Erhöhung des globalen Gasangebots löst auf den Märkten also Anpassungsdynamiken aus, die den Vorteil vergleichsweise niedrigerer Emissionen wieder zunichte machen würden, wie ein internationaler Vergleich von Computersimulationen erstmals zeigt.
„Unsere Untersuchung macht klar, dass reichlich Erdgas allein uns nicht vor dem Klimawandel retten wird“, sagt der Leitautor Hawon McJeon vom Pacific Northwest National Laboratory (PNNL) des US-Energieministeriums. Vor allem in den USA haben neue technische Möglichkeiten wie das Verpressen von Flüssigkeit in Schiefergestein, um es unterirdisch aufzubrechen und Erdgas freizusetzen – auch Fracking genannt – zu einem Boom bei der Erdgasförderung geführt. „Der globale Einsatz neuer Produktionstechnologien könnte die weltweite Erdgasproduktion bis zum Jahr 2050 verdoppeln oder verdreifachen“, sagt McJeon.
„Die Hoffnung erweist sich als irrig“ – Markteffekte dominieren
Dies könnte bis zur Mitte des Jahrhunderts zu bis zu zehn Prozent höheren CO2-Emissionen führen, statt den Kohlendioxid-Ausstoß insgesamt zu senken. „Das zusätzliche Angebot von Gas lässt dessen Anteil an Energie-Mix steigen, aber hierdurch wird nur eine sehr begrenzte Menge Kohle ersetzt – und es könnten auch emissionsarme erneuerbare Energien und Kernenergie ersetzt werden“, sagt Co-Autor Nico Bauer vom Potsdam-Institut für Klimafolgenforschung. „Leider erweist sich die Hoffnung als irrig, dass Erdgas wegen seiner technischen Überlegenheit im Vergleich zur Kohle absehbar zu einer Verringerung der Erderwärmung beitragen kann. Das stark erhöhte Angebot von Erdgas führt zu einem Preisverfall und einer Ausweitung der gesamten Energie-Versorgung.“ Darüber hinaus verursacht eine erhöhte Gasproduktion auch einen höheren Ausstoß des starken Treibhausgases Methan, das aus Bohrungslecks und Rohrleitungen entweichen kann.
Bei den verfügbaren Gasmengen gibt es viele Unsicherheiten – die Abschätzung der weltweiten Vorkommen wurde in den letzten zehn Jahren angepasst, aber die wirtschaftlichen Auswirkungen im globalen Energiesektor sind bislang nicht umfassend erforscht worden. Fünf Forschungsgruppen aus Deutschland, den USA, Österreich, Italien und Australien haben deshalb nun berechnet, wie die Welt im Jahr 2050 mit und ohne Erdgas-Boom aussehen könnte. Sie verwendeten fünf verschiedene Simulationsmodelle, die nicht nur Produktion und Verbrauch von Energie erfassen, sondern ein breites Spektrum von Wirtschaftssektoren sowie das Klimasystem enthalten.
Technische Fortschritte können Klimapolitik nicht ersetzen
„Als wir bei unserem Modell kaum Veränderungen bei den Treibhausgasemissionen bemerkten, dachten wir zuerst, wir hätten einen Fehler gemacht, weil wir mit einer erheblichen Emissionsverminderung gerechnet hatten“, sagt der leitende Wissenschafter James ‚Jae‘ Edmonds vom Joint Global Change Research Institute der PNNL. „Aber als alle fünf Modellierteams uns davon berichteten, dass sie ebenfalls kaum Unterschiede hinsichtlich des Klimawandels erkennen konnten, wussten wir, dass wir da etwas Neuem auf der Spur waren.“
Die Folgen sind weit reichend. „Die Ergebnisse zeigen, dass eine wirksame Stabilisierung des Klimas nur durch eine Bepreisung von Emissionen erreicht werden kann – und das erfordert internationale politische Zusammenarbeit und verbindliche Vereinbarungen“, erklärt Ottmar Edenhofer, Chefökonom des PIK. „Technologische Fortschritte können die Kosten der Klimapolitik reduzieren – aber sie können die Klimapolitik nicht ersetzen.“
Artikel: McJeon, H., Edmonds, J., Bauer, N., Clarke, L., Fisher, B., Flannery, B.P., Hilaire, J., Krey, V., Marangoni, G., Mi, R., Riahi, K., Rogner, H., Tavoni, M. (2014): Limited impact on decadal-scale climate change from increased use of natural gas. Nature (advance online publication) [DOI:10.1038/nature13837]
Weblink zum Artikel, sobald er veröffentlich ist: http://dx.doi.org/10.1038/nature13837
Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima
Quelle: idw
EARTO-Preis für Fraunhofer
Fraunhofer-Forscher haben eine Software entwickelt, die Firmen vor Datenklau und -missbrauch schützt. Dafür bekommen sie in diesem Jahr einen von drei Innovations-Preisen der European Association for Research and Technology Organisations EARTO. Der Verband wählte außerdem Frank Treppe, Fraunhofer-Hauptabteilungsleiter für Unternehmensstrategie und Internationales, zum Vizepräsidenten. Zusammen mit der EARTO-Präsidentin Maria Khorsand vertritt er künftig 350 Einrichtungen für angewandte Forschung in Europa.
Das digitale Zeitalter hat Risiken und Nebenwirkungen. Mit der Flut von Daten wächst auch die Gefahr von deren Missbrauch. Nicht nur Privatleute, auch Unternehmen sind verunsichert. »Ein Häkchen unter den allgemeinen Geschäftsbedingungen ist heute kaum noch ausreichend, denn Informationen können kopiert und weitergegeben werden«, erklärt Professor Dieter Rombach, Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE bei der Preisverleihung. »Auch Verschlüsseln reicht heutzutage oft nicht mehr aus, wenn in Geschäftsprozessen umfangreiche Daten ausgetauscht werden müssen. Im Zeitalter von Big Data sind neue Wege gefragt.«
Mit IND²UCE – die Abkürzung steht für Integrated Distributed Data Usage Control Enforcement – haben Fraunhofer-Forscher zusammen mit drei Partnern aus Industrie und Wirtschaft eine Technologie entwickelt, die künftig sensible Informationen vor Missbrauch schützt. »Wir verlassen uns nicht mehr rein auf klassische Zugriffskontrollen und Verschlüsselungen, sondern sichern die Daten zusätzlich noch selbst ab«, sagt Christian Jung, der das Team IND²UCE leitet. Der Trick: Alle Daten werden mithilfe kleiner zusätzlicher Informationspakete in Form von Datennutzungsregeln bestückt. In diesen Paketen steht, was jetzt oder in der Zukunft erlaubt ist und was nicht. Der Besitzer kann damit präzise definieren, welche Datei wie oft gelesen, kopiert oder weitergeleiten werden darf, ob sie mit dem Smartphone geöffnet werden kann und wenn ja, ob dies nur auf dem Firmengelände oder auch auf öffentlichen Plätzen möglich sein soll.
Verschiedene Prototypen dieser neuen Sicherheitslösung sind mittlerweile verfügbar. Einer der drei Partner plant, diese in den nächsten Jahren in seine Software zu integrieren und auf den Markt zu bringen.
Gemeinsam Netzwerke schaffen – Frank Treppe neuer Vizepräsident der EARTO
Zusammen mit der EARTO-Präsidentin Maria Khorsand vertritt Frank Treppe als neuer Vizepräsident künftig die angewandte Forschung in Europa. »Die EARTO steht für 350 europaweite Forschungsorganisationen der angewandten Forschung und bietet damit herausragende Möglichkeiten zur Vernetzung. Außerdem eröffnet die Organisation die Chance, den europäischen Forschungsraum aktiv mitzugestalten, da die EARTO die Interessen der Mitglieder gegenüber der europäischen Kommission vertritt«, so Treppe.
Der EARTO-Innovations-Preis
Forschung kann unser Leben verändern – zum Positiven. Herausragende Beispiele für angewandte Forschung ehrt die EARTO seit 2009 jährlich mit drei Preisen. Eine unabhängige Jury wählt Projekte aus, die das Potenzial haben, einen gesellschaftlichen oder wirtschaftlichen Wandel zu initiieren. Fraunhofer erhält die Auszeichnung bereits zum dritten Mal.
Quelle: Fraunhofer-Gesellschaft
Umweltqualität und Innovation Hand in Hand: Die Nominierungen für den Bundespreis Ecodesign 2014
Preis des Bundesumweltministeriums und Umweltbundesamtes wird zum dritten Mal vergeben
Gemeinsame Pressemitteilung von Umweltbundesamt und Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit
Die Jury aus Design- und Umweltexperten hat es sich nicht leicht gemacht. Engagierte Diskussionen haben die Beurteilung von ökologischen und gestalterischen Kriterien begleitet. Insgesamt 29 Produkte, Dienstleistungen und Konzepte haben die Jury überzeugt und sind für den Bundespreis Ecodesign 2014 nominiert. Am 14. November werden die Gewinner bei der Preisverleihung im Bundesumweltministerium in Berlin bekannt gegeben.
Die Wettbewerbsbeiträge in den vier Kategorien Produkt, Service, Konzept und Nachwuchs wurden der interdisziplinär besetzten Jury in einer großflächigen Ausstellung im ehemaligen Flughafen Tempelhof am 6. Oktober in Berlin präsentiert. Mit dabei waren ökologische Färbetechniken, nachhaltige Logistikkonzepte und neu gedachte Alltagsgegenstände.
Die parlamentarische Staatssekretärin im Bundesumweltministerium, Rita Schwarzelühr-Sutter, hebt hervor: „Der Bundespreis Ecodesign hat auch in diesem Jahr wieder viele hervorragende Einreichungen bekommen. Insbesondere das Zusammenwirken von hoher Umweltqualität, Funktionalität, Innovation und attraktiver Gestaltung hat mich beeindruckt.“
Auch der Vizepräsident des Umweltbundesamtes, Thomas Holzmann, betont: „ Die Vielfalt der Einreichungen zeigt, dass es auf ganz unterschiedliche Weise gelingen kann, gutes Design und Umweltfreundlichkeit in einem Produkt zu vereinen. Die Zahl und Bandbreite der Beiträge ist beeindruckend.“ Alle Nominierten sind ab sofort in einer Online-Ausstellung auf der Internetseite unter folgendem Link zu sehen: www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html. Auch Hintergrundinformationen zum Ecodesign sowie die Kriterien-Matrix, die als Bewertungsgrundlage diente, sind dort zu finden.
Die Preisträger und Nominierten aus dem Vorjahr sind noch vom 24. bis 26. Oktober in einer Wanderausstellung beim Designers‘ Open in Leipzig zu sehen. www.bundespreis-ecodesign.de/de/ausstellung
Bundesumweltministerium und Umweltbundesamt loben den Bundespreis Ecodesign seit 2012 jährlich in Zusammenarbeit mit dem Internationalen Design Zentrum Berlin aus. Ein Projektbeirat unterstützt das Vorhaben. Der Preis zeichnet innovative Waren, Dienstleistungen und Konzepte aus, die aus Umwelt- und Designsicht überzeugen.
Nominierte
Informationen über die für den Bundespreis Ecodesign 2014 nominierten Projekte finden Sie hier: www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html
Jury
Werner Aisslinger (Designer mit Schwerpunkt auf Produktdesign und Architektur)
Dr. Kirsten Brodde (Journalistin und Autorin)
Dr. Thomas Holzmann (Vizepräsident des Umweltbundesamtes)
Prof. Günter Horntrich (Professor für Design und Ökologie an der KISD)
Theresa Keilhacker (Architektin mit Schwerpunkt auf nachhaltigem Planen und Bauen)
Dr. Dietlinde Quack (Wissenschaftliche Mitarbeiterin am Öko-Institut, Forschungsschwerpunkt: Nachhaltiger Konsum und Produkte)
Rita Schwarzelühr-Sutter (Parlamentarische Staatssekretärin im Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit)
Prof. Dr. h.c. Erik Spiekermann (Kommunikationsdesigner, Typograf, Schriftgestalter und Autor)
Projektbeirat
Victoria Ringleb, Allianz deutscher Designer (AGD)
Anne Farken, BMW Group Designworks USA
Prof. Matthias Held und Sabine Lenk, Deutsche Gesellschaft für Designtheorie und -forschung (DGTF)
Lutz Dietzold, Rat für Formgebung
Prof. Susanne Schwarz-Raacke (Produktdesign), Prof. Heike Selmer (Modedesign) und Prof. Dr. Zane Berzina (Textil- und Flächendesign), Kunsthochschule Berlin-Weißensee (KHB)
Karin-Simone Fuhs und Dorothea Hess, ecosign/Akademie für Gestaltung
Dr. Stephan Kabasci und Hendrik Roch, Fraunhofer-Institut UMSICHT
Stephan Rabl, Handelsverband Deutschland (HDE)
Dr. Dominik Klepper, Markenverband
Johanna Kardel, Verbraucherzentrale Bundesverband (vzbv)
Entwicklung und Durchführung
Internationales Design Zentrum Berlin e. V. (IDZ)
www.idz.de
Die nominierten Projekte für den Bundespreis Ecodesign 2014
http://www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html
Übersicht über die Preisträger und Nominierten aus dem Vorjahr
http://www.bundespreis-ecodesign.de/de/ausstellung
Informationen über das Internationale Design Zentrum Berlin
http://www.idz.de/
Quelle: Umweltbundesamt
Unterschiedliche Faktoren beeinflussen Strompreise
BDEW zur heutigen Bekanntgabe der EEG-Umlage 2015:
In vielen Regionen steigende Netzentgelte absehbar / Von Vertriebsunternehmen beinflussbarer Strompreisanteil bei nur noch rund 25 Prozent
Berlin, 15. Oktober 2014 – „Dass die EEG-Umlage geringfügig sinkt, ist erfreulich. Der damit verbundene Entlastungseffekt für die Verbraucher ist jedoch leider nur gering. Aus der künftigen Höhe der EEG-Umlage allein lässt sich zudem keine generelle Prognose über die kurzfristige Preisentwicklung ableiten. Zahlreiche weitere Faktoren beeinflussen den Strompreis. In vielen Regionen muss beispielsweise mit weiter steigenden Netzentgelten gerechnet werden“, sagte Hildegard Müller, Vorsitzende der BDEW-Hauptgeschäftsführung heute anlässlich der Bekanntgabe der EEG-Umlage 2015. Die Umlage sinkt im kommenden Jahr erstmals geringfügig von 6,24 Cent pro Kilowattstunde Strom auf 6,17 Cent/kWh – ein Rückgang um gerade einmal 1,1 Prozent. Allerdings stehe die künftige Höhe weiterer staatlicher Umlagen wie beispielsweise der Umlage für abschaltbare Lasten noch nicht fest.
Neben den gesunkenen Beschaffungskosten und den weiterhin sehr hohen staatlichen Belastungen sind die Netzentgelte der dritte wichtige Bestandteil des Strompreises. Diese werden von den staatlichen Regulierungsbehörden insbesondere mit Blick auf Kosteneffizienz geprüft und genehmigt. In vielen Regionen dürften die Netzentgelte im kommenden Jahr aufgrund des erforderlichen Aus- und Umbaus von Verteil- und Übertragungsnetzen weiter steigen, so der BDEW. In den nächsten zehn Jahren sind wegen des Zubaus von dezentralen Photovoltaik- und Windenergieanlagen Investitionen von rund 25 Milliarden Euro allein in die Verteilnetze notwendig. Es müssen bestehende Stromleitungen verstärkt, neue Stromleitungen verlegt sowie Trafostationen und andere technische Einrichtungen installiert werden.
„Der deutliche Strompreis-Anstieg der letzten Jahre geht in der Hauptsache auf höhere Steuern, Abgaben und Umlagen zurück. Gerade die politisch Verantwortlichen sollten zu ihren Entscheidungen stehen, diese in der Öffentlichkeit erläutern und die Verantwortung für die Folgen nicht einfach auf die Energieversorger abwälzen“, betonte Müller. Seit 1998 ist der Staatsanteil am Endkundenpreis nach BDEW-Angaben drastisch gestiegen und liegt mittlerweile bei über 52 Prozent. Im Jahr 2015 werden sich die Belastungen für Stromkunden durch die EEG-Umlage auf etwa 21,8 Milliarden Euro summieren. Der von den Vertriebs-Unternehmen selbst beeinflussbare Anteil am Haushaltsstrompreis (Strombeschaffung, Vertrieb) ist dagegen auf nur noch rund 25 Prozent gesunken.
„Das EEG muss mit Blick auf das Ziel der Marktintegration der Erneuerbaren Energien weiterentwickelt werden, um die Kosteneffizienz bei der Förderung Erneuerbarer Energien weiter zu erhöhen. Die Politik hat mit der EEG-Novelle in diesem Jahr wichtige Weichen gestellt. Jetzt geht es um weitere konsequente Schritte auf diesem Weg. Der BDEW hat deshalb vor Kurzem als erster Akteur konkrete Vorschläge für ein Auktionsdesign für Photovoltaik-Freiflächen-Kraftwerke vorgelegt, das das Erreichen der Ausbauziele im Bereich der Erneuerbaren Energien, eine kosteneffiziente Förderung und eine größtmögliche Akteurs-Vielfalt gleichermaßen gewährleistet“, so Müller. „Parallel müssen wir uns Gedanken um ein die Energiewende flankierendes Marktdesign machen, das Investitionen in konventionelle Kapazitäten ermöglicht. Das aktuelle Investitionsumfeld ist hierzu nicht mehr geeignet und auch ein Grund für die zunehmenden Stilllegungsanträge der deutschen Kraftwerksbetreiber. Diese Entwicklungen haben das Potential für eine Gefährdung der Versorgungssicherheit, weil die Erneuerbaren Energien alleine wegen ihrer hohen Dargebotsabhängigkeit nicht in der Lage sind, die Stromversorgung zu jedem Zeitpunkt sicherzustellen. Wir brauchen daher dringend politische Entscheidungen zur Vorbereitung eines Dezentralen Leistungsmarktes.“
Anlagen und Materialien
Geplante Veröffentlichungstermine von staatlichen Strompreisbestandteilen (PDF):
http://www.bdew.de/internet.nsf/id/1B39B55BDB1A2B56C1257D7200320100/$file/141015%20BDEW%20zur%20Bekanntgabe%20der%20EEG-Umlage%202015%20Anlage.pdf
Quelle: bdew.de
Volkszählung unter der Erde – Erste Regenwurm-Bestandsaufnahme in Deutschland
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Die Wissenschaftlerin Dr. Ricarda Lehmitz vom Senckenberg Forschungsinstitut hat erstmals eine Inventur aller Regenwurmarten Deutschlands durchgeführt. Hierfür bearbeiteten sie und ihre Kollegen 16.000 Datensätze. Insgesamt gibt es 46 verschiedene Regenwurmarten in der Bundesrepublik, aber nur eine Art kann als endemisch (ausschließlich in Deutschland vorkommend) bezeichnet werden. Die Artenvielfalt der Wenigborster nimmt außerdem von Norden nach Süden zu. Die „Regenwurm-Checkliste“ ist kürzlich im Fachjournal „Zootaxa“ erschienen.
Sie fressen sich durch die Erde, leben in engen Röhren und Gängen und tragen erheblich zur Bodenqualität bei: Unter einem Quadratmeter Wiese können – je nach Bodenart – zwischen 100 und 400 Regenwürmer leben.
Doch Wurm ist nicht gleich Wurm – am Senckenberg Forschungsinstitut in Görlitz wurde nun erstmals eine komplette Auflistung aller Regenwurmarten in Deutschland vorgenommen. „Es gibt 46 Arten von Regenwürmern bei uns“, erzählt Dr. Ricarda Lehmitz, Leiterin der Sektion Oribatida am Senckenberg Museum für Naturkunde Görlitz und Leitautorin der Studie. Sie hat gemeinsam mit Wurmexperten aus Deutschland 16.000 Datensätze ausgewertet, um die „Regenwurm-Checkliste“ zu erstellen.
„Ein Datensatz steht für einen Regenwurmfund an einem bestimmten Ort, zu einer bestimmten Zeit“, erklärt Lehmitz und ergänzt: „Die Daten stammen aus wissenschaftlichen Veröffentlichungen, Sammlungen, Diplom- und Doktorarbeiten, aber auch von Privatpersonen aus den letzten 100 Jahren.“ Profitiert haben die Bodenzoologen dabei von der Online-Datenbank „Edaphobase“ ¬- ein öffentliches, bodenzoologisches Informationssystem mit knapp 500.000 Datensätzen bodenlebender Tiere.
Unter den 46 Arten der gegliederten Würmer befindet sich nur eine echte endemische Art: „Nur Lumbricus badensis, der ‚Badische Riesenregenwurm‘ kann als endemisch bezeichnet werden – ihn gibt es ausschließlich in Deutschland“, erläutert die Görlitzer Wissenschaftlerin. Der bis zu 60 Zentimeter lange Wurm hat sich im südlichen Schwarzwald eine ökologische Nische geschaffen. „Wir nehmen an, dass sich andere Regenwürmer in den relativ sauren Böden nicht wohl fühlen“, fügt Lehmitz hinzu.
Zu einer der häufigsten Arten gehört Lumbricus terrestris, der Gemeine Regenwurm oder Tauwurm, „diese Art finden wir in allen Teilen Deutschlands“, vervollständigt Lehmitz.
41 Prozent der Würmer „wandern“, das heißt sie haben sich nach der letzten Eiszeit in Deutschland ausgebreitet oder alte Besiedlungsgebiete wieder eingenommen. „Vier dieser 19 Arten haben wir nur in menschennahen Umgebungen, wie in Komposthaufen gefunden. Diese Arten werden häufig mit Erde oder Blumenzubehör weltweit durch den Menschen verbreitet“, erzählt die Senckenbergerin. Die restlichen 27 Arten bleiben in der Regel „ortstreu“.
Und noch ein weiteres spannendes Detail haben die Wissenschaftler herausgefunden: Die Artenvielfalt der Regenwürmer nimmt von Norden nach Süden zu. Dieser Trend entspricht auch der europäischen Verteilung von Regenwurmarten. Grund hierfür ist die letzte Kaltzeit, welche vor etwa 115.000 Jahren begann und vor 11.700 Jahren endete. Lehmitz hierzu: „Als die Gletscher sich zurückgezogen haben, konnten sich die Würmer vom Süden ausgehend wieder ausbreiten. In Deutschland gibt es 14 Arten, die nur in den südlichen Bundesländern vorkommen.“
Die Görlitzer Bodenzoologin will aber nicht ausschließen, dass sich in einigen Gebieten Deutschlands weitere Arten finden lassen: „Besonders im Alpenraum und in speziellen Lebensräumen wie an Flussufern gibt es noch Nachholbedarf bei der Regenwurminventur.“ Und auch neue genetische Untersuchungen bringen nicht selten verborgene Arten ans Licht. Sogar der wohl am gründlichsten erforschte Lumbricus terrestris wurde 2010 aufgrund einer DNA-Analyse in zwei – morphologisch nicht unterscheidbare – Arten unterteilt.
„Die Bestandsaufnahme der Regenwurm-Arten ist eine wichtige Basis für unsere weitere Arbeit. Als nächstes werden wir eine Gefährdungseinschätzung der Würmer in einer „Rote Liste“ veröffentlichen“, gibt Lehmitz einen Ausblick auf ihre Forschung.
Kontakt
Dr. Ricarda Lehmitz
Senckenberg Museum für Naturkunde Görlitz
Sektion Oribatida
Tel. 03581-4760-5570
ricarda.lehmitz@senckenberg.de
Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de
Publikation
LEHMITZ, RICARDA et al. Checklist of earthworms (Oligochaeta: Lumbricidae) from Germany. Zootaxa, [S.l.], v. 3866, n. 2, p. 221-245, sep. 2014. ISSN 1175-5334. doi:http://dx.doi.org/10.11646/zootaxa.3866.2.3.
Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten undnachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.
Weitere Informationen:
http://www.senckenberg.de/root/index.php?page_id=5206&year=0&kid=2&i… PM Regenwürmer
Quelle: idw
Hitze, Überflutungen, Stürme: Welche regionalen Folgen hat der Klimawandel für Deutschland?
Jan-Martin Wiarda Kommunikation und Medien
Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren
Helmholtz-Forscher geben Antworten auf internationaler Konferenz
Global mag sich die Erwärmung in den vergangenen Jahren verlangsamt haben, in einigen Bereichen der Erde hält der Erwärmungstrend jedoch unvermindert an. Seit 1997 ist die Wassertemperatur im Nordatlantik um ein Grad gestiegen, bestätigen Helmholtz-Forscher während einer internationalen Konferenz von Klimaforschern in Berlin. „Dadurch schmilzt das Meereis der Arktis zunehmend ab – mit unübersehbaren Folgen für das Klima auch in Europa“, sagt Peter Lemke vom Alfred-Wegener-Institut, dem Helmholtz-Zentrum für Polar- und Meeresforschung.
Seit Montag treffen sich im Berliner Umweltforum mehr als 300 Wissenschaftler aus aller Welt, um über die regionalen Auswirkungen globaler Klimaveränderungen in Deutschland, Europa und der Welt zu diskutieren. Die Tagung wird vom 2009 gegründeten Helmholtz-Verbund Regionale Klimaänderung (REKLIM) organisiert. REKLIM will mithilfe neuer Forschungsergebnisse ein besseres Verständnis der regionalen Veränderungen und damit auch verlässlichere Prognosen ermöglichen.
Fest steht nach fünf Projektjahren: Es gibt in Deutschland weniger Regen im Sommer – dafür aber umso mehr im Spätwinter. „Für die Natur, aber auch für uns Menschen ist das fatal“, sagt Hans Peter Schmid vom Karlsruher Institut für Technologie. „Im Frühling steigt die Hochwassergefahr, und im Sommer drohen Dürren.“ 2013 etwa war in der Bundesrepublik ein Jahr mit einer Serie von rekordverdächtigen Extremereignissen: Überflutung, Stürme und Hagel haben es zum bislang teuersten Versicherungsjahr werden lassen. Ein neu entwickelter Hagelindex zeigt eine deutliche Zunahme dieser Extremniederschläge seit den 70er Jahren. „Die gute Nachricht ist, dass in Sachen Hagel unseren Projektionen zufolge bis zum Jahr 2050 mit nur noch einer geringen Verschlechterung zu rechnen ist“, sagt Michael Kunz, ebenfalls vom Karlsruher Institut für Technologie.
Erstaunlich ist, wie stark die Öffentlichkeit in ihrer Einschätzung möglicher Klimagefahren schwankt. So zeigt eine jährlich durchgeführte Umfrage in Hamburg, dass im Jahr 2008 die Sorgen und Ängste vor extremen Wetterlagen besonders groß waren – direkt nach dem verheerenden Sturmtief Tilo. Nach einem zwischenzeitlichen Rückgang wuchsen die Sorgen 2014 erneut auf den Stand von 2008 – diesmal in Folge des Orkantiefs Xaver. „Langfristige Ängste werden offenbar auch durch kurzfristige Erfahrungen geprägt“, sagt Beate Ratter vom Helmholtz-Zentrum Geesthacht.
Insgesamt sind neun Forschungszentren der Helmholtz-Gemeinschaft an REKLIM beteiligt. Weitere Erkenntnisse und Ergebnisse der regionalen Klimaforschung aus insgesamt acht Themenbereichen von Prozessen in den Polargebieten, über Klimaanpassungsstrategien und extreme Wetterereignisse bis hin zum Küstenschutz, werden auf der dreitägigen Klimakonferenz in Berlin von den Forschern vorgestellt und gemeinsam erörtert. Weiterführende Informationen finden Sie auf der Webseite www.reklim.de.
Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 37.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).
Weitere Informationen:
http://www.helmholtz.de
http://www.helmholtz.de/socialmedia
http://www.reklim-conference-2014.de
Quelle: idw
DGPM warnt vor Überbelastung am Arbeitsplatz: Männer sind öfter gestresst als Frauen
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Berlin – Männer leiden häufiger unter Arbeitsstress als Frauen. Das schließen Experten aus Studienergebnissen, wie denen der SHARELIFE-Studie, die belegen, dass der Beruf bei Männern zeitintensiver ist und einen höheren Stellenwert einnimmt. Dadurch können gerade psychische Belastungen gehäuft auftreten. Die Deutsche Gesellschaft für Psychosomatische Medizin und Ärztliche Psychotherapie (DGPM) fordert mehr entsprechende Präventionsprogramme speziell für Männer.
Seit Jahren verzeichnen Krankenkassen vermehrt Krankheitstage aufgrund psychischer Erkrankungen. Immer häufiger betreffen Belastungsstörungen, Depressionen und Neurosen Männer: Im aktuellen Gesundheitsreport 2013 verzeichnete der BKK-Dachverband mit rund fünf Prozent bei Männern einen mehr als doppelt so starken Zuwachs als bei Frauen. Einen Grund finden Experten darin, dass die Vollerwerbsquote in Deutschland bei Männern mit rund 91 Prozent immer noch deutlich höher ist, als bei Frauen, wo sie etwa 54 Prozent beträgt. Hinzu kommt: „Männer verbringen durchschnittlich mehr Jahre im Beruf, das konnte die SHARELIFE-Studie eindrucksvoll nachweisen“, sagt Medizinsoziologe Prof. em. Dr. Johannes Siegrist von der Heinrich-Heine Universität Düsseldorf. Die Studie erfasste Berufsverläufe von vielen tausenden Teilnehmern in 13 europäischen Ländern. „Männer identifizieren sich stärker über ihre Arbeit als Frauen und fühlen sich von guten oder schlechten beruflichen Erlebnissen stärker betroffen“, so Siegrist.
Überbelastung am Arbeitsplatz kann beispielsweise entstehen, wenn der Arbeitnehmer dauerhaft unter hohem Leistungsdruck steht und dafür keine angemessene „Belohnung“ in Form von Gehalt, Aufstiegsmöglichkeiten oder sozialer Anerkennung erhält. Wenn dieses Ungleichgewicht zu lange andauert, drohen Burnout und Depression. In den letzten Jahren galten vor allem Frauen als stressgefährdet. „Dies leiteten Psychologen daraus ab, dass Frauen sich doppelt so oft wegen einer Depression in Behandlung befinden wie Männer und öfter über Stress klagen“, meint Professor Dr. med. Harald Gündel, Mediensprecher der DGPM und Ärztlicher Direktor der Universitätsklinik für Psychosomatische Medizin und Psychotherapie in Ulm. „Aktuellere Studien haben aber bereits gezeigt, dass Männer genauso häufig an Depression leiden wie Frauen“, meint der Experte. Dennoch bleiben Stresssymptome gerade bei Männern lange unerkannt. Ganz anders als Frauen sehen Männer Überbelastung als Herausforderung, der sie standhalten müssen. „Das klaglose Ertragen von Härte und psychischem Druck ist ein Hauptmerkmal der klassischen Männerrolle. Nicht zuletzt deswegen ist es uns wichtig, dass sich die Psychosomatik auch den Männern und ihren Bedürfnissen zuwendet“, so Professor Dr. med. Matthias Franz, Präsident des Männerkongresses und Professor für Psychosomatische Medizin und Psychotherapie an der Heinrich-Heine-Universität. Dauerstress macht auf die Dauer auch Männer krank. Das äußert sich in destruktivem Verhalten wie Reizbarkeit und Alkoholmissbrauch. „Wir brauchen dringend Therapieangebote und Präventionsmaßnahmen, die die spezifischen seelischen Bedürfnisse von Männern berücksichtigen“, fordert der Experte.
Über dieses und weitere Probleme der Männerrolle sprechen Experten vom 19. bis 20. September auf dem Männerkongress der Heinrich-Heine Universität in Düsseldorf. Unter dem Motto „Angstbeißer, Trauerkloß, Zappelphilipp – Seelische Gesundheit bei Männern und Jungen“ referieren Fachleute zum den Themen psychische Belastung, männliche Gewalt und Psychotherapie für Männer.
Quellen:
BKK-Gesundheitsreport 2013:
http://www.bkk-dachverband.de/images/bkk/gesundheitsreport/doppel.php
Jahresbericht Arbeitsmarkt:
http://statistik.arbeitsagentur.de/Statistikdaten/Detail/201212/ama/heft-arbeits…
Männergesundheitsbericht 2013:
http://www.maennergesundheitsbericht.de/startseite.html
Wahrendorf M, Siegrist J. Working conditions in mid-life and participation in voluntary work after labour market exit. In: The Individual and the Welfare State. Berlin 2011.****
Weitere Informationen:
http://www.dgpm.de
http://www.maennerkongress2014.de
Quelle: idw
Enorme Fortschritte in der Ozeanversauerungsforschung
Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
Neuer Bericht fasst aktuellen Stand des Wissens zusammen
Noch nie zuvor erforschten so viele Wissenschaftler wie sich der sinkende pH-Wert des Meerwassers auf Tiere und Pflanzen im Ozean auswirkt. Ihre Ergebnisse haben die Experten jetzt für den zweiten Ozeanversauerungsbericht der Biodiversitäts-Konvention (CBD – Convention on Biological Diversity) zusammengetragen, der heute auf der zwölften CBD-Konferenz der Vertragsstaaten vorgestellt wird. Ein wichtiger Fokus liegt dabei auf jenen Folgen, die sich auch auf uns Menschen auswirken. Mit dieser Zusammenfassung will die CBD die Problematik saurer werdender Meere auf die Tagesordnung der internationalen Politik bringen. Zu den Autoren des neuen Berichts gehören auch Wissenschaftler des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).
„Die vergangenen fünf Jahre waren sicherlich die ausschlaggebenden für die Ozeanversauerungsforschung“, sagt Dr. Felix Mark, Biologe am AWI und einer der Autoren des aktuellen CBD-Berichts zur Ozeanversauerung (zum vollständigen Interview mit Dr. Felix Mark). Seit dem Jahr 2009 – als der erste CBD-Bericht zur Ozeanversauerung erschien – haben Experten aus aller Welt mehr als 1000 neue Studien dazu veröffentlicht, wie sich der sinkende pH-Wert des Meerwassers auf die Tiere und Pflanzen im Ozean auswirkt.
Zu ihren wichtigsten Erkenntnissen gehört sicherlich, dass saureres Wasser nicht nur die Kalkschalen und -skelette von Muscheln und Korallen angreift, sondern sich ebenso auf höher entwickelte Meeresbewohner wie Fische auswirken kann. Aber auch, dass jede Art ganz unterschiedlich auf saureres Wasser reagiert und einige sogar davon profitieren – wie beispielsweise Seegräser, die das zusätzliche Kohlendioxid zur Photosynthese nutzen.
Auf Grundlage dieses neuen Wissens hat sich über die vergangenen Jahre der Fokus der Forschung immer wieder erweitert und somit auch das Verständnis dafür wie weitreichend die Folgen saurerer Meere sind: „Wir beginnen zu verstehen, wie einzelne Arten unter dem Einfluss von Ozeanversauerung interagieren; welche Folgen es hat, wenn eine Art aus dem Nahrungsnetz verschwindet und ob sich Tiere über mehrere Generationen anpassen können“, erzählt Dr. Felix Mark.
Wichtig war auch der Ansatz, die Ozeanversauerung nicht als ein Einzelphänomen zu betrachten, das die Lebensbedingungen der Weltmeere im Alleingang verändert. Der sinkende pH-Wert gesellt sich zu anderen Umweltfaktoren wie der steigenden Wassertemperatur, dem sinkenden Sauerstoffgehalt sowie der Verschmutzung und Überdüngung der Meere. Forscher berücksichtigen dies in Labor- und Feldversuchen, in dem sie zum Beispiel das Wasser in Aquarien gleichzeitig erwärmen und Kohlendioxid hinzufügen.
AWI-Wissenschaftler haben dabei einen wichtigen Beitrag geleistet. So erforscht die Arbeitsgruppe um Dr. Felix Mark wie sich die Ozeanversauerung und -erwärmung auf Fische in den Polargebieten auswirkt. „Wir haben beispielsweise herausgefunden, dass der Polardorsch, der eine Schlüsselart für das arktische Ökosystem ist, empfindlich darauf reagiert, wenn der Arktische Ozean immer saurer und gleichzeitig wärmer wird. Der Fisch wächst dann vermutlich nicht mehr so gut“, erklärt der Biologe.
Weniger empfindlich dagegen ist eine der wichtigsten Futterarten des Polardorsches, die so genannten Ruderfußkrebse, wie AWI-Wissenschaftlerin und Co-Autorin Dr. Barbara Niehoff herausgefunden hat. „Selbst bei extrem hohen Kohlendioxid-Konzentrationen, die weit über dem heutigen Wert liegen, weisen die Tiere keine nennenswerten Reaktionen auf“, erzählt die Biologin. (Mehr über die Widerstandsfähigkeit von Ruderfußkrebsen lesen Sie hier.)
Diese Fülle an neuen Ergebnissen haben Wissenschaftler aus zwölf Ländern jetzt für den neuen CBD-Bericht zur Ozeanversauerung zusammengefasst. Meeresbewohner, die gar nicht, nur in sehr geringem Maße oder sogar positiv auf die Ozeanversauerung reagieren, sind darin allerdings nur Randfiguren. Wie schon vor fünf Jahren widmet sich der Bericht vor allem Arten, die sich nur schwer an das saurere Wasser anpassen können – insbesondere Korallen.
Da Korallenriffe nicht nur zu den artenreichsten Ökosystemen zählen, sondern auch über 400 Millionen Menschen mit Nahrung versorgen und sie vor Sturmfluten schützen, gehören sie zu den am intensivsten erforschten Lebensräumen in der Ozeanversauerungsforschung – und zu den politisch und wirtschaftlich wohl interessantesten. Denn Wissenschaftler schätzen, dass allein die Auswirkung der Ozeanversauerung auf Korallen und Muscheln zu Folgekosten von einer Billion US Dollar führen könnten.
Trotz des enormen Wissenssprungs im Vergleich zum vorhergehenden CBD-Bericht bleiben wichtige Fragen allerdings noch offen: Beispielsweise, ob sich empfindliche Bewohner wie Korallen noch schnell genug an die neuen Lebensbedingungen anpassen können. Oder wie das Ökosystem Ozean als Ganzes auf die Versauerung reagiert.
„Momentan sind wir dabei, die einzelnen, verfügbaren Ergebnisse so aufzubereiten, dass sie in Ökosystem-Modelle eingesetzt werden können“, erzählt Dr. Felix Mark. So erhoffen sich die Wissenschaftler, genauer vorhersagen zu können wie das Leben im Meer in Zukunft aussehen könnte, wie sich Nahrungsnetze verschieben und welche Arten unter Umständen für immer verschwinden könnten.
Der aktuelle CBD-Bericht, so das Ziel der Konvention, soll die Ozeanversauerung und ihre Folgen verstärkt auf die Agenda der internationalen Politik setzen. Doch auch hier hat sich in den vergangenen fünf Jahren einiges getan: So hat beispielsweise der Weltklimarat die Problematik versauernder Ozeane im fünften Weltklimabericht erstmals umfassend behandelt. Ein Schritt in die richtige Richtung, meint auch Biologe Dr. Felix Mark:„Das hat sicherlich dazu beigetragen, dass die Ozeanversauerung in der Politik als Tatsache anerkannt wird, vor allem als Tatsache, die zum größten Teil von uns Menschen verursacht wird.“
Folgen Sie dem Alfred-Wegener-Institut auf Twitter und Facebook. So erhalten Sie alle aktuellen Nachrichten sowie Informationen zu kleinen Alltagsgeschichten aus dem Institutsleben.
Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.
Quelle: idw
Gesunde Ernährung: Bienen nutzen Heilstoffe des Honigs als Medikament
Ute Olbertz Pressestelle
Martin-Luther-Universität Halle-Wittenberg
Weltweit gibt das Bienensterben Anlass zu großer Sorge. Auch Darmkrankheiten tragen in erheblichem Maße zum Sterben ganzer Bienenvölker bei. Bienen sind jedoch in der Lage, sich selbst vor Infektionen schützen, indem sie die natürlichen Heilstoffe des Honigs nutzen. Im Gegensatz zu gesunden Tieren bevorzugen kranke Bienen die Honige, die besonders wirksam gegen Infektionen des Darms sind. Zu diesem Schluss kommen Wissenschaftler vom Institut für Biologie der Martin-Luther-Universität Halle-Wittenberg in ihren aktuellen Untersuchungen. Die wegweisenden Ergebnisse sind jetzt im Fachmagazin „Behavioral Ecology and Sociobiology“ erschienen.
In einem Bienenstock leben viele Tausend Bienen auf engem Raum bei über 30 Grad Celsius und hoher Luftfeuchtigkeit zusammen. Es herrschen ideale Bedingungen für die Ausbreitung von Infektionskrankheiten. Die Infektion wehren Bienen zum einen mit Hilfe ihres Immunsystems ab. Zum anderen enthält der von ihnen produzierte Honig natürliche Inhaltsstoffe, die gegen Bakterien, Pilze oder Viren wirken. Diese können den Bienen helfen, ihre Krankheiten zu kurieren.
Die Wissenschaftler um Dr. Silvio Erler und Prof. Dr. Robin Moritz von der Universität Halle untersuchten gemeinsam mit Forschern der Universität Cluj-Napoca (Rumänien), ob Honig von den Bienen nicht nur als Nahrungsmittel, sondern auch als Heilmittel zur Behandlung von Bienenkrankheiten genutzt wird. „Wir haben untersucht, ob Bienen entsprechend ihres Gesundheitszustands bei der Wahl des Honigs neben dem Nährwert, auch den Heilwert berücksichtigen“, so Erler.
Im Labor infizierten die Forscher Bienen mit dem Darmpilz Nosema ceranae und verglichen dann, wie gesunde und kranke Bienen zwischen verschiedenen Honigen wählten. „Wir beobachteten, dass infizierte Bienen keinen Unterschied zwischen Linden- und Robinienhonig machten. Während Honigtauhonig von ihnen kaum gewählt wurde, hatten sie jedoch eine große Vorliebe für Sonnenblumenhonig, die mit zunehmender Infektion der Bienen sogar anstieg“, sagt Erler.
Anschließend untersuchten die Wissenschaftler die Wirksamkeit der Honige auf die Darminfektion. Und tatsächlich: „Die Bienen wiesen wesentlich geringere Sporenmengen im Darm auf, wenn sie sich ausschließlich von Sonnenblumenhonig ernährt hatten. Bienen, die Honigtauhonig konsumiert hatten, zeigten hingegen einen stärkeren Befall.“ Auch im Labortest zeigte der Sonnenblumenhonig eine bessere Wirkung als der Honigtauhonig.
„Honig ist also nicht nur gesund für den Menschen, sondern auch für die Bienen selbst, die im Krankheitsfall nicht den Honig wählen, der besser schmeckt, sondern den, der besser hilft“, so Erler.
Der Artikel „Pathogen-associated self-medication behavior in the honeybee Apis mellifera“ ist online abrufbar: http://link.springer.com/article/10.1007%2Fs00265-014-1786-8 (DOI: 10.1007/s00265-014-1786-8).
In der Print-Ausgabe der Fachzeitschrift „Behavioral Ecology and Sociobiology“ erscheint der Artikel im November 2014.
Ansprechpartner:
Dr. Silvio Erler
Institut für Biologie – Zoologie der MLU
Telefon: +49 (0) 345 55 263 05
E-Mail: silvio.erler@zoologie.uni-halle.de
Quelle: idw
Der Ostseeschnäpel vor dem Comeback
Norbert K. Borowy Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Nutzierbiologie (FBN)
Dummerstorfer Nachwuchsforscher legen erste grundlegende molekularbiologische Analyse des Edelfisches vor
Die Nachwuchsforschergruppe „Fischgenetik“ am Leibniz-Institut für Nutztierbiologie hat im Rahmen des Projektes „Biotechnologische Analysen zum Nachweis der Eignung des Ostseeschnäpels für eine nachhaltige regionale Aquakultur“ unter Leitung von Dr. Alexander Rebl erstmals eine kompakte molekularbiologische Analyse des Ostseeschnäpels, auch Steinlachs oder Große Maräne genannt, vorgelegt.
„Der Fisch ist hervorragend für die heimische Aquakultur geeignet. Einem Comeback des schmackhaften und gesunden Edelfisches steht nichts im Wege“, sagte Dr. Alexander Rebl. In den zwanziger Jahren des vorigen Jahrhunderts gehörte der Ostseeschnäpel zu den beliebtesten Fischen der gehobenen Gastronomie, insbesondere in Frankreich. Das Landwirtschaftsministerium MV hat das Projekt mit 650.000 Euro gefördert.
Das Dummerstorfer Forschungsinstitut wurde in enger Kooperation mit der Landesforschungsanstalt für Landwirtschaft und Fischerei MV in Rostock (LFA) beauftragt, die genetischen, molekularbiologischen und immunologischen Parameter des Ostseeschnäpels zu untersuchen. Bislang lagen dazu kaum Erkenntnisse vor. „Wie reagieren die Fische auf Stress, unterschiedliche Besatzdichte in den Gewässern, was hält sie vital und gesund und welche erblichen Grundlagen wirken sich auf die Zucht aus? Das sind nur einige von vielen Aspekten für eine erfolgreiche und vor allem wirtschaftliche Aquakultur“, so der Biologe. Das Ziel ist ein stabiler und reproduzierbarer Produktionszyklus für die Schnäpelaufzucht.
Fast von der Bildfläche verschwunden
Der Ostseeschnäpel stand durch die Verschmutzung der Randgebiete der Ostsee, wie Oderhaff und Boddengewässer, in den 70er und 80er Jahren kurz vor dem Aussterben und konnte sich durch von Bund und Land geförderte Nachzuchtprogramme erst in den letzten Jahren wieder etwas erholen. Der früher in der Vorpommerschen Boddenküste üppig vorhandene Ostseeschnäpel ist jedoch trotz wiederholter Auswilderungen stark gefährdet, da viele der natürlichen Laichgebiete nicht mehr existieren. Ein glücklicher Umstand kommt dem schmackhaften Ostseefisch jedoch zugute. Er kann auch im Süßwasser leben und gezüchtet werden.
Die Landesforschungsanstalt Mecklenburg-Vorpommern beschäftigt sich seit einiger Zeit erfolgreich mit der technologischen Entwicklung der ersten Aquakulturanlage des Ostseeschnäpels in den Aufzuchtteichen in Friedrichsruhe/Frauenmark im Landkreis Ludwigslust-Parchim. Die Ostseeschnäpelzucht der dortigen BiMES – Binnenfischerei GmbH aus Leezen ist die Grundlage für die wissenschaftlichen Untersuchungen (bimes.de). Alle Versuche zu Haltungsbedingungen von Zuchtschnäpeln finden in der Versuchsstation Born der LFA statt, während die molekularbiologischen Analysen in den Laboren des FBN erfolgen. Weitere Standorte für das vom Land MV geförderte Aufzuchtprogramm für bis zu 1,5 Mio. Schnäpel befinden sich in Boek und Hohen Wangelin im Landkreis Mecklenburgische Seenplatte.
„Letzten Endes dienen die Ergebnisse beider Projekte der Etablierung standortgerechter Schnäpelzuchtlinien, die sich durch genetisch manifestierte Vorteile in produktionsrelevanten Merkmalen gegenüber Vergleichslinien auszeichnen sollen. Das ist die Voraussetzung für die wirtschaftlich ertragreiche Erzeugung hochwertiger Fischprodukte in M-V“, unterstrich Rebl. Darüber hinaus werden zur Stärkung der natürlichen Population an der südlichen Ostsee vor Usedom weiterhin Schnäpel für die Auswilderung gezüchtet.
„Sensibler“ als die Regenbogenforelle
Für die ersten Testreihen wurden noch Wildfische verwendet. Die aktuellen Experimente werden an Zuchtfischen unter standardisierten Bedingungen durchgeführt. Molekulargenetische Vergleiche mit regional frei lebenden Schnäpeln sollen aber auch künftig vorgenommen werden. „Damit können wir genetische Veränderungen der Aquakulturfische zum Wildfisch charakterisieren und Zuchtfortschritte besser einschätzen“, erläuterte der Wissenschaftler.
Es gibt bisher nur wenige aktuelle wissenschaftliche Untersuchungen zur Biologie, Reproduktion, Aufzucht und Haltung des Ostseeschnäpels. Auch zum Einfluss äußerer Stressfaktoren wie Räuber, Klima und Krankheiten, die wichtige Produktionsmerkmale der Fische negativ beeinträchtigen können, gibt es kaum Analysen. Während die Landesforschungsanstalt sehr praxisnah Parameter wie das Verlustgeschehen oder Tiergröße und Schlachtgewicht erfasst und in Beziehung zu Störgrößen setzt, konzentrieren sich die wissenschaftlichen Studien am FBN vor allem auf molekularbiologische Prozesse in den Zellen der Schnäpel, die eine Minimierung von Größe und Schlachtgewicht hervorrufen könnten. Darüber hinaus geht es um wirksame Mittel, um Keime abzuwehren und das Immunsystem der Tiere zu stärken, die Entwicklung von Impfstoffen und einfache Geschlechtertests für die Speisefischproduktion.
Ein wichtiger Schwerpunkt liegt in der Entschlüsselung der Erbinformation des Schnäpels als Basis für tiefergehende Untersuchungen. Ausgehend von den Daten der Stressversuche werden beispielsweise Gene gesucht, welche bei erhöhter Haltungsdichte besonders stark aktiviert werden. Diese sogenannten „Markergene“ könnten letztendlich die Grundlage für ein schnelles Testsystem sein, das anzeigt, wie es um das Wohlbefinden von Zuchtfischen steht, ob möglicherweise Krankheiten oder zu hohe Besatzungsdichten vorliegen.
„Das Projekt läuft noch ein weiteres Jahr. Bisher zeigen unsere molekularbiologischen Untersuchungen und die Beobachtungen der LFA, dass Schnäpel zwar hervorragend zur Aquakultur geeignet sind, aber noch empfindlicher auf sich ändernde Umweltbedingungen reagieren als die bereits gut erforschten Regenbogenforellen. Obwohl beide Arten zur Familie der Lachsfische gehören, müssen die Umstände der Haltung entsprechend angepasst werden, um optimale Produktionserfolge zu erzielen“, zog der Projektleiter ein erstes Fazit.
Nachwuchsgruppen forschen zu Spitzenthemen
Die eigenständig arbeitenden und forschenden Nachwuchsgruppen am FBN sind besonders für junge Wissenschaftler sehr attraktiv. Die erste Nachwuchsgruppe der Abteilung „Fischgenomik“ startete vor fünf Jahren mit Untersuchungen zu „Mechanismen der Krankheitsabwehr bei Aquakulturfischen“. Zur Nachwuchsgruppe von Dr. Alexander Rebl (35), die später auch das Schnäpel-Projekt initiierte, gehörten Dr. Simone Altmann, Dr. Judith Köbis und die Biologin Mareen Nipkow und Franziska Kuntke. Betreut wurde die Gruppe von PD Dr. Tom Goldammer als Mentor.
Den Leitern der bisher acht exzellent ausgestatteten Nachwuchsgruppen (NG) am FBN werden weitere junge Wissenschaftler sowie zusätzliche Gelder für Sachmittel zur Verfügung gestellt und eine langfristige Perspektive am Institut ermöglicht. Aktuell gibt es fünf neue Arbeitsgruppen zu international bedeutsamen Spitzenthemen am FBN, die alle von jungen Forscherinnen geleitet werden (NG Genomische Datenanalyse, Dr. Dörte Wittenburg, NG Affektives Verhalten, Dr. Sandra Düpjan, NG Pathogen- und Zelltyp-spezifische Immunabwehr beim Wiederkäuer, Dr. Juliane Günther, NG Phänotypisierung des Tierwohls, Dr. Silke Trißl, NG Zellulärer Lipidmetabolismus, Dr. Beate Hiller).
Die Leibniz-Gemeinschaft verbindet 86 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen, u. a. in Form der Wissenschaftscampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 16.500 Personen, darunter 7.700 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,4 Milliarden Euro.
Mareen Nipkow aus der Forschernachwuchsgruppe „Fischgenetik“ analysiert am LightCycler das Ausmaß der Genaktivierung nach veränderten Haltungsbedingungen in der künstlichen Aufzucht.
Der Ostseeschnäpel, der seinen Namen seinem dunklen „Schnabel“ verdankt, wird in der Zucht bis zu 70 cm lang und 5 kg schwer. Das Fleisch ist sehr mager, fest und äußerst geschmackvoll. Man kann ihn braten oder räuchern, grillen oder dünsten. Schon jetzt steht der Edelfisch aus MV wieder in vielen Restaurants – auch im Ausland – auf der Menükarte. Rund 1.000 Tonnen Fisch werden jährlich in den zehn Betrieben der Aquakultur und Teichwirtschaft in MV produziert, vor allem Forellen, Welse und Lachse.
Landesforschungsanstalt für Landwirtschaft und Fischerei MV in Rostock (LFA) http://www.lfamv.de
Leibniz-Institut für Nutztierbiologie (FBN)
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
Institut für Genombiologie
Leiter: Prof. Klaus Wimmers
Projektleiter Ostseeschnäpel: Dr. Alexander Rebl
E rebl@fbn-dummerstorf.de
T +49 38208-68 721
Wissenschaftsorganisation Dr. Norbert K. Borowy
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
T +49 38208-68 605
E borowy@fbn-dummerstorf.de
http://www.fbn-dummerstorf.de
Quelle: idw
Abi und Studium schlecht für die Augen. Kurzsichtigkeit wächst mit dem Bildungsgrad
Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft
München – Wer länger lernt, braucht eine stärkere Brille – zu dieser Schlussfolgerung kommt eine Studie der Universitätsmedizin Mainz. Ein hoher Bildungsgrad und viele Schuljahre gehen mit häufigerer und stärkerer Kurzsichtigkeit einher, so berichten Wissenschaftler in der Fachzeitschrift „Ophthalmology“. Mögliche Ursachen seien Lesen, der Blick auf den Computer und ein Mangel an Tageslicht. Die Deutsche Ophthalmologische Gesellschaft (DOG) rät Schülern und Studenten deshalb zu Lernpausen für die Augen und regelmäßigem Aufenthalt im Freien.
Die Mainzer Forscher untersuchten im Rahmen der Gutenberg-Gesundheitsstudie die Sehstärke von 4658 Menschen im Alter von 35 bis 74 Jahren. Dabei erwiesen sich mehr als die Hälfte der Hochschulabsolventen als kurzsichtig, während bei den Probanden ohne höhere Schulbildung nur jeder Vierte von der Sehschwäche betroffen war. „Ursache dafür ist vermutlich die Naharbeit, die den Alltag von Studierenden bestimmt“, sagt der Direktor der Mainzer Augenklinik und Initiator der Gutenberg-Studie, Professor Dr. med. Norbert Pfeiffer. „Laut aktueller Studienlage, tragen stundenlanges Lesen, Fernsehen und Arbeiten am Computer zur Verschlechterung des Sehvermögens bei.“
Die Anzahl der Kurzsichtigen erhöhte sich im Lauf der letzten Jahrzehnte erheblich: In allen Industrienationen weltweit ist mindestens ein Drittel der Bevölkerung kurzsichtig, in manchen Großstädten Asiens sogar fast 90 Prozent. Die Gründe für diesen Anstieg sind noch nicht eindeutig geklärt. „Studien haben jedoch gezeigt, dass Umweltfaktoren wie Bildung, Beruf und Freizeitgestaltung eine entscheidende Rolle spielen“, sagt Professor Dr. med. Christian Ohrloff, Pressesprecher der DOG aus Frankfurt.
Dass Kurzsichtigkeit – fachsprachlich auch Myopie genannt – überwiegend erblich und damit angeboren ist, bestätigen auch die aktuellen Ergebnisse nicht: „Die rapide Zunahme der Myopie, vor allem in Asien, lässt sich nicht mit genetischen Faktoren erklären“, sagt Privatdozent Dr. med. Alireza Mirshahi, der die Untersuchung in Mainz geleitet hat. „Wir haben 45 verschiedene genetische Faktoren getestet, aber im Vergleich zum Bildungsstand hatten sie einen viel geringeren Einfluss.“ Vieles spreche dafür, dass Umwelteinflüsse die Entstehung der Kurzsichtigkeit befördern.
Die Ursache für die Fehlsichtigkeit liegt in einem zu langen Augapfel: Die einfallenden Lichtstrahlen bilden ihren Brennpunkt nicht auf der Netzhaut, sondern davor. Dadurch erscheinen ferne Gegenstände verschwommen. Aber nicht nur das Sehen wird für die Betroffenen zum Problem. Schon mäßige Kurzsichtigkeit von -1 bis -3 Dioptrien verdoppelt das Risiko für Folgeerkrankungen wie Netzhautablösung, Grünen oder Grauen Star.
Alle Versuche, das Fortschreiten der Kurzsichtigkeit mit Brillen oder Medikamenten zu heilen oder aufzuhalten, zeigen bislang keinen Erfolg. Aus aktuellen Studien geht jedoch hervor, dass Schüler, die viel Zeit im Freien verbringen, seltener von Kurzsichtigkeit betroffen sind, als Stubenhocker. „Helles Tageslicht scheint sich regulierend auf das Wachstum der Augen auszuwirken“, meint Professor Christian Ohrloff. Auch die Autoren der Mainzer Studie empfehlen Frischluft zur Vorsorge: Da Schüler und Studierende einem höheren Risiko ausgesetzt sind, kurzsichtig zu werden, sei es sicherlich sinnvoll, dass sie dem vorbeugen, indem sie mehr Zeit im Freien verbringen.
Quellen:
Mirshahi A. et al. (2014), Myopia and Level of Education: Results from the Gutenberg Health Study, Ophthalmology,
DOI:10.1016/j.ophtha.2014.04.017
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.
Quelle: idw
Rheumatologen empfehlen neue Diät und Therapieoptionen bei Gicht
Kathrin Gießelmann Kongress-Pressestelle
Deutsche Gesellschaft für Rheumatologie e.V.
Berlin – Die Anzahl der an Gicht Erkrankten hat in den letzten Jahren deutlich zugenommen. Vor allem Männer in wohlhabenden Ländern sind von der Störung des Harnsäurestoffwechsels betroffen. Gicht tritt zudem immer häufiger zusammen mit Herz- oder Nierenerkrankungen, Bluthochdruck, Diabetes Typ 2 oder Übergewicht auf. Diese Begleiterkrankungen gilt es bei der Therapie zu beachten. Welche neuen Medikamente und veränderten Ernährungs-Empfehlungen die beste Wirkung bei Gicht erzielen, erklären Experten auf der Pressekonferenz am 10. September 2014 in Berlin im Vorfeld des 42. Kongresses der Deutschen Gesellschaft für Rheumatologie (DGRh).
Bei Gicht lagern sich aufgrund eines erhöhten Harnsäurespiegels Harnsäurekristalle in Gelenken und anderen Geweben ab, die extrem schmerzhafte Entzündungen verursachen. Die Ursachen liegen meist in einer falschen Ernährung oder sind genetisch bedingt. Um die Beschwerden dieser Patienten zu lindern, seien ein gesunder Lebensstil sowie die Vermeidung von Übergewicht unverzichtbar, so Dr. med. Rieke H.E. Alten, Chefärztin an der Schlosspark Klinik Berlin. „Die Diätempfehlungen haben sich allerdings in den letzten Jahren geändert und auch neue Therapieoptionen sollten stärker in der Praxis bedacht werden“, so die Rheumatologin.
Auf der DGRh-Pressekonferenz erklärt die Berliner Expertin, inwieweit Menschen mit Gicht und bestimmten Nebenerkrankungen rotes Fleisch, Krustentiere und Säfte meiden sollten und beantwortet die Fragen: Müssen Betroffene vollständig auf Alkohol verzichten? Muss purinreiche pflanzliche Kost wie etwa Spinat und Hülsenfrüchte neu bewertet werden? Ist eine strikte Senkung des Harnsäurespiegels unumgänglich?
Über die neuen Diät-Empfehlungen und aktuelle wissenschaftliche Forschungen diskutieren die Experten der DGRh am 10. September 2014 von 10 bis 11 Uhr auf einer Pressekonferenz in Berlin im Tagungszentrum im Haus der Bundespressekonferenz.
Das Presseteam der DGRh steht jederzeit als Ansprechpartner für Fragen und Wünsche nach Informationsmaterial und Gesprächspartnern zur Verfügung. Bitte akkreditieren Sie sich mit dem angehängten Formular.
Weitere Informationen:
http://dgrh-kongress.de/presse-konferenzen.html
Quelle: idw
Thermische Verwertung von Grünschnitt
Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen
Mit der „Entwicklung eines innovativen Feuerungsverfahrens zur thermischen Verwertung von inhomogenen biogenen Reststoffen“ befasst sich ein Forschungsprojekt an der Technischen Hochschule Mittelhessen. Kooperationspartner sind die Bersenbrücker Unternehmen Energiegewinnung Nawaros und Hülsman Edelstahl. Projektleiter am Institut für Thermodynamik, Energieverfahrenstechnik und Systemanalyse ist Prof. Reinhold Altensen. Für das Forschungsvorhaben erhält die THM Bundesmittel in Höhe von 170.000 Euro.
Unter Grünschnitt versteht man Pflanzenreste, die zum Beispiel beim Mähen von Rasenflächen oder beim Schnitt von Bäumen und Sträuchern anfallen. Diese Biomasse – in Deutschland mehr als zwei Millionen Tonnen jährlich – wird heute in der Regel zu Kompost verarbeitet. Verfahren zur thermischen Verwertung in kleinen oder mittelgroßen dezentralen Heizwerken gibt es nicht. Aktuelle Feuerungsanlagen mit einer thermischen Leistung von weniger als drei Megawatt benötigen genau konfektionierte Brennstoffe wie Holzhackschnitzel oder -pellets. Grünschnitt dagegen ist inhomogen und hat einen hohen Wasser- und Mineraliengehalt. Seine Zusammensetzung schwankt im Jahresverlauf.
Die Projektpartner wollen ein Verfahren entwickeln, „durch das aus dem Reststoff Grünschnitt ein Biobrennstoff wird“, so Altensen. Dazu gehört die Aufbereitung des Ausgangsmaterials: Der Feuchtegehalt muss ebenso wie der mineralische Anteil gesenkt werden. Gewünscht ist ebenso eine Fraktionierung in stückig-feuchtes und staubig-trockenes Material. Ein Staubaufgabebehälter und ein Transportwalzensystem für stückiges Material müssen entwickelt werden. Über eine ebenfalls neu zu entwickelnde Fördertechnik werden die beiden Fraktionen in der gewünschten Zusammensetzung kontinuierlich zur Kesselfeuerung transportiert.
Wesentlicher Bestandteil des Forschungsprojekts ist eine Gesamtbilanz des neuen Verfahrens. Darin wollen die Forscher nicht nur den unmittelbaren Prozess der Wärmeerzeugung untersuchen, sondern zum Beispiel auch die Transportwege für das Ausgangsmaterial, den Energieeinsatz bei der Trocknung oder die Frage, ob die anfallende Asche noch als Dünger genutzt werden kann.
Für die neue Anlage sieht Altensen gute Vermarktungschancen. Die Zahl der Gemeinden und Genossenschaften steige, die nach Unabhängigkeit von großen Energieversorgern streben und auf dezentrale Nahwärmenetze setzen. Der Rohstoff Grünschnitt falle lokal an und sei im Vergleich zu anderen organischen Festbrennstoffen wie Holzhackschnitzeln oder Pellets deutlich billiger.
Das Projekt hat eine Laufzeit von zwei Jahren. Es wird im Rahmen des Zentralen Innovationsprogramms Mittelstand gefördert. Damit unterstützt das Bundeswirtschaftsministerium Kooperationsvorhaben zur Entwicklung neuer Produkte und Verfahren, bei denen kleine und mittelständische Unternehmen mit Forschungseinrichtungen zusammenarbeiten.
Weitere Informationen:
http://www.thm.de/thesa
Quelle: idw
Malaria-Medikamente aus Abfall – Erfolg durch Zusammenarbeit von Chemikern und Ingenieuren
Carsten Wette Stabsstelle für Presse und Kommunikation
Freie Universität Berlin
Die derzeit besten Medikamente gegen Malaria können jetzt direkt aus dem Pflanzenabfall der bisherigen Produktion in einem Schritt hergestellt werden. Einem Team von Prof. Dr. Peter H. Seeberger, Direktor am Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam und Professor an der Freien Universität Berlin, gelang es in Zusammenarbeit mit Prof. Dr. Andreas Seidel-Morgenstern und Kollegen des Max-Planck-Institutes für Dynamik komplexer technischer Systeme, sämtliche Verfahrensschritte zur Produktion der Medikamente, inklusive der Aufreinigung, erstmals kontinuierlich durchzuführen.
Mit der neuen Methode kann jetzt die komplette Medikamentenherstellung direkt im Durchflussreaktor an einem einzigen Ort stattfinden. Die dabei erreichte Reinheit der Medikamente erfüllt die Anforderungen der Zulassungsbehörden. Einen photochemischen Durchfluss-Reaktor zur Produktion von Artemisinin hatten die Wissenschaftler in Berlin bereits vor zwei Jahren entwickelt.
Damals war es dem Team von Prof. Dr. Peter H. Seeberger, den Pflanzeninhaltsstoff Artemisinin des Einjährigen Beifußes (Artemisia annua) nach dessen Extraktion chemisch auch aus dem Abfall der Extraktion herzustellen. Artemisinin ist der Ausgangsstoff für die Malariamedikamente Artemether, Artesunat, Artemol und Dihydroartemisinin. Die jüngsten Erfolge der Berliner, Potsdamer und Magdeburger Chemiker und Ingenieure wurden ausschließlich durch Zuwendungen der Max-Planck-Gesellschaft ermöglicht und gelangen ohne weitere staatliche oder private Unterstützung.
Die Umwandlung des Ausgangsstoffs Artemisinin in Medikamente wurde bisher in pharmazeutischen Unternehmen in der Schweiz, China, und Indien betrieben. Der Anbau und die Extraktion aus der Pflanze Artemisia annua erfolgt dagegen vor allem in China, Vietnam, Madagaskar und Kenia.
„Damit besteht jetzt die Möglichkeit einen weiteren Schritt der Wertschöpfungskette in die Schwellenländer zu verlegen, in denen bisher nur die Pflanze angebaut und extrahiert wird“, sagte Dr. Kerry Gilmore, Gruppenleiter des „Flow Chemistry Teams“ von Peter Seeberger. Noch wichtiger sei es, dass damit die Lieferkette verkürzt werden könne und die Entwicklungsländer die Möglichkeit erhielten, selbst ein dringend benötigtes Medikament herzustellen.
Peter Seeberger betonte: „Unser Ansatz ist die beste Lösung, um die Kosten der Produktion von Malaria-Medikamenten zu senken. Weil wir alle Wertstoffe der Pflanze ausnutzen, ist unser Verfahren deutlich billiger; dadurch gelingt es uns, reinste Medikamente zu produzieren. Wir können einerseits das von den Extrakteuren gewonnene Artemisinin in den Schwellenländern direkt in Medikamente umwandeln und andererseits zusätzlich aus dem Abfall Medikamente herstellen.“ Auf diese Weise würden etwa doppelt so viele Medikamente aus der vergleichbar großen Pflanzenmasse produziert, hob Seeberger hervor. „Wir stärken dadurch die Erwerbsgrundlage der Bauern in den Entwicklungsländern.“
Kommerzielles Interesse an der Technologie ist nach Einschätzung der Wissenschaftler weltweit vorhanden. Peter Seeberger erklärte: „Wir verhandeln zurzeit mit verschiedenen Interessenten über eine Industrieanlage in einem Schwellenland, die bis zu 20 Tonnen Wirkstoff herstellen soll. Unser Ziel ist es, den Preis der Malaria-Medikamente zu senken, egal ob mit oder ohne staatliche oder private Fördermittel.“
Bisher liegen die Kosten der Medikamenten-Produktion höher als der in Afrika erzielbare Verkaufspreis. Den Unterschied tragen Hilfsorganisationen und Stiftungen wie die Weltgesundheitsorganisation oder die Clinton Foundation. Die Medikamente werden in einem letzten Schritt mit einem weiteren bekannten Wirkstoff zu sogenannten Artemisinin-Kombinationstherapien mit dem Ziel vereint, die Resistenzbildung gegen die Artemisininderivate zu verringern.
Weitere Informationen
– Prof. Peter Seeberger, Max-Planck-Institut für Kolloid- und Grenzflächenforschung und Freie Universität Berlin, Telefon: 030 / 838-59300; E-Mail: Peter.seeberger@mpikg.mpg.de
– Dr. Kerry Gilmore, Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Telefon: 0176 / 85933125, E-Mail: Kerry.Gilmore@mpikg.mpg.de
– Prof. Andreas Seidel-Morgenstern, Max-Planck-Institut für Dynamik komplexer technischer Systeme, Sandtorstrasse 1, 39106 Magdeburg, Telefon: 0391-6110-401, E-Mail: seidel-morgenstern@mpi-magdeburg.mpg.de
Quelle: idw
Neue Fahrzeugantriebe entwickeln
Automotoren, sei es mit Benzin, Diesel oder Strom betrieben, verpuffen viel Energie. Forscher arbeiten daran, diese Verschwendung einzudämmen. Moderne Prüfeinrichtungen helfen ihnen dabei, den gesamten Entwicklungsprozess der Motoren zu optimieren. Im Labor haben sie den Wirkungsgrad bereits um bis zu 10 Prozent erhöht.
An einem neuen Heißgasprüfstand testen die Forscher Restwärmenutzungssysteme und Turbolader. Ihr Ziel ist es, effizientere Antriebskonzepte für Pkw und Lkw zu entwickeln.
Lkw, Pkw und Motorräder sind Energieverschwender: Über 60 Prozent der in ihren Motoren durch den Kraftstoff erzeugten Energie gehen über das Abgas und das Kühlwasser verloren. Der größte Teil davon verpufft einfach als Wärme in die Umgebung. »Unter unseren Motorhauben wird Benzin, Diesel oder Strom verschwendet und über die Abgasanlage unnötig CO2 in die Luft gepumpt«, sagt Dr. Hans-Peter Kollmeier vom Fraunhofer-Institut für Chemische Technologie ICT in Karlsruhe. In der Projektgruppe »Neue Antriebssysteme« geht er den Ursachen für diese Verschwendung auf den Grund. Zusammen mit anderen Forschern entwickelt er effiziente Antriebskonzepte für Fahrzeuge. Im Labor haben sie es bereits geschafft, den Wirkungsgrad von Pkw-Motoren um fünf und den von Nutzfahrzeugantrieben um bis zu zehn Prozent zu steigern.
Seit diesem Sommer stehen den Wissenschaftlern neue Prüfanlagen zur Verfügung. »Wir können am Standort Karlsruhe den gesamten Prozess der Antriebsentwicklung abbilden: von der Konstruktion, über die Simulation bis zum Versuch«, so Kollmeier. Ziel der Forscher ist es, die eingesetzten Technologien des Antriebsstranges so zu optimieren, dass die Kraftstoffersparnis optimal ist. Dafür muss man wissen, wie die einzelnen Komponenten in der Realität miteinander interagieren. »Mit den neuen Prüfmöglichkeiten sind wir diesem Ziel einen großen Schritt näher gekommen. Wir haben dadurch die Möglichkeit, den Antriebsstrang ganzheitlich zu testen und unsere Simulationen zu validieren«, so Kollmeier.
Herzstück der neuen Testinfrastruktur ist ein Motoren- und ein Heißgasprüfstand. Dort werden Motoren und deren Komponenten mechanisch und thermodynamisch analysiert. Ein Computer steuert die Anlagen und simuliert realistische Anwendungsszenarien. Zum Beispiel kann der Rechner virtuell hybride Antriebe (z.B. Elektromotoren) oder Systeme, die Restwärme nutzen, dazuschalten. Die Wissenschaftler analysieren, wie sich der Fahrzeugantrieb hinsichtlich Kraftstoffverbrauch und CO2-Emissionen verhält. Hierzu simuliert Kollmeiers Team Fahrzeugtyp, Fahrstrecke oder Fahrweise entsprechend. Sind genug Daten gesammelt, bauen die Forscher Prototypen und ersetzen dann peu à peu die Simulationsmodelle durch reale Bauteile in der Prüfeinrichtung. Schritt für Schritt nähern sie sich so dem optimalen Antriebsstrang. Immer wichtiger werden dabei besonders leichte Werkstoffe.
Wenn es darum geht, Automotoren effizienter zu machen, kommt schnell der Begriff »Downsizing« ins Spiel. Er steht ganz allgemein dafür, den Hubraum des Motors zu verringern, ohne dass dies seine Leistungsfähigkeit reduziert. Durch die verringerte Reibleistung und den verbesserten thermodynamischen Prozess können dadurch Kraftstoffverbrauch und CO2-Emissionen reduziert werden. In der Regel kommen in Downsizing-Konzepten Turbolader zum Einsatz, die in den Ansaug- und Abgastrakt integriert werden. Diese schneckenförmigen, bei Pkw etwa 15 Zentimeter großen, Bauteile saugen Luft an und drücken diese in den Verbrennungsmotor hinein. So wird dem Motor mehr Frischluft zugeführt, wodurch pro Volumeneinheit eine größere Menge Kraftstoff verbrannt werden kann. Aufgrund des dadurch erzielten höheren Zylinderdrucks wird dann für den gleichen Hubraum eine höhere Motorleistung erzielt. Angetrieben wird der Turbolader von den Abgasen des Fahrzeugs. Am Heißgasprüfstand testen die Wissenschaftler ihre Turbolader. In dieser Anlage wird durch einen Erdgasbrenner ein bestimmter Abgasmassenstrom generiert, der dem eines Verbrennungsmotors entspricht. Der Brenner lässt sich sehr exakt einstellen, um zu analysieren, wie sich kleinste Veränderungen der Randbedingungen auf den Turbolader auswirken.
»Der Turbolader ist der klassische Ansatz, den Wirkungsgrad von Motoren zu verbessern. Man nutzt einen Teil der Energie, der über die Abgase verpufft. Aber ihm sind Grenzen gesetzt. Dampfkreisprozesse können hier beispielsweise weiterhelfen«, sagt Kollmeiers Kollege Dr. Sascha Merkel. Hierbei wird ein flüssiges Arbeitsmedium (z.B. Wasser oder Ethanol) durch die Restwärme erhitzt. Es verdampft und treibt eine kleine Turbine an, die wiederum mechanische Energie erzeugt. Der Zugewinn lässt sich dann entweder direkt auf die Kurbelwelle übertragen oder durch einen Generator in elektrische Energie umwandeln, um diese dann in den Stromkreislauf einzuspeisen – z.B. in Bordnetze von Pkw. Am Heißgasprüfstand untersuchen die Forscher, wie sich einzelne Komponenten der Minikraftwerke bei unterschiedlichen Rahmenbedingungen verhalten.
Die Wissenschaftler sind eng mit anderen Antriebsexperten aus Forschungsinstituten und den Entwicklungsbereichen der Automobilhersteller vernetzt. »Selbstverständlich ist speziell der Kontakt zur Fahrzeugindustrie sehr groß. Die Entwicklung der Antriebskonzepte läuft in enger Abstimmung mit den Motorenherstellern. Die direkte Anwendung der Forschungsergebnisse in der Praxis steht im Vordergrund«, so Kollmeier.
Quelle: Fraunhofer-Gesellschaft
Große Akzeptanz der Energiewende
Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE
Interdisziplinäres Forschungsprojekt will Transformation des Energiesystems erleichtern
Unter der Leitung des Fraunhofer-Instituts für Solare Energiesysteme ISE untersucht ein interdisziplinärer Verbund, wie die Transformation zu einem erneuerbaren Energiesystem für die Menschen erleichtert werden kann. Partner sind das Fraunhofer-Institut für System- und Innovationsforschung ISI, das Zentrum für Interdisziplinäre Risiko- und Innovations-forschung ZIRIUS der Universität Stuttgart und das Institut für Politikwissenschaft der Westfälischen Wilhelms-Universität Münster. Stadtwerke und andere Praxispartner ergänzen das Team.
Das Projekt »KomMA-P | Akzeptanz der Energiewende stärken« wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert, erste Ergebnisse zeigen eine weiterhin große Akzeptanz der Energiewende bei der Bevölkerung.
»Ingenieure, Politikwissenschaftler, Psychologen und Praxisakteure wollen die gesellschaftlichen Einflüsse auf die Akzeptanz der Energiewende untersuchen, die bei der bisherigen Optimierung der technisch-ökonomischen Rahmenbedingungen kaum Beachtung finden«, sagt Sebastian Gölz, Diplom-Psychologe am Fraunhofer ISE und Leiter des Projekts. »Wissenschaftliche Szenarien zeigen, dass die Energiewende notwendig und machbar ist. Das Projekt KomMA-P untersucht, wie die gesellschaftlichen Aspekte in ein optimiertes Gesamtszenario eingebunden werden könnten.«
In einem ersten Schritt gewannen die Forschungspartner zunächst einen Eindruck von den Einstellungen verschiedener Fokusgruppen zur Energiewende. Die Mehrheit der insgesamt 50 Teilnehmerinnen und Teilnehmer betrachtete die Energiewende als notwendig und akzeptiert auch einen gewissen Kostenaufwand. Überraschend deutlich war ein Misstrauen gegen »die da oben« spürbar, während die Stadtwerke und andere regionale Akteure eher Vertrauen genießen. Besonders kritisch werden empfundene Ungerechtigkeiten, z. B. bei der Verteilung von Nutzen und Kosten der Energiewende oder das Zustandekommen von Bauentscheidungen, beurteilt.
Um die Einbindung der Stadtwerke bei der Transformation des Energiesystems zu stärken, laufen bereits Pilotprojekte mit den Stadtwerken Wunsiedel. Eine öffentliche Visualisierung des Energieflusses in der Gemeinde und der Einsatz einer Energiebox – ein Minikraftwerk für die Strom- und Wärmeerzeugung mehrerer Haushalte – sind vorgesehen. Die Stadtwerke Münster und Dortmund planen Befragungen. Allen Aktivitäten gemeinsam ist die Frage, wie Bürgerinnen und Bürger jenseits der Geldanlage an der Energiewende beteiligt und zu deren Gelingen beitragen könnten.
Aktuell entwickeln die Partner ein Zusammenhangsmodell, das die verschiedenen Einflüsse auf die Akzeptanz bei der Bevölkerung aufzeigt, und werden auf Basis des Modells eine repräsentative Befragung durchführen. Die Ergebnisse gehen in der letzten Projektphase in Vorschläge ein, wie die technisch-ökonomischen Transformationspfade für bessere gesellschaftliche Akzeptanz optimiert werden können. Die nächste Vollversammlung der Projektpartner ist im Oktober 2014, weitere Praxispartner sind willkommen.
Weitere Informationen:
http://www.ise.fraunhofer.de
http://www.energiewende-akzeptanz.de
Anhang
Große Akzeptanz der Energiewende – Interdisziplinäres Forschungsprojekt will Transformation des Energiesystems erleichtern
http://idw-online.de/de/attachment38071
Quelle: idw
UDE: Macht Essen süchtig?
Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen
Wenig Bewegung und viel Essen: das lässt Viele immer dicker werden bis hin zur Fettsucht – vor allem in den Industrieländern, in denen fettes, kohlenhydratreiches Essen leicht verfügbar ist und stark beworben wird. Sind vielleicht Nahrungsbestandteile für die ausufernde Ess-Sucht verantwortlich, fragte sich ein internationales Team aus Ernährungswissenschaftlern, Verhaltensbiologen sowie Kinder- und Jugendpsychiatern unter dem Dach des EU-Projekts NeuroFAST. Beteiligt waren auch Forscher der Universität Duisburg-Essen (UDE) an der Klinik für Kinder- und Jugendpsychiatrie am LVR Klinikum unter der Leitung von Prof. Dr. Johannes Hebebrand.
Fetttriefende, übersüßte oder stark gesalzte Nahrungsmittel ebnen den Weg in die Ess-Sucht, ähnlich wie Spielautomaten eine Spielsucht begünstigen. Die Reize sind allgegenwärtig bis hin zu Snack- oder Softdrink-Automaten, die es selbst in oder an Schulen gibt. Projektmitarbeiter Dr. Özgür Albayrak betont jedoch: „Es gibt keinen einzelnen, gut identifizierbaren Süchtigmacher in der Nahrung, etwa Zucker und Fett. Deshalb ist krankhaftes Essen auch nicht mit der Alkohol- oder Nikotinsucht zu vergleichen. Entscheidend ist aus unserer Sicht das Essverhalten.“
Psychologische Faktoren, die die Nahrungsaufnahme steuern, sind nach Meinung der Forscher maßgeblich dafür verantwortlich, wenn das Essen zur Sucht wird. Prof. Hebebrand: „Bislang fehlen allerdings wissenschaftlich fundierte psychiatrische Kriterien, mit der sich diese verhaltensbezogene Sucht charakterisieren lässt. Wenn wir genauer verstehen würden, wie industriell gefertigte Nahrungsmittel, psychologische Faktoren und psychiatrische Begleiterkrankungen zur Suchtausbildung führen, könnten wir betroffenen Menschen noch gezielter helfen“.
Die UDE-Wissenschaftler kooperierten in dem Projekt mehrere Jahre lang mit Kollegen an den Universitäten Edinburgh, Aberdeen, Göteborg, Utrecht und Santiago de Compostela. Untersucht wurden die Zusammenhänge zwischen Stress, Sucht und Essverhalten. Das Essener Team befasste sich vor allem mit den Wechselwirkungen zwischen Ernährung und Psyche. Veröffentlicht wurden ihre Schlussfolgerungen in der Fachzeitschrift Neuroscience & Biobehavioral Reviews.
Weitere Informationen:
Dr. Özgür Albayrak, Tel. 0201/8707-488, Oezguer.Albayrak@lvr.de
Redaktion:
Beate H. Kostka, Tel. 0203/379-2430
Weitere Informationen:
http://www.sciencedirect.com/science/article/pii/S0149763414002140
Quelle: idw
„In Vino Veritas“-Studie: Kein verringertes Atherosklerose-Risiko bei regelmäßigem Weinkonsum
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona
Regelmäßiger, moderater Konsum von Rot- oder Weißwein führt nach sechs und zwölf Monaten zu keiner Verbesserung des Atherosklerose-Risikos. Das ist das Ergebnis einer tschechischen Studie, die jetzt beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. „In dieser prospektiven, randomisierten Studie fanden wir keinen klinisch signifikanten Einfluss von moderatem Rot- oder Weißweinkonsum auf Parameter wie Lipidwerte, C-reaktives Protein, Nüchtern-Glukose, andere Marker für das Arteriosklerose-Risiko oder Leberwerte“, fassen die Studienautoren zusammen. „Wir konnten auch die Hypothese nicht bestätigen, die sich vorwiegend aus retrospektiven Studien ableitet, dass Weinkonsum den HDL-Spiegel erhöhen würde.“
Seiten den 1990er Jahren waren immer wieder Untersuchungen vorgelegt worden, die auf einen Herz-protektiven Effekt von moderatem Weinkonsum hinwiesen. Forscher der Universitäten Olmütz und Prag sind jetzt in einer prospektiven, multizentrischen, randomisierten Studie den Effekten von Weiß- und Rotweinkonsum auf Atherosklerose-Risikofaktoren nachgegangen. 146 Studienteilnehmer mit leichtem bis mittlerem Atherosklerose-Risiko tranken ein Jahr lang regelmäßig Pinot Noir oder Chardonnay-Pinot – Frauen täglich 0,2 Liter, Männer 0,3 Liter, fünfmal in der Woche. Primärer Endpunkt waren die Werte des „günstigen“ HDL-Cholesterin, sekundärer Endpunkt andere Arteriosklerose-Marker wie LDL-Cholesterin, C-reaktives Protein und Messgrößen für oxidativen Stress. Bei keinem der Marker ergaben sich signifikante Änderungen nach sechs oder zwölf Monaten.
„Die Ergebnisse dieser neuen Weinstudie scheinen doch im Gegensatz zum bisherigen Trend zu stehen. Das wird sicher nicht die letzte Untersuchung zu diesem kontroversen Thema sein“, kommentierte Prof. Dr. Eckart Fleck, Pressesprecher der Deutschen Gesellschaft für Kardiologie (DGK).
Quelle: ESC Abstract 1027 – Taborsky et al: In Vino Veritas (IVV) Study: Randomized trial comparing long-term effects of red and white wines on markers of atherosclerosis and oxidative stress
Kontakt:
Pressesprecher der DGK
Prof. Dr. Eckart Fleck
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B & K Kommunikationsberatung, Dr. Birgit Kofler: Mobil: 0043 676 6368930;
Büro Berlin: 030 700159676, kofler@bkkommunikation.com
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.
Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.escardio.org
Quelle: idw
Dritter wissenschaftlicher Männerkongress ging zu Ende
Dr. Victoria Meinschäfer Stabsstelle Kommunikation
Heinrich-Heine-Universität Düsseldorf
Über 200 Teilnehmer konnten die Veranstalter beim dritten wissenschaftlichen Männerkongress begrüßen, der am 19. und 20 September an der Heinrich-Heine-Universität in Düsseldorf stattfand. Unter dem Motto „Angstbeißer, Trauerkloß, Zappelphilipp – Seelische Gesundheit bei Männern und Jungen“ beschäftigten sich die Teilnehmerinnen und Teilnehmer zwei Tage lang mit Rollenstereotypen und kulturell vermittelten Rollenbildern, die Männern und Jungen den Zugang zu den eigenen Gefühlen und Bedürfnissen erschweren.
Im Mittelpunkt der Tagung standen deshalb neben der psychischen Belastung bei Jungen und Männern und dem Themenblock „Gewalt“ auch die Möglichkeiten, die Psychotherapien und Prävention darstellen können. „Die männliche Identitätsentwicklung ist aus psychoanalytischer, entwicklungspsychologischer und psychohistorischer Sicht strukturell komplex und konflikthaft;“ erklärte der Initiator des Männerkongresses, der Psychoanalytiker Prof. Dr. Matthias Franz, „Hieraus resultiert eine Anfälligkeit für identitätsstabilisierende Verhaltensmuster und Rollenstereotype, die häufig dysfunktionale und schwer gesundheits-schädigende Auswirkungen nach sich ziehen. Mit dem Kongress wollen wir das in das Blickfeld der Öffentlichkeit rücken“.
Zum Abschluss verabschiedeten die Teilnehmer elf Thesen mit For-derungen auch an die Politik:
– Männer brauchen zur Prävention der Folgen von Arbeitsstress mehr niedrigschwellige Hilfsangebote wie Stresspräventionsgruppen oder die psychosomatische Sprechstunde im Betrieb.
– Wichtig ist eine Priorisierung von Maßnahmen der Stressprä-vention bei Beschäftigtengruppen mit überdurchschnittlich hoher psychosozialer Arbeitsbelastung.
– Im schambesetzten Feld männlicher Sexualstörungen sollte mehr Aufklärung – auch bei Ärzten – darüber erfolgen, dass oft unerkannte seelische Konflikte eine Rolle spielen.
– Zwei wesentliche Gründe für die Unterdiagnostizierung von Depression bei Männern sind die Angst vor Stigmatisierung bei den Betroffenen und ein geschlechterbezogener Verzer-rungseffekt in der Depressionsdiagnostik zugunsten weiblicher Symptome. Depressivität kann sich bei Männern jedoch auch unter der Tarnkappe von Aggressivität, Suchtmittelmiss-brauch, Hyperaktivität oder Risikoverhalten manifestieren.
– Die Gewaltbereitschaft von Jugendlichen stellt häufig eine schwer zu bewältigende soziale und therapeutische Herausforderung dar. Zu den Ursachen zählen neben sozialen und kulturellen Faktoren vor allem traumatische Erfahrungen, die zu Gewaltbereitschaft in der Adoleszenz führen.
– Wünschenswert ist ein gendersensibler Umgang mit dem Thema partnerschaftlicher Gewalt und Gewalt innerhalb unserer Gesellschaft, der nicht weiter einseitige Täter-Opfer-Zuschreibungen (mit den Männern als Tätern) vornimmt.
– Notwendig ist die gendergerechte Diagnostik des AD(H)S. Jungen sind anders als Mädchen. Diesbezüglich müssen die Leitlinien überarbeitet werden.
– Der eher für Jungen typische Drang zu motorischer Bewegung und Expansivität sollte in Kindergarten und Schule nicht unreflektiert mit Aggression gleichgesetzt werden.
– Die Bedeutung von Bewegung für die gesunde Entwicklung im Kindesalter, besonders bei Jungen, muss mehr bei der Diagnostik und ihrer Beurteilung fokussiert werden.
– Bei der allmählichen Integration der Expansivität in mehr ruhige Verhaltensweisen sollten Jungen und männliche Jugendli-che weder durch eine zunehmend schnelle Verordnung von Medikamenten (Ritalin) noch durch einen vernachlässigenden Rückzug in Computerwelten allein gelassen werden. Vor allem Väter und männliche Ansprechpartner in Schule und Beruf sollten zeitlich und emotional gut verfügbar sein.
– Frühzeitig angebotene bindungsorientierte Elterntrainings wie „wir2″ können eine präventive Wirkung entfalten.
– Gerade bei AD(H)S sollte statt ideologischer Vereinfachung die Komplexität des Themas reflektiert werden. Beschleunigte Jungen (z.B. mit AD(H)S) und verlangsamte Mütter (z.B. mit Depressionen oder schweren Traumatisierungen) verweisen auf einen transgenerativen Zusammenhang.
Für weitere Informationen:
www.maennerkongress2014.de
Quelle: idw
Kakao-Inhaltsstoffe reduzieren das Herz-Kreislaufrisiko
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona
Regelmäßiger Konsum von Kakao-Flavonolen hat einen positiven Effekt auf die Gefäßfunktion und reduziert das Risiko für eine Herz-Kreislauf-Erkrankung deutlich. Zu diesem Ergebnis kommt eine Studie des Universitätsklinikums Düsseldorf, die auf dem Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. Die aktuellen Daten würden das präventive Potenzial der Pflanzeninhaltsstoffe für die Gefäße belegen, so Studienautor Dr. Roberto Sansone.
An der Placebo-kotrollierten Studie nahmen insgesamt 100 Personen zwischen 35 und 60 Jahren teil, die keine Anzeichen einer vaskulären Erkrankung zeigten. Die Teilnehmer der Studiengruppe konsumierten zweimal täglich ein Getränk mit 450 Milligramm Kakaoflavonolen, die Kontrollgruppe ein Flavonol-freies Getränk. Erhoben wurden die flussvermittelte Vasodilatation, eine Messgröße für die Gefäßfunktion, sowie Blutfettwerte, Blutdruck und Pulswellengeschwindigkeit, ein Indikator für die Elastizität der Arterien. Nach einem Monat verbesserte sich bei den Flavonol-Konsumenten die Gefäßfunktion, die Blutdruck- und LDL-Cholesterinwerte sanken und das HDL-Cholesterin stieg an. Das Ensemble dieser Effekte reduzierte das mittels Framingham-Score ermittelte kardiovaskuläre Risiko erheblich: So ging das Risiko für eine koronare Herzerkrankung um 32 Prozent zurück, jenes für einen Herzinfarkt um 22 Prozent. Das Risiko, an einer koronaren Herzerkrankung zu sterben, sank um 34 Prozent, und das Sterblichkeitsrisiko aufgrund einer kardiovaskulären Erkrankung sogar um 43 Prozent.
Quelle: ESC Abstract P3198 – Schmidt et al: Severe adverse effects of nocturnal aircraft noise on endothelian function in patients with or being at risk for cardiovascular disease
Kontakt:
Pressesprecher der DGK
Prof. Dr. Eckart Fleck
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B & K Kommunikationsberatung, Dr. Birgit Kofler: Mobil: 0043 676 6368930;
Büro Berlin: 030 700159676, kofler@bkkommunikation.com
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.
Quelle: idw
Deutsche Wälder speichern mehr Kohlenstoff als vor 20 Jahren
Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei
Ohne seine Wälder würde Deutschland deutlich mehr zum Klimawandel beitragen, als es derzeit der Fall ist. Das geht aus Erhebungen des Thünen-Instituts hervor, die im aktuellen, vom Umweltbundesamt herausgegebenen nationalen Inventarbericht enthalten sind. Mit einer jährlichen Senkenleistung von rund 52 Mio. Tonnen CO2-Äquivalenten sind die deutschen Wälder ein erheblicher Kohlenstoffspeicher.
Ohne seine Wälder würde Deutschland deutlich mehr zum Klimawandel beitragen, als es derzeit der Fall ist. Das geht aus Erhebungen des Thünen-Instituts hervor, die im aktuellen, vom Umweltbundesamt herausgegebenen nationalen Inventarbericht enthalten sind. Mit einer jährlichen Senkenleistung von rund 52 Mio. Tonnen CO2-Äquivalenten sind die deutschen Wälder ein erheblicher Kohlenstoffspeicher.
Das Thünen-Institut für Waldökosysteme liefert Daten, mit denen sich die Speicherfunktion des Waldes in Deutschland berechnen lässt. Eine wichtige Grundlage dafür sind bundesweite Inventuren, die am Institut koordiniert und ausgewertet werden: die Bundeswaldinventur und die Bodenzustandserhebung Wald. Die Daten fließen in die Inventare zur nationalen Treibhausgas-Emission ein, die Deutschland als Vertragsstaat der UN-Klimarahmenkonvention und Unterzeichner des Kyoto-Protokolls regelmäßig erstellen muss.
Bäume nehmen Kohlendioxid (CO2) aus der Atmosphäre auf und verwandeln es letztlich in Biomasse. Neben den Bäumen ist auch der Waldboden ein kohlenstoffreiches Substrat. Die Berechnungen des Thünen-Instituts zeigen, dass die deutschen Wälder in ihrer oberirdischen Biomasse eine Kohlenstoffmenge von rund 993 Mio. Tonnen bevorraten, hinzu kommen 156 Mio. Tonnen in unterirdischer Biomasse, vor allem den Wurzeln, und 20 Mio. Tonnen im Totholz. In der Humusauflage und den oberen 30 cm des Mineralbodens sind noch einmal 850 Mio. Tonnen Kohlenstoff festgelegt. Aktuell speichern die Wälder damit rund 300 Mio. Tonnen mehr als noch 1990.
Natürlich wird durch den Einschlag und Abtransport von Holz auch wieder Kohlenstoff aus dem Wald entfernt. Doch der Saldo ist positiv – der Wald legt mehr Kohlenstoff fest, als er durch Holzernte und andere Faktoren verliert. Damit dient er in der Klimabetrachtung als Senke: Mit rund 52 Mio. Tonnen CO2-Äquivalenten schlägt sie im Mittel der letzten Jahre zu Buche. Die Erhebungen zeigen, dass der Wald seit Beginn der Treibhausgas-Berichterstattung 1990 immer eine Kohlenstoffsenke gewesen ist.
Bei umfassender Betrachtung ist die Senkenleistung sogar noch erheblich höher. Denn anders als bei einjährigen Kulturpflanzen wie Weizen oder Mais speichert Holz den Kohlenstoff auch längerfristig. Bei stofflicher Nutzung, zum Beispiel beim Hausbau oder in der Möbelfertigung, bleibt der Kohlenstoff teils über Jahrzehnte festgelegt. Bei energetischer Nutzung ersetzt Holz fossile Energieträger, was in der CO2-Bilanz ebenfalls positiv zu Buche schlägt. Nach ersten Berechnungen des Thünen-Instituts konnten von 2005 bis 2009 durch die stoffliche Verwendung von Holz jährlich rund 57 Mio. Tonnen und durch die energetische Nutzung 30 Mio. Tonnen CO2-Äquivalente substituiert werden. Der Klimaschutzbeitrag des Forst- und Holzsektors bei der Einsparung von Treibhausgasen ist also noch größer als bislang in der Berichterstattung angegeben.
Nähere Infos:
Nationaler Inventarbericht zum Deutschen Treibhausgasinventar 1990 – 2012; Kap. 7.2, ab Seite 524 (http://www.umweltbundesamt.de/sites/default/files/medien/378/publikationen/climate-change_24_2014_nationaler_inventarbericht_0.pdf)
„Kyoto und der Wald“: Artikel im Thünen-Magazin „Wissenschaft erleben“ (2014/1) (http://literatur.ti.bund.de/digbib_extern/dn053695.pdf)
Weitere Informationen:
http://www.umweltbundesamt.de/sites/default/files/medien/378/publikationen/clima… – Nationaler Inventarbericht zum Deutschen Treibhausgasinventar 1990 – 2012 (Kap. 7.2, ab Seite 524)
http://literatur.ti.bund.de/digbib_extern/dn053695.pdf – „Kyoto und der Wald“: Artikel im Thünen-Magazin „Wissenschaft erleben“ (2014/1)
Quelle: idw
Ethanolfeuerstellen – die unterschätzte Gefahr
Britta Widmann Kommunikation
Fraunhofer-Gesellschaft
Ethanolkamine werden immer beliebter. Dabei sind sie nicht nur brandgefährlich – in der Vergangenheit ist es wiederholt zu schweren Unfällen mit den Deko-Feuerstellen gekommen. Die Geräte verunreinigen auch die Luft in Räumen. Dies belegt eine neue Fraunhofer-Studie. Ebenfalls auf dem Prüfstand sind Holzkaminöfen.
Am Vormittag den Kamin im Baumarkt kaufen und am Abend bereits die heimelige Atmosphäre des Deko-Feuers genießen. Die Anbieter von Ethanolfeuerstellen werben mit dem leichten und schnellen Aufbau der dekorativen Öfen ohne Schornstein. Doch beim Betrieb der Feuerstellen ist Vorsicht geboten. Denn Ethanol ist ein Brennstoff, der zusammen mit Luft ein explosionsfähiges Gemisch bildet. Läuft Ethanol beim Befüllen der Brennkammern aus und entzündet sich, steht schnell der ganze Raum in Flammen.
Darüber hinaus bergen die Deko-Objekte ein weiteres Gefährdungspotenzial: Glaubt man den Herstellern, sondern die Geräte keine schädlichen Verbrennungsrückstände in die Raumluft ab. Eine Studie des Fraunhofer-Instituts für Holzforschung, Wilhelm-Klauditz-Institut WKI in Braunschweig belegt das Gegenteil. »Die Öfen besitzen keinerlei geführte Abluft, daher werden alle Verbrennungsprodukte direkt an die Umgebung abgegeben. Das sind beispielsweise sehr feine Verbrennungspartikel und gasförmige Verbindungen wie Formaldehyd und Benzol. Daten über die Auswirkung von Ethanolöfen auf die Luftqualität im Innenraum gibt es bislang kaum«, sagt Dr. Michael Wensing, Chemiker am WKI. Der Forscher und seine Kollegen haben die Höhe und Art der freigesetzten Emissionen untersucht. Ebenfalls auf dem Prüfstand der Wissenschaftler waren Holzkaminöfen.
Tests in der Prüfkammer
Die Ethanolfeuerstellen wurden in einer 48-m3-Prüfkammer aus Edelstahl getestet. Dabei haben die Forscher die DIN 4734-1 berücksichtigt, die technische Mindeststandards für Ethanolkamine definiert, und die Prüfkammer entsprechend den Herstellerangaben gelüftet. Das Team von Dr. Wensing untersuchte vier Öfen und insgesamt acht flüssige und gelförmige Brennstoffe. »Rein theoretisch verbrennt Ethanol oder Bioethanol beim Verbrennungsprozess vollständig zu Kohlendioxid (CO2) und Wasser. In der Praxis sieht das anders aus. Wie die Verbrennung im Einzelfall abläuft, hängt von der Qualität des Brennstoffs und anderen Faktoren ab – etwa von der Art des Brennstoffs oder der Verbrennungstemperatur. Das Ethanol verbrennt in der Regel nicht vollständig. Vielmehr entstehen neben CO2 giftige Verbrennungsgase wie das Atemgift Kohlenmonoxid, organische Verbindungen wie die krebserregende Substanz Benzol, aber auch die Reizgase Stickstoffdioxid und Formaldehyd sowie ultrafeine Verbrennungspartikel«, sagt Wensing. In den meisten Fällen konnten die Wissenschaftler hohe Schadstoffkonzentrationen messen, Richtwerte wurden häufig überschritten. Beispielsweise überstiegen alle Geräte den Innenluftrichtwert von 0,35 mg/m³ für Stickstoffdioxid, in einem Fall mit 2,7 mg/m³ sogar erheblich. Bei Formaldehyd wurde der Richtwert von 0,1 ppm (parts per million) ebenfalls nicht eingehalten. Bei 0,45 ppm lag hier der höchste gemessene Wert. Ein Ofen erzielte beim freigesetzten Kohlendioxid eine Spitzenkonzentration von circa 6000 ppm – und lag damit deutlich über dem hygienisch unbedenklichen Wert von 1000 ppm. Entscheidend ist dabei auch der Brennstoffverbrauch. Dies bedeutet: Je mehr Ethanol in einer bestimmten Zeit verbrennt, desto mehr Schadstoffe werden freigesetzt. Ebenfalls abgegeben wurden ultrafeine Verbrennungspartikel, deren Durchmesser 10.000-mal kleiner ist als die Dicke eines menschlichen Haares und die tief in die Lunge eindringen können. »Deko-Öfen mit Ethanolfeuerung sind eine Quelle für gesundheitsgefährdende Verunreinigungen der Innenraumluft. Um eine gesundheitlich unbedenkliche Luftqualität zu gewährleisten, raten wir dazu, auf den Einsatz dieser Geräte im Innenraum von Wohnungen zu verzichten. Sie sollten nur in großen und sehr gut gelüfteten Räumen betrieben werden«, resümiert Wensing.
Ein anderes Bild ergab sich bei den Tests der Holzkaminöfen, die als zusätzliche Heizung immer populärer werden. In Deutschland unterliegen die Emissionen dieser Heizquellen in die Außenluft strengen gesetzlichen Regelungen. Die Belastungen bewohnter Innenräume – etwa durch undichte Ofentüren – wurden bisher vernachlässigt. Daher haben die Forscher vom WKI sieben Öfen vor Ort in Wohnungen unter realen Bedingungen untersucht. Im Fokus standen auch hier flüchtige organische Verbindungen, Fein- und Ultrafeinpartikel sowie Verbrennungsprodukte wie Kohlendioxid, Kohlenmonoxid, Formaldehyd und Stickstoffdioxid. Das Ergebnis: Solange die Ofentür geschlossen ist, beeinflussen die Öfen die Luftqualität im Innenraum nur geringfügig. Lediglich beim Nachlegen von Feuerholz und beim Anzünden gelangen Emissionen in die Raumluft. Dann konnten die Forscher einen kurzfristigen Anstieg der Konzentrationen messen. »Im geschlossenen Betrieb werden Substanzen nicht in nennenswerter Höhe freigesetzt. Beispielsweise sind die Werte für Formaldehyd unbedenklich«, sagt Wensing. Einzige Ausnahme: Bei einem der Öfen haben die Forscher sehr hohe Konzentrationen von 72 Mikrogramm/m3 von Benzol festgestellt. Den Anstieg führen sie jedoch auf den Gebrauch des paraffinhaltigen Anzünders zurück. Zum Vergleich: Beim Anzünden dieses Ofens mit Papier lag der Wert nur bei 8 Mikrogramm/m3. »Solange die Ofentür und der Aschekasten gut abgedichtet sind, ist nicht mit gesundheitlichen Beeinträchtigungen zu rechnen. Die Lüftungsklappen sollten so eingestellt sein, dass der Ofen gut zieht und auf paraffinhaltige Anzünder sollte man verzichten«, so Wensing.
Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2014/September/ethanolfeu…
Quelle: idw
Bakterien sollen Biokraftstoff produzieren
Sandra Sieraad Pressestelle
Universität Bielefeld
Studierende der Universität Bielefeld nehmen am iGEM-Wettbewerb teil
Zehn Bielefelder Master-Studierende konstruieren ein Bakterium, das überschüssigen Strom aus regenerativen Energien sowie Kohlenstoffdioxid (CO2) nutzt, um einen Biokraftstoff zu produzieren. Aktuelle Probleme dienen ihnen dabei als Ansporn für ihr Projekt: Fehlende Infrastruktur für die Speicherung und den Transport regenerativer Energien, steigende CO2-Emissionen, drohende Rohstoffknappheit. Dafür entwickeln die Studierenden Lösungsansätze und nehmen damit am diesjährigen iGEM-Wettbewerb teil. iGEM steht für „international Genetically Engineered Machine“ – die „international Genetically Engineered Machine competition“ ist ein internationaler, studentischer Wettbewerb im Bereich der synthetischen Biologie, der seit 2004 in Boston, USA, ausgetragen wird.
Im April dieses Jahres hat das Bielefelder iGEM-Team mit der Arbeit begonnen – Ende Oktober wird es nach Boston fliegen, um seine Ergebnisse im Wettbewerb zu präsentieren. Team-Mitglied Simon Riedl erklärt, wie die Studierenden auf die Idee für das diesjährige Projekt gekommen sind: „Strom aus regenerativen Energien lässt sich bislang weder effizient speichern noch transportieren. Das bedeutet, dass beispielsweise bis zu 17 Prozent des durch Windenergie erzeugten Stroms nicht in das Stromnetz eingespeist werden. Diesen überschüssigen Strom wollen wir nutzen, um damit die von uns konstruierten Bakterien wachsen zu lassen.“
Am Ende des Prozesses soll ein Biokraftstoff stehen
Die Bakterien befinden sich in einer reversen mikrobiellen Brennstoffzelle (rMFC), in der die Energie des Stroms auf die Bakterien übertragen und von diesen weiter genutzt wird. Um das Ziel – einen Biokraftstoff herzustellen – zu erreichen, ist es wichtig, dass die Bakterien wachsen beziehungsweise sich vermehren, da gilt: Je mehr Bakterien man hat, desto mehr Biokraftstoff lässt sich produzieren. Vom Wachstum der Bakterien, hin zur Produktion des Biokraftstoffs ist aber noch ein Zwischenschritt notwendig. Deshalb arbeiten die Studierenden daran, die Bakterien zu befähigen, CO2 zu fixieren. Dafür bringen sie einen Stoffwechselweg in die von ihnen konstruierten Escherichia coli-Bakterien ein. Dieser ist in Pflanzen während der Photosynthese aktiv und bindet den Kohlenstoff aus dem CO2. Der fixierte Kohlenstoff soll im Bakterium dann als Grundlage für die Herstellung wirtschaftlich relevanter Produkte, beispielsweise eines Biokraftstoffs, dienen. Positiver Nebeneffekt des Vorgangs ist, dass auf diese Weise CO2 aus der Luft entfernt und von den Bakterien gebunden wird – CO2 ist jene chemische Verbindung, die als eine Ursache für die Klimaerwärmung gilt.
„Alle fossilen Energieträger – also zum Beispiel Kohle, Gas oder Erdöl – sind in ihrem Vorkommen begrenzt“, erklärt Sebastian Blunk, einer der beteiligten Studierenden. „Deshalb haben wir es uns zum Ziel gesetzt, einen Biokraftstoff zu produzieren, um die Abhängigkeit von fossilen Brennstoffen zu verringern.“ Das Bielefelder Team hat sich für die Herstellung des Biokraftstoffs Isobutanol entschieden, der beispielsweise als Treibstoff für Autos genutzt werden könnte. Im Gegensatz zu dem gebräuchlichen Ethanol-Kraftstoff ist die Energiedichte von Isobutanol höher. Das heißt, man benötigt theoretisch von diesem Kraftstoff eine geringere Menge, um ein Fahrzeug zu betreiben. Um Isobutanol herzustellen, nutzen die Studierenden einen synthetischen Stoffwechselweg, der in der Natur in dieser Form nicht existiert: Dafür kombinieren sie Gene unterschiedlicher Organismen und bringen diese in das von ihnen konstruierte Bakterium ein, welches mithilfe des fixierten Kohlenstoffs schließlich den Biokraftstoff produziert.
Erste Erfolge können die Studierenden bereits vermelden: So ist es ihnen gelungen, Gene für die Isobutanolproduktion zu isolieren und zu kombinieren. Außerdem ist eine erste Konstruktion der entworfenen Brennstoffzelle abgeschlossen, sodass das Team mit Testläufen starten kann. Im Wettbewerb in Boston will es dann das fertige Bakterium vorstellen, welches mittels Strom wachsen, CO2 fixieren und Isobutanol produzieren kann.
Außerhalb des Labors
Neben der Arbeit im Labor gehört es zu den Aufgaben des Wettbewerbs, dass die Studierenden ihr Projekt in der Öffentlichkeit zu präsentieren. So haben die Studierenden beispielsweise einen Biologie-Leistungskurs der Friedrich-von-Bodelschwingh-Schule bei molekularbiologischen Versuchen betreut und die diesjährige CeBiTec-Schülerakademie am Centrum für Biotechnologie der Universität Bielefeld mitgestaltet. Beim NRW-Tag in Bielefeld bot das Team an einem Stand unterschiedliche Experimente für Kinder an und erklärte Besuchern anhand von Postern die synthetische Biologie und ihr iGEM-Projekt.
Auch die Sponsorensuche muss das Team als Teil des Wettbewerbs meistern: Materialien, Teilnahmegebühren, Reisekosten sowie Unterkünfte schlagen mit über 30.000 Euro zu Buche. Für ihr Projekt konnten die Studierenden, die aus den Studiengängen Molekulare Biotechnologie, Genombasierte Systembiologie, Bioinformatik und Genomforschung sowie Naturwissenschaftliche Informatik kommen, bereits einige Sponsoren gewinnen. Unter anderem hat sich das Team erfolgreich auf eine Ausschreibung von „Synenergene“ beworben. Synenergene ist ein europäisches Projekt mit dem Ziel, Forschung und Innovation in der synthetischen Biologie zu fördern. Dabei ist die Förderung nicht nur finanzieller Art, sondern das iGEM-Team wird auch bei der Entwicklung von Anwendungsszenarien sowie der Abschätzung von gesellschaftlichen Auswirkungen ihres Projekts unterstützt. Von Seiten der Universität Bielefeld erhalten die Studierenden Hilfestellung von Wissenschaftlern der Fakultät für Biologie und der Technischen Fakultät. Professor Dr. Jörn Kalinowski vom CeBiTec (Centrum für Biotechnologie) steht dem Team als Betreuer zur Seite.
Weltweite Konkurrenz
Der iGEM-Wettbewerb feiert in diesem Jahr sein zehnjähriges Jubiläum. Deshalb gibt es diesmal keine kontinentalen Vorentscheide, sondern alle Teams dürfen ihre Projekte direkt im Finale in Boston präsentieren. Anfangs ein Kursangebot des Massachusetts Institute of Technology (MIT), steigen die Teilnehmerzahlen seit 2004 stetig an – von fünf Teams im ersten Jahr auf über 240 diesjährig. Insgesamt treten in diesem Jahr rund 2.500 Teilnehmer aus 32 Ländern an. „iGEM ist international der bedeutendste studentische Wettbewerb der synthetischen Biologie. Die Nachwuchs-Wissenschaftler haben hier die Möglichkeit, sich mit Studierenden der weltweit bedeutendsten Universitäten zu messen und so wichtige Impulse für ihre Ausbildung und die berufliche Karriere zu erwerben“, fasst Professor Kalinowski zusammen. Die Universität Bielefeld ist bereits im fünften Jahr in Folge dabei und hat sich von 2010 bis 2013 erfolgreich für das Finale in Boston qualifizieren können. Im letzten Jahr wurde das Bielefelder Team sogar Europa- und Vizeweltmeister.
Kontakt:
Annika Fust, Universität Bielefeld
iGEM-Team Bielefeld-CeBiTec
Telefon: 0521 106-12285 oder 0152-23017418
E-Mail: annika.fust@uni-bielefeld.de
Weitere Informationen:
http://www.igem-bielefeld.de
http://2014.igem.org/Team:Bielefeld-CeBiTec
Quelle: idw
Übergewicht in der Schwangerschaft ist gefährlich fürs Herz
Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.
Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona
Barcelona/Düsseldorf, 3. September 2014 – Starkes Übergewicht während einer Schwangerschaft erhöht das Risiko für kardiovaskuläre Erkrankungen und die Herzsterblichkeit im späteren Lebensverlauf betroffener Frauen. Das zeigt eine schottische Studie, die beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. Die Einsicht könnte Bedeutung für künftige Präventionsstrategien haben, so die Studienautoren: „Die Schwangerschaft ist ein Schlüsselmoment, zu diesem Zeitpunkt sind viele Frauen bereit, mehr für ihre Gesundheit zu tun. Das könnte eine Gelegenheit für gezielte Interventionen zur Reduktion des Übergewichts sein“, so ihr Fazit.
Das Forscherteam der Universitäten Aberdeen und Edinburgh hatten die Gesundheitsdaten von Frauen ausgewertet, die zwischen 1950 und 1976 ihr erstes Kind geboren haben. Es zeigte sich, dass die Gesamtmortalität in der Gruppe der Frauen, die bei der ersten pränatalen Untersuchung einen BMI von 30 oder mehr aufwiesen, gegenüber der Gruppe mit normalem BMI deutlich erhöht war, auch nach statistischer Adjustierung von Faktoren wie Alter, sozioökonomischer Status; Zigarettenkonsum, Schwangerschaftsdauer zum Zeitpunkt der Gewichtsmessung etc. Außerdem wiesen die in der Schwangerschaft stark übergewichtigen Frauen im späteren Lebensverlauf ein deutlich erhöhtes Risiko für kardiovaskuläre Ereignisse oder Hospitalisierung aufgrund von Herzerkrankungen auf.
Quelle: ESC Abstract 3930 – Lee et al: Maternal obesity during pregnancy and premature cardiovascular mortality in later life
Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.
Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.escardio.org
Quelle: idw
Forschung zum Arbeitszeitmodell „Arbeitszeitfreiheit“
Tanja Eisenach Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg
Bamberger BWL-Professorin Maike Andresen forscht zu wenig bekanntem Arbeitszeitmodell
Individuelle Arbeitszeiten, keine Anwesenheitspflicht oder persönliche Arbeitszeitstrukturen: Flexible Arbeitszeitgestaltung soll Unternehmen ermöglichen, ihre Wettbewerbsfähigkeit zu erhalten. Einige Formen wie Arbeitszeitkonten oder Teilzeitarbeit werden bereits vielfach angewandt. BWL-Professorin Maike Andresen forscht zu einem Modell, das bislang in Deutschland wenig bekannt ist: die Arbeitszeitfreiheit.
Die Arbeitszeitfreiheit ist ein seltenes Phänomen, das in Deutschland aufgrund arbeitsrechtlicher Bestimmungen bisher wenig ausgeübt und daher auch wenig erforscht wird. Das sogenannte „results-only work environment“ (ROWE) – Modell, in Deutschland unter dem Namen „Arbeitszeitfreiheit“ bekannt, überlässt den Arbeitnehmern eines Unternehmens komplette Gestaltungsfreiheit in Bezug auf Arbeitsdauer und -zeitpunkt.
Ob der Mitarbeiter seine Arbeit im Büro, zu Hause oder anderswo erledigt, wie viele Stunden er an welchen Tagen arbeitet und wann seine Arbeitszeit beginnt beziehungsweise endet, entscheidet er selbst. „Hauptsache, die Ergebnisse stimmen“, so Prof. Dr. Maike Andresen vom Lehrstuhl für Betriebswirtschaftslehre, insbesondere Personalmanagement an der Universität Bamberg.
Bereits in ihrer Habilitationsschrift „Das (Un-)Glück der Arbeitszeitfreiheit“ aus dem Jahr 2009 beschäftigte sie sich mit den Auswirkungen dieses Modells auf Unternehmen und Arbeitnehmer. Seither hat sie das Thema der kompletten Arbeitszeitflexibilisierung nicht locker gelassen. In ihrem am 30. September 2014 erscheinenden Grundlagenwerk zur Personalmanagement-Praxis „Assessing Added Value“ wirft Andresen einen umfassenden Blick auf die Arbeitszeitfreiheit, stellt Vor- und Nachteile dar und gibt Empfehlungen, wie das Modell verbessert werden kann. Ihre Kernthese: Eine Weiterentwicklung und Umsetzung des Modells lohnt sich, denn gegenüber anderen Formen der Arbeitszeitflexibilisierung bietet es entscheidenden Mehrwert.
Weitere Informationen:
http://www.uni-bamberg.de/kommunikation/news/artikel/arbeitszeitfreiheit
Quelle: idw
„Trink einen Schluck“, sagt das Pflaster
Blandina Mangelkramer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg
FAU-Wissenschaftler forschen an Sensorpflaster, das den Wasserhaushalt überwacht
Den ganzen Tag im Meeting, zwischendrin kurz ein Brötchen gegessen, und abends erst ein Schluck Wasser. Wer so lebt riskiert Leistungsabfall oder eine Überhitzung des Körpers. Dehydrierung, also Austrocknung, kann aber auch zu schlimmeren Krankheiten wie Nierenversagen führen. Trotz dieser immensen Bedeutung existiert zurzeit noch kein zuverlässiges Verfahren, um den Wasserhaushalt zu überwachen. In dem Verbundforschungsprojekt „Sensoren für eine verbesserte Lebensqualität“ unter der Beteiligung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wollen Wissenschaftler ein System entwickeln, das rechtzeitig vor einer Dehydrierung warnt: ein Sensorpflaster, das die gemessenen Werte an ein Armband oder ein Smartphone weiterleitet. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 7,5 Millionen Euro gefördert: Stefan Müller, Parlamentarischer Staatssekretär im BMBF, überreichte jetzt den Erlanger Wissenschaftlern den Förderbescheid im Erlanger Schloss.
Wasser ist für den Menschen von essentieller Bedeutung: Er benötigt die Flüssigkeit beispielsweise zum Transport der Nährstoffe im Körper oder für die Beseitigung von Giftstoffen. Jeden Tag verliert der Körper jedoch Wasser über Haut und Atmung. Regelmäßiges Trinken ist daher lebensnotwendig. Wird der Körper nicht ausreichend mit Wasser versorgt, drohen Leistungsminderung, Verwirrtheitszustände, Schwindel und Kreislaufversagen, aber auch Herzerkrankungen, Nierenversagen, Diabetes oder Magengeschwüre. Des Weiteren gehört die Dehydrierung, die Austrocknung des Körpers, zu den häufigsten Todesursachen demenzkranker Menschen.
Ein zuverlässiges und zugleich einfaches Verfahren, um den Flüssigkeitshaushalt zu überwachen, gibt es dennoch nicht. Dem wollen Prof. Dr. Dr. Robert Weigel, Inhaber des Lehrstuhls für Technische Elektronik der FAU, und seine Mitarbeiter zusammen mit Unternehmen Abhilfe schaffen. Sie entwickeln ein Sensorsystem, welches den Nutzer rechtzeitig vor einer Dehydrierung warnt, sodass nötige Gegenmaßnahmen eingeleitet werden können.
Ein Pflaster, das vor Austrocknung warnt
Das System besteht aus einem Sensorpflaster, welches die gemessenen Werte an ein Smartphone oder direkt an ein dazugehöriges Armband sendet. Der Nutzer wird drei Möglichkeiten haben, sich über den Wasserhaushalt zu informieren: per App auf dem Smartphone, per Farbkodierung am Armband oder per Weiterleitung der Werte ins Internet, wo Trainer oder Pfleger die Werte abrufen können.
Die Farbkodierung am Armband stellt dabei die einfachste und direkteste Möglichkeit der Datenübertagung dar: Ein Ampelsystem erlaubt es älteren Menschen oder Sportlern den Wasserhaushalt zu kontrollieren. Wechselt die Farbe von grün auf gelb, weiß der Nutzer, dass es Zeit ist, etwas zu trinken. Vergisst er dies oder nimmt es nicht wahr, kann ein akustisches Signal oder eine Vibration ihn zusätzlich darauf hinweisen, sollte der Zustand kritischer werden.
Das Sensorpflaster basiert auf Hochfrequenz-Sensorik und innovativen Integrationstechnologien. „Für die komfortable Nutzung am Körper und eine permanente Überwachung des Wasserhaushalts müssen wir ein System erforschen, das Funktionen der Sensorik, Kommunikation, Datensicherheit, Energiespeicherung, Datenauswertung sowie optimierter Anzeige und Benutzerfreundlichkeit auf kleinstem Raum integriert“, beschreibt Projektleiter Dr. Dietmar Kissinger das komplexe Forschungsvorhaben. Da ist vielfältiges Know-how von Nöten. Daher kooperiert der FAU-Lehrstuhl mit Partnern aus der Wirtschaft und dem Gesundheitssektor: Neben dem Halbleiterhersteller Infineon Technologies, der die Sensor-Chiptechnologie zur Verfügung stellt, arbeiten die Senetics Healthcare Group, Medisana, Wearable Technologies, die Diakonie München Moosach, das Klinikum Region Hannover sowie ORTEMA an der Entwicklung und Umsetzung des Sensorpflasters mit.
Für den Beruf und zur Patientenüberwachung
Die Anwendungsgebiete des Sensorpflasters sind zahlreich. Im medizinischen Bereich könnte es Senioren helfen, ihren Wasserhaushalt im Auge zu behalten, bei Demenzkranken und bettlägerigen Patienten ermöglicht es den Pflegern bzw. der Familie den Zustand zu überwachen. „Dadurch erleichtert es die Arbeit des Pflegepersonals für Patienten – und senkt so die Pflegekosten“, sagt Professor Weigel. Die Arbeit von Feuerwehrmännern könnte das Pflaster sicherer machen: Bei Einsätzen warnt es frühzeitig vor Dehydrierung und hilft so, Orientierungslosigkeit oder gar Bewusstlosigkeit durch zu wenig Flüssigkeit im Körper zu vermeiden. Aber auch im Alltag könnte das Pflaster eingesetzt werden: von Sportlern beispielsweise, die ihre Trainingseinheiten überwachen oder von Arbeitnehmern, die ihre geistige Leistungsfähigkeit steigern wollen. „Das Sensorpflaster gibt vor allem älteren Menschen Lebensqualität zurück und leistet generell einen wichtigen Beitrag zur medizinischen Betreuung“, erklärt Professor Weigel.
Weitere Informationen:
Prof. Dr. Dr. Robert Weigel
Tel.: 09131/85-27200
robert.weigel@fau.de
Quelle: idw
Wie Kunden sich gegenseitig beim Einkaufen beeinflussen
Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock
Rostocker Forscher: soziale Präsens von Fremden spielt große Rolle
Der Kunde soll sich im Supermarkt wohlfühlen und möglichst lange verweilen. Daher ist die Temperatur im Raum wichtig, aber auch Farbe und Geruch spielen eine große Rolle. Das ist bekannt. Nicht bekannt ist hingegen, welchen Einfluss fremde Menschen auf das eigene Kaufverhalten zwischen den Regalen im Supermarkt haben. Dieses Phänomen hat der junge Forscher Michael Luck vom Institut für Marketing und Dienstleistungsforschung der Universität Rostock akribisch unter die Lupe genommen. Er hat unter anderem Leute beim Einkaufen begleitet und sie anschließend zu ihrem Einkaufsverhalten befragt.
Es ist nicht nur die Werbung mit ihren unbewussten Wirkungs-Mechanismen, die das Kaufverhalten steuert. „Der persönliche Raum spielt eine große Rolle“, hat der 30-jährige Wissenschaftler herausgefunden. Was das heißt? „Man möchte anderen Personen nicht zu nahe kommen und andere sollen einem im Umkehrschluss auch nicht zu nahe kommen“, beobachtete Luck. Das Resultat: Kunden vermeiden es, Produkte anzuschauen, wenn es gerade andere tun. Wird man vielleicht negativ bewertet, wenn man sich zu jemandem in eine Regalreihe stellt? Luck schließt das nicht aus. „Ist beispielsweise am Regal ein anderer, wo man sich gerade selbst informieren möchte, empfindet man negative Gefühle“, fand der Forscher heraus. Seine Erkenntnis: „Die soziale Präsens von Fremden beim Einkaufen im Supermarkt spielt eine große Rolle“. Andere im Markt seien okay, sie sollten aber nicht in der unmittelbaren Nähe sein. Es gibt für Zufriedenheit eine optimale Anzahl von Kunden im Supermarkt. Sind zu wenig Leute da, hat man das Gefühl, das etwas nicht stimmt, vielleicht die Preise zu hoch oder die Qualität schlecht sind. Sind zu viele im Geschäft, fühlt man sich eher belästigt, empfindet Stress und fühlt sich nicht gut, weicht möglicherweise auf einen anderen Supermarkt aus. Der Schluss des Rostocker Wissenschaftlers: „Das Optimum schafft ein positives Gefühl, wenn eine ausreichende Distanz eingehalten wird. Kommen hingegen andere zu nah, vermeiden die meisten Kunden es, sich umzusehen.
Am Institut für Marketing und Dienstleistungsforschung in Rostock werden gegenwärtig Ideen entwickelt, was man machen kann, damit Kunden sich wohl fühlen und ein optimales Einkaufserlebnis empfinden. „Wir analysieren das Phänomen des Einflusses anderer Kunden tiefgründig und forschen nach Erklärungsansätzen.“
Seit geraumer Zeit musste das Management sich eingestehen, dass die Anwesenheit anderer Personen eine wesentliche Rolle beim Einkaufsverhalten spielt. Dieses Phänomen zu erklären und Schlüsse zu ziehen, da sind jetzt die Forscher gefragt. Text: Wolfgang Thiel
Universität Rostock
Michael Luck
Wirtschafts- und Sozialwissenschaftliche Fakultät
Institut für Marketing und
Dienstleistungsforschung
Tel: 0381 498 4372
Mail: michael.luck@uni-rostock.de
Quelle: idw
Zwillingspaare für Internetstudie gesucht
Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn
Wissenschaftler der Universitäten Bonn und des Saarlandes untersuchen, wie das Internetverhalten von genetischen und persönlichen Faktoren sowie Umwelteinflüssen abhängt. Zwillingspaare zwischen 18 und 50 Jahren können sich für eine Teilnahme an der Online-Umfrage unter twingame-study@uni-saarland.de melden.
Der Internetkonsum spielt eine immer größere Rolle im Alltag. Während einige Menschen jeden Tag mehrere Stunden im Netz surfen, kommen andere problemlos eine Woche lang ohne Internet aus. Auch für Online-Computerspiele sind nicht alle gleich empfänglich. Mit dem Projekt „TwinGame“ wollen die Psychologen der Universität Bonn mit Wissenschaftlern der Universität des Saarlandes nun herausfinden, ob das Verhalten im Netz und der Gebrauch von Online-Computerspielen von genetischen Faktoren sowie Umwelteinflüssen beeinflusst wird und welche Rolle Persönlichkeitsmerkmale und Gewohnheiten spielen.
In der Studie werden mittels Fragebogen unter anderem Häufigkeit, Dauer und Art des Internetkonsums und des Computerspielverhaltens erfasst. Außerdem machen die Versuchsteilnehmer Angaben zu ihrer Freizeitgestaltung und anderen Lebensgewohnheiten, ihrer Zufriedenheit sowie zu weiteren Persönlichkeitsmerkmalen, wie beispielsweise Empathie und Wertvorstellungen.
Für die Studie gesucht werden gleichgeschlechtliche ein- und zweieiige Zwillingspaare zwischen 18 und 50 Jahren. Eine Teilnahme ist nur möglich, wenn beide Zwillinge bereit sind, den Fragebogen auszufüllen. Die Bearbeitung erfolgt online und dauert rund eine Stunde. Hierfür gibt es pro Person eine Aufwandsentschädigung von zehn Euro. Interessenten melden sich mit dem Stichwort „Uni“ unter Angabe des Alters und der Namen der Zwillinge per E-Mail twingame-study@uni-saarland.de.
Bitte leiten Sie die Informationen zur Studie auch an andere Zwillinge weiter!
Weitere Informationen:
http://www.uni-saarland.de/lehrstuhl/diffpsy/forschung/twingame.html Informationen zur Studie
Quelle: idw
Innovationen querfeldein: Wenn Biokohle den Acker fruchtbar macht
Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Im bundesweiten Innovationswettbewerb „Ausgezeichnete Orte im Land der Ideen“ 2014 ist das Projekt „Optimierte Biokohle aus agrarischen Reststoffen“ heute als einer von 100 Preisträgern geehrt worden. Zum Thema „Innovationen querfeldein – Ländliche Räume neu gedacht“ liefert das Projekt in der Kategorie Wissenschaft Antworten auf die Frage, welche Bedeutung Biokohle zukünftig für Landwirtschaft und Klima haben kann, z. B. um als nachhaltiger Bodenhilfsstoff an ertragsschwachen Standorten bessere Ernten zu ermöglichen.
Ausgezeichnet wurde das ATB für seine zukunftsweisende Forschung zu optimierter Biokohle aus agrarischen Reststoffen. Die Idee: Wenn aus Mais oder Getreidestroh Biogas produziert wird, bleiben Gärreste übrig. Aus ihnen wird Biokohle hergestellt, die dem Boden wichtigen Kohlenstoff zuführt. Das chemische Element ist zudem fest im Dünger gebunden und kann auf diese Weise nicht in Form von Treibhausgasen in die Atmosphäre entweichen – ein Plus für das Klima. Seit 2009 beforschen Wissenschaftler am Potsdamer Leibniz-Institut für Agrartechnik das Thema Biokohle – von der Karbonisierung von agrarischen Reststoffen über die Charakterisierung und Pflanzenwirkung von Biokohle bis hin zur Bewertung ihres ökonomischen und ökologischen Potenzials.
Die Initiative „Deutschland – Land der Ideen“ und die Deutsche Bank zeichnen im Rahmen des Wettbewerbs gemeinsam Ideen und Projekte aus, die einen positiven Beitrag zur Gestaltung der ländlichen Räume und Regionen liefern und sie fit für die Zukunft machen. Rayk Heidamke, Leiter Firmenkunden Brandenburg der Deutschen Bank, überreichte den ATB-Biokohleforschern Dr. Jan Mumme, Dr. Andreas-Meyer-Aurich und Dr. Jürgen Kern die Auszeichnung als „Ausgezeichneter Ort“ und betonte: „Das Leibniz-Institut für Agrartechnik lässt uns einen Blick in die Zukunft der Landwirtschaft werfen: Ihr Projekt verbindet Wirtschaftlichkeit und Nachhaltigkeit. Sie geben dadurch nicht nur der Agrarwirtschaft innovative Impulse, sondern den ländlichen Regionen insgesamt. Es gilt, die Herausforderungen anzunehmen – und das eben querfeldein. Treffender hätte ein Jahresthema die Transformationskraft des ländlichen Raums gar nicht einfangen können.“
„Ein ‚Ausgezeichneter Ort im Land der Ideen‘ zu sein, erfüllt mich mit Freude und auch mit Stolz – zuvorderst auf die Leistungen unserer Wissenschaftlerinnen und Wissenschaftler“, kommentierte Prof. Dr. Reiner Brunsch, wissenschaftlicher Direktor des ATB, die Auszeichnung. „Mit der Forschung zu Biokohle ist es uns gelungen, wissenschaftliche Exzellenz und gesellschaftliche Relevanz zu verbinden – und damit den Leitgedanken unseres Namenspatrons Leibniz mit Leben zu füllen: Grundlagenforschung mit praktischer Anwendung zu verknüpfen.“
Das ATB erhält die Auszeichnung bereits zum zweiten Mal: 2009 wurde das Institut für seine innovativen Konzepte und Produktideen für die Nutzung nachwachsender Rohstoffe ausgezeichnet.
„Der Einfallsreichtum und die Leidenschaft der Menschen, mit denen sie Zukunft in unserem und für unser Land gestalten, verdienen eine Bühne, auf der sie wahrgenommen werden. Die ‚Ausgezeichneten Orte‘ bilden ein einmaliges Netzwerk an Innovationen aus Deutschland“, begründete Rayk Heidamke das langjährige Engagement der Deutschen Bank im Wettbewerb. Aus 1.000 Bewerbungen wählte die Expertenjury aus Wissenschaftlern, Wirtschaftsmanagern, Journalisten und Politikern gemeinsam mit einem sechsköpfigen Fachbeirat das Leibniz-Institut für Agrartechnik Potsdam-Bornim mit seinem Projekt „Optimierte Biokohle aus agrarischen Reststoffen“ als Preisträger aus.
Kontakt:
Helene Foltan
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Tel.: 0331 5699-820; hfoltan@atb-potsdam.de
http://www.atb-potsdam.de
Deutschland – Land der Ideen
Pierre Dombrowski
Tel.: 030/206459-180; dombrowski@land-der-ideen.de
http://www.ausgezeichnete-orte.de
http://www.facebook.com/deutschland.landderideen
http://www.twitter.com/Land_der_Ideen
Deutsche Bank
Sandra Haake-Sonntag
Tel.: 069/910-42925; sandra.haake-sonntag@db.com
http://www.deutsche-bank.de/ideen
http://www.facebook.com/DeutscheBank
http://www.twitter.com/DeutscheBank
Detaillierte Informationen zum Thema ländliche Regionen in Form von Interviews, Multimediareportagen und aktuellen Studien erhalten Sie auf dem Themenportal http://www.innovationen-querfeldein.de.
Die Forschung des Leibniz-Instituts für Agrartechnik Potsdam-Bornim e.V. (ATB) zielt auf die ressourceneffiziente Nutzung biologischer Systeme zur Erzeugung von Lebensmitteln, Rohstoffen und Energie in Anpassung an Anforderungen von Klimaschutz und Klimawandel. Zu diesem Zweck entwickelt das ATB verfahrenstechnische Grundlagen für eine nachhaltige Landbewirtschaftung und stellt innovative technische Lösungen für Landwirtschaft und Industrie bereit. Eine Querschnittsaufgabe ist die Analyse und Bewertung des Technikeinsatzes entlang der Wertschöpfungskette. Die im Rahmen von Bioraffinerie- und Kaskadennutzungskonzepten entwickelten Technologien sind ein Beitrag zur Schaffung einer biobasierten Stoff- und Energiewirtschaft.
Quelle: idw
Bluthochdruck: Gesunder Lebensstil allein reicht nicht immer aus
Maximilian Broglie Geschäftsstelle
Deutsche Hochdruckliga
Heidelberg – Gesund zu leben ist die beste Therapie gegen Bluthochdruck, so lautet der Rat vieler Mediziner. Doch Experten der Deutschen Hochdruckliga e.V. DHL® Deutsche Gesellschaft für Hypertonie und Prävention warnen vor voreiligen Schlüssen: Normalgewicht, ausgewogene Ernährung und regelmäßige Bewegung seien zwar ein Grundpfeiler der Behandlung von Bluthochdruck. Lebensstiländerungen allein ersetzen die Einnahme von blutdrucksenkenden Medikamenten aber nicht immer. Messen Betroffene wiederholt und längerfristig Blutdruckwerte von über 140 zu 90 Millimeter auf der Quecksilbersäule (mmHg), drohen Organschäden.
Mit fettarmer Ernährung, täglichen Spaziergängen und höchstens einem Glas Bier am Tag bekommen viele Menschen mit Bluthochdruck ihre Werte in den Griff. „Bei mäßiger Hypertonie von bis zu 159 zu 99 sollten Ärzte zunächst immer eine Umstellung der Lebensgewohnheiten empfehlen“, erläutert Professor Dr. med. Martin Hausberg, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® aus Karlsruhe. Dazu gehören eine ausgewogene, salzarme Ernährung, Sport und das Ziel, Risiken so gering wie möglich zu halten: Übergewicht, Rauchen und Alkohol. Doch das reicht nicht immer aus. „Wenn die Werte trotz intensiver Bemühungen des Patienten auch nach mehreren Monaten nicht sinken, ist eine Behandlung mit Blutdruck-Medikamenten notwendig“, so Professor Hausberg, „und maßgeblich für seine Gesundheit“.
Dasselbe gelte, wenn der Blutdruck die 159/99 mmHg überschreitet oder wenn ein erhöhtes Risiko durch andere Erkrankungen der Nieren, des Herzkreislaufsystems oder Diabetes melltius besteht. „In diesen Fällen wäre es nahezu verantwortungslos, keine Medikamente zu verschreiben“, betont der Experte. Denn je länger der hohe Blutdruck anhält, desto größer die Gefahr, dass er das gesamte Gefäßsystem und Organe wie Herz, Hirn oder Nieren schädigt.
Wie wichtig Aufklärung ist, zeigen die Zahlen: Jeder zweite Deutsche ist übergewichtig, jeder vierte raucht – das treibt den Blutdruck in die Höhe. Dennoch weiß nur jeder zweite Betroffene von seinem Bluthochdruck. Das bedeutet aber für viele nicht, etwas dagegen zu unternehmen: Nur die Hälfte lassen sich auf eine Behandlung ein. „Viele verdrängen das Problem Bluthochdruck, da es anfangs keine spürbaren Beschwerden verursacht“, sagt Experte Hausberg.
Ältere Menschen empfinden leicht erhöhte Werte zudem oft nicht als gefährdend. Lebensalter plus 100 – nach dieser veralteten Faustregel zur Bestimmung der Höchstwerte richten sich immer noch zu viele Patienten und auch Ärzte. Danach wäre für einen 60-Jährigen ein Blutdruck von bis zu 160 mmHg noch akzeptabel. „Diese Regel führt in die Irre“, warnt Professor Hausberg, „Langzeitstudien zeigen eindeutig, dass ein Wert über 140 mmHg auf längere Zeit in jedem Alter gesundheitsgefährdend ist und das Risiko für einen Herzinfarkt oder Schlaganfall signifikant erhöht.“ Ein gesunder Lebensstil bliebe zwar der erste Schritt, dagegen vorzugehen. Denn auch Medikamente könnten ungesunde Gewohnheiten nicht kompensieren. Doch wenn das nicht wirke, müssten Ärzte blutdrucksenkende Mittel verordnen.
Quelle: 2013 ESH/ESC Guidelines for the management of arterial hypertension, European Heart Journal doi:10.1093/eurheartj/eht151
Terminhinweis:
Pressekonferenz der Deutschen Hochdruckliga e.V. DHL®
Deutsche Gesellschaft für Hypertonie und Prävention
anlässlich des 40-jährigen Bestehens
Diagnostik und Therapie des Bluthochdrucks: eine Erfolgsgeschichte
Termin: Montag, 15. September 2014, 12.00 bis 13.00 Uhr
Ort: Dependance der DHL®, Oranienburger Straße 22, 10117 Berlin
Weitere Informationen:
http://www.hochdruckliga.de
Quelle: idw
Fahrtauglichkeit im Alter – darf Oma noch Autofahren?
Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)
Jeden Tag gegen zwölf Uhr mittags setzt Maria Herweg ihren alten BMW rückwärts aus der Garage – schön vorsichtig versteht sich. Günther Herweg nimmt dann auf dem Beifahrersitz Platz und das Ehepaar fährt gemeinsam zum Essen. Jeden Tag? „Am Wochenende nicht, da bleiben wir zu Hause. Am Wochenende sind die ganzen Alten unterwegs“, sagt Herweg und grinst dabei. Ist das arrogant? Diskriminierend? Nein, das ist ironisch: Maria Herweg ist nämlich selbst nicht weniger als 79 Jahre alt.
79 Jahre – ist das nicht zu alt für regelmäßiges Autofahren? Sollte die rüstige Rentnerin ihren Führerschein nicht lieber abgeben und mittags auf den Bus oder den Pizza-Service umsteigen? Hochbetagte können nicht mehr jede Situation im Straßenverkehr lösen und stellen ein erhebliches Risiko dar, lautet die landläufige Meinung. Und viele Senioren geben freiwillig ihren Führerschein ab. Das Gegenteil ist jedoch der Fall, wie jetzt Altersmediziner herausgefunden haben: Das Alter bringt die Fähigkeit mit sich, sicher Auto zu fahren.
Autofahrer bis 75 Jahre sind keine Risikogruppe. Im Gegenteil.
Der Blick in die deutsche Verkehrs-Unfallstatistik zeigt: Senioren bis 75 Jahre sind keine Risikogruppe. Im Gegenteil. „Die älteren Fahrer haben viel Erfahrung. Sie können Gefahrensituationen richtig einschätzen und sie sind auch keine Raser“, erläutert Sven Rademacher vom Deutschen Verkehrssicherheitsrat in Bonn. Außerdem seien sie vorausschauend. „Bei Schneetreiben oder Nebel lassen sie das Auto auch einmal stehen. Sie wissen: Sicherheit geht vor.“
So sieht es auch Prof. Dr. Desmond O’Neill vom Trinity College in Dublin. Auf dem Jahreskongress der Deutschen Gesellschaft für Geriatrie (DGG) und der Deutschen Gesellschaft für Gerontologie und Geriatrie (DGGG) in Halle an der Saale berichtet er über seine Untersuchungen zur Fahrtauglichkeit Älterer. Sein Fazit: „Das Alter bringt die Fähigkeit mit sich, sicher Auto zu fahren.“ Der irische Professor betont, wie wichtig die Mobilität für viele Ältere ist, ermögliche sie ihnen doch, am sozialen Leben teilzuhaben.
Aber was ist mit den Fahrern über 75 Jahre? Für sie zeigt die Statistik steigende Unfallzahlen. Diese Gruppe ist nicht klein: Laut dem DVR besitzen fast zwei Millionen Deutsche zwischen 75 und 84 Jahren ein Auto. „Trotzdem ist das Alter an sich kein Risikofaktor. Sicherheit im Straßenverkehr ist keine Frage des Lebensalters sondern der Gesundheit“, erläutert Rademacher vom DVR. Gesundheitliche Einschränkungen kämen bei dem einen früher, beim anderen erst sehr viel später. Seine Empfehlung: Autofahrer sollten frühzeitig beginnen, ihren Gesundheitszustand regelmäßig überprüfen zu lassen. Ärzte und Verkehrsexperten empfehlen diese Untersuchungen schon ab 40 Jahren.
Regelmäßiger Gesundheitscheck für Autofahrer ist wichtig.
Auch die ehemaligen Skirennläufer Rosi Mittermaier und Christian Neureuther machen sich für sichere Mobilität stark: Im Rahmen der „Aktion Schulterblick“ des DVR setzen sie sich dafür ein, dass sich Verkehrsteilnehmer regelmäßig einem freiwilligen Gesundheitscheck unterziehen. Hierbei überprüfen Ärzte die Fahrfitness der Interessierten. „Mit dem Autofahren ist es wie im Sport: Wenn man älter wird, ist man oftmals nicht mehr so gut in Form wie in jungen Jahren“, sagt Rosi Mittermaier. „So manchen plagen erste Zipperlein. Ein ärztlicher Gesundheitscheck zeigt die eigenen Grenzen auf und hilft, Gefahren realistisch einzuschätzen. Dadurch kann etwa deutlich werden, dass die Brillenstärke mal wieder angepasst werden muss, oder ein Hörgerät beim Fahren einen großen Sicherheitsgewinn bringen würde“, so die ehemalige Profisportlerin.
„Gesundheitschecks sind ein wichtiger Beitrag zur Sicherheit im Straßenverkehr“, weiß auch der Präsident der Deutschen Gesellschaft für Geriatrie (DGG), Prof. Dr. Ralf-Joachim Schulz aus Köln. Überprüft werden sollten neben der Sehkraft das Gehör, die Beweglichkeit, die Aufmerksamkeit und die Reaktionsgeschwindigkeit des Fahrzeugführers sowie die Funktion von Herz, Leber und Nervensystem, weiß der Experte für Altersmedizin.
Sprechen Sie mit Ihrem Arzt über Ihre Fahrtüchtigkeit!
Laut einer repräsentativen Forsa-Umfrage, die der DVR in Auftrag gegeben hat, wären zwei Drittel der Auto fahrenden Senioren bereit, das Fahrzeug stehen zu lassen, sofern ihr Arzt dazu rät. Doch hier zeigt sich eine Lücke: Obwohl sich die meisten Senioren regelmäßig beim Arzt durchchecken lassen, sprechen nur wenige mit ihrem Arzt über den Einfluss der Gesundheit auf die Fahrtüchtigkeit. „Dabei ist das besonders wichtig. Fragen Sie nach“, fordert Schulz alle Autofahrer auf. Dies gelte nicht nur für hochbetagte Senioren.
Der Präsident der Fachgesellschaft nennt einen weiteren wichtigen Punkt: Medikamente! Laut einer repräsentativen Bevölkerungsumfrage nehmen rund zwei Drittel aller Autofahrer ab 65 Jahren regelmäßig Medikamente ein. Bei den Über-75-Jährigen sind es sogar 77 Prozent. Sicherheit geht dabei für die meisten befragten Autofahrer vor: 78 Prozent würden ihren Wagen stehen lassen, wenn sie merken, dass Arzneimittel ihre Fahrtüchtigkeit einschränken.
Aber um das zu beurteilen, reicht der Blick in den Beipackzettel nicht aus. Denn oft ist die Kombination verschiedener Arzneimittel die Ursache für Einschränkungen, die sich im Straßenverkehr fatal auswirken können wie zum Beispiel Schwindel, Konzentrationsschwächen, verminderte Reaktionsgeschwindigkeit oder verschwommenes Sehen. „Sprechen Sie daher mit Ihrem Arzt über ALLE Arzneimittel, die sie einnehmen, auch über die freiverkäuflichen“, empfiehlt Schulz. Nur dann sei sichergestellt, dass sie die Fahrtüchtigkeit nicht einschränken.
Maria Herweg kann deshalb trotz ihrer 79 Lebensjahre die Diskussion über ihre Fahrtauglichkeit gelassen sehen. Ihr Arzt hat ihr grünes Licht für ihre täglichen Fahrten in dem alten BMW gegeben. Und sie fährt seit 50 Jahren unfallfrei. Gelernt ist eben gelernt.
Mehr zum Thema erfahren Sie auch beim Jahreskongress der DGG und DGGG:
• Gängige Ansichten und Testverfahren, mit denen die Fahrtüchtigkeit älterer Menschen untersucht wird, wird Prof. Desmond O’Neill MD im Rahmen des Jahreskongresses der Deutschen Gesellschaft für Geriatrie (DGG) und der Deutschen Gesellschaft für Gerontologie und Geriatrie (DGGG) in Halle (Saale) (24. bis 27. September 2014) hinterfragen. Zu seiner englischsprachigen Keynote-Lecture „Driving and older people: a major theme for gerontologists and geriatricians“ am Donnerstag, 25.09.2014, 14:30-15:15 Uhr, laden wir alle Vertreter der Presse herzlich ein.
http://www.gerontologie-geriatrie-kongress.org/programm/keynotes/desmond-oneill….
• In dem Symposium „Fahreignung grenzenlos“ am Donnerstag, 25.09.2014, 08:00-09:30 Uhr wird die Verpflichtung zur Prüfung der Fahreignung anhand beispielhafter Modelle aus der Schweiz und Dänemark vorgestellt.
http://www.gerontologie-geriatrie-kongress.org/programm/donnerstag/symposium-s23…
• Ergänzend wird der Verkehrspädagoge und Dozent für Verkehrsrecht Tomas Ciura in seinem Workshop „Fahreignung im Alter“ am Donnerstag, 25.09.2014, 15:30-19:00 Uhr Basiswissen rund um das Thema Fahreignung sowie rechtliche Grundlagen vermitteln. Der Workshop findet im Rahmen der DGG-Fortbildungsakademie parallel zum Kongress statt und ist mit 5 CME-Punkten zertifiziert.
http://www.gerontologie-geriatrie-kongress.org/programm/dgg-akademie-fortbildung…
• Die Interdisziplinäre Veranstaltung „Fahreignung im höheren Lebensalter“ am Freitag, 26.09.2014, 08:00-09:30 Uhr beleuchtet das Thema aus psychologischer und neurologischer Sicht.
http://www.gerontologie-geriatrie-kongress.org/programm/interdisziplinaere-veran…
Weitere Informationen:
http://www.dggeriatrie.de/presse/837-pm-fahrtauglichkeit-im-alter-darf-opa-noch-…
Quelle: idw
Mainzer Fluglärmstudie beweist: Nachtfluglärm verursacht deutliche Gefäßschäden bei Herz-Patienten
Dr. Renée Dillinger-Reiter Stabsstelle Kommunikation und Presse
Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Mainzer Wissenschaftler publizieren Forschungsergebnisse der FluG-Risiko-Studie in der Zeitschrift „Clinical Research in Cardiology“
Eine neue Studie der II. Medizinischen Klinik und Poliklinik der Universitätsmedizin Mainz belegt: Fluglärm führt bei Patienten mit einer koronaren Herzerkrankung (KHK) bzw. einem hohen Risiko für eine KHK zu einem deutlichen Gefäßschaden, erhöhtem Blutdruck und zu einer verminderten Schlafqualität. All dies sind Befunde, die die gesundheitsgefährdende Wirkung von Fluglärm weiter belegen. Die in der Zeitschrift „Clinical Research in Cardiology“ veröffentlichte Studie wurde heute an der Universitätsmedizin Mainz vorgestellt.
„Wir wissen, dass Fluglärm Bluthochdruck, Herzinfarkte und auch Schlaganfälle auslösen kann“, so Univ.-Prof. Dr. Thomas Münzel, Direktor der II. Medizinischen Klinik und Poliklinik, Vorstandsmitglied der Stiftung Mainzer Herz und Leiter der Studie. „Die Ergebnisse unserer Studie waren so ausgeprägt, dass die Studie schon nach 60 Patienten abgebrochen wurde, obwohl eine Probandenzahl von 100 eingeplant war.“ Nach Einschätzung von Professor Münzel sind die Ergebnisse der Studie ein weiterer Mosaikstein, um die Entstehung von schwerwiegenden Herz-Kreislauf-Erkrankungen als Folge von Fluglärm erklären zu können.
Im Rahmen der Studie wurden 60 Patienten mit einer koronaren Herzerkrankung oder einem erhöhten Risiko für eine Herzerkrankung während des Schlafs mit simuliertem Nachtfluglärm beschallt. Das Durchschnittsalter der Probanden lag bei 61,8 Jahren. „In einem Feldversuch wurden die Patienten zu Hause einer Lärmbelastung ausgesetzt, bei der in einer Versuchsnacht insgesamt 60 Nachtflüge mit einem mittleren Schallpegel von 46 dBA simuliert wurden. Zur Kontrolle hatten wir auch ein lärmfreies Nacht-Szenario“, erklärt Dr. Frank Schmidt aus der II. Medizinischen Klinik und Poliklinik, der die Studie durchgeführt hat.
Die Wissenschaftler stellten fest, dass Nachtfluglärm bei den Patienten die Gefäßfunktion, die mit hochauflösenden Ultraschallgeräten gemessen wurde, deutlich verschlechterte.
„Die Verschlechterung der Gefäßfunktion war so ausgeprägt, dass nach einer Zwischenanalyse von 60 Patienten die Studie vorzeitig beendet wurde“, berichtet Dr. Schmidt. „In unserer ersten Studie konnten wir bereits belegen, dass Nachtfluglärm bei gesunden Probanden die Gefäße schädigt. Gemessen wurde dabei die Erweiterungsfähigkeit der Arterien – im Fachjargon Endothelfunktion -, die unter Nachtfluglärm deutlich abnahm. In unserer aktuellen Studie zeigte sich, dass dieser Effekt bei Patienten mit einer koronaren Herzerkrankung (KHK) noch deutlich stärker ausgeprägt war“, ergänzt Dr. Schmidt.
„Bemerkenswert ist, dass der Lärm die Gefäße schädigte, obwohl die Patienten ihre Herzkreislaufmedikamente einnahmen, die die Gefäßfunktion vor Schäden schützen“, betont Professor Münzel. „Weiterhin verschlechterte sich die Gefäßfunktion unabhängig davon, ob sich die Patienten über den Lärm geärgert haben oder nicht. Auch die Lärmempfindlichkeit der Patienten spielte keine Rolle. Die Verschlechterung der Gefäßfunktion hat bei Patienten mit einer KHK prognostische Bedeutung, da diese mit einem erhöhten Auftreten von Tod durch Herzinfarkt und Schlaganfall verbunden ist“, ergänzt Professor Münzel. „Nächtlicher Fluglärm muss damit als wichtiger, neuer Risikofaktor für Herz-Kreislauf-Erkrankungen bewertet werden. Wir Ärzte können Bluthochdruck, erhöhtes Cholesterin und Diabetes effektiv behandeln. Patienten können mit dem Rauchen aufhören. Lärm ist somit der einzige Herzkreislauf-Risikofaktor, den nur die Politik nachhaltig beeinflussen kann“, so Münzel.
„Die eindrücklichen Ergebnisse der Studie sind insbesondere vor dem aktuellen Hintergrund – der Erteilung der Baugenehmigung für den dritten Terminal am Frankfurter Flughafen – bedeutsam; zeigen sie doch einmal mehr, dass Fluglärm ein Risikofaktor für Herz-Kreislauf-Erkrankungen ist“, kommentiert Prof. Dr. Babette Simon, Vorstandsvorsitzende und Medizinischer Vorstand der Universitätsmedizin Mainz. „Deshalb fordern wir mit Nachdruck eine deutliche Entlastung des Geländes der Universitätsmedizin und der umliegenden Kliniken in Mainz vom Fluglärm und dass dazu alle Optionen des aktiven Schallschutzes zum Einsatz kommen. Alternativlos nach meinem Dafürhalten ist daher ein runder Tisch, um zu einer schnellen und nachhaltigen Lösung zu kommen.“
Die Studie wurde von der II. Medizinischen Klinik und Poliklinik der Universitätsmedizin Mainz mit Unterstützung der Stiftung Mainzer Herz und der Robert Müller Stiftung durchgeführt.
Die Originalarbeit mit den Forschungsergebnissen ist abrufbar unter:
http://link.springer.com/journal/392
Weiterführende Informationen zu den Probanden und zur Durchführung der Studie finden Sie unter: https://www.youtube.com/channel/UCdRqJEmZIvB0KdD9qTJ6PAA.
Kontakt:
Andrea Mänz-Grasmück und Teresa Peter, Stiftung Mainzer Herz,
c/o Büro Univ.-Prof. Dr. med. T. Münzel,
II. Medizinische Klinik und Poliklinik, Universitätsmedizin Mainz,
Langenbeckstr. 1, 55131 Mainz
Tel. 06131 17 5737 und 06131 17 8215,
Fax 06131 17 5660, E-Mail: info@herzstiftung-mainzer-herz.de
Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.500 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.500 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de
Über die Stiftung Mainzer Herz
Die im Jahr 2007 gegründete Stiftung hat den Zweck Forschung und Lehre zu fördern sowie die Patientenversorgung an der II. Medizinischen Klinik kontinuierlich zu verbessern. Das beginnt bereits bei der Prävention, also der Vorsorge und der Vorbeugung von Herz-Kreislauf-Erkrankungen, und endet bei der optimalen Versorgung von Patienten, die einen akuten Herzinfarkt erlitten haben. Ein neuer Förderschwerpunkt der Stiftung im Forschungsbereich sind die Auswirkungen von Lärm („Fluglärm“) auf die Gesundheit mit besonderem Fokus auf Herz-Kreislauf-Erkrankungen.
Weitere Informationen zur Stiftung und zu Fördermöglichkeiten unter:
http://www.herzstiftung-mainzer-herz.de/
Quelle: idw
TU Berlin: Kälte aus (Ab)wärme
Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin
Gemeinsame Medieninformation der Technischen Universität Berlin und des Vivantes Klinikum Spandau
Am Vivantes Klinikum Spandau geht eine neuartige Anlage zur Kraft-Wärme-Kälte-Kopplung an den Start. Entwickelt wurde diese von einem Forschungsverbund unter Leitung der TU Berlin.
Neue Wege bei der Kälteversorgung geht das Vivantes Klinikum Spandau: Dessen Blockheizkraftwerk (Kraft-Wärme-Kopplung) ist jetzt mit dem neuen Typ einer Absorptionskälteanlage und einer so genannten trockenen Rückkühlung gekoppelt worden. Dadurch lässt sich im Sommer neben dem erzeugten Strom auch die (Ab)Wärme nutzen, um beispielsweise OP-Bereiche und Intensivstationen zu kühlen. So kann die Auslastung und Effizienz der vorhandenen Kraft-Wärme-Kopplungs-Anlage erhöht werden. Ziel von Vivantes ist es, Energie effizienter zu nutzen und langfristig Energiekosten zu sparen.
Um in der umweltfreundlichen Kälteversorgung neue Maßstäbe zu setzen, ist eine breite Initiative aus mehreren Forschungseinrichtungen angetreten – unter Leitung der TU Berlin gemeinsam mit dem Energieeffizienzverband für die Wärme- und Kälteversorgung (AGFW) und dem Bundesverband Technische Gebäudeausrüstung e.V. (BTGA) mit einer Förderung durch das Bundesministerium für Wirtschaft und Energie (BMWi).
In Deutschland werden aktuell rund 15 Prozent des elektrischen Stroms zur Kühlung eingesetzt. Und Fachleute gehen davon aus, dass bis 2030 die Ausrüstung mit Klimaanlagen um 50 Prozent zunehmen wird. Vor diesem Hintergrund ist das Potenzial ebenso wie die Notwendigkeit gegeben, Wärme aus Kraft-Wärme-Kopplung, aber auch aus anderen Quellen, wie zum Beispiel aus Produktionsprozessen oder der Solarenergie, zur Kälteerzeugung zu nutzen und damit den Bedarf an elektrischem Strom zur Kälteerzeugung nicht ungebremst wachsen zu lassen. Der wesentliche Vorteil der Kraft-Wärme-Kopplung gegenüber der getrennten Erzeugung von Strom (Kraft) und Wärme ist die deutlich höhere Ausnutzung des Primärenergieträgers. Jedoch liegt dieser ressourcenschonende und Emissionen reduzierende Vorteil der Kraft-Wärme-Kopplung im Sommer brach, da zu wenig Wärme gebraucht wird. Es sei denn, man kann die Abwärme zur Kühlung von zum Beispiel Rechenzentren, Büroräumen, Krankenhäusern oder bei der Lebensmittelherstellung nutzen. Hierfür kommen Absorptionskälteanlagen zum Einsatz.
Ein Wissenschaftsverbund vom Fachgebiet Maschinen- und Energieanlagentechnik der TU Berlin, der Vattenfall Wärme AG und dem Bayerischen Zentrum für angewandte Energieforschung (ZAE Bayern) haben in einem durch das damalige Bundesministerium für Wirtschaft und Technologie (BMWi) einen neuen und deutlich effizienteren Typ von Absorptionskälteanlagen entwickelt, mit denen die Wärme das ganze Jahr über genutzt werden kann. Die Ziele der Bundesregierung zur Effizienzsteigerung und CO2-Minimierung im Strom- und Energiemarkt werden somit gleichzeitig auf zwei Wegen erreicht. Einerseits kann der Anteil von KWK-Strom am nationalen Strommix als Nebeneffekt der Wärmenutzung signifikant erhöht werden, zum anderen wird der Stromverbrauch im Sommer verringert.
Zusammen mit den Kooperationspartnern der TU Berlin werden diese Anlagen nun in umfangreichen Feldtests zur Marktreife vorangebracht und der Öffentlichkeit vorgestellt. In den kommenden Monaten wird bundesweit bei insgesamt weiteren 14 Stadtwerken und privatwirtschaftlichen Partnern die optimierte Absorptionskälteanlagentechnik getestet.
Weitere Informationen erteilen Ihnen gern: Prof. Dr.-Ing. Felix Ziegler, TU Berlin, Fachgebiet Maschinen- und Energieanlagentechnik, Tel.: 030/314-25624, E-Mail: felix.ziegler@tu-berlin.de, Dipl.-Ing. Stefan Petersen, Projektleitung FAkS am Fachgebiet Maschinen- und Energieanlagentechnik, Tel.: 030/314-29231, E-Mail: stefan.petersen@tu-berlin.de
Dipl.-Ing. Winfried Löwe, Projektleitung Ressort FacilityManagement/Bau, Vivantes, Tel. 030/130-115113, E-Mail: Winfried.loewe@vivantes.de
Quelle: idw
Menschen mit Arthrose bewegen sich zu wenig. Experten raten zu moderatem Sport
Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften
Berlin – Fast jeder dritte 45- bis 67-Jährige in Deutschland ist an Arthrose erkrankt. Bei den über 65-Jährigen trifft es bereits jeden Zweiten. Betroffene haben meist zu Beginn große Schmerzen, vor allem wenn sie sich bewegen. Sie sind verunsichert, welche Belastung sie ihren Gelenken noch zumuten können und bewegen sich daher immer seltener. Dabei lindert regelmäßige Bewegung die Krankheitszeichen der Arthrose und verlangsamt ihr Fortschreiten. Welche Risiken dennoch beachtet werden müssen und wie Betroffene ihre Gelenke beim Sport schützen, erklären Experten auf einer Pressekonferenz des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) am 29. Oktober 2014 in Berlin.
Arthrose gehört zu den häufigsten Erkrankungen im Alter. Aber auch immer mehr junge Menschen leiden an Gelenkverschleiß: Ein Unfall, eine angeborene Fehlstellung, Übergewicht, Gelenkentzündungen und Stoffwechselerkrankungen können die Ursachen sein. Betrifft die Arthrose große Gelenke wie Knie, Hüfte, Wirbelsäule und Sprunggelenk, ist das Bewegungsverhalten der Betroffenen häufig stark eingeschränkt. „Meist hindern Schmerzen die Patienten, sich regelmäßig zu bewegen“, erklärt Professor Dr. phil. Klaus Bös, ehemaliger Leiter des Instituts für Sportwissenschaften am Karlsruher Institut für Technologie. „Doch dadurch geraten sie in einen Teufelskreis: Schont sich der Arthrose-Patient, wird weniger Gelenkflüssigkeit produziert und die Knorpel werden rau und spröde, was wiederum zu mehr Verschleiß und Schmerzen führt.“
Bewegung gilt jedoch als zentraler Bestandteil der Arthrose-Therapie. Bös empfiehlt daher ein moderates Training, idealerweise täglich 30 bis 40 Minuten, aber mindestens zweimal die Woche. Es sollte auf drei Prinzipien beruhen: ein sanftes Training, ein gutes Körpergefühl, das zwischen Gelenk- und Bewegungsschmerzen unterscheiden kann, und ein gutes Wechselspiel zwischen Belastung und Anpassung. Walking, Dehn- und Kräftigungsübungen sind bei schmerzenden Gelenken besonders empfehlenswert.
Welche Sportarten für Arthrose-Patienten geeignet sind und welche besser vermieden werden, haben die Experten in einer Checkliste zusammengefasst:
Empfehlenswert:
• Schwimmen
• Gehen (Nordic Walking)
• Skilanglauf
• Jogging
• Aerobic
• Radfahren
Nicht oder nur sehr eingeschränkt empfehlenswert:
• Tennis
• Squash
• Volleyball
• Ski alpin
• Fußball
• Handball
Hierüber und wie Sportverletzungen vermieden werden können oder was Betroffene beim Training beachten sollten, erklären die Experten auf einer Pressekonferenz am 29. Oktober 2014 anlässlich des DKOU in Berlin.
Terminhinweis:
Pressekonferenz auf dem DKOU
Arthrose erfolgreich vorbeugen und behandeln: Sport, Physio, Tabletten, oder OP – was wie wann?
Termin: Mittwoch, 29.10.2014, 11.00 bis 12.00 Uhr
Ort: Pressezentrum, Raum 411, Messe Süd Berlin
Weitere Informationen:
http://www.dkou.de
Quelle: idw
Trendwende für die Konjunktur? IMK: Rezessionsgefahr stark gestiegen
Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Erstmals seit Dezember 2012 ist das Risiko, dass die deutsche Wirtschaft in eine Rezession gerät, stark gestiegen. Das signalisiert der Konjunkturindikator des Instituts für Makroökonomie und Konjunkturforschung (IMK) in der Hans-Böckler-Stiftung. Für den Zeitraum von August bis Oktober 2014 weist das IMK-Frühwarninstrument eine mittlere Rezessionswahrscheinlichkeit von 25,2 Prozent aus. Im Juli waren es lediglich 7,5 Prozent. Damit liegt die Rezessionswahrscheinlichkeit nach dem Ampelsystem des Indikators zwar noch im „grünen Bereich“ (geringes Risiko unter 30 Prozent), hat aber spürbar zugenommen.
„Der deutliche Sprung mahnt zur Wachsamkeit“, warnt IMK-Forscherin Dr. Sabine Stephan. „Er könnte ein Anhaltspunkt dafür sein, dass die seit Dezember 2012 währende Phase sehr geringer Rezessionswahrscheinlichkeiten zu Ende ist, und die deutsche Wirtschaft nunmehr in ein unruhiges Fahrwasser mit deutlich erhöhter Unsicherheit gerät.“
Die aktuelle Vorhersage beruht auf dem Datenstand von Anfang August. Das IMK nutzt bei seinem Indikator die Industrieproduktion als Referenzwert für eine Rezession, weil diese rascher auf einen Nachfrageeinbruch reagiert als das Bruttoinlandsprodukt. In die Gleichungen des Indikators fließen zahlreiche Daten aus der Real- und der Finanzwirtschaft ein. Darüber hinaus berücksichtigt das Instrument Stimmungsindikatoren.
Für eine mögliche Trendwende spreche, dass in diesem Monat nicht nur von den Finanzmärkten und von Stimmungsindikatoren negative Signale kommen, erläutert Stephan. Auch realwirtschaftliche Größen wiesen bereits deutliche Schwächetendenzen auf: Das aktuelle Ergebnis des IMK Konjunkturindikators sei maßgeblich geprägt von einem starken Rückgang der Auftragseingänge aus dem In- und Ausland. „Hinzu kommt, dass nicht nur die aktuelle Lage von den Unternehmen schlechter beurteilt wird, sondern dass sich auch die Erwartungen weiter eintrübten.“
Die günstigen Konjunkturaussichten, die das IMK noch in seiner jüngsten Konjunkturprognose vermittelt hat, zieht es inzwischen in Zweifel. Insbesondere die Zeichen für einen fortgesetzten Aufschwung im kommenden Jahr stehen schlecht: „Vor dem Hintergrund dieser Belastungen ist eine kräftige Binnennachfrage, die durch entsprechende Lohnsteigerungen gestützt wird, der beste Schutz gegen eine drohende Rezession.“
Der IMK Konjunkturindikator wird monatlich aktualisiert.
Kontakt in der Hans-Böckler-Stiftung
Dr. Sabine Stephan
IMK, Expertin für Zeitreihenanalyse
Tel.: 0211-7778-335
E-Mail: Sabine-Stephan@boeckler.de
Weitere Informationen:
http://www.boeckler.de/imk_38710.htm – zum Konkunkturindikator
Quelle: idw
Zu salzig, zu süß, zu fett: EU-Projekt zu ungesunden Geschmacksstoffen in Nahrungsmitteln
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
15 Partner aus 12 Ländern bei EU-Vergleichsstudie SALUX / Auf der Spur von gesundheitsschädlichem Salz, Zucker und Fett
Der Kaffee gut gesüßt, das Essen reichlich gesalzen, die Pommes in der Fritteuse zubereitet: Heutzutage enthalten fast alle verarbeiteten Lebensmittel mehr Zucker, Salz oder Fett als gesundheitlich geboten. Die Menschen mögen es so. Die von der EU geförderte Vergleichsstudie SALUX verglich die Situation in 12 EU-Ländern miteinander: Alle nehmen zu viel Geschmacksstoffe zu sich. „Auf lange Sicht ist das gesundheitsschädlich“, so die Studienbeteiligten der Universität Hohenheim, Prof. Dr. Walter Vetter und Prof. Dr. Lutz Graeve. Das Problem: Ein deutliches Reduzieren der Geschmacksstoffe nehmen die Menschen nicht an – und eine Änderung der Rezeptur kostet Geld. Dies würde vor allem kleine und mittelständische Nahrungsmittelhersteller in Bedrängnis bringen. Weitere Informationen unter www.salux-project.eu/de
Wie süß mögen wir eigentlich unseren Joghurt? In einer Versuchsreihe gingen Schweizer Forscher von Agroscope dieser Frage nach. Die Ausgangslage: Fast alle Probanden gaben an, dass ihnen Joghurt im Allgemeinen zu süß sei.
Daraufhin ließen die Wissenschaftler die Probanden Joghurts mit verschiedenem Zuckergehalt auf ihren Geschmack hin testen. Das überraschende Ergebnis: Der leckerste Joghurt war der mit der höchsten Menge an Zucker – aber viel zu süß. Diese Studie zeigt, dass eine Reduzierung von Salz, Zucker oder Fetten oft eine komplexe Reformulierung der Lebensmittel erfordert.
Maximal 6 Gramm Salz am Tag
„Heutzutage ist in fast allen Nahrungsmitteln Salz, Zucker oder Fett enthalten“, sagt Prof. Dr. Walter Vetter, Leiter des Fachgebiets Lebensmittelchemie an der Universität Hohenheim. „Obwohl die Deutschen beispielsweise beim Salzkonsum in der EU mit am besten abschneiden – also mit am wenigsten Salz zu sich nehmen – ist es nach den Empfehlungen der Weltgesundheitsorganisation (WHO) immer noch zu viel“, so das Resultat der Recherchen des Lebensmittelchemikers.
Laut WHO solle ein Erwachsener nicht mehr als 6 Gramm Salz am Tag zu sich nehmen. Die Realität sehe jedoch anders aus, weiß auch Prof. Dr. Lutz Graeve, Leiter des Fachgebiets Biochemie der Ernährung an der Universität Hohenheim. „Durchschnittlich nimmt ein erwachsener Mann in Deutschland 8,4 Gramm Salz zu sich, eine erwachsene Frau durchschnittlich 6,1 Gramm.“
Der Konsum ist in den EU Ländern durchaus unterschiedlich. Vor allem in Südosteuropa liegt der tägliche Salzkonsum bei bis zu 14 Gramm. Interessanterweise liegt der Salzkonsum der Männer in praktisch allen Ländern über dem der Frauen. Solche Unterschiede in den einzelnen Ländern machen eine einheitliche Regulierung schwierig.
Nahrungsmittelkonzerne gegen staatliche Regulierung
Den Großkonzernen im Nahrungsmittelbereich ist dieser Überkonsum schon lange bekannt. Sie suchen bereits nach alternativen Methoden, erklärt die Hohenheimer Studentin Julia Meyer, die ebenfalls an dem Projekt beteiligt war.
Insbesondere die mittelständischen Betriebe haben Angst vor einer gesetzlichen Regulierung, da eine Umstellung der Rezeptur oftmals mit hohen Kosten verbunden ist. Zudem ist nicht gewährleistet, dass das neue Produkt von der Kundschaft akzeptiert wird, wie das obige Beispiel Joghurt zeigte.
Eine Lösung wäre, dass die EU Richtlinien erlässt, die erlaubte Mengen von Salz, Zucker oder ungesunden Fetten in bestimmten Nahrungsmitteln vorgeben. Dem stehen aber die Vielfalt an unterschiedlichen Ernährungsvorlieben der Europäer und die Interessen der Industrieverbände im Wege.
Reformulierung der Nahrungsmittel durch Aufklären und Umgewöhnen unterstützen
„Eine Aufklärung gerade über die gesundheitlichen Gefahren von zu viel Zucker, Salz und Fetten sollte bereits im Kindergarten stattfinden“, so die Hohenheimer Forscher. „Viele Krankheiten wie Übergewicht und Diabetes lassen sich auf einen Überkonsum dieser Stoffe zurückführen.“
Das Problem: Auf ein zu schnelles und zu deutliches Reduzieren reagierten die Geschmacksnerven negativ und signalisierten dem Körper, dass das Produkt nicht schmecke. Prof. Dr. Graeve: „Darum ist eine stetige Gewöhnung, eine sogenannte sensorische Adaption, an weniger Geschmacksstoffe ein wichtiger Schritt bei der Reformulierung der Nahrungsmittel. Eine Verbesserung der Gesundheit wäre die Folge. Das wiederum würde Kosten einsparen.“
Die Lösung: Ein schrittweises Reduzieren von Salz, Zucker und ungesunden Fetten soll verhindern, dass die Menschen bewusst etwas vom Geschmack einbüßen müssen. „Ziel ist aber nicht nur, die Menschen nach und nach an weniger Geschmacksstoffe zu gewöhnen, sondern auch die Nahrungsmittel nicht mit anderen neuen Zusatzstoffen zu versehen“, betonen die Hohenheimer Forscher.
Internetplattform soll Mittelständer bei Reformulierung unterstützen
Über 3 Jahre sammelten die Studienteilnehmer aus 12 EU-Staaten Daten, um Salz, Zucker und unerwünschte Fette in den Lebensmitteln zu reduzieren und stellen die Ergebnisse nun auf einer Internetplattform der Öffentlichkeit und den Unternehmen zur Verfügung. So sollen vor allem kleine und mittelständische Unternehmen motiviert werden Reformulierungen ihrer Produkte durchzuführen.
Außerdem können ihnen die Daten helfen, die dabei anfallenden Kosten realistisch abzuschätzen. Auf der Onlineplattform, dem sogenannten Clearing House, sind in allen Landessprachen Vorschläge zur Reformulierung seitens der Wissenschaft und Industrie gebündelt.
Hintergrund: EU-Projekt SALUX
SALUX ist ein europäisches Netzwerk für die Beobachtung und Analyse von Rezepturumstellungen verarbeiteter Lebensmittel. Vorrangig zielt es auf eine Reduktion von Zucker, Salz, gesättigten Fettsäuren und Transfettsäuren ab und fördert eine gesündere Lebensweise im Allgemeinen, um so in weiterer Folge häufige ernährungsbedingte Krankheiten zu verringern.
Eine starke Einbindung betroffener Interessengruppen, wie zum Beispiel Verbände der Nahrungsmittelindustrie, Klein- und Mittelbetriebe (KMU), Verbraucherverbände, Behörden sowie non-governmental organisations (NGOs) auf nationaler Ebene, sollen hierbei helfen, einen positiven Einfluss auf die Ernährung der Europäischen Konsumenten zu erzielen.
Das EU-Projekt SALUX zu Salzen, Zucker und Fetten ist eine internationale Kooperation aus 12 Nationen: Italien, Finnland, Litauen, Bulgarien, Deutschland, Rumänien, Großbritannien, Frankreich, Slowenien, Österreich, Ungarn und Spanien.
Prof. Dr. Lutz Graeve, Leiter des Fachgebiets Biochemie der Ernährung, Universität Hohenheim
Tel.: 0711/459- 24195, E-Mail: graeve@uni-hohenheim.de
Text: C. Schmid / Töpfer
Weitere Informationen:
http://www.salux-project.eu/de „Homepage SALUX“
Quelle: idw
Asiatische Firmen sichern sich Vormacht bei Energiespeichern
Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München
Die Zahl der Patentanmeldungen für elektrochemische Energiespeicher-Technologien ist in den vergangenen Jahren stark gestiegen. Die mit großem Abstand meisten Schutzrechte beantragten die Entwickler für Lithium-Batterien. Dies zeigt eine Studie der Technischen Universität München (TUM). Sie bietet erstmals eine differenzierte Analyse, welche Energiespeicher-Technologien Chancen haben, sich in der Energiewende durchzusetzen. Ökonomisch ins Hintertreffen geraten in diesem Bereich europäische und amerikanische Firmen: Asiatische Unternehmen melden weit mehr Patente an.
Wind weht nicht immer, die Sonne scheint nicht ständig. Wenn künftig ein Großteil des Stroms mit erneuerbaren Energien produziert wird, muss Energie zu ertragreichen Zeiten gespeichert werden, um diese Schwankungen auszugleichen. Die bestehenden Speicherkapazitäten werden jedoch bei weitem nicht ausreichen. Wissenschaft und Wirtschaft arbeiten deshalb an neuen und verbesserten Technologien. Ein bedeutender Schwerpunkt liegt dabei auf Batteriesystemen, die bislang noch zu teuer oder zu wenig ausgereift sind, um in großem Stil eingesetzt zu werden. Dabei konkurrieren mehrere elektrochemische Technologien darum, zum Standard zu werden.
An welchen Technologien derzeit am intensivsten gearbeitet wird und welche in naher Zukunft auf den Markt kommen können, ist für alle Akteure des Energiesektors aus Wirtschaft, Politik und Wissenschaft strategisch wichtig zu wissen. Da Unternehmen ihre Entwicklungsarbeit naturgemäß nicht offenlegen, haben Wirtschaftswissenschaftler der TUM – als Teil eines interdisziplinären Großprojekts zu Batteriespeichern – die weltweiten Patentanmeldungen der Jahre 1991 bis 2011 für elektrochemische Energiespeicher analysiert. (Die Anmeldungen ermöglichen einen aktuelleren Blick auf die Entwicklung als die schon erteilten Schutzrechte.)
Die Studie zeigt, dass die jährliche Zahl neuer Patentfamilien, also Gruppen von Patentanmeldungen und Patenten für ähnliche oder gleiche Erfindungen (z. B. Anträge in verschiedenen Staaten), von 2006 bis 2011 um 110 Prozent gestiegen ist. Wurden 2006 noch Schutzrechte für rund 2800 Entwicklungen angemeldet, waren es 2011 bereits 5900 Anträge. „Angesichts dieser Investitionen können wir davon ausgehen, dass neue elektrochemische Energiespeicher-Techniken in naher Zukunft marktreif und kostengünstiger als bestehende Produkte sein werden“, sagt Simon C. Müller, Physiker und Ökonom am Lehrstuhl für Strategie und Organisation.
Große Dynamik im Lithium-Segment
Die mit großem Abstand meisten Patente meldeten die Entwickler für Lithium-Batterien an, 4900 neue Patentfamilien gab es im Jahr 2011. Damit zeigt die Kurve der Anmeldezahlen in diesem Segment seit 2008 steil nach oben – nach einem einmaligen Rückgang im Jahr 2007. Zuvor mussten mehrere Anbieter Produkte wegen Sicherheitsmängeln zurückrufen. „Die Skepsis, dass man Lithium-Batterien nicht sicher genug gestalten kann, ist offenbar verflogen“, sagt Müller. Zudem werden die neuen Patentanmeldungen häufiger als bei anderen Technologien in nachfolgenden Patentanmeldungen zitiert – ein Qualitätsmerkmal, das zeigt, dass sie eine Rolle bei der Weiterentwicklung der Technologie spielen.
Auf Rang zwei der Patentanmeldungen folgen Blei-Batterien mit lediglich rund 580 neuen Patentfamilien im Jahr 2011. Eine bemerkenswerte Zunahme auf allerdings niedrigem Niveau stellten die Forscher für die jüngste Zeit bei Redox-Flow-Batterien fest, bei denen die energiespeichernden chemischen Verbindungen in gelöster Form eingesetzt werden: Von 2009 bis 2011 hat sich die Zahl der Anträge von 90 auf 200 mehr als verdoppelt. Die Zahl neuer Patentfamilien für Alkali-Batterien ging zuletzt auf 240 leicht zurück, Natrium-Schwefel-Technologien spielten mit 20 Anträgen eine gleichbleibend geringe Rolle.
„Im Lithium-Segment gibt es also eine große Dynamik“, sagt Simon C. Müller. „Es ist durchaus möglich, dass wir schon bald an einem Punkt ankommen, an dem ein sich selbst verstärkender Effekt entsteht: Sobald die technisch-ökonomischen Daten gut genug sind, wird noch mehr in Forschung und Entwicklung investiert, was zu einem weiteren Vorsprung führt.“ Dies gelte umso mehr, als Lithium-Batterien auch in Elektroautos eingesetzt werden, also sowohl aus der Energie- als auch der Fahrzeugbranche nachgefragt werden können.
Asiatische Entwickler melden fast vier mal so viele Patente an wie europäische
Im Geschäft sein werden dann wohl hauptsächlich asiatische Unternehmen, zeigt die Analyse. 2011 konnten asiatischen Entwicklern 2100 Anmeldungen für Patentfamilien bei elektrochemischen Energiespeichern zugeordnet werden, europäischen 530, amerikanischen lediglich 410. Die Asiaten konnten die Zahl der jährlichen Patentanmeldungen damit seit 2001 trotz einer hohen Ausgangszahl um 220 Prozent steigern, die Europäer um 260 Prozent, die Amerikaner um 70 Prozent.
Auch wenn man die Qualität der Portfolios berücksichtigt, nehmen asiatische Unternehmen eine enorme Vormachtstellung ein. Die Forscher erstellten einen Index, der neben den quantitativen Daten auch die Zitierungen der Patentanmeldungen einbezieht. Bei den Lithium-Batterien kommen demnach acht japanische und ein koreanisches Unternehmen unter die Top 10, angeführt von Fuji. Lediglich eine amerikanische Firma taucht hier auf. Mit dem Centre National de la Recherche Scientifique (CNRS) folgt die erfolgreichste europäische Institution erst auf Rang 25.
„Diese Ergebnisse werfen spannende Fragen in der Forschungspolitik und im Entwicklungsmanagement auf. Es wäre beispielsweise interessant zu untersuchen, welche Strategien zur Technologieführerschaft in diesem Bereich geführt haben und was europäische Mitbewerber davon lernen können“, sagt Prof. Isabell M. Welpe, Inhaberin des Lehrstuhls für Strategie und Organisation.
Projekt EEBatt:
Die Studie ist Teil des Projekts „Dezentrale stationäre Batteriespeicher zur effizienten Nutzung erneuerbarer Energien und Unterstützung der Netzstabilität (EEBatt)“. 14 Lehrstühle aus verschiedenen Fächern der TUM forschen gemeinsam mit dem Bayerischen Zentrum für Angewandte Energieforschung (ZAE) und der VARTA Storage GmbH. Das Projekt wird gefördert vom Bayerischen Staatsministerium für Wirtschaft und Medien, Energie und Technologie.
Publikation:
Mueller, SC, Sandner, PG, and Welpe, IM (2014). Monitoring innovation in electrochemical energy storage technologies: a patent-based approach. Applied Energy, DOI: 10.1016/j.apenergy.2014.06.082
http://dx.doi.org/10.1016/j.apenergy.2014.06.082
Kontakt:
Simon C. Müller, M.Sc.
Technische Universität München
Lehrstuhl für Strategie und Organisation (Prof. Isabell M. Welpe)
Tel.: +49 89 289 24829
simon.mueller@tum.de
Weitere Informationen:
http://www.eebatt.tum.de
Quelle: idw
Austausch übers Essen bringt neue Genuss-Kultur im Internet hervor
Gerhild Sieber Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Sprachwissenschaftler der Saar-Uni erforschen eine neue Genuss-Kultur im Internet: Das Essen bringt über Landesgrenzen hinweg eine „Genuss-Community“ zusammen, die sich schnell über mehr austauscht, als nur über das Kochen. Dabei wenden sich typischerweise Nicht-Experten an Nicht-Experten. Das Essen nimmt dabei eine kulturelle Brückenfunktion ein. Das sind erste Ergebnisse des Forscher-Teams von Stefan Diemer, Professor für Englische Sprachwissenschaft, das untersucht, wie der Austausch über Essen auch den Austausch der Kulturen fördert. Hierzu analysieren die Forscher englischsprachige „Food“-Blogs und Gespräche von Probanden aus verschiedenen Ländern mit Englisch als Zweitsprache.
Bei der internationalen Konferenz „Food and Culture in Translation“ in Bologna erhielten zwei Nachwuchswissenschaftlerinnen aus Diemers Team für ihre Forschung den „CuiZine Award“ des gleichnamigen kanadischen Food-Magazins.
Engländer kochen schlecht, Franzosen gut, Deutsche essen Sauerkraut. „Auf solche Klischees stoßen wir bei unserer Forschung zuhauf. Es gibt in Europa tatsächlich auf diesem Gebiet Vorurteile, die wie einzementiert sind“, sagt Stefan Diemer. Der Professor für Englische Sprachwissenschaft erstellt gemeinsam mit bulgarischen, spanischen und italienischen Forschern im EU-Projekt „CASE“ ein „Textkorpus“, also eine Sammlung der international gesprochenen englischen Sprache, die Grundlage für weitere Forschung sein soll. In diesem Rahmen beleuchten die Linguisten auch den Austausch über das Essen im Internet.
Hierzu nehmen sie zum einen englischsprachige Koch-Blogs unter die Lupe. „Solche Blogs kennzeichnen sich dadurch, dass sie zum Treffpunkt von Gleichgesinnten werden – wenn man so will, einer Art Genuss-Community. Hier tauschen sich Experten, aber vor allem auch Nicht-Experten aus, die Rezepte rangieren von innovativ bis alt-erprobt und es wird viel Persönliches diskutiert“, resümiert Diemer. „Da meist keine Profis am Werk sind, ist typisch, dass auch wenige Vorkenntnisse vorausgesetzt werden. So kommt es, dass auch viel Selbstverständliches erklärt wird.“ Zum anderen untersuchen die Sprachwissenschaftler Gespräche, die Probanden aus Deutschland, Bulgarien, Italien und Spanien in englischer Sprache übers Internet führen. Diese Gespräche werden vertextet und analysiert. „Hierbei erforschen wir unter anderem, wie die Leute mit Verständigungsproblemen umgehen. Einem Italiener zum Beispiel das Spaghetti-Eis zu erklären, ist eine echte Herausforderung“, sagt Diemer. „Interessant ist auch, wie bei der Unterhaltung etwa ein Thema gewechselt wird. Hier nimmt das Lachen eine wichtige Rolle ein. Linguistisch ist nachweisbar, dass vor einem Themenwechsel meist ausgiebig und etwas nervös gelacht wird.“
Das Projekt CASE wird mit 30.000 Euro Drittmitteln gefördert.
Bei der von der Universität Bologna veranstalteten ersten internationalen Konferenz „Food and Culture in Translation“ erhielten die Nachwuchs-Wissenschaftlerinnen Marie-Louise Brunner und Selina Schmidt aus Diemers Team im Juni den erstmals vergebenen „CuiZine Award“ des gleichnamigen kanadischen Food-Magazins: Ausgezeichnet wurden sie für den Vortrag „Besser als die Realität? Wenn es online ums Essen geht.“ Das Preiskomitee würdigte mit der Verleihung „die wissenschaftliche Stärke und Originalität der Ergebnisse und die Qualität der Präsentation sowie das bemerkenswerte weitergehende Forschungspotenzial“.
Mehr zum CASE-Projekt:
http://www.uni-saarland.de/lehrstuhl/engling/case.html
http://prezi.com/rfnsbllcgzur/case/
Kontakt: Stefan Diemer Tel.: 0681 302-3309, -3009
E-Mail: s.diemer@mx.uni-saarland.de
Quelle: idw
Was uns Lebensjahre raubt
Dr. Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum
Wer auf Alkohol und Zigaretten verzichtet, dazu nur wenig rotes Fleisch und Wurst isst und auf ein normales Gewicht achtet, lebt bis zu 17 Jahre länger. Dies errechneten Wissenschaftler im Deutschen Krebsforschungszentrum auf der Basis der Daten der Heidelberger EPIC-Teilnehmer. Die meiste Lebenszeit kostet es, zu rauchen. Männern raubt der Glimmstängel im Schnitt neun, Frauen sieben Lebensjahre.
Eigentlich weiß es jeder: Gesund ist es nicht, sein Dasein als schwergewichtige „Couch Potatoe“ mit Bier und Zigaretten vor dem Fernseher zu verbringen. Wie groß die schädlichen Effekte tatsächlich sind, die ein solch ungesunder Lebensstil mit sich bringt, haben Wissenschaftler aus dem Deutschen Krebsforschungszentrum (DKFZ) nun präzise ermittelt.
Die DKFZ-Epidemiologen um Prof. Rudolf Kaaks errechneten, wie viele Jahre jedes einzelne Risikoverhalten von der durchschnittlichen Lebenserwartung eines heute Vierzigjährigen raubt. Außerdem ermittelten sie die Auswirkungen der kombinierten Risiken.
Das günstigste Risikoprofil und damit die größte Lebenserwartung hatten demnach Nichtraucher (und Nichtraucherinnen) mit einem Body Mass Index* zwischen 22,5 und 24,9, die wenig Alkohol tranken, körperlich aktiv waren und wenig rotes Fleisch, dafür aber viel Obst und Gemüse aßen: Diese Menschen dürfen sich im Alter von 40 auf 47,5 (Männer) bzw. sogar 48,7 weitere Lebensjahre (Frauen) freuen.
Betrachteten die Wissenschaftler die verschiedenen riskanten Lebensstilfaktoren jeweils einzeln, so schlägt das Rauchen am stärksten zu Buche: Raucht ein Mann über zehn Zigaretten pro Tag, so verliert er ganze 9,4 Jahre an Lebenserwartung, eine Frau 7,3 Jahre. Auch ein moderater Konsum von weniger als zehn Zigaretten pro Tag reduziert die Lebenserwartung bei beiden Geschlechtern immer noch um etwa fünf Jahre.
Weitere Lebensstilfaktoren, die zu einem deutlichen Verlust an zu erwartenden Lebensjahren führen, sind: Adipositas* (3,1/3,2 Jahre), starker Alkoholkonsum** (3,1 Jahr, nur Männer) bzw. hoher Verzehr an rotem Fleisch (2,4 Jahre Frauen, 1,4 Jahre Männer). Aber auch ein Body Mass Index* unter 22,5 kg/m2 verringert die Lebenszeit (3,5 Jahre Männer, 2,1 Jahre Frauen). Ein Mangel an körperlicher Aktivität machte sich nicht durch einen signifikanten Verlust an Lebenserwartung bemerkbar.
Bei vielen Menschen bleibt es jedoch nicht bei einer einzigen ungesunden Angewohnheit. Um das zu berücksichtigen, errechneten die Forscher um Rudolf Kaaks auch, welche Effekte eine Kombination dieser riskanten Lebensstilfaktoren mit sich bringt: Demzufolge büßt ein adipöser starker Raucher, der viel trinkt und viel rotes Fleisch verzehrt, gegenüber dem Mitmenschen mit günstigstem Risikoprofil bis zu 17 Jahre an Lebenserwartung ein. Bei einer Frau wären es 13,9 Jahre.
Für ihre aktuelle Untersuchung stand den DKFZ-Epidemiologen ein wahrer Datenschatz zur Verfügung: Das DKFZ ist beteiligt an EPIC, der gesamteuropäischen Studie zum Zusammenhang von Ernährung, Lebensstilfaktoren und Krebs. Seit nun 20 Jahren werden die Lebensstilfaktoren von über einer halben Million Europäer sorgfältig dokumentiert. Allein das EPIC-Zentrum im DKFZ betreut 25.540 Studienteilnehmer aus dem Raum Heidelberg. Deren Daten flossen in die neue Erhebung ein. Die EPIC-Daten sind von hoher Qualität, da die Teilnehmer im Verlaufe der Studie mehrfach zu ihrem Lebensstil befragt worden sind.
„Oft werden wissenschaftliche Hinweise auf einen gesunden Lebensstil als „erhobener Zeigefinger“ empfunden“, sagt Rudolf Kaaks, Leiter von EPIC Heidelberg. „Deswegen ist es wichtig, dass wir ganz klar beziffern, was jeder einzelne an Lebenszeit gewinnen kann, wenn er frühzeitig auf ungesunde Angewohnheiten verzichtet.“
*Body Mass Index, BMI: ein Richtwert zur Beurteilung des Körpergewichts in Bezug zur Körpergröße. Berechnung: Körpergewicht [kg] dividiert durch Körpergröße [m2].
Ein Wert zwischen 18,5 und 25 wird als Normalgewicht bezeichnet. Fettleibigkeit oder Adipositas beginnt mit einem BMI von 30.
**mehr als vier Drinks/Tag
Kuanrong Li, Anika Hüsing und Rudolf Kaaks: Lifestyle risk factors and residual life expectancy at age 40: a German cohort study. BMC Medicine 2014, http://www.biomedcentral.com/1741-7015/12/59
Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, Angehörige und interessierte Bürger über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren.
Quelle: idw
Mikroplastik in süddeutschen Flüssen und Seen
Christian Wißler Mediendienst Forschung
Universität Bayreuth
Weltweit haben Forschungsarbeiten gezeigt, dass Ökosysteme im Meer oder an den Stränden teilweise erheblich durch kleine Kunststoffpartikel verunreinigt sind. An der Universität Bayreuth befasst sich Prof. Dr. Christian Laforsch schon seit längerem mit dieser Problematik. Neue Forschungsprojekte in Kooperation mit den Umweltministerien Bayerns und Baden-Württembergs sollen klären helfen, wie stark Flüsse und Seen in Süddeutschland durch Mikroplastik kontaminiert sind und welche Risiken sich daraus ergeben.
Weltweit haben Forschungsarbeiten gezeigt, dass Ökosysteme im Meer oder an den Stränden teilweise erheblich durch Kunststoffpartikel verunreinigt sind. Diese sind kleiner als fünf Millimeter und werden daher auch als Mikroplastik bezeichnet. An der Universität Bayreuth befasst sich Prof. Dr. Christian Laforsch, der hier einen Lehrstuhl für Tierökologie innehat, schon seit längerem mit dem Problem, wie stark Flüsse und Seen durch Mikroplastik kontaminiert sind und welche Risiken sich daraus ergeben. Plastikteile, die vorwiegend von Konsumgütern und Verpackungen stammen, können direkt oder über unsachgemäße Entsorgung in Oberflächengewässer gelangen und von hier aus in die Nahrungsketten transportiert werden. Eine Fallstudie am Gardasee führte 2013 zu alarmierenden Ergebnissen. Denn in einigen Uferbereichen wurden schwer abbaubare Kunststoffe entdeckt, die von sich aus hochgiftig sind oder die giftige organische Schadstoffe absorbieren können.
Ein neues Forschungsprojekt zu Flüssen und Seen in Baden-Württemberg
Vor kurzem startete in Lauffen am Neckar ein neues Forschungsvorhaben. Es geht dabei um die Frage, in welchem Umfang und mit welchen ökologischen Konsequenzen Flüsse und Seen in Baden-Württemberg mit Mikroplastik belastet sind. Die Untersuchungen werden von der LUBW Landesanstalt für Umwelt, Messungen und Naturschutz koordiniert und von Prof. Laforsch wissenschaftlich betreut. Der baden-württembergische Landesminister für Klima, Umwelt und Energiewirtschaft, Franz Untersteller, eröffnete das Projekt mit einer gemeinsamen Fahrt auf dem Messschiff „Max Honsell“ der LUBW, das bei den Untersuchungen zum Einsatz kommen wird. Dabei ließ er für eine erste symbolische Probenahme im Neckar ein Netz ins Wasser. Dieses so genannte ‚Manta Trawl‘ wurde speziell dafür entwickelt, Mikroplastikteilchen und weitere Schmutzpartikel an Wasseroberflächen entnehmen zu können.
In den kommenden Monaten werden an Rhein und Neckar systematische Probenahmen folgen – und zwar an rund 20 Stellen, die sich durch die Zusammensetzung ihrer Abwässer und die Größe ihrer Einzugsgebiete deutlich voneinander unterscheiden. Für 2015 wird mit der Veröffentlichung der ersten Ergebnisse gerechnet.
Enge Forschungskooperation mit dem Bayerischen Umweltministerium
Bereits im Frühjahr 2014 ging ein gemeinsames Projekt von Prof. Laforsch mit dem Bayerischen Umweltministerium an den Start. In den nächsten Jahren werden Flüsse und Seen in Bayern sowie deren Sedimente daraufhin untersucht, inwieweit sie mit Mikroplastik kontaminiert sind. Dabei soll insbesondere auch geklärt werden, in welchem Umfang Kunststoffpartikel von den im Wasser lebenden Tieren aufgenommen werden und welche Risiken für den Menschen bestehen, falls Partikel in die Nahrungskette gelangen. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat diese Forschungsarbeiten in Auftrag gegeben und fördert sie mit insgesamt rund 600.000 Euro.
Im Juli 2014 fand am Bayerischen Landesamt für Umwelt in Augsburg ein Statuskolloquium statt, das der Bayerische Staatsminister für Umwelt und Verbraucherschutz, Dr. Marcel Huber, eröffnete. Mitglieder von Bundes- und Landesbehörden sowie Wissenschaftlerinnen und Wissenschaftler informierten sich dabei über den aktuellen Forschungsstand zum Thema ‚Mikroplastik in der Umwelt‘. Am Schluss der Veranstaltung wurde von den Teilnehmerinnen und Teilnehmern ein Memorandum beschlossen, in dem es unter anderem heißt: „Das Wissen über mögliche Risiken durch Mikroplastik für die Umwelt ist wichtig, reicht derzeit allerdings nicht aus. Es müssen Lösungen gefunden werden, mögliche Risiken zu minimieren ohne dabei – ggf. unnötigerweise – auf den Nutzen von Kunststoffen für die Wirtschaft und die menschliche Gesellschaft zu verzichten. Neben der genauen Kenntnis über die Eintrags- und Verbreitungspfade müssen Konzepte entwickelt werden, um die Einträge in die Umwelt und insbesondere in die Gewässer zu minimieren.“
Eine globale Problematik
Die Kunststoffteile, die bei Untersuchungen bislang gefunden wurden, stammen vorwiegend von Konsumgütern und Verpackungen. Sie sind direkt oder über unsachgemäße Entsorgung in Oberflächengewässer geraten, wo sie verrotten und zu Mikroplastik werden. „Wir vermuten, dass die Kontamination in Gewässern nahe städtischer Zentren und Industriegebiete noch stärker sein könnte“, erklärt Prof. Laforsch und fährt fort: „Bisher beschäftigen sich nur wenige Studien mit Mikroplastikpartikeln in Binnengewässern. Darum gibt es noch sehr viele offene Fragen, die insbesondere die Quellen des Plastikmülls, die in Flüsse und Seen gelangten Kunststoffmengen, deren Abbau sowie die Folgen für Tiere und Ökosysteme betreffen. Diese Studien untersuchten die Donau in Österreich, die Seine in Frankreich, den Genfer See in der Schweiz und die Großen Seen in Kanada. Überall wurde Mikroplastik gefunden. Dies lässt eine globale Problematik von Mikroplastik in Binnengewässern vermuten.“
Ansprechpartner:
Prof. Dr. Christian Laforsch
Lehrstuhl für Tierökologie I
Universität Bayreuth
Universitätsstraße 30
95447 Bayreuth
Telefon: +49 (0) 921 / 55-2650
E-Mail: christian.laforsch@uni-bayreuth.de
Weitere Informationen:
Stellungnahme des Bayerischen Staatsministers für Umwelt und Verbraucherschutz,
Dr. Marcel Huber:
http://www.youtube.com/watch?v=k__TW0CHEQc&feature=youtu.be
Memorandum „Mikroplastik in der Umwelt“ – Zentrale Aussagen des Statuskolloquiums (Juli 2014) im Bayerischen Landesamt für Umwelt:
http://www.lfu.bayern.de/analytik_stoffe/mikroplastik/doc/memorandum_mikroplastik.pdf
Quelle: idw
Junge Arbeitslose sind auch später häufiger ohne Job
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
Personen, die in jungen Jahren besonders stark von Arbeitslosigkeit betroffen sind, werden auch im späteren Erwerbsverlauf häufiger arbeitslos. Dies geht aus einer am Donnerstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.
Immerhin die Hälfte der Einsteiger ins Erwerbsleben sind in den ersten acht Jahren gar nicht oder höchstens einen halben Monat arbeitslos. Wer so ins Erwerbsleben startet, ist in den 16 Jahren danach ebenfalls meist gar nicht oder nur einmal von Arbeitslosigkeit betroffen. Die Arbeitslosigkeitsdauer dieser Gruppe addiert sich in den 16 Jahren auf durchschnittlich weniger als vier Monate.
Zehn Prozent der Einsteiger ins Erwerbsleben sind hingegen alleine in den ersten acht Erwerbsjahren schon mehr als 20 Monate arbeitslos. Diese Gruppe ist dann in den folgenden 16 Jahren im Durchschnitt fast viermal und dabei insgesamt mehr als 30 Monate ohne Arbeit.
Die IAB-Studie zeigt, dass sich die Arbeitslosigkeit über das gesamte Erwerbsleben hinweg sehr ungleich auf die Bevölkerung verteilt. Im Erwerbsverlauf konzentriert sich die Arbeitslosigkeit dabei zunehmend auf weniger Personen: Während 45 Prozent in den ersten acht Jahren keinen einzigen Tag arbeitslos sind, sind es in den darauffolgenden 16 Jahren sogar 55 Prozent.
Die IAB-Forscher erklären, dass Arbeitslosigkeit in jungen Jahren auch kausal zu späterer Arbeitslosigkeit führe. Der Zusammenhang zwischen Jugendarbeitslosigkeit und späterer Arbeitslosigkeit beschränke sich also nicht darauf, dass manche Jugendliche bestimmte Eigenschaften aufweisen, die über das gesamte Erwerbsleben hinweg zu häufigeren und längeren Arbeitslosigkeitsepisoden führen wie schlechte Abschlussnoten, gesundheitliche Probleme oder mangelnde Motivation. Die Forscher verweisen auf eine weitere Studie, in der sie festgestellt haben, dass ein Tag Arbeitslosigkeit in den ersten acht Jahren im Schnitt bis zu zwei weitere Tage Arbeitslosigkeit in den folgenden 16 Jahren bewirkt. Es müsse also arbeitsmarktpolitisch weiter hohe Priorität haben, Jugendarbeitslosigkeit gar nicht erst entstehen zu lassen.
Aus methodischen Gründen beschränkt sich die Studie auf westdeutsche Männer, die zwischen 1978 und 1980 eine betriebliche Berufsausbildung im dualen Ausbildungssystem abschlossen, dabei zwischen 15 und 26 Jahren alt waren und zu diesem Zeitpunkt kein Abitur hatten.
Weitere Informationen:
http://doku.iab.de/kurzber/2014/kb1614.pdf
Quelle: idw
Babyboomer kommen in die Jahre: Urologen erwarten 20 Prozent mehr Patienten und raten zu Prävention
Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.
Mit 1.357.304 Neugeborenen ist das Jahr 1964 – wohl auf unabsehbare Zeiten – als Geburtenrekordjahr in die deutschen Geschichtsbücher eingegangen. In diesem Jahr feiern die Babyboomer ihren 50. Geburtstag und werden im Laufe der nächsten Dekade wesentlich dazu beitragen, dass der medizinische Versorgungsbedarf, allen Fachgebieten voran in der Urologie am stärksten, steigen wird.
„Wir erwarten rund 20 Prozent mehr Patienten in der Urologie und wollen deshalb erneut den Blick auf die Bedeutung der Prävention urologischer Erkrankungen lenken“, sagt der Präsident der Deutschen Gesellschaft für Urologie e.V. (DGU), Prof. Dr. Jan Fichtner, der den 66. DGU-Kongress vom 1. bis 4. Oktober 2014 in Düsseldorf unter das Motto „Demografischen Wandel gestalten“ gestellt hat.
Da Urologinnen und Urologen zu einem großen Teil altersassoziierte Erkrankungen behandeln, wird in dem Fachgebiet eine allein demographisch bedingte Steigerung des Versorgungsbedarfs bis 2025 von rund 20 Prozent prognostiziert. Gleichzeitig sinkt die Zahl der insgesamt vorhandenen Arztstunden weiter. „Prävention und Eigenverantwortung bekommen vor diesem Hintergrund eine wachsende Bedeutung, denn unser Lebensstil hat auch Folgen für Blase und Nieren, für die Prostata und die Potenz“, sagt Prof. Fichtner. Entsprechende Aufklärung betreiben die DGU und der Berufsverband der Deutschen Urologen e.V. (BDU) bereits seit 2011 mit ihrem „Ratgeber zur Prävention urologischer Erkrankungen“. „In vielen Fällen können wir urologischen Erkrankungen vorbeugen. Bei anderen ist es wichtig, sie frühzeitig zu behandeln, um Begleiterkrankungen zu vermeiden oder zu lindern“, so DGU-Pressesprecherin Prof. Dr. Sabine Kliesch.
Vor allem sind es Steinbildungen, die gutartige Prostatavergrößerung, die Harninkontinenz, aber auch die erektile Dysfunktion und die Begleiterscheinungen des Testosteronmangels, die jenseits der 50 gehäuft auftreten. Das Prostatakarzinom, Nieren- und Harnblasenkrebs gelten als Tumore des Alters. Bei der Entstehung von Harnsteinleiden etwa sind vielfach Übergewicht und die Art der Ernährung ursächlich. Fast Food und zuckerhaltige Getränke begünstigen die Steinbildung während körperliche Bewegung und ausreichendes Trinken der Prophylaxe dienen. Nahezu jeder zweite Mann unter den Babyboomern dürfte bereits unter einer Prostatavergrößerung leiden, die sich mit Problemen beim Wasserlassen bemerkbar macht. „Man kann es nicht verhindern, dass die Prostata etwa ab dem 45. Lebensjahr zu wachsen beginnt und ab einer bestimmten Größe die Harnröhre verengt“, sagt BDU-Pressesprecher Dr. Wolfgang Bühmann. „Doch es ist wichtig, behandlungsbedürftige Symptome – medikamentös oder operativ – zu therapieren, um in der Folge Schädigungen der Harnblase, der Nieren und Prostataentzündungen zu vermeiden sowie Lebensqualität zu erhalten.“ Abnehmende Potenz ist gleichfalls eine normale Alterserscheinung, die aber durch Übergewicht und Tabakkonsum forciert wird. In 70 Prozent der Fälle hat die erektile Dysfunktion organische Ursachen. „Die Ursachen sollten abgeklärt werden, denn eine Potenzschwäche kann der erste Hinweis auf eine Gefäß- oder Herz-Kreislauf-Erkrankung und damit Vorbote von Herzinfarkt oder Schlaganfall sein“, rät Professor Kliesch. Beckenbodentraining etwa beugt in sehr vielen Fällen der weiblichen Harninkontinenz erfolgreich vor. Rauchstopp gilt vor allem für die Tumoren der Blase und der Nieren als wichtigste Präventionsmaßnahme. Der „Ratgeber zur Prävention urologischer Erkrankungen“ von DGU und BDU enthält ausführliche fachspezifische Informationen.
Neben den Grundregeln der Prävention (Verzicht auf Tabak- und Drogenkonsum, ausgewogene Ernährung und Vermeidung von Übergewicht, maßvoller Alkoholgenuss, ausreichende Bewegung, moderate Sonnenbestrahlung sowie Wahrnehmung von Schutzimpfungen und Früherkennungsuntersuchungen) legt BDU-Pressesprecher Dr. Bühmann dem Babyboomer-Jahrgang einen Satz des Neurobiologen Prof. Dr. Martin Korte aus Braunschweig ans Herz: „Unser Leben im Alter wird in den mittleren Jahren entschieden.“ Während 60-Jährige, die mit regelmäßigem Sport anfingen, vergangene Versäumnisse kaum mehr ausgleichen könnten, seien 50-Jährige nach einiger Zeit statistisch so gut gegen Beschwerden des Alters gewappnet, als hätten sie ihr Leben lang Sport getrieben.
Weitere Informationen:
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de
Weitere Informationen:
http://www.dgu-kongress.de
http://www.urologenportal.de
Quelle: idw
Starke Bauchmuskeln schützen Fußballer beim Kopfballstoß
Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes
Kopfbälle werden beim Fußballspiel vor allem durch eine Bewegung des Rumpfes durchgeführt, während die Halsmuskeln die Halswirbelsäule schützen sollten. Der Aufprall kann bei geübten Fußballspielern nämlich ein Mehrfaches der Erdbeschleunigung betragen. Wie Sportwissenschaftler der Universität des Saarlandes jetzt herausgefunden haben, ändern schwache Bauchmuskeln die Bewegung beim Kopfball und aktivieren die Halsmuskeln auf fehlerhafte Weise. Um Amateurfußballer vor Verletzungen zu schützen, empfehlen die Forscher auch für den Breitensport ein intensives Training der Bauch- und Rückenmuskulatur.
Was zu einem guten Kopfballstoß dazugehört, lernen Amateure schon im Jugendfußball. Mit hoher Kunstfertigkeit versuchen sie wie die Fußballprofis den Eckstoß ins gegnerische Tor zu köpfen. Wenn im Laufe des Spiels die Muskeln des Rumpfes ermüden, wird aber nicht nur der Kopfball unpräziser. „Um den Ball zu köpfen, setzt der ermüdete Sportler andere Muskeln ein als der fitte“, sagt Oliver Ludwig, Lehrbeauftragter am Sportwissenschaftlichen Institut der Universität des Saarlandes. Gemeinsam mit einem Team aus Humanbiologen, Orthopäden und Sportwissenschaftlern untersuchte Ludwig die Aktivität der Muskeln, die im Schulter- und Halsbereich die Halswirbelsäule stabilisieren. Mit auf der Haut aufgeklebten Elektroden konnten die Forscher messen, wie sich diese Muskeln anspannen, wenn der Fußballer den Ball köpft. „Die Muskeln umgreifen die Wirbelsäule wie ein Korsett und schützen sie vor Überlastung. Normalerweise stabilisieren sie den Kopf im Moment des Aufpralls. Die eigentliche Kopfballbewegung geschieht aus dem Rumpf heraus“, erläutert der Sportwissenschaftler. Die entscheidende Frage war, was geschieht, wenn im Laufe eines anstrengenden Spiels die Bauch- und Rückenmuskeln ermüden.
In einer Versuchsreihe an der Universität des Saarlandes absolvierten Probanden nach einer ersten Kopfballserie ein Übungsprogramm, das ganz gezielt nur die unteren Bauch- und Rückenmuskeln ermüdete. Danach wurden erneut Kopfballstöße durchgeführt. „Beim Vergleich dieser Versuche vor und nach der Ermüdung stellten wir Interessantes fest. Waren die Bauch- und Rückenmuskeln erschöpft, konnte der Körper des Athleten keine ausreichende Spannung mehr aufbauen, um den Rumpf zum Ball hin zu beschleunigen“, erklärt Ludwig. Ersatzweise wurden dann die Halsmuskeln aktiv und bewegten den Kopf gezielt zum Ball hin. „Aus Sicht der Orthopäden ist dies ein ungünstiger Zustand. Wird nämlich der Kopf aktiv bewegt, dann können Hals- und Nackenmuskeln nicht mehr die Halswirbelsäule stabilisieren“, erklärt der Saarbrücker Forscher. Ermüden die Rumpfmuskeln, müssen also die Hals- und Nackenmuskeln ihre Schutzfunktion aufgeben und bei der Bewegung zum Ball hin „mithelfen“.
Die Forscher des Sportwissenschaftlichen Instituts schließen aus den Ergebnissen dieser Studie, dass die Bauch- und Rückenmuskeln stark und ausdauernd genug sein müssen, um beim Köpfen die Gefahr einer Überlastung zu senken. „Wir empfehlen daher auch den Fußballtrainern im Amateurbereich, dass sie die Rumpfmuskulatur in das wöchentliche Fußballtraining stärker einbeziehen“, sagt Oliver Ludwig.
Fragen beantwortet:
Dr. rer. nat. Oliver Ludwig, Dipl.-Biologe
Sportwissenschaftliches Institut der Universität des Saarlandes
Tel. 0170-4961170
Mail: oliver.ludwig1@uni-saarland.de
Weitere Informationen:
http://www.swi-uni-saarland.de
Quelle: idw
Senckenberg sucht Hobbyfotografen – Digitaler Fotoführer für afrikanische Pflanzen im Netz
Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen
Botaniker des Senckenberg Forschungsinstitutes in Frankfurt haben einen Online-Fotoführer für afrikanische Pflanzen ins Leben gerufen. Derzeit befinden sich in der Datenbank über 25.000 Bilder von etwa 3.200 Pflanzenarten. Die Wissenschaftler rufen Bürger auf, sich zu beteiligen und die Datenbank mit weiteren Fotos zu füllen.
Wer schon einmal Urlaub in Afrika gemacht hat oder auch den Kontinent nur aus den Medien kennt, weiß um dessen exotische und vielfältige Pflanzenwelt. Dort gibt es Leberwurstbäume mit langen, gräulich gefärbten Früchten, Zuckerbüsche mit tellergroßen Blütenständen und den für Kosmetik genutzten Schibutterbaum.
„Bestimmungsliteratur ist in Afrika aber leider Mangelware. Illustrierte Feldführer gibt es bis auf wenige Ausnahmen nur für das südliche Afrika. Digitale Quellen dagegen sind weltweit verfügbar, auch in Afrika“, sagt Dr. Stefan Dressler von der Abteilung Botanik und molekulare Evolutionsforschung am Senckenberg Forschungsinstitut in Frankfurt.
Der Frankfurter Botaniker hat deswegen gemeinsam mit seinen Kollegen Dr. Marco Schmidt und Prof. Dr. Georg Zizka einen Online-Fotoführer für afrikanische Pflanzen entwickelt.
„African Plants – A Photo Guide“ erlaubt die Suche nach wissenschaftlichen sowie Volksnamen, „aber auch nach 18 verschiedenen Merkmalen wie Blütenfarbe, Form der Früchte oder Anordnung der Blätter“, erklärt Dr. Schmidt.
So kann die Datenbank nicht nur von Wissenschaftlern, sondern auch von Laien genutzt werden: Sieht ein Afrika-Reisender beispielsweise einen Baum mit roten Blüten, beerenartigen Früchten und länglichen Blättern, kann er diese Merkmale in dem Fotoführer abfragen und weiß nun, dass es sich hierbei vermutlich um ein Granatapfelgewächs handelt.
„Die Nutzer unseres Nachschlagewerks können dann noch anhand der in der Datenbank vorhandenen Bilder ihr Ergebnis überprüfen“, erklärt Dressler. Außerdem erhalten sie Links zu weiteren Informationen über die jeweiligen Arten.
Die Datenbank wächst kontinuierlich – dennoch sind die Wissenschaftler auf die Beteiligung von interessierten Bürgern, Afrika-Urlaubern und Hobbyfotografen angewiesen. „Die Anzahl von Pflanzenarten in Afrika wird auf etwa 40.000 bis 60.000 Arten geschätzt“, erläutert Schmidt und fügt hinzu: „Die westafrikanische Flora ist mit einer Erfassung von rund 30 Prozent gut in der Datenbank abgedeckt. Insgesamt sind aber bisher nur etwa 5 bis 8 Prozent aller Arten abgebildet und besonders die Pflanzenwelt Nordafrikas ist stark unterrepräsentiert.“
Die Frankfurter Wissenschaftler nehmen deswegen gerne illustrative Pflanzenfotos aus Afrika an, um sie dann – nach wissenschaftlicher Prüfung – in das Online-Verzeichnis einzustellen. Insbesondere die Pflanzenwelt des östlichen Afrikas wird bereits sehr erfolgreich durch engagierte Amateurbotaniker dokumentiert.
„Die Bürgerbeteiligung an wissenschaftlichen Projekten – auch Citizen Science genannt – hat in der Botanischen Abteilung Senckenbergs Tradition. Die sogenannten Laien sind uns auch schon bei der Erfassung von Pflanzen im Projekt ‚Flora Frankfurt‘ oder in unserer wissenschaftlichen Pflanzensammlung, dem Herbarium Senckenbergianum eine große Hilfe“, resümiert Abteilungsleiter Zizka.
Den Online-Fotoführer findet man unter www.africanplants.senckenberg.de, Fotos von afrikanischen Pflanzen können an westafricanplants@senckenberg.de geschickt werden.
Kontakt
Prof. Dr. Georg Zizka
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1166
georg.zizka@senckenberg.de
Dr. Stefan Dressler
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1135
stefan.dressler@senckenberg.de
Dr. Marco Schmidt
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1615
marco.schmidt@senckenberg.de
Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblicke in vergangene und gegenwärtige Veränderungen der Natur, ihrer Ursachen und Wirkungen, vermittelt. Mehr Informationen unter www.senckenberg.de.
Quelle: idw
Neue Wege der Phosphornutzung: Leibniz-WissenschaftsCampus Rostock gegründet
Christoph Herbort-von Loeper M.A. Pressestelle Berlin
Leibniz-Gemeinschaft
Phosphor ist ein lebenswichtiger Mineralstoff. Als Düngemittel in der Landwirtschaft eingesetzt, kann er durch keinen anderen Stoff ersetzt werden. Doch die weltweiten Phosphorvorräte gehen zur Neige. Im Hinblick auf die wachsende Weltbevölkerung drohen weitreichende Konsequenzen. Zudem hat die ineffiziente Nutzung von Phosphor erhebliche Umweltbelastungen zur Folge: Gelangen beispielsweise über landwirtschaftliche Abwässer große Mengen ungenutzten Phosphors in die Stoffkreisläufe von Ökosystemen, kann dies zu Überdüngung führen, die das ganze System aus dem Gleichgewicht bringt. Der neu gegründete Leibniz-WissenschaftsCampus Rostock stellt sich diesen Herausforderungen.
In Warnemünde haben am Mittwoch das Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz, das Ministerium für Bildung, Wissenschaft und Kultur, die Universität Rostock, die Leibniz-Gemeinschaft und fünf Leibniz-Institute den „Leibniz-WissenschaftsCampus Rostock: Phosphorforschung“ gegründet und eine entsprechende Kooperationsvereinbarung unterzeichnet. Ziel der interdisziplinären Zusammenarbeit ist die Erforschung des immer knapper werdenden Rohstoffs Phosphor.
„Ohne Phosphor kann die Landwirtschaft nicht funktionieren, denn Phosphor ist ein wichtiger Stoff, ohne den das Wachstum der Pflanzen nicht möglich wäre. Insgesamt verwendet die Düngemittelindustrie 82 Prozent der weltweit abgebauten Phosphate“, erläuterte Landwirtschafts- und Umweltminister Dr. Till Backhaus. „Im Hinblick auf die wachsende Weltbevölkerung, die hohe globale Nachfrage nach Nahrungs- und Futtermitteln sowie den Rückgang der weltweiten Phosphorvorräte drohen weitreichende Konsequenzen für die Land- und Ernährungswirtschaft und somit für alle Verbraucherinnen und Verbraucher. Ich hoffe, dass uns die Wissenschaftlerinnen und Wissenschaftler Wege aufzeigen, wie wir mit knapper werdenden Phosphor-Ressourcen umgehen müssen und was es für neue Wege gibt, Phosphor zu recyceln oder effizienter zu nutzen“, so Backhaus.
Matthias Kleiner, Präsident der Leibniz-Gemeinschaft, sagte in seinem Grußwort: „Der Leibniz-WissenschaftsCampus Rostock hat schon vor seiner offiziellen Gründung heute gewaltig an Fahrt aufgenommen: Es ist ihm gelungen, den „International Phosphorus Workshop“ im Jahr 2016 zum ersten Mal nach Deutschland einzuladen. Das unterstreicht schon jetzt seine international hohe Sichtbarkeit.“
„Der Leibniz-WissenschaftsCampus schafft eine Plattform, auf der nicht nur Forscherinnen und Forscher unterschiedlicher Fachrichtungen an komplexen Fragestellungen arbeiten, sondern wo die wissenschaftliche Ausbildung durch diese enge Zusammenarbeit eine neue Qualität erhält“, hob Ulrich Bathmann, Direktor des Leibniz-Instituts für Ostseeforschung, hervor.
„Mit dem WissenschaftsCampus wird die interdisziplinäre Zusammenarbeit gelebt. Der WissenschaftsCampus ist eine Auszeichnung für die Forschungslandschaft in Mecklenburg-Vorpommern“, lobte Bildungs- und Wissenschaftsminister Mathias Brodkorb.
Das Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz leistet in den Jahren 2014 und 2015 eine Anschubfinanzierung von jährlich 85.000 Euro. Für die Jahre 2016 und 2017 wird ein Betrag in ähnlicher Höhe in Aussicht gestellt. Das Ministerium für Bildung, Wissenschaft und Kultur stellt vom Jahr 2018 an und bis zum Abschluss des Leibniz-WissenschaftsCampus einen Betrag in Höhe von 80.000 Euro in Aussicht. Eine Förderung ist höchstens bis zum Jahr 2020 vorgesehen. Die Leibniz-Gemeinschaft fördert den WissenschaftsCampus als besondere strategische Maßnahme mit einer Anschubfinanzierung von 150.000 Euro aus ihrem Impulsfonds.
Der WissenschaftsCampus führt die Expertise von fünf Leibniz-Instituten und der Universität Rostock zusammen und gewährleistet so die Berücksichtigung der verschiedensten Aspekte von Phosphor und seinen vielfältigen chemischen Verbindungen. Neben Grundlagen- und Anwendungsforschung soll durch Entwicklung und Transfer von Technologien ein Beitrag zur Wirtschaftsentwicklung geleistet werden.
Folgende Leibniz-Institute sind am WissenschaftsCampus beteiligt: das Leibniz-Institut für Katalyse (LIKAT), das Leibniz-Institut für Nutztierbiologie (FBN), das Leibniz-Institut für Ostseeforschung Warnemünde (IOW), das Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) und das Leibniz-Institut für Plasmaforschung und Technologie (INP).
Weitere Informationen:
http://www.wissenschaftscampus-rostock.de
Kontakt:
Dr. Franziska Schmacka
Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Tel.: 0381 / 5197 – 3471
info@wissenschaftscampus-rostock.de
Das Kooperationsmodell „Leibniz-WissenschaftsCampus“
Der WissenschaftsCampus ist ein Modell der regionalen Zusammenarbeit zwischen Leibniz-Einrichtungen und Hochschulen. Als gleichberechtigte Partner bearbeiten diese eine klar umrissene wissenschaftliche Fragestellung von gemeinsamem Interesse und ergänzen sich dabei mit ihren Kompetenzen und unterschiedlichen Perspektiven. Die regionale Nähe, eine gemeinsame Strategie und interdisziplinäre Forschungsansätze bezogen auf Themen, Projekte und Methoden sind die Stärken der Leibniz-WissenschaftsCampi. Sie bieten ideale Voraussetzungen, um gesellschaftlich relevante Fragestellungen zu bearbeiten, ganze Forschungsbereiche weiter zu entwickeln und das wissenschaftliche Umfeld am Standort für die Thematik zu stärken. Die regionale Forschungslandschaft erlangt dadurch Profil und internationale Sichtbarkeit.
Sechs Leibniz-WissenschaftsCampi haben sich seit 2009 etabliert:
• Leibniz-WissenschaftsCampus Tübingen: Bildung in Informationsumwelten
• Leibniz-WissenschaftsCampus Mainz: Byzanz zwischen Orient und Okzident
• Leibniz-WissenschaftsCampus Halle: Pflanzenbasierte Bioökonomie
• Leibniz-WissenschaftsCampus Mannheim: Mannheim Centre for Competition and Innovation (MaCCI)
• Leibniz-WissenschaftsCampus MannheimTax: Steuerpolitik der Zukunft
• Leibniz-WissenschaftsCampus Rostock: Phosphorforschung
Weitere Informationen zu den Leibniz-WissenschaftsCampi:
http://www.leibniz-gemeinschaft.de/forschung/hochschulkooperationen/leibniz-wissenschaftscampi
Die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen u.a. in Form der Leibniz-WissenschaftsCampi , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.500 Personen, darunter 8.800 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.
Weitere Informationen:
http://www.leibniz-gemeinschaft.de
Quelle: idw
Angst und Ärger verleiten Autofahrer zum Rasen
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Studie zum Einfluss von Emotionen auf das Fahrverhalten
Lüneburg. Nach einer Schrecksekunde – etwa einem Beinahe-Unfall – verhalten sich Autofahrer oft nicht etwa vorsichtiger. Im Gegenteil: Viele drücken auf den Kilometern danach erst recht auf die Tube. Zu diesem Ergebnis kommen Forscher der Leuphana Universität Lüneburg in einer aktuellen Studie. An der Untersuchung nahmen insgesamt 79 Probanden teil. Sie mussten in einem Fahrsimulator einen Testparcours bewältigen und im Anschluss ihre Emotionen zu Protokoll geben. Dabei wurden sie mit verschiedenen typischen Verkehrssituationen konfrontiert.
In einem Fall mussten sie beispielsweise plötzlich auf die Bremse steigen, um einen Auffahrunfall zu verhindern. Sie fuhren daraufhin zwar kurzfristig langsamer. Auf den Kilometern danach beschleunigten sie aber wieder und überschritten dabei sogar oft das Tempolimit. Außerdem fuhren sie insgesamt unberechenbarer; sie lenkten zum Beispiel abrupter.
„Angst verändert das Fahrverhalten messbar zum Negativen“, resümiert Dr. Ernst Roidl. Er hat die Studie zusammen mit Professor Dr. Rainer Höger von der Leuphana Universität Lüneburg konzipiert und durchgeführt. „Und zwar nicht nur kurzfristig – der Effekt wirkt für einige Kilometer nach.“
Wir drücken also erst recht auf die Tube, wenn uns kurz zuvor der Schrecken in die Glieder gefahren ist. Dieses Ergebnis wirkt auf den ersten Blick paradox. „Angst vermindert unsere Risikobereitschaft, und dennoch verhalten wir uns riskanter“, sagt Roidl. „Wir vermuten, dass viele Menschen nach einem Schrecken einfach unaufmerksamer fahren: Sie bleiben mit dem Gedanken bei der Gefahrensituation und reagieren nicht mehr adäquat auf das, was im Moment auf der Straße passiert.“
Ärger ist ein schlechter Beifahrer
Auch Ärger verleitet dazu, zu schnell zu fahren. Wenn die Studienteilnehmer einige Zeit hinter einem Sonntagsfahrer herschleichen mussten, traten sie danach umso heftiger aufs Gaspedal. Sie fuhren zudem deutlich riskanter als normalerweise. Dieser Effekt hielt ebenfalls einige Minuten an. „Wenn wir uns ärgern, neigen wir zudem dazu, uns selbst zu überschätzen“, warnt Roidl. „Ärger schärft den Focus; wir denken, wir hätten alles im Griff. Wir sind daher eher bereit, Risiken einzugehen.“
Professor Höger erforscht seit einigen Jahren den Einfluss von Gefühlen auf das Fahrverhalten. Der Arbeitspsychologe sucht unter anderem nach technischen Methoden, mit denen sich die emotionale Verfassung des Fahrers messen lässt. Denkbar sind etwa Sensoren im Lenkrad, die die Schweißentwicklung der Hände oder ihre Muskelspannung registrieren. Das Auto könnte dann entsprechende Warnmeldungen ausspucken, um dem Fahrer seine Anspannung bewusst zu machen.
Momentan ist das eher Sache des Beifahrers. Doch Roidl warnt vor Beruhigungsversuchen nach dem Motto „Hey, entspann dich doch einfach.“ Denn die könnten einigen Studien zufolge den Ärger sogar noch verstärken. Besser wirke es möglicherweise, wenn der Fahrer einfach einmal kurz auf die Hupe haue, um sich abzureagieren. „Langfristig kann das aber natürlich keine Lösungsstrategie sein“, betont der Wissenschaftler.
Stattdessen solle man versuchen, sich in den Auslöser des Ärgers hineinzuversetzen: Warum trödelt der Fahrer vor mir wohl so? Macht es ihm zusätzlich Angst, wenn ich so dicht auffahre? Wie würde ich reagieren, wenn hinter mir jemand mit der Lichthupe drängelt? „Das ist sicher eines der besten Mittel gegen Ärger im Straßenverkehr“, sagt Roidl: „Empathie!“
Ernst Roidl, Berit Frehse, Rainer Höger: Emotional states of drivers and the impact on speed, acceleration and traffic violations-A simulator study; Accident Analysis and Prevention 70 (2014) 282-292; DOI: 10.1016/j.aap.2014.04.010
Kontakt:
Dr. Ernst Roidl
Institut für Experimentelle Wirtschaftspsychologie
Leuphana Universität Lüneburg
Telefon: 0176/2105555
E-Mail: roidl@leuphana.de
Prof. Dr. Rainer Höger
Institut für Experimentelle Wirtschaftspsychologie
Leuphana Universität Lüneburg
Telefon: 04131/677-7712
E-Mail: hoeger@uni.leuphana.de
Quelle: idw
Große Hitze begünstigt die Steinbildung: Urologen warnen vor der Sommerkrankheit Harnsteine
Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.
Mit steigenden Temperaturen nimmt Sommer für Sommer die Zahl der Harnsteinerkrankungen drastisch zu: Hitze, verstärktes Schwitzen und unzureichendes Trinken begünstigen die Nierensteinbildung. Die Deutsche Gesellschaft für Urologie e.V. (DGU) und der Berufsverband der Deutschen Urologen e.V. (BDU) raten in der aktuellen Hitzeperiode deshalb, an heißen Sommertagen auf eine deutlich erhöhte Trinkmenge zu achten.
Das gelte besonders für Patienten mit Harnsteinen in der Vorgeschichte, denn das Risiko, einen weiteren Stein zu entwickeln, verdoppelt sich mit jedem Steinereignis.
Nierensteine zählen in Deutschland zu den großen Volkskrankheiten. Fast jeder 20. Bundesbürger – Männer häufiger als Frauen – ist einmal oder mehrfach im Leben betroffen. Vor allem zunehmendes Übergewicht in der Bevölkerung lässt die Tendenz steigen. Die Steine machen, solange sie in der Niere sind, keine Beschwerden und bleiben oft unentdeckt. Verlassen sie jedoch die Niere und gelangen in den Harnleiter, verursachen sie eine äußerst schmerzhafte Kolik.
Jetzt in den Sommermonaten ist das Risiko, Harnsteine zu entwickeln, besonders groß. „An heißen Tag geht von der aufgenommenen Flüssigkeitsmenge ein großer Anteil über Atmung und Schwitzen verloren“, sagt Prof. Dr. Thomas Knoll, Vorsitzender des DGU-Arbeitskreises Harnsteine. Das hat zur Folge, dass die Urinmenge geringer wird, weil die Flüssigkeit abgezogen wird. „Große Hitze, intensives Schwitzen und eine verminderte Trinkmenge färben den Urin im Extremfall bierbraun. Dann sind die löslichen Salze, die von den Nieren ausgeschieden werden, im Urin in höherer Konzentration vorhanden. Dies begünstigt die Bildung von Nierensteinen, die entstehen, wenn Stoffe auskristallisieren, die üblicherweise im Harn gelöst werden“, so der Chefarzt der Urologischen Klinik Sindelfingen.
Er empfiehlt an heißen Sommertagen eine deutlich erhöhte Trinkmenge und auf die hellgelbe Färbung des Urins zu achten. Herzgesunde sollten schon bei normalen Temperaturen und durchschnittlicher körperlicher Aktivität circa zwei Liter Flüssigkeit über den Tag verteilt trinken. Richtwert für die richtige Trinkmenge sollte die Urinfärbung, aber auch die Urinmenge sein. Im besten Fall ist der Urin wasserklar. „Es ist schwierig, die optimale Urinmenge festzulegen. Bei fünf Mal täglichem Wasserlassen mit jeweils 400 ml Urinmenge ergibt sich als durchschnittlicher Richtwert eine 24-Stunden-Ausscheidung von etwa 2000 ml“, sagt Prof. Knoll. Bei großer Hitze und/oder „schweißtreibender“ körperlicher Belastung muss die Trinkmenge deutlich höher als zwei Liter betragen. Von Vorteil ist es, häufig kleine Flüssigkeitsmengen zu trinken. „Mindestens 100 ml Flüssigkeit sollte dem Körper pro Stunde zugeführt werden, um Nierensteinen effektiv vorzubeugen.“
Deutsches Leitungswasser und ungesüßte Tees seien dafür genauso geeignet wie teure Mineralwasser mit klangvollem Namen oder Harntees, betont BDU-Pressesprecher Dr. Wolfgang Bühmann. Verzichten sollte man grundsätzlich auf gezuckerte Limonaden, da sie das Risiko für die Entstehung von Nierensteinen erhöhen. „Neben ausreichender Flüssigkeitszufuhr dienen Bewegung, ein normales Körpergewicht und eine ausgewogene Ernährung der Prävention von Harnsteinerkrankungen“, so Dr. Bühmann weiter. So kann sich eine Purin-arme Ernährung, mit einem geringen Anteil an Fleisch, Wurst, Innereien und Hülsenfrüchten, sowie das Vermeiden von Lebensmitteln mit hohem Oxalat-Gehalt wie Spinat, Rhabarber und Mangold, günstig auswirken.
Weitere Informationen:
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de
Weitere Informationen:
http://www.urologenportal.de/fileadmin/MDB/PDF/Harnsteine.pdf
http://www.urologenportal.de
Quelle: idw
Regenwürmer im Einsatz gegen Hochwasser
Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
Hydrologen der Universität Jena ergründen den Einfluss von Pflanzenbewuchs und Regenwurmdichte auf den Wasserhaushalt des Bodens
Die Bilder haben die meisten wohl noch im Kopf: Im Sommer 2013 standen weite Teile Mitteldeutschlands unter Wasser. Heftige Niederschläge hatten binnen weniger Stunden Bäche und Flüsse in reißende Ströme verwandelt. Die Wassermassen überfluteten Städte, rissen Bäume und Autos mit sich fort, unterspülten Straßen. „Solche Extremereignisse machen deutlich, welch wichtige Rolle der Wasserkreislauf in unserem Leben spielt“, sagt Juniorprofessorin Dr. Anke Hildebrandt von der Friedrich-Schiller-Universität Jena. „Eine der wichtigsten Umschlagplätze ist dabei der Boden.“ Denn der Boden ist das wichtigste Auffangbecken für Niederschlagswasser und stelle so die Verbindung zum Grundwasser her, erklärt die Juniorprofessorin für Ökologische Modellierung.
Wie die natürliche Infiltration – so wird die Aufnahme von Niederschlägen in den Boden bezeichnet – beeinflusst wird, das haben Prof. Hildebrandt und ihr Team jetzt detailliert untersucht: Dr. Christine Fischer konnte gemeinsam mit Kollegen der Universität Jena und des Max-Planck-Instituts für Biogeowissenschaft nachweisen, dass die Wasseraufnahmefähigkeit des Bodens entscheidend vom Pflanzenbewuchs sowie dem Vorkommen von Regenwürmern geprägt ist. Seine Ergebnisse hat das Forscherteam in der Fachzeitschrift „PLOSOne“ veröffentlicht (DOI: 10.1371/journal.pone.0098987).
Ausschlaggebend für die Aufnahmekapazität des Bodens ist seine Porenstruktur. „Vor allem Poren mit einem Durchmesser größer als etwa ein Zehntel Millimeter, auch als Makroporen bezeichnet, sind für den Abfluss des Niederschlagswassers wichtig“, sagt Anke Hildebrandt. Dass bestimmte biologische Faktoren bei der Entstehung solcher Poren eine wichtige Rolle spielen, ist eine zentrale Erkenntnis der vorliegenden Arbeit, so die Hydrologin. So fanden die Jenaer Forscher heraus, dass sich das Vorkommen von Gräsern negativ auf die Entstehung großer Poren auswirkt, während das Vorhandensein von Leguminosen wie Klee oder Lupinen deren Entstehung begünstigt.
„Für diesen Effekt sind zum einen direkt die Pflanzenwurzeln verantwortlich“, erläutert Christine Fischer. So bilden Leguminosen in der Regel dicke Pfahlwurzeln aus, die zur Bildung von Makroporen beitragen können. „Gräser haben dagegen sehr feine, verzweigte Wurzeln, die vorhandene Poren eher verschließen und so das Eindringen von Niederschlagswasser verhindern.“ Vor allem spielen die Pflanzenarten aber im Zusammenhang mit Regenwürmern eine große Rolle: Diese begünstigen durch ihre Aktivitäten im Boden ebenfalls die Porenbildung. Allerdings scheinen sie sich bevorzugt dort aufzuhalten, wo es auch Leguminosen gibt, was den Effekt auf die Wasseraufnahme zusätzlich verstärkt.
Für ihre Untersuchungen haben die Wissenschaftler das „Jena-Experiment“ der Friedrich-Schiller-Universität genutzt. Auf dem ca. zehn Hektar großen Gelände in der Saaleaue wachsen in mehreren Hundert Versuchsparzellen künstlich zusammengestellte Graslandschaften: von der Monokultur mit nur jeweils einer Pflanzenart bis hin zur Wiese aus 60 verschiedenen Gräsern, Kräutern und Leguminosen. Damit ist das „Jena-Experiment“, als eines der weltweit größten Biodiversitätsexperimente und das am längsten bestehende in ganz Europa, einmalig.
Original-Publikation:
Fischer C et al. How do earthworms, soil texture and plant composition affect infiltration along an experimental plant diversity gradient in grassland? PLOS One 2014, DOI: 10.1371/journal.pone.0098987
Kontakt:
Jun.-Prof. Dr. Anke Hildebrandt, Dr. Christine Fischer
Institut für Geowissenschaften der Friedrich-Schiller-Universität Jena
Burgweg 11, 07749 Jena
Tel.: 03641 / 948651
E-Mail: hildebrandt.a@uni-jena.de, fischer.christine@uni-jena.de
Weitere Informationen:
http://www.uni-jena.de
Quelle: idw
Besseres Recht für mehr Umweltschutz in der Landwirtschaft
Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ
Dessau/Leipzig. Deutschland braucht kein eigenes Agrarumweltgesetz, aber eine bessere Abstimmung des Umwelt-, Agrar- und Förderrechts, um die Umwelt vor negativen Auswirkungen der Landwirtschaft wirksamer zu schützen. Entscheidend ist, dass die bestehenden Instrumente und Regelungen effektiverer und vollzugstauglicher gestaltet werden, so das Fazit einer Studie des Helmholtz-Zentrums für Umweltforschung (UFZ) in Zusammenarbeit mit der Johann Wolfgang Goethe-Universität Frankfurt/M., die im Auftrag des Umweltbundesamtes entstanden ist.
Ziel der Studie war es, herauszufinden, wie die nationale Gesetzgebung verbessert werden könnte, um die gesellschaftlichen Umweltziele zu erreichen. Dazu untersuchten die Wissenschaftler in den letzten zwei Jahren, wie sich die Entwicklung zu einer nachhaltigen, umwelt- und klimagerechten Landwirtschaft stärker als bisher durch das Umwelt- und Agrarrecht steuern lässt. Auf dem Prüfstand standen dabei unter anderem das Ordnungs- und Planungsrecht, wobei auch der Vollzug sowie die Umweltanforderungen des Beihilferechts und das Instrument der Beratung tiefer analysiert wurden.
Trend zur Intensivierung hält an
Um die ökologisch relevanten Trends aufzeigen zu können, wertete das Frankfurter Institut für ländliche Strukturforschung (IfLS) die Entwicklung der Landwirtschaft in Deutschland seit 1950 anhand statistischer Daten aus. Eine zunehmende Spezialisierung und Steigerung der Produktion sind dabei die wesentlichen Trends. Trotz der Intensivierung sind der Anteil der Landwirtschaft an der Bruttowertschöpfung unter 1 Prozent und der Anteil an den Beschäftigten auf 1,6 Prozent gesunken. Knapp 300.000 Betriebe gibt es noch, die zusammen 16,7 Millionen Hektar landwirtschaftliche Nutzfläche bewirtschaften, also rund die Hälfte der Gesamtfläche Deutschlands.
Umweltziele nicht erreicht
Aufgrund der großen Fläche spielt die Landwirtschaft eine starke Rolle, wenn es darum geht, Bodenfruchtbarkeit zu erhalten, Wasserressourcen zu schützen, Treibhausgase und andere Emissionen zu reduzieren sowie Tier- und Pflanzenarten zu erhalten. Während im Gewässerschutzrecht und im Luftreinhalterecht die europäischen und nationalen Umweltqualitätsziele relativ hoch gesteckt sind, fehlt es dagegen im Natur- und Bodenschutzrecht an ausreichend konkreten Zielen, konstatieren die Autoren der Studie. „Keines der Umweltziele ist gegenwärtig in Deutschland vollständig bzw. flächendeckend erreicht. Amtliche Statistiken und ausgewertete Studien zeigen dabei, dass gerade im Bereich der Landwirtschaft die größten Defizite bestehen“, fasst der Umweltjurist Dr. Stefan Möckel vom UFZ zusammen. Als Grund dafür sehen die Wissenschaftler, dass es vor allem bei der Durchsetzung der gesetzlichen Ziele Probleme gibt, da die Landwirtschaft oft – im Gegensatz zu anderen Wirtschaftsbereichen – in den Genuss von Sonderregelungen und Ausnahmen kommt. Dazu kommen die Schwierigkeiten bei der Kontrolle aufgrund fehlender Informationen, unzureichender Handlungsbefugnisse oder lähmender Rechtsunsicherheiten, mit denen die Behörden zu kämpfen haben. So konnten beispielsweise die vielen Schutzvorschriften den Umbruch von Dauergrünland zu Acker nicht stoppen oder die Belastung von Gewässern durch Nährstoffe, Pestizide und Tierarzneimittel von den umliegenden Feldern nicht reduzieren. Der Einsatz von Pestiziden hat sogar nicht ab, sondern weiter zugenommen.
Kein eigenes Agrarumweltrecht nötig
Für mehr Umweltschutz in der Landwirtschaft bedarf es keiner neuen Gesetze. Es genügen eine bessere Abstimmung des bestehenden Umwelt-, Agrar- und Beihilferechts, konkretere Anforderungen im Einzelnen sowie ausreichende Vollzugsinstrumente für die Behörden. „Ein eigenständiges Agrarumweltrecht empfiehlt sich nicht, da die Nachteile eines zu erlassenden Agrarumweltgesetzes deutlich größer als dessen Vorteile erscheinen“, sagt Prof. Wolfgang Köck vom UFZ. Vielmehr kommt es auf die Regelungsdetails an. Die Wissenschaftler erwarten dabei, dass mittelfristig dem Ordnungs- und Planungsrecht in Zeiten hoher Staatsschulden und steigender Agrarpreise eine entscheidende Bedeutung zukommen wird. Denn das Ordnungsrecht ist besonders gut geeignet, um ohne die Milliarden Euro an Agrarsubventionen flächendeckend allgemeinverbindliche Mindestanforderungen aufzustellen und die Verursacher an den Umweltkosten zu beteiligen. Planungsrechtliche Instrumente erlauben dabei eine räumliche Steuerung und Vollzugsinstrumente die Konkretisierung im Einzelfall. Diese Kombination besteht für landwirtschaftliche Anlagen (z.B. Tierhaltungs- oder Biogasanlagen) schon weitgehend. Bei der landwirtschaftlichen Bodenbewirtschaftung hat die Agrarpolitik hingegen seit Jahren bisher vor allem auf lenkende Beihilfen gesetzt.
Verbesserungspotenziale nutzen
Um das Agrar- und Umweltrecht für die ökologischen Herausforderungen fit zu machen, sind v.a. die unbestimmten Rechtsbegriffe und allgemeinen Grundsätze der guten fachlichen Praxis mit ökologisch anspruchsvollen quantitativen oder qualitativen Anforderungen zu untersetzen und diese dynamisch entsprechend dem aktuellen Stand der Technik fortzuschreiben. Hierbei bieten die wachsenden Fähigkeiten der Präzisionslandwirtschaft wie zum Beispiel der Einsatz von GPS neue Steuerungsmöglichkeiten.
Eine größere Baustelle stellt das Planungsrecht dar, da gegenwärtig kein verbindliches Planungsinstrument existiert, mit dem sich Art und Umfang der landwirtschaftlichen Bodennutzungen standortbezogen steuern lassen. „In Anbetracht der Flächenintensität der Landwirtschaft, die in ländlichen Regionen schnell mehr als 80 Prozent der Gemeindefläche betrifft, und der Heterogenität der Standorte ist diese Landnutzung eigentlich prädestiniert für eine planerische Feinsteuerung“, betont Dr. Stefan Möckel. Die Forscher empfehlen daher in ihrer Studie, den interessierten Kommunen durch eine Erweiterung der Landschaftsplanung bzw. Bauleitplanung zumindest die rechtliche Möglichkeit einzuräumen, damit die Bürger nicht nur ihr bauliches sondern auch landschaftliches Umfeld mit gestalten können.
Vollzugsinstrumente nicht vernachlässigen
Oft unterschätzt werden in der politischen Diskussion um die Agrarpolitik die rechtlichen Vollzugsinstrumente – wie Kontroll- und Anordnungsbefugnisse, Anzeige- und Dokumentationspflichten, Genehmigungserfordernisse oder Ordnungswidrigkeits- und Straftatbestände. „Ohne sie sind den Behörden in einem Rechtsstaat die Hände gebunden“, sagt Prof. Wolfgang Köck. Dies gilt für die behördliche Informationsbeschaffung wie für das Einschreiten bei drohenden oder festgestellten Verstößen gleichermaßen – unabhängig davon, ob das Ordnungs- und Planungsrecht oder das Beihilferecht die ökologischen Anforderungen stellt. Denn nur mit ihnen lassen sich die gesetzlichen Anforderungen im Einzelfall durchsetzen. In der Studie wird daher für eine systematische Ergänzung fehlender Vollzugsinstrumente im Agrarbereich plädiert.
Fazit
Ein Instrument allein kann die Umweltprobleme der Landwirtschaft nicht lösen. „Vielmehr bedarf es eines abgestimmten Instrumentenverbundes aus Ordnungs- und Planungsrecht, Beihilfen, Abgaben/Steuern, Zertifizierungssystemen, Beratung und Weiterbildung. Die verschiedenen Instrumente sollten so kombiniert werden, dass ihre Vorteile genutzt und ihre Nachteile ausgeglichen werden, um eine möglichst effektive Umweltpolitik zu erreichen und die Landwirtschaft an den Umweltkosten zu beteiligen, die sie hervorruft“, unterstreicht Dr. Stefan Möckel vom UFZ. Aus seiner Sicht bietet insbesondere die Kombination aus ordnungsrechtlichen Mindestanforderungen, standortbezogenen Anforderungen in Plänen sowie einzelfallbezogenen Vollzugsinstrumenten bedeutende Potentiale, um den ökologischen Herausforderungen gerecht zu werden.
Insgesamt macht die Studie 22 konkrete Vorschläge, wie der Gesetzgeber die Situation verbessern könnte. Sinnvoll wären zum Beispiel einheitliche Standards für alle Dünge- und Pflanzenschutzmittel, eine Vereinheitlichung des Schutzes von Dauergrünland, der Abbau von Begünstigungen im Wasserrecht oder die Anhebung der Anforderungen zum Schutz der Atmosphäre.
Tilo Arnhold
Publikation:
Stefan Möckel, Wolfgang Köck, Cordula Rutz und Jörg Schramek (2014): Rechtliche und andere Instrumente für vermehrten Umweltschutz in der Landwirtschaft. UBA-Texte 42/2014, 598 S., ISSN 1862-4804.
http://www.umweltbundesamt.de/publikationen/rechtliche-andere-instrumente-fuer-v…
Die Untersuchungen wurden gefördert vom Umweltforschungsplan des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit.
Weitere Informationen:
Helmholtz-Zentrum für Umweltforschung (UFZ)
Dr. Stefan Möckel
Telefon: +49-(0)341-235-1693
http://www.ufz.de/index.php?de=12908
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: +49-(0)341-235-1635, -1630
http://www.ufz.de/index.php?de=640
Weiterführende Links:
Agrarumweltrecht – Rechtliche und andere Instrumente für vermehrten Umweltschutz in der Landwirtschaft (UBA-Forschungsvorhaben 2011-2013):
http://www.ufz.de/index.php?de=31591
Rechtsvergleichende Studie zu Instrumenten eines nachhaltigen Landmanagements (CLAIM)
http://www.ufz.de/index.php?de=31749
Weitere Informationen:
http://www.ufz.de/index.php?de=33049
Quelle: idw
Neues Quizspiel erzielt 22.000 Downloads in vier Wochen
Evelyn Meyer-Kube Presse/Public Relations
Ostfalia Hochschule für angewandte Wissenschaften
„Buddyquiz“ heißt das neue Echtzeit-Multiplayer-Quizspiel aus der IT-Küche des Unternehmens mobfish in Wolfenbüttel. „Erst seit vier Wochen auf dem Markt, schlägt unsere neue, kostenfreie App Buddyquiz mit zweiundzwanzigtausend Downloads bei den Nutzern richtig ein“, berichten die Entwickler und Absolventen der Ostfalia Hochschule Jonathan Bergen und Tobias Sell.
Bereits vor dreieinhalb Jahren feierten sie Erfolge mit ihrer ersten App „Wer Wird Reich“, die in den USA 2011 mit dem Best App Ever Award“ in der Kategorie „Denkspiele“ (Trivia Games) ausgezeichnet wurde. Damals legten sie bereits während ihres Informatikstudiums an der Ostfalia Hochschule mit der Entwicklung dieses Quizspiels den Grundstein für ihre Existenzgründung. Begleitet und unternehmerorientiert geschult wurden die Jungunternehmer vom Entrepreneurship Center der Ostfalia und von der Wirtschaftsförderung der Stadt Wolfenbüttel finanziell unterstützt. Inzwischen ist aus dem Start up als GbR eine GmbH geworden. „Wir haben uns und unsere Unternehmung weiterentwickelt, haben neue Büroräume Am Exer in Wolfenbüttel angemietet, Personal eingestellt und unsere Kontakte in die USA zur Ostfalia-Partnerhochschule University of Wisconsin Parkside (UWP) in Kenosha intensiviert.
„Bei unserer ersten App hatten wir die Unterstützung der amerikanischen Studierenden in Form von Übersetzungsarbeiten“, erklärt Tobias Sell. Die internationale Zusammenarbeit ist mobfish wichtig, denn alle profitieren. Im Frühjahr dieses Jahres initiierten die beiden Entwickler zwei neue Projekte und nutzen im Rahmen der „Internationalen Sommer Universität (ISU)“ die Kompetenzen der Informatikstudierenden an der Ostfalia sowie an der UWP für unabhängige Studien. Zum einen handelte es sich dabei um die Entwicklung eines Prototyps der App „Buddyquiz“ und zum anderen um die Weiterentwicklung der App „Wer Wird Reich“ in der Anwendung für Windows 8. Seit sechs Jahren besteht die Kooperation der Fakultät Informatik der Ostfalia und dem Department of Computer Science der UWP in Kenosha (Partnerstadt von Wolfenbüttel). Im Vordergrund steht dabei der regelmäßige Dozenten- und Studentenaustausch. So arbeitete im Frühjahr 2014 eine Gruppe von Ostfalia-Studenten am UWP mit dortigen Studenten an „Buddyquiz“ und umgekehrt im Mai dieses Jahres an der Ostfalia – immer in Verbindung mit den Entwicklern der App in Wolfenbüttel.“
Seit etwa vier Wochen ist „Buddyquiz“ auf dem Markt und erfreut sich zunehmender Beliebtheit. Das Besondere daran ist, bis zu acht Spieler können gleichzeitig gegeneinander spielen, und zwar in Echtzeit. „Das bringt jede Menge Spaß“, sagt Tobias Sell, „und der Erfolg der App lässt uns die Schwierigkeiten der Implementierung eines Echtzeit-Multiplayer-Quizspiels und die Hürden, die es zu überwinden gab, vergessen. Letztendlich haben wir es geschafft und unser Dank geht dabei an alle Beteiligten“.
Quelle: idw
Student entwickelt Biogas-Anlage aus Plastiktonne
Anette Schober-Knitz Referat für Presse- und Öffentlichkeitsarbeit
HBC Hochschule Biberach
Jan Schellinger ist der erste Absolvent der Hochschule Biberach, der für seinen Studienabschluss ein interdisziplinäres Projekt der Studiengänge Energiesysteme (jetzt Energie-Ingenieurwesen) und Industrielle Biotechnologie bearbeitet hat. Ganz verkürzt dargestellt hat er eine Anlage entwickelt, die es beispielsweise Menschen in Entwicklungshilfeländern ermöglicht, in einem großen Plastikbehälter Biogas zu erzeugen, um es für die eigene Energieversorgung zu nutzen.
Das klingt einfach, war jedoch für Jan Schellinger „im Detail ganz schön schwierig“. Fast ein Jahr hat er sich mit dem Thema, der Vorbereitung und Umsetzung beschäftigt – viel länger als allgemein üblich.
Belohnt wurde sein außerordentliches Engagement mit einem besonders erfolgreichen Studienabschluss Bachelor of Engineering sowie jeder Menge Know-how in einem für ihn bislang fremden Fachgebiet: der Biotechnologie. „Meine Kenntnisse in Biologie und Chemie beschränkten sich auf die aus der Schulzeit, so Schellinger. Am Ende seines Projektes konnte er sich dagegen an Gesprächen seiner Studienkollegen aus dem Studiengang Industrielle Biotechnologie durchaus beteiligen: „Diskussionen über multiresistente Bakterien? – Aber gerne!“
Was genau also hat Jan Schellinger zum Abschluss seines Studiums gemacht? Für ein Entwicklungshilfeprojekt der Steyler Mission in Bolivien wollte der 25-Jährige aus dem Landkreis Sigmaringen eine Biomasse-Anlage für den Hausgebrauch entwickeln und bauen. Dafür reiste er in den Dschungel im Osten des Landes, verschaffte sich vor Ort einen Überblick über die Situation und Lebensgewohnheiten auf dem Land, das zu den ärmsten Regionen Südamerikas gehört. Nach ersten Versuchen, die jedoch nicht das gewünschte Ergebnis erzielten, entschloss sich Jan Schellinger, der Problematik umfassender und in wissenschaftlicher Tiefe zu widmen. Schellinger machte auf eigene Faust weiter und suchte sich an der Hochschule Biberach die notwendige Unterstützung, die er neben seinem betreuenden Professor, Dr.-Ing. Alexander Floß, in Professorin Dr. Heike Frühwirth fand.
Die Verfahrenstechnikerin ist Studiendekanin des noch jungen Studienganges Industrielle Biotechnologie. Auch dieser Studiengang beschäftigt sich mit der Erzeugung von Energie und Wertstoffen. Dr. Frühwirth beispielsweise hat einen Schwerpunkt ihrer Lehr- und Forschungstätigkeit auf Algenbiotechnologie gesetzt. In innovativen Algen-Produktionssystemen werden Pigmente und hochwertige Omega-3- Fettsäuren erzeugt. Mikroalgen aber seien auch Allrounder, die ausgezeichnet in Abwasser wachsen und dieses „ganz nebenbei“ aufreinigen, so die Expertin.
Eine Schnittmenge zwischen dem energietechnischen und dem verfahrenstechnischen Bereich der Biotechnologie war also gefunden. Als angehender Ingenieur für Energiesysteme hieß das für Schellinger: Mikrobiologie, Fermentationstechnik, Labortechnik pauken! Von nun an begleitete er die Biotechnologie-Studenten von Prof. Frühwirth zu einer Fachmesse für Labortechnik, wälzte Biologie- und Chemiebücher und studierte die Skripte seiner Kommilitonen für Bioprocessing und Fermentation. Im Labor der Industriellen Biotechnologie baute er seinen Versuchsstand um eine blaue Chemie-Tonne herum auf, verbaute darin Messtechnik und startete seine dreiwöchige Versuchsreihe, in er seine Biogasanlage mit Dung, Gras und Speiseresten befüllte.
Als Ergebnis konnte er bei seinem Abschlusskolloquium vor den betreuenden Professoren Heike Frühwirth und Alexander Floß sowie Kommilitonen beider Fachrichtungen darstellen, wie seine Anlage funktioniert – und wie viel Biogas sie bei gegebener Befüllung erzeugt. Unerlässlich, so Schellinger, sei ein Rührwerk für die stehende Anlage. Der junge Ingenieur sieht einige Verbesserungsmöglichkeiten bei der technischen Ausführung wie bei der Substratwahl. Unterm Strich aber kann Schellinger belegen, dass „eine Biogasanlage ein lohnendes und fortschrittliches Entwicklungsprojekt darstellt“.
Für Dr. Heike Frühwirth war es „großartig zu sehen, wie Studierende verschiedener Studiengänge über den Tellerrand gucken und auf direktem Weg von einander profitieren.“ Und ihr Kollege Dr. Floß sieht „großes Potenzial für weitere gemeinsame Projekte in Lehre und Forschung, an denen die Studierenden beider Studiengänge beteiligt werden können“.
Und wie geht es nun weiter? Jan Schellinger hat seinen Bachelor-Abschluss in der Tasche, sein Projekt ist damit abgeschlossen. Seinem Kolloquium haben auch Mitglieder von Ingenieure ohne Grenzen zugehört – und das mit Interesse. Vielleicht wird seine Idee, nun mit konkreten Ergebnissen hinterlegt, ja doch noch in einem Entwicklungshilfeland aufgegriffen. Schellinger selbst will sein Wissen weiter vertiefen, ob im Entwicklungsbereich, der Energietechnik oder vielleicht sogar der Biotechnologie, ist noch nicht entscheiden. „Ich bin auf jeden Fall gespannt, was als nächstes auf mich zukommt“, sagt er.
Für die Hochschule sieht der 25-Jährige vielfältige Möglichkeiten für die auf den ersten Blick völlig unterschiedlichen Disziplinen Energie-Ingenieurwesen und Industrielle Biotechnologie. Sein eigener Ausflug in die Biotechnologie hat ihm Kompetenzen eingebracht und vor allem neue Freundschaften: „Der Studiengang Industrielle Biotechnologie ist wie eine kleine Familie. In die bin ich aufgenommen worden“.
Weitere Informationen:
http://www.hochschule-biberach.de
Quelle: idw
Winterschlaf fällt aus: Höhepunkt der Zecken-Welle 2014 bereits vorbei – Aktivität lässt nach
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
In den ersten sieben Monaten 2014 sind in Baden-Württemberg 34 Menschen an der durch Zecken übertragenen Infektion FSME erkrankt. In Bayern waren es 54 Kranke. „In beiden Bundesländern ist die Zahl gegenüber den ersten sieben Monaten 2013 deutlich gesunken und ist damit wieder ungefähr auf dem Stand von 2012″, erläutert die Parasitologin Prof. Dr. Ute Mackenstedt von der Universität Hohenheim. „Längst sind Zecken nicht mehr ausschließlich nur im Wald zu finden, sondern verstärkt auch in heimischen Gärten. Diese wollen die Experten der Universität nun für eine Studie über Zeckenhäufigkeit in Gärten unter die Lupe nehmen. Dringend gesucht werden daher noch Gartenbesitzer in und um Stuttgart, die ihr Grundstück für die Untersuchungen zur Verfügung stellen.
Sie sind winzig klein und sehr gefährlich, gerade wegen des milden Winters 2013/2014 sind die Zecken in diesem Jahr sehr aktiv. Dies schlägt sich allerdings zum Glück nicht in den Zahlen der an FSME Erkrankten nieder: „Wir gehen davon aus, dass viele Menschen wegen des häufigen und heftigen Regens nicht spazieren gegangen sind, daher also die Kontaktzeiten zwischen Zecken und Menschen gering waren und wenig Viren übertragen werden konnten“, sagt Prof. Dr. Mackenstedt.
Vor allem betroffen: Baden-Württemberg und Bayern
Der Blick auf die Statistik zeigt: In den beiden bundesweit am meisten von Zecken betroffenen Bundesländern Bayern und Baden-Württemberg ist die Zahl der an FSME erkrankten Menschen in den Monaten Januar bis Juli in diesem Jahr deutlich gegenüber 2013 zurückgegangen. In Bayern waren es 54 Infizierte gegenüber 83 im Vorjahr und in Baden-Württemberg 34 gegenüber 68 im Jahr 2013. Auf den Plätzen 3 und 4 folgen Hessen mit 6 und Sachsen mit 4 Erkrankten.
Sehr hohe Fallzahlen gab es in den Jahren 2005 (432) und 2006 (546). Ansonsten wurden seit 2001 238-313 Fälle pro Jahr verzeichnet (Quelle: RKI). Vor allem betroffen waren auch damals Bayern und Baden-Württemberg. Regelmäßig tritt die FSME auch in Hessen, Thüringen, Sachsen und in Rheinland-Pfalz auf. Einzelfälle wurden in den letzten Jahren aber auch aus anderen Bundesländern gemeldet.
Verbreitung der FSME in Deutschland
Die Hauptverbreitungs- und -risikogebiete der FSME in Deutschland liegen in Bayern und Baden-Württemberg. Zudem gelten einige Landkreise in Hessen, Rheinland-Pfalz und Thüringen als Risikogebiete. Einzelne FSME-Fälle und infizierte Zecken wurden aber auch aus anderen Bundesländern gemeldet. Nach Angaben des Robert-Koch-Instituts sind bis zu etwa 3 Prozent der Zecken in einem FSME-Gebiet infiziert.
Das Vorkommen von Borrelien in Zecken schwankt regional sehr stark und kann bis zu 30 Prozent betragen. In der Bundesrepublik haben 5,8 Prozent der Frauen und 13 Prozent der Männer Antikörper – ein Zeichen dafür, dass sie vermutlich bereits mindestens einmal Kontakt mit den Erregern hatten. Nur rund ein Prozent der Infizierten entwickelt Krankheitssymptome.
Wo halten sich die Zecken auf, wenn sie auf Wirtsuche sind?
Zecken, die auf der Suche nach einem Wirt sind, erklimmen exponierte Stellen und warten dort so lange, bis ein Wirt (Tiere oder auch ein Mensch) vorbeikommt, an dem sie sich festhalten können. Dies ist in der Regel die bodennahe Vegetation (Gräser, krautige Pflanzen, Gebüsch), umherliegendes Totholz (Äste, Baumstämme), Baumstümpfe oder Ähnliches. Meist klettern aktive Zecken nicht sehr hoch. Erwachsene Zecken halten sich in der Regel in einer Höhe von 30 bis 60 Zentimeter auf, seltener bis zu einer Höhe von 1,5 Meter.
FSME
Die Frühsommer-Meningoenzephalitis, kurz FSME, ist eine durch das FSME-Virus ausgelöste Krankheit. Das Virus greift das zentrale Nervensystem des Menschen an. Das FSME-Virus wird in erster Linie von Zecken auf den Menschen übertragen. Es sind jedoch auch einige wenige Fälle bekannt, bei denen der Genuss von Rohmilch von FSME-infizierten Kühen oder Ziegen die Krankheit ausgelöst hat.
Die Gefahr, nach einem Zeckenstich in den Risikogebieten an FSME zu erkranken, liegt neuen Erkenntnissen zufolge bei 1 zu 150. Nicht jede FSME-Infektion führt zu einem schweren Krankheitsverlauf. Die Mediziner haben bisher noch nicht herausfinden können, warum es bei einigen Menschen zu schweren Erkrankungen kommt und diese sogar daran sterben, während andere FSME-Infizierte nur leicht oder gar nicht erkranken. Sicher ist, dass das Alter der Infizierten eine wichtige Rolle spielt. Je älter die Person, umso schlimmer kann die FSME verlaufen.
Die Gartenstudie der Universität Hohenheim: Gartenbesitzer gesucht
Auch die heimischen Gärten im Südwesten sind zunehmend von Zeckenbefall betroffen und können als so genannte „hot spots“ von Zecken dienen. Die Bedeutung der Gärten wurde bisher häufig unterschätzt und das Infektionsrisiko vor allem mit Freizeitaktivitäten in Wäldern und Wiesen verbunden. Deswegen will die Universität Hohenheim für eine Studie Gärten in Stuttgart und Umgebung auf Zeckenbefall untersuchen. Dafür werden noch Grundstücksbesitzer gesucht, die ihren Garten für die Untersuchungen zur Verfügung stellen. Der Garten sollte dabei mindestens 400 Quadratmeter umfassen. Nähere Informationen gibt es bei Prof. Dr. Ute Mackenstedt (mackenstedt@uni-hohenheim.de, https://zecken-im-garten.uni-hohenheim.de).
Quelle: idw
Kein „Merkel-Faktor“: Studie untersucht Frauen auf dem Weg zur Macht
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Politische Werdegänge von Frauen und Männern unterscheiden sich kaum
Lüneburg. Welche Voraussetzungen müssen Frauen erfüllen, um die politische Karriereleiter zu erklimmen? Unterscheidet sich ihr Weg zur Macht von dem männlicher Konkurrenten? Eine neue Studie der Leuphana Universität Lüneburg verneint diese Frage. Die Wissenschaftler haben die Biografien sämtlicher Premierministerinnen in Europa seit 1945 mit denen ihrer männlichen Kollegen verglichen. Es ist bislang die europaweit umfangreichste Untersuchung dieser Art.
Seit 1945 gab es in Europa 276 Premierminister, aber nur 14 Premierministerinnen. Zu den wohl bekanntesten zählen die Britin Margaret Thatcher und die deutsche Bundeskanzlerin Angela Merkel. „Nur wenige Frauen schaffen es also an die politische Spitze“, stellt Ina Kubbe vom Zentrum für Demokratieforschung (ZDEMO) der Leuphana Universität fest. „Uns interessiert, ob sie auf diesem Weg andere Voraussetzungen erfüllen müssen als Männer.“
Die Demokratieforscher haben dazu Biografien der 14 Erfolgs-Frauen ausgewertet und mit denen ihrer männlichen Kollegen verglichen. Bei diesem Vergleich beschränkten sie sich auf die Länder in Europa, die seit 1945 mindestens einmal unter weiblicher Ägide standen. Die Demokratien Südeuropas etwa blieben so außen vor; dort war der Chefsessel bislang ausschließlich für Männer reserviert. „Wir vergleichen also insgesamt 138 Lebenswege – 124 von Männern, 14 von Frauen“, erläutert Kubbe.
Das Ergebnis ist auf den ersten Blick überraschend. „Die Karrierewege von männlichen und weiblichen Premierministern sind praktisch ununterscheidbar“, betont ZDEMO-Leiter Professor Dr. Ferdinand Müller-Rommel. Ob Kohl oder Merkel, Thatcher oder Blair – Frauen wie Männer durchlaufen auf ihrem Weg zur Spitze in der Regel ganz ähnliche Stationen: Sie beginnen meist in der Lokalpolitik, werden dann irgendwann Mitglied des Parlaments, übernehmen die Leitung eines Ministeriums und später oft den Vorsitz ihrer jeweiligen Partei. Im Schnitt sammeln sie 17 Jahre Erfahrung in Parlament und Kabinett, bevor der letzte Karriere-Schritt auf den Premierminister-Posten erfolgt – in der Regel mit Ende 40.
Wer ein Land führen will, muss seine Fähigkeiten also zuvor in hochrangigen politischen Ämtern bewiesen haben. Was zählt, sind Erfahrung und Professionalität – und zwar unabhängig von den Geschlechtschromosomen. „Wir haben anhand unserer Daten kein typisches Muster finden können, in dem sich der weibliche Weg zur Macht von dem ihrer männlichen Kollegen unterscheidet“, resümiert Müller-Rommel. „Das kam für uns unerwartet.“
Kein Muster an Gleichberechtigung
Das bedeutet aber nicht, dass Europas Regierungen ein Muster an Gleichberechtigung sind. Zwar müssen Frauen und Männer augenscheinlich dieselben Voraussetzungen mitbringen, um in Schlüsselpositionen vorzustoßen. Dennoch sind Frauen in der Politik immer noch stark unterrepräsentiert. Ein möglicher Grund: Männer machen in der Politik schneller Karriere, weil sie bei gleicher Qualifikation bevorzugt werden. Das Sieb vor jedem Karriereschritt wäre bei ihnen in diesem Fall also gröber als bei Frauen. Die Lüneburger Wissenschaftler wollen nun analysieren, ob dieser Mechanismus die geringe Zahl von Premierministerinnen erklären kann.
Die ZDEMO-Forscher haben in ihren Daten zudem zwei interessante Auffälligkeiten ausgemacht. Zum Einen sind Premierministerinnen im Schnitt besser ausgebildet als ihre männlichen Kollegen – sie haben zum Beispiel häufiger studiert und promoviert. Es scheint also so zu sein, dass die Anforderungen an Frauen, die in der Politik Karriere machen wollen, in diesem Punkt höher sind als die an Männer.
Ministerin für „Gedöns“
Im Unterschied zu Männern besetzen Frauen zudem meist wenig prestigeträchtige Ministerposten. Sie sind – um es mit den Worten von Altkanzler Gerhard Schröder zu sagen – eher für „Gedöns“ zuständig als für Finanzen oder das Militär. Sie werden also anscheinend eher auf „weiche“ Themen abgeschoben. Ursula von der Leyen ist in ihrer Position als Verteidigungsministerin (noch) eine Ausnahme – zumindest hierzulande. Denn in den skandinavischen Ländern scheint diese klassische Ressortaufteilung schon mehr oder weniger passé zu sein. „Schweden, Dänemark oder Norwegen sind – und zwar auch in der Politik! – in Sachen Gleichberechtigung ein ganzes Stück weiter als wir“, betont Ina Kubbe. „Die Gleichstellung von Mann und Frau ist dort in der Gesellschaft fest verankert. Das schlägt sich auch in den entsprechenden Rahmenbedingungen nieder, wie etwa der Versorgung mit Kinderbetreuungsplätzen.“
Doch immerhin scheint Europa bei diesem Thema insgesamt etwas voranzukommen. Inzwischen müssen etwa Premierministerinnen nicht mehr als absolute Exotinnen gelten: Zwischen 2010 und 2014 gab es in Europa immerhin sechs Staatslenkerinnen, in den 30 Jahren davor waren es zusammengerechnet acht. Von einem Frauen-Boom in der Politik mag Kubbe dennoch nicht sprechen: „In den 28 EU-Staaten gibt es momentan insgesamt vier Premierministerinnen. Das sind gerade einmal 14 Prozent.“
Kontakt:
Professor Dr. Ferdinand Müller-Rommel
Zentrum für Demokratieforschung, Leuphana Universität Lüneburg
Telefon: 04131/677-2486
E-Mail: muero@uni.leuphana.de
Ina Kubbe
Zentrum für Demokratieforschung, Leuphana Universität Lüneburg
Telefon: 04131/677-2465
E-Mail: ina.kubbe@uni.leuphana.de
Quelle: idw
Rezession und Erneuerbare unschuldig am Preissturz für CO2 in Europa
Fabian Löhe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH
Weder die wirtschaftliche Rezession noch der Ausbau Erneuerbarer Energien sind – wie oft vermutet – Hauptverursacher des massiven Preissturzes im Europäischen Emissionshandelssystem (EU ETS): Sie können gerade mal zehn Prozent des Preisrückgangs von CO2-Zertifikaten erklären. Das ist das Ergebnis einer neuen Studie des Mercator Research Institute on Global Commons and Climate Change (MCC), die im Fachmagazin „Energy Policy“ veröffentlicht worden ist.
Inwieweit die Unsicherheit über künftige politische Regulierung einen Anteil an den noch unerklärlichen 90 Prozent der Preisbildung hat, soll nun Gegenstand weiterer Forschung sein.
Für den Artikel „Gründe für den Preisverfall beim EU ETS“ haben MCC-Researcher Nicolas Koch und seine Kollegen empirisch untersucht, welchen Einfluss verschiedenste Variablen wie Konjunkturdaten, fossile Brennstoffpreise und die Einspeisung Erneuerbarer Energien auf die CO2-Preisentwicklung im Zeitraum von Januar 2008 bis Oktober 2013 hatten. All diese Faktoren beeinflussten den Preis zu nur knapp zehn Prozent. „Die üblichen Verdächtigen wie etwa die Konjunktur oder die Erneuerbaren tragen kaum Verantwortung“, sagt Koch. „Stattdessen geben 90 Prozent der CO2-Preisbildung in Europa weiter Rätsel auf.“
Das EU ETS gilt als eines der wichtigsten Instrumente der europäischen Klimapolitik. Doch die MCC-Ergebnisse kommen zu einer Zeit, in der Reformen heiß diskutiert werden. Denn während 2005 zu Beginn der Einführung des Emissionshandelssystems der Preis für den Ausstoß einer Tonne CO2 noch bei gut 25 Euro pro Tonne lag, mussten Unternehmen Ende 2013 nicht einmal mehr fünf Euro dafür bezahlen. Die EU-Kommission hat daher mit ihren Klimaschutz- und Energiezielen bis zum Jahr 2030 einen Reformvorschlag für den CO2-Handel vorgelegt.
„Wir halten es für wahrscheinlich, dass die Unsicherheit der Investoren, ob politische Ankündigungen zu langfristigen Klimazielen nun tatsächlich umgesetzt werden oder nicht, einen großen Einfluss auf den niedrigen Preis haben“, sagt Koch. „Derzeit ist der Ansporn sehr gering, auf neue, CO2-arme Technologien umzustellen. Die Politik muss auch über 2030 hinaus langfristige Pfade zur CO2-Reduktion aufzeigen.“
Ottmar Edenhofer, Direktor des MCC und Chefökonom am Potsdam-Institut für Klimafolgenforschung (PIK), regt daher einen verbindlichen Preiskorridor für das EU ETS an. „Wir brauchen einen Mindestpreis, um die Unternehmen zu Investitionen in kohlestoffarme Technologien zu ermuntern“, sagt er. „Gleichzeitig wäre aus unserer Sicht aber auch eine Preisobergrenze wichtig, damit bei einer steigenden Konjunktur diese nicht wieder abgewürgt wird.“ Darüber hinaus schlägt er eine sektorale Erweiterung des EU ETS auf den Transport- und Gebäudesektor vor.
Über das MCC
Das MCC erforscht nachhaltiges Wirtschaften sowie die Nutzung von Gemeinschaftsgütern wie globalen Umweltsystemen und sozialen Infrastrukturen vor dem Hintergrund des Klimawandels. Fünf Arbeitsgruppen forschen zu den Themen Wirtschaftswachstum und -entwicklung, Ressourcen und Internationaler Handel, Städte und Infrastrukturen, Governance sowie wissenschaftliche Politikberatung. Das MCC ist eine gemeinsame Gründung der Stiftung Mercator und des (PIK).
Weitere Informationen:
http://www.mcc-berlin.net
http://www.sciencedirect.com/science/article/pii/S0301421514003966
Quelle: idw
Von welchem Elternteil Gene geerbt werden beeinflusst Alter der Sexualreife
Dr. Nadja Becker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt
Das Alter, in dem Mädchen die Geschlechtsreife erreichen, wird durch sogenannte genetische Prägung bestimmt. Dabei wird die Genaktivität allein von väterlichen oder mütterlichen Genen bestimmt – je nachdem welche Gene vererbt wurden, berichten Wissenschaftler in der Fachzeitschrift ‘Nature‘. Für die internationale Studie mit über 180.000 Teilnehmern arbeiteten 166 Forschungseinrichtungen zusammen, darunter das Helmholtz Zentrum München.
Das Team analysierte in 57 Studien das genetische Material von 182.416 Frauen und konnte so 123 genetische Varianten identifizieren, die mit dem Zeitpunkt der ersten Regelblutung bei Mädchen assoziiert sind. Sechs dieser Genvarianten sind in „geprägten“ Regionen des Genoms lokalisiert.
Am Helmholtz Zentrum München waren Wissenschaftler um Dr. Christian Gieger, Dr. Doris Stöckl und Dr. Melanie Waldenberger von den Instituten für Genetische Epidemiologie und Epidemiologie II sowie von der Abteilung Molekulare Epidemiologie an der Studie beteiligt. Sie werteten dazu Daten der bevölkerungsbasierten KORA*-Studie aus.
„Die Ergebnisse geben erstmals Einblicke in die genetische Regulation der Geschlechtsreife“, erklärt Gieger. „Das Alter der ersten Regelblutung wird immer wieder mit dem Auftreten chronischer Erkrankungen wie Diabetes mellitus oder Herz-Kreislauf-Erkrankungen in Verbindung gebracht“, ergänzt Stöckl, „daher können die genetischen Assoziationen auch für die Erforschung dieser Volkskrankheiten neue Erkenntnisse liefern.“
Zur Pressemitteilung der University of Cambridge http://www.mrc-epid.cam.ac.uk/age-of-puberty-in-girls-imprinted-genes/
Weitere Informationen
*KORA (Kooperative Gesundheitsforschung in der Region Augsburg)
Seit über 20 Jahren wird in der international bekannten KORA-Studie die Gesundheit tausender Bürger aus dem Raum Augsburg untersucht, um die Auswirkungen von Umweltfaktoren, Verhalten und Genen zu erforschen. Kernthemen der KORA-Studien sind Fragen zu Entstehung und Verlauf von chronischen Erkrankungen, insbesondere Herzinfarkt und Diabetes mellitus. Hierzu werden Risikofaktoren aus dem Bereich des Gesundheitsverhaltens (u.a. Rauchen, Ernährung, Bewegung), der Umweltfaktoren (u.a. Luftverschmutzung, Lärm) und der Genetik erforscht. Aus Sicht der Versorgungsforschung werden Fragen der Inanspruchnahme und Kosten der Gesundheitsversorgung untersucht (www.helmholtz-muenchen.de/kora).
Original-Publikation:
Perry, JRB et al. (2014). Parent-of-origin specific allelic associations among 106 genomic1 loci for age at menarche, Nature, doi: 10.1038/nature13545
Link zur Fachpublikation: http://www.nature.com/nature/journal/vaop/ncurrent/full/nature13545.html
Das Helmholtz Zentrum München verfolgt als deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.200 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 34.000 Beschäftigten angehören. www.helmholtz-muenchen.de
Fachlicher Ansprechpartner
Dr. Christian Gieger, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Genetische Epidemiologie, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel.: 089-3187-4106 – E-Mail: christian.gieger@helmholtz-muenchen.de
Weitere Informationen:
http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…
Quelle: idw
Kurzes Aufatmen am Ostseegrund: Sauerstoff im Tiefenwasser der zentralen Ostsee gemessen
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Aktuelle Messdaten des IOW zeigen: Sauerstoffreiches Salzwasser aus der Nordsee hat das Gotland-Becken erreicht und verdrängt zum ersten Mal seit 2003 den Schwefelwasserstoff in den Tiefen der zentralen Ostsee.
Nach einer langen Phase von Sauerstoffmangel im Tiefenwasser der zentralen Ostsee zeigen die Ergebnisse der aktuellen IOW-Messkampagne vom 19.-30. Juli dieses Jahres, dass Sauerstoff-reiches Salzwasser die Tiefenbecken der zentralen Ostsee erreicht hat. Damit wird eine seit 2003 anhaltende Phase von Sauerstoffzehrung und zunehmender Schwefelwasserstoffbildung unterbrochen und die Lebensbedingungen höherer Lebewesen in diesen oft als „Todeszonen“ bezeichneten Bereichen leicht verbessert.
Zuletzt war es im November/Dezember 2011 zu einem ähnlichen Ereignis gekommen, das jedoch lediglich das Tiefenwasser der südlichen Ostsee einschließlich der Danziger Bucht belüftete. Das aktuell gemessene Ereignis schaffte es, weiter nach Nordosten bis in das zentrale Gotland-Becken vorzudringen. Dort versorgte der Einstrom die bodennahe Wasserschicht in Tiefen zwischen 200 und 240 Meter zwar nur mit geringen Sauerstoffmengen – es wurden rund 0,37 ml/l gemessen -, er verdrängte jedoch den giftigen Schwefelwasserstoff. Die weiter nördlich liegenden Teile des Gotland-Beckens wurden im Messzeitraum noch nicht von diesem Einstrom erreicht. Das IOW wird den weiteren Verlauf verfolgen.
Als Auslöser dieses Ereignisses nehmen die Warnemünder OstseeforscherInnen zwei länger anhaltende Phasen von westlichen Winden im Februar und März 2014 an. In den Wasserstandsdaten vom 3.-20. Februar und 8.-19. März sind zwei kleinere windinduzierte Einstromereignisse mit geschätzten Volumina von ~ 141 km3 und ~ 203 km3 zu verzeichnen. Das Märzereignis, das die größere Wassermenge mit sich brachte, wurde durch die Abfolge der Sturmtiefs „Danli“, „Ev“ und „Feliz“ über Skandinavien mit Kerndrücken zwischen 960-990 hPa ausgelöst.
Die Schiffsexpedition vom 19.-30. Juli 2014 ist eine von fünf Messkampagnen zur Umweltüberwachung der Ostsee, die das IOW jährlich auf einem festen Stationsnetz, das bis in das Gotlandbecken reicht, durchführt. Innerhalb der deutschen Ausschließlichen Wirtschaftszone (AWZ) erfüllt das IOW damit im Auftrage des Bundesamtes für Seeschifffahrt und Hydrographie (BSH) den Beitrag zur Überwachung der Meeresumwelt der Ostsee, zu dem sich die Bundesrepublik Deutschland im Rahmen des Helsinki-Abkommens (HELCOM) verpflichtet hat. Die gewonnenen Daten werden für regelmäßige nationale und internationale Zustandseinschätzungen der Ostsee genutzt, finden Eingang in zahlreiche Publikationen und stellen die wissenschaftliche Basis für einzuleitende Maßnahmen zum Schutz des Ökosystems der Ostsee dar.
Kontakt:
Dr. Günther Nausch, Sektion Meereschemie, Arbeitsgruppe Allgemeine Meereschemie (Nährstoffanalytik), IOW
(Tel.: 0381 / 5197 332, Email: guenther.nausch@io-warnemuende.de)
Dr. Michael Naumann, Sektion Physikalische Ozeanographie und Messtechnik, IOW (Tel.: 0381 / 5197 267, Email: michael.naumann@io-warnemuende.de)
Nils Ehrenberg, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 106, Email: nils.ehrenberg@io-warnemuende.de)
Hintergrund Salzwassereinbrüche
Der Wasserkörper der Ostsee ist permanent geschichtet mit salzärmerem Oberflächenwasser, das ständig durch den Eintrag von Süßwasser der zahlreichen in die Ostsee mündenden Flusssysteme gespeist wird. Diese Deckschicht steht im ständigen Austausch mit der Atmosphäre und ist durch Windeinmischung, temperaturbedingte Umwälzungsprozesse sowie biologische Produktion gut mit Sauerstoff versorgt. Ab einer Tiefe von rund 70 m, also in Bereichen, die durch die Winddurchmischung nicht mehr erfasst werden, zeigt die Ostsee ihre enge Bindung an die Nordsee: hier sammelt sich das gelegentlich durch die Beltsee in die Ostsee einströmende Nordseewasser. Da es salzhaltiger ist als das Ostseewasser, ist es auch schwerer und fließt am Boden der Ostsee entlang in die Tiefenbecken. Beide Schichten mischen sich nur sehr geringfügig, so dass eine dauerhafte Schichtung in der Ostsee besteht. Feste Partikel, wie abgestorbene organische Substanz, passieren die Grenze dieser beiden Wasserkörper meist problemlos, im Wasser gelöste Gase wie Sauerstoff werden jedoch effektiv zurück gehalten. Der Sauerstoffgehalt des Tiefenwassers nimmt daher durch die Zersetzung des herabgesunkenen organischen Materials ständig ab. Bei der Unterschreitung von Schwellenwerten entsteht dort sogar giftiger Schwefelwasserstoff. Eine Verbesserung dieses Zustandes kann nur durch den Zustrom großer Mengen von Nordseewasser erfolgen, welches in Kontakt mit der Atmosphäre war und deshalb reich an Sauerstoff ist.
Dieser horizontale Wasseraustausch wird jedoch durch untermeerische Schwellen in der westlichen Ostsee erschwert. Nur in speziellen Sturmsituationen aus Nordwest kann das salzreiche Tiefenwasser über diese natürlichen Barrieren gepresst werden, um östliche/zentrale Ostseeteile mit neuem Sauerstoff zu versorgen. Diese Gebiete sind die sogenannte Darßer Schwelle, eine ausgedehnte Sandebene zwischen der dänischen Insel Møn und der Halbinsel Fischland-Darß-Zingst mit 18-19 m Wassertiefe und die Drodgen Schwelle im Öresund. Sie liegt zwischen der dänischen Insel Seeland und dem schwedischen Festland mit einer Wassertiefe von etwa 8-9m.
Seit 2003 fand kein größerer Zustrom mehr statt, so dass in den tiefen Bereichen der zentralen Ostsee, in Wassertiefen über 90 m, der Sauerstoff völlig aufgebraucht war und verstärkte Schwefelwasserstoffbildung eingesetzt hatte. Dadurch waren die biologischen Lebensbedingungen in diesen Gebieten stark eingeschränkt. In den Medien ist in diesem Zusammenhang häufig von „Todeszonen“ die Rede.
http://www.io-warnemuende.de/mitteilung/items/salzwassereinbruch-2014.html
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 17.200 MitarbeiterInnen, davon sind ca. 8.200 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,5 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr. (www.leibniz-gemeinschaft.de)
Quelle: idw
Frauenquote in Norwegen hat wenig gebracht
Mark Fallak Presse- und Öffentlichkeitsarbeit
Institut zur Zukunft der Arbeit
Die seit 2008 geltende Frauenquote in norwegischen Unternehmen hat für weibliche Beschäftigte unterhalb der Führungsebene keine Karriere- oder Einkommensvorteile gebracht. So lautet das Fazit einer aktuellen Studie, die das Bonner Institut zur Zukunft der Arbeit (IZA) veröffentlicht hat. Ein Team aus vier internationalen Ökonominnen zieht darin eine gemischte Bilanz: Einerseits hat die Quote die männlichen Seilschaften an den Konzernspitzen erfolgreich aufgebrochen. Andererseits hat sich an der Situation von hochqualifizierten Frauen in der Wirtschaft insgesamt praktisch nichts geändert. Die Wissenschaftlerinnen warnen daher vor zu hohen Erwartungen an eine gesetzliche Frauenquote.
Im Jahr 2003 hatte die norwegische Regierung eine Quotenregelung beschlossen, um mehr Frauen in Führungspositionen zu bringen und die Einkommensnachteile gegenüber Männern abzubauen. Damals waren kaum mehr als fünf Prozent der Posten in den Verwaltungsräten börsennotierter Unternehmen mit Frauen besetzt. Ab 2008 musste der Anteil auf mindestens 40 Prozent steigen. Entsprechend groß war der Widerstand in der Wirtschaft. Einige Unternehmen änderten sogar ihre Rechtsform, um der Reform zu entgehen.
Die IZA-Studie der Ökonominnen Marianne Bertrand, Sandra Black, Sissel Jensen und Adriana Lleras-Muney entkräftet zunächst das Argument der Quotengegner, es mangele an qualifizierten Frauen für die höchsten Führungspositionen. Das formale Qualifikationsniveau der weiblichen Mitglieder in den Verwaltungsräten liegt heute sogar höher als vor der Reform. Auch gingen die Einkommensunterschiede innerhalb dieser Gremien deutlich zurück.
In der restlichen Belegschaft der Unternehmen hatte die Quote allerdings keine Auswirkungen. Der Frauenanteil im mittleren Management blieb nahezu unverändert. Auch der Einkommensunterschied zwischen hochqualifizierten Männern und Frauen unterhalb der Führungsebene liegt nach wie vor bei rund 15 Prozent. Offenbar sorgt die Frauenquote also nicht wie erhofft dafür, dass der weibliche Führungsnachwuchs gezielt gefördert wird.
Die Autorinnen geben zwar zu bedenken, dass seit der Reform erst wenige Jahre vergangen sind. Allerdings sprechen ihre Befragungen unter Hochschulabsolventinnen nicht dafür, dass sich in absehbarer Zeit viel ändern wird: Weder strömen vermehrt Frauen in Business-Studiengänge, noch haben sich die Einstiegsgehälter der Absolventinnen denen ihrer männlichen Kollegen angepasst. Hier klafft je nach Studiengang noch immer eine Lücke von 22 bis 27 Prozent. Zwar erhofft sich ein Großteil der hochqualifizierten jungen Frauen Einkommens- und Karrierevorteile durch die Quote. Doch die wenigsten von ihnen haben vor, ihre Familienplanung zugunsten der Karriere zurückzustellen.
Weitere Informationen und den Link zur Studie finden Sie unter:
http://newsroom.iza.org/de/2014/07/30/frauenquote-in-norwegen/
Quelle: idw
Häusliche Abwässer energetisch nutzen
Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH
Stadtquartier deckt Hälfte des Energiebedarfs durch lokale Erzeugung
Die im häuslichen Abwasser enthaltenen Fäkalien, das sogenannte Schwarzwasser, können zur Biogaserzeugung genutzt werden. Bisher geschah das meist am Ende aller Abwasserkanäle zentral auf der Kläranlage. Das BINE-Projektinfo „Energie aus Abwasser versorgt Stadtquartier“ (09/2014) stellt ein alternatives Konzept für das neue Stadtviertel Jenfelder Au in Hamburg vor. Hier werden die einzelnen Teilströme des Abwassers im Haushalt nicht mehr gemischt, sondern getrennt abgeleitet. Dadurch lässt sich das konzentrierte Schwarzwasser besonders effizient in einer dezentralen Biogasanlage nutzen. Das separat abgeführte Regenwasser wird verwendet, einen Teich zu füllen.
Im neuen Hamburger Stadtquartier Jenfelder Au im Bezirk Wandsbek sollen auf 35 Hektar insgesamt 770 Wohneinheiten für ca. 2.000 Menschen entstehen. Neben zwei sanierten ehemaligen Kasernengebäuden entstehen zu mehr als 80 Prozent Neubauten. Alle Häuser sind mit Vakuumtoiletten ausgestattet, die mit vergleichsweise wenig Spülwasser auskommen. Das Abwasserkonzept sieht vor, die drei Teilströme Grauwasser aus Küche und Bad, Regenwasser und Schwarzwasser getrennt zu erfassen und abzuleiten. Das bei der Vergärung des Schwarzwassers erzeugte Biogas wird über eine Mikrogasturbine in Strom und Wärme umgewandelt. Auf diesem Weg lassen sich etwa 40 Prozent des Wärme- und 50 Prozent des Strombedarfs im Viertel aus der lokalen Erzeugung decken. Damit entsteht in Jenfeld ein neues Stadtviertel, das im großen Maßstab Abwasserentsorgung und Energieerzeugung kombiniert.
Die Baumaßnahmen laufen derzeit und die ersten Bewohner werden ab 2015 im neuen Quartier leben. Die Projektleitung der Maßnahme oblag der HAMBURG WASSER in Zusammenarbeit mit der kommunalen Verwaltung.
Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 92379-0.
BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.
Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr
Quelle: idw
Wasserentsalzung – umweltschonend und effizient
Thomas von Salzen Pressestelle
Rheinisch-Westfälische Technische Hochschule Aachen
Aachener Forscherteam entwickelt hocheffizientes und kontinuierliches Verfahren, das auf neuartigen Elektroden aus Kohlenstoffpartikeln basiert.
Die Weltmeere enthalten 95 Prozent der irdischen Wasserressourcen. Kein Wunder also, dass weltweit mehr und mehr Länder auf die Entsalzung von Meerwasser setzen, um kostbares Trinkwasser zu gewinnen. Wissenschaftlern und Wissenschaftlerinnen des DWI – Leibniz-Institut für Interaktive Materialien und der Aachener Verfahrenstechnik (RWTH Aachen University) gelang nun die Entwicklung einer umweltfreundlichen und zugleich sehr effizienten Technologie zur Wasserentsalzung. Das elektrochemische Verfahren basiert auf neuartigen Elektroden aus Kohlenstoff-Partikeln und ermöglicht eine kontinuierliche Regeneration der Elektroden während des laufenden Entsalzungsprozesses (Electrochemistry Communications, 2014).
Die aktuell gängigste Methode zur Entsalzung von Wasser ist die Umkehrosmose. Unter hohem Druck von 60-80 bar wird Meerwasser gewissermaßen filtriert und durch eine feine Membran gepresst, die das Salz zurückhält. Neben dem Energieverbrauch ist auch die geringe Ausbeute an entsalztem Wasser von gerade einmal 45-50 Prozent eine wesentliche technische Hürde. Elektrochemische Prozesse bieten hier eine vielversprechende Alternative. Die Bestandteile des Salzes, Anionen und Kationen, werden von Elektroden an einer internen Oberfläche kapazitiv aufgenommen und auf diese Weise aus dem Wasser entfernt. Einschränkungen gab es hierbei bislang bei der Kapazität und Regeneration der Elektroden.
Das Aachener Forscherteam um Professor Matthias Wessling entwickelte nun einen vollständig kontinuierlichen elektrochemischen Entsalzungsprozess. Er basiert auf sogenannten Flow-Elektroden, die aus Suspensionen positiv und negativ geladener Kohlenstoff-Partikel bestehen. „Die Kohlenstoff-Partikel der Elektroden binden das im Wasser vorhandene Salz extrem gut. Mit 260 Milligramm Salz pro Gramm Kohlenstoff-Partikel liegt der Wert mindestens um den Faktor 10 höher als bei zuvor beschriebenen Prozessen dieser Art“, erklärt Matthias Wessling.
Darüber hinaus beschreibt das Forschungsteam einen neuartigen kontinuierlichen Entsalzungsprozess. Im ersten Modul der verwendeten Apparatur binden die Flow-Elektroden Salz aus dem Wasser. In einem zweiten Modul werden die Elektroden-Partikel fortwährend regeneriert. Sie gelangen anschließend wieder in das erste Modul, wo sie erneut Salz-Ionen aus dem Wasser aufnehmen. Bei einer Ausgangskonzentration vom einem Gramm Salz pro Liter Wasser konnten Matthias Wessling und Kollegen auf diese Weise in 90 Prozent des zufließenden Wassers 99 Prozent des enthaltenen Salzes entfernen. Die restlichen zehn Prozent des Wassers dienen der Regeneration der Elektroden-Partikel. Sie nehmen die im Regenerationsprozess freigesetzten Ionen auf, sodass hier ein Salzkonzentrat entsteht.
Als eine Art ‚Hybrid-Professor‘ ist Matthias Wessling einerseits Lehrstuhlinhaber an der RWTH Aachen University, andererseits gehört er der wissenschaftlichen Leitung des DWI – Leibniz-Institut für Interaktive Materialien an. „Meine Teams in der Aachener Verfahrenstechnik und im Leibniz-Institut arbeiten komplementär. Bei diesem Projekt waren die RWTH-Mitarbeiter für die Prozessentwicklung zuständig, während das Team am DWI die benötigten Materialien angefertigt hat.“
Publikation:
Y. Gendel, A. K. E. Rommerskirchen, O. David, M. Wessling, Batch mode and continuous desalination of water using flowing carbon deionization (FCDI) technology, Electrochemistry Communications (2014), DOI: 10.1016/j.elecom.2014.06.004
Kontakt:
DWI – Leibniz-Institut für Interaktive Materialien
Dr. Janine Hillmer
hillmer@dwi.rwth-aachen.de
T +49 241 80 23336
M +49 178 1404852
Weitere Informationen:
http://authors.elsevier.com/a/1PP4n4xfgpiVTl
Quelle: idw
Vielen Deutschen mangelt es an Zeit
Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg
Alleinerziehende und Selbstständige sind besonders oft betroffen.
Vielen Menschen in Deutschland fehlt es an Zeit. Das zeigt eine Studie der Leuphana Universität Lüneburg, die in Kürze in der Fachzeitschrift „Journal of Economic Inequality“ erscheint. Die Forscher zeigen darin, dass zu wenig Zeit die Lebenszufriedenheit ähnlich beeinträchtigt wie zu wenig Geld. Sie schlagen daher einen neuen Armutsbegriff vor, der auch den Mangel an Freizeit berücksichtigt. Nach dieser Definition liegt in Deutschland jeder achte Erwerbstätige unter der Armutsgrenze. Bei Alleinerziehenden ist jeder Fünfte betroffen, bei Selbstständigen sogar jeder Dritte.
Die Wissenschaftler haben für ihre Studie unter anderem Daten des Sozioökonomischen Panels (SOEP) ausgewertet. Seit 1984 werden darin über 20.000 Menschen aus ganz Deutschland zu verschiedenen Themen befragt. Die Stichprobe ist nach dem Zufallsprinzip zusammengesetzt. Sie liefert daher ein repräsentatives Bild der Lebensumstände in Deutschland.
Die Teilnehmer machen unter anderem Angaben zu ihrem Einkommen sowie zu der Zeit, die sie täglich mit bestimmten Aufgaben verbringen. Außerdem geben sie zu Protokoll, wie sehr sie mit ihrem Leben zufrieden sind. Die Lüneburger Wirtschaftswissenschaftler Professor Dr. Joachim Merz und Tim Rathjen haben diese drei Parameter nun zueinander in Beziehung gesetzt. „Zu wenig Zeit zu haben, beeinträchtigt die Lebenszufriedenheit ganz ähnlich, wie zu wenig Geld zu haben“, fasst Merz einen Kernbefund der Analyse zusammen.
Zeitmangel lässt sich durch Geld zum Teil kompensieren
Ein zweites wichtiges Ergebnis: Zeitmangel lässt sich zumindest teilweise durch ein höheres Einkommen kompensieren – und umgekehrt. Wer viel verdient und nur wenig Freizeit hat, ist also im Schnitt ähnlich zufrieden wie jemand mit einem geringen Einkommen, aber viel Freizeit.
Merz und Rathjen haben aus diesen Zusammenhängen ein neues Armutsmodell entwickelt. Momentan zählt nach einer gängigen EU-Definition als arm, wer weniger als 60 Prozent des mittleren Einkommens in seinem Land verdient. „Wir haben in den SOEP-Daten nur diejenigen Befragten berücksichtigt, die mehr als 20 Stunden pro Woche arbeiten“, erläutert Merz. „Von diesen lagen zum Erhebungszeitpunkt rund 6,8 Prozent unter dieser Einkommensgrenze. Diese 6,8 Prozent sind die so genannten ‚working poor‘: Sie sind im klassischen Sinne arm, obwohl sie mehr als 5 Stunden täglich arbeiten.“
Die neue Definition bezieht nun aber erstmals auch mit ein, wie viel persönliche Freizeit den Befragten zur Verfügung steht. „Dadurch rutschen einige Personen trotz ihres geringen Einkommens aus der Armutszone“, erklärt der Ökonom. „Andererseits kommen aber Menschen hinzu, die zwar genug verdienen, denen aber durch Arbeit, Kindererziehung und andere Verpflichtungen so wenig Freizeit bleibt, dass sie nach unserer Definition dennoch als arm zu bezeichnen sind.“ Merz spricht von einer multidimensionalen Armutsdefinition (mit den Dimensionen Einkommen und Zeit). Nach ihr gelten 12,3 Prozent der Deutschen als arm – also fast doppelt so viele wie nach der Einkommens-fixierten Sichtweise.
Gefährdet: Alleinerziehende, Selbstständige, Kinderreiche
Um diese Zahl zu erhärten, nutzten die Forscher zusätzlich eine Umfrage aus den Jahren 2001/2002, die Zeitbudget-Erhebung des Statistischen Bundesamtes. Rund 35.000 Personen haben darin mittels detaillierter Zeittagebücher ihren Tagesablauf im Zehn-Minuten-Rhythmus erfasst.
„Mit Hilfe dieser Daten können wir sehr genau sagen, welche Personengruppen besonders häufig multidimensional arm sind“, sagt Merz. Alleinerziehende etwa haben oft ein vergleichsweise geringes Einkommen. Gleichzeitig sind sie jedoch durch Arbeit und Erziehungsaufgaben so in Anspruch genommen, dass sie nach der neuen Definition überproportional häufig unter die Armutsgrenze sinken. Mehr als 19 Prozent waren 2001/2002 betroffen. Kinderreiche Familien sind ebenfalls gefährdet; Paare mit drei oder mehr Kindern fielen zu 31,6 Prozent unter die neue Armuts-Definition.
Unter Selbstständigen lag die Quote mit 29,4 Prozent ähnlich hoch. Das liegt vor allem an ihren langen Arbeitszeiten: „Fast zwei Drittel der erfassten Selbstständigen sind ‚zeit-arm'“, erläutert Merz. „Ihnen steht weniger als 60 Prozent der Freizeit zur Verfügung, die die Befragten im Mittel angaben.“
Und noch ein Schluss lässt sich aus den Daten ziehen: Vor multidimensionaler Armut schützt (ähnlich wie vor Einkommens-Armut) am besten eine gute Ausbildung. Bei den Befragten mit Hochschulabschluss lag die multidimensionale Armuts-Quote nur bei 9,4 Prozent.
Merz, J. , & Rathjen, T. (2014). Multidimensional time and income poverty: Well-being gap and minimum 2DGAP poverty intensity – German evidence. Journal of Economic Inequality, 1-26; DOI: 10.1007/s10888-013-9271-6
Kontakt:
Prof. Dr. Joachim Merz
Forschungsinstitut Freie Berufe, Leuphana Universität Lüneburg
Telefon: 04131/677-2051
E-Mail: merz@uni.leuphana.de
Quelle: idw
Schadstoffe im Abwasser mit Plasma abbauen
Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB
Einen neuen Ansatz für die Reinigung von Abwässern mit biologisch schwer abbaubaren Verbindungen untersuchen Fraunhofer-Wissenschaftler in dem vom BMBF geförderten Projekt »Wasserplasmax«. Mit einem ersten Plasmareaktor konnten sie zuvor bereits Cyanide erfolgreich abbauen.
Halogenierte Verbindungen aus Industrieabwässern, beispielsweise fluorierte Tenside, sind ebenso wie einige Arzneimittel aus Klinikabwässern oder Cyanid-Verbindungen aus der Galvanik nur schwer biologisch abbaubar. Um zu verhindern, dass sich diese Schadstoffe in der Umwelt anreichern, muss das Abwasser mit speziellen Reinigungsverfahren behandelt werden. Hierzu wird das Abwasser in der Regel mit oxidativ wirkenden Techniken aufbereitet, die beispielsweise Wasserstoffperoxid oder Ozon als Oxidationsmittel nutzen. Einen neuen Ansatz verfolgt das vom Bundesministerium für Bildung und Forschung (BMBF) als »wissenschaftliches Vorprojekt« (WiVoPro) geförderte Projekt »Wasserplasmax«. In diesem Projekt untersuchen Wissenschaftler am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, wie Schadstoffe im Abwasser mithilfe von Plasmaverfahren abgebaut werden können – mit oxidierenden Radikalen und UV-Strahlung, welche direkt im Plasma erzeugt werden.
Ein Plasma ist ein ionisiertes Gas, das neben Ionen und Elektronen auch chemische Radikale und weitere elektronisch angeregte Teilchen sowie kurzwellige Strahlung enthält. Ein solches Plasma lässt sich durch ein elektromagnetisches Feld, beispielsweise durch Anlegen einer Hochspannung, zünden. Zur Anwendung in der Wasserreinigung eignet sich ein Atmosphärendruckplasma. »Bringt man verunreinigtes Wasser in Kontakt mit einem solchen Plasma, so reagieren die Radikale mit den im Wasser gelösten Schadstoffen. Auch die durch das Plasma erzeugte Strahlung wirkt über photochemische Prozesse auf die Schadstoffe ein. In beiden Fällen werden die Schadstoffe oxidiert und dadurch unschädlich gemacht«, erläutert Dr. Michael Haupt, Leiter des Projekts und Gruppenleiter »Plasmatechnik und dünne Schichten« am Fraunhofer IGB, das Prinzip.
Dass die Plasmatechnologie ein Ansatz ist, den es sich weiter zu verfolgen lohnt, konnten die Wissenschaftler mit Kollegen internationaler Partner in dem von der EU geförderten Projekt »Water Plasma« bereits zeigen. Wird cyanidhaltiges Industrieabwasser (1,5 mg Cyanid pro Liter) mit zusätzlicher hoher organischer Fracht in einem eigens konstruierten Plasmareaktor behandelt, nimmt die Konzentration von Cyanid innerhalb von nur 90 Minuten um mehr als 90 Prozent bis unter die Nachweisgrenze ab [M. Hijosa-Valsero, R. Molina, H. Schikora, M. Müller, J. M. Bayona, Water Research 47 (2013): 1701-1707]. »Um nun herauszufinden, welche Wechselwirkungen zwischen den reaktiven Plasmaspezies und im Wasser gelösten Schadstoffen am besten zum Abbau der Schadstoffe führen, wollen wir bei Wasserplasmax drei verschiedene Reaktortypen aufbauen und umfassend testen«, beschreibt Haupt den aktuellen Fokus. Bei einem Reaktor wird daher, wie auch zuvor im EU-Projekt, ein kontinuierlicher Wasserfilm direkt am Plasma vorbeiströmen. In einem zweiten Reaktor soll das zu behandelnde Abwasser zunächst mittels einer Düse zerstäubt werden, sodass fein vernebelte Tröpfchen die Plasmazone passieren. »In einem dritten Reaktortyp schließlich wollen wir untersuchen, ob zusätzliche photokatalytische Schichten die Abbauprozesse verstärken«, verrät Haupt. Fällt UV-Licht auf photokatalytische Oberflächen, so werden Radikale erzeugt. »Wenn wir die photokatalytischen Schichten so in den Reaktor integrieren, dass die im Plasma erzeugte UV-Strahlung genutzt werden kann, könnten theoretisch ohne zusätzlichen Energiebedarf weitere reaktive Radikale entstehen«, ist der Wissenschaftler überzeugt.
Die Reaktorkonfiguration mit den besten Ergebnissen soll schließlich als Demonstrator aufgebaut werden, um reales Industrieabwasser im größeren Maßstab zu untersuchen. Neben einem möglichst vollständigen Abbau der Modellschadstoffe spielt auch ein geringer Energieverbrauch eine wichtige Rolle, um die Plasmatechnologie als neues Wasserbehandlungsverfahren etablieren zu können.
Weitere Informationen:
http://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2014/schadstof…
– Originalmeldung mit Ansprechpartner
Quelle: idw
Wie das Internet die Welt und unser Verständnis von ihr verändert
Kay Gropp Pressestelle
Universität Witten/Herdecke
Prof. Dr. Birger P. Priddat beschreibt in seinem neuen Buch „Homo Dyctos“ (Netzmensch) den Zusammenhang von Wirtschaft und Denken
Im Jahr Eins nach den Enthüllungen von Edward Snowden zu den Methoden der NSA im Netz steht das Internet plötzlich vor einem großen Imageschaden: Vorher die große Hoffnung auf die große Freiheit und das jederzeit sofort überall dabei sein, nachher die bedrohliche Schnüffelmaschine, die die Privatsphäre zur Lachnummer macht. Für den Philosophen und Volkswirt der Universität Witten/Herdecke, Prof. Dr. Birger P. Priddat, ein Grund genauer hin zu sehen: Er untersucht drei Phänomene: Verhaltensänderungen des Menschen im Umgang mit und durch das Internet, Big Data und den Hochgeschwindigkeitshandel an den Börsen.
Priddat versucht hierbei, z.B. das Phänomen der Urheberrechtsverletzungen im Internet neu zu verstehen. Massenhafter und in einer juristischen Welt verbotener Download von Filmen und Musik gehört zu einem „remix“ von Bildern und Tönen, die in Blogs und Foren wie Facebook oder tumblr eine neue Art der Selbstdarstellung und der „ich-Konstruktion“ ermöglichen. „Der Konsum ist nicht mehr nur private Aneignung, sondern nimmt netz-öffentliche Formen an. Der Konsum erfolgt durch die Anderen, denen man sich so präsentiert. Man selber konsumiert deren Anerkennung bzw. Resonanz.“ (S. 15f) Oder an anderer Stelle geht er auf die Allgegenwärtigkeit des Netzes ein: „Das Inter-Netz forciert nicht nur das Gefühl, weltweit überall zugreifen zu können (permanent access) und dabei zu sein (high level presence), sondern auch das – aus klassischer Perspektive dilettierende – Probieren neuer Konstellationen (creativity). Wahrnehmungen (und deren remixe) gelten bereits schon als Wissen“. (S. 37f)
Die Überwachung unserer Klicks bei Amazon und Co führt zu persönlichen Profilen, die mir nur noch die Werbung zeigt, die ich auch mag und mich interessiert. Durch diese Datenberge (Big Data) verändert sich aber nicht nur mein Konsum. Indem ich viel individueller angesprochen und zum Kaufen angereizt werde, verändert sich auch ein Teil meiner Persönlichkeitsstruktur.
Zum Hochgeschwindigkeitshandel an den Börsen: Das hektische Treiben auf dem Börsenparkett, das Ballett der Händler mit ihrem Winken, das alles ist verglichen mit dem Hochgeschwindigkeitshandel der Computer eine Superzeitlupe: Zum Jahreswechsel 2012/13 konnten die Rechner in jeder Sekunde 250.000 Aktienkäufe bzw. -verkäufe durchführen, 2014 werden es vermutlich schon 400.000 sein. Diese hohe Geschwindigkeit nutzen die Programme dazu, Käufe anzufragen und Millisekunden später wieder abzusagen, nur um zu sehen, ob jemand drauf anspringt und wo das Geld sitzt. Smoking und spoofing heißt das auf Börsendeutsch. 80% der Aufträge im Hochgeschwindigkeitshandel der deutschen Börse werden wieder storniert. Aber wenn man auch nur eine Aktie für einen Cent über dem Einkaufspreis wieder verkaufen kann, bringt das im großen Maßstab großen Gewinn: In der Börsenrushhour zwischen 15 und 16 Uhr wurden 2013 pro Tag 70 – 80 Millionen Wertpapiere gehandelt, macht rein theoretisch 700.000 – 800.000 Euro Gewinn täglich. Die Deutsche Bank verdient 40 Prozent ihrer Gesamterträge im Wertpapierbörsenhandel. „Der Hochgeschwindigkeitshandel verändert unsere Vorstellungen von Akteuren und von Zeit. Und: Er führt zu einer Veränderung bei unserer Vorstellung von ‚Entscheidung‘, denn tatsächlich entscheidet die Maschine ja nicht, sie reagiert nur so schnell, dass es wie eine Entscheidung aussieht“, fasst Priddat die Auswirkung zusammen. „Wenn wir das jetzt auf uns Menschen übertragen, dann fehlt das Moment des rationalen Vergleichens und Entscheidens, was ja den Kern der Ökonomik mit dem vernünftigen und informierten Subjekt ausmacht. Diese Rationalität entpuppt sich als Zeitluxus, weil keine Zeit mehr zum Überlegen bleibt. Das erst mal zu verstehen, ist eine bedeutsame Anforderung an die Theorien, die wir bislang noch vor uns haben.“
Birger P. Priddat: Homo Dyctos. Netze, Menschen, Märkte. Über das neue Ich: market-generated identities. Marburg: Metropolis 2014
http://www.metropolis-verlag.de/Homo-Dyctos/1067/book.do
Weitere Informationen bei Birger P. Priddat, 02302/926-582, birger.priddat@uni-wh.de
http://www.uni-wh.de/universitaet/personenverzeichnis/details/show/Employee/prid…
Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1983 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 1.800 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.
Witten wirkt. In Forschung, Lehre und Gesellschaft.
Quelle: idw
Tagung zum kommunalen Umweltschutz
Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier
30. Trierer Kolloquium beleuchtet rechtliche Grundlagen und Handlungsfelder
„Kommunaler Umweltschutz“ lautet das zentrale Thema des 30. Trierer Kolloquiums zum Umwelt- und Technikrecht am 4. und 5. September. In Fachvorträgen und Diskussionen werden rechtliche Grundlagen und Handlungsfelder thematisiert. Ein größerer Sachkomplex widmet sich dem kommunalen Energierecht. Dabei werden auch Möglichkeiten einer Rekommunalisierung sowie der Unternehmens- und Bürgerbeteiligung bei Netzinfrastruktur-Maßnahmen erörtert. Ferner stehen Aspekte der Bauleitplanung und des Kreislaufwirtschaftsrechts auf der Agenda.
Die Tagung wird vom Institut für Umwelt- und Technikrecht der Universität Trier im Rahmen seiner Kolloquienreihe veranstaltet. Die wissenschaftliche Leitung liegt in den Händen von Prof. Dr. Timo Hebeler. Tagungsort ist das ERA Conference Centre (ECC) Trier, wo die Veranstaltung am Donnerstag, 4. September, um 14.00 Uhr im Beisein von Universitätspräsident Prof. Dr. Michael Jäckel eröffnet wird.
Am Abend des 4. September findet der traditionelle Empfang durch die rheinland-pfälzische Landesregierung im Kurfürstlichen Palais statt. In diesem Jahr wird Staatsminister Jochen Hartloff (Ministerium für Justiz und für Verbraucherschutz) die Tagungsteilnehmer begrüßen. Außerdem wird im Rahmen des Empfangs zum zweiten Mal der Michael-Kloepfer-Preis verliehen. Die Auszeichnung erhält Dr. Jeanine Greim aus Würzburg für ihre wissenschaftliche Arbeit mit dem Titel „Rechtsschutz bei Verfahrensfehlern im Umweltrecht“.
Weitere Informationen zum Programm und zur Anmeldung im Internet: http://www.iutr.de (Veranstaltungen).
Quelle: idw
Einkommensgruppen leben in Berlin stärker voneinander getrennt als in München
Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)
In deutschen Großstädten ist die räumliche Verteilung von Niedriglohnbeziehern sehr unterschiedlich ausgeprägt. Das geht aus einer Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor, die am Dienstag veröffentlicht wurde. „Berlin und Hamburg gehören neben Frankfurt und Leipzig zu den am stärksten segregierten Großstädten. Dagegen ist die räumliche Trennung von Menschen mit unterschiedlich hohen Löhnen in München – neben Stuttgart und Essen – am wenigsten stark ausgeprägt“, berichten die IAB-Forscher.
Um bei der Betrachtung der einzelnen Städte die Unterschiede im lokalen Preisniveau und damit in der lokalen Kaufkraft zu berücksichtigen, haben die Arbeitsmarktforscher neben der bundesweiten auch die jeweilige stadtspezifische Niedriglohnschwelle berechnet. Entsprechend der OECD-Definition wurden sie bei zwei Drittel des Medianlohns angesetzt. Der Medianlohn ist der mittlere Lohn: Die eine Hälfte aller Beschäftigten verdient mehr, die andere Hälfte weniger.
Bei der Analyse, wo Niedriglohnbezieher wohnen, zeigen sich unterschiedliche Muster der Ansiedlung. In den Berliner Stadtteilen Neukölln, Marzahn und im Wedding gibt es beispielsweise geschlossene Flächen von mehreren Quadratkilometern, in denen mindestens jeder dritte Beschäftigte Niedriglöhne bezieht, wenn man die stadtspezifischen Niedriglohnschwellen zugrunde legt. In München sind Feldmoching-Hasenbergl, Milbertshofen-Am Hart oder Berg am Laim Stadtteile mit einem erhöhten Anteil von Niedriglohnbeziehern. „Auffällig ist, dass vom hohen Anteil an Niedriglohnbeziehern meist nicht ganze Stadtbezirke betroffen sind, sondern nur bestimmte Straßenzüge“, schreiben die IAB-Forscher zur Situation in München.
„Während Stadtgröße und geografische Lage für das Ausmaß der Segregation kaum relevant sind, ist ein Zusammenhang zwischen Segregation und Niedriglohnanteil zu erkennen“, erläutern die Forscher. Bezogen auf die bundesweite Niedriglohnschwelle zählen in Berlin beispielsweise 29 Prozent der Beschäftigten zu den Niedriglohnempfängern, in München dagegen nur 13 Prozent.
Ein Erklärungsansatz für die beobachteten Unterschiede ist den Arbeitsmarktforschern zufolge der Wandel der Wirtschaftsstrukturen: „Während die alten Industrien in Hamburg und Berlin durch negative Strukturschocks getroffen wurden, blieb München von größeren Schocks verschont und konnte zudem in besonderem Maße von der Neuansiedlung von wissensintensiven Branchen profitieren.“ Ein wesentlicher Effekt gehe auch von der lokalen Wohnungsbauförderung und den dort gesetzten Prioritäten aus: sowohl eine rein kostenoptimierte Förderung insbesondere von Großprojekten im Sozialen Wohnungsbau als auch ein Rückzug der staatlichen Aktivität aus diesem Feld führe eher zu stärkerer Einkommenssegregation, erklären die IAB-Forscher.
Die räumliche Trennung von Einkommensgruppen könne bei einer starken Ausprägung unerwünschte Folgen haben: „Im Ergebnis kann innerstädtische Einkommenssegregation dazu führen, dass sozioökonomisch schwächeren Bewohnern qualitativ schlechtere lokale öffentliche Ressourcen und Netzwerke zur Verfügung stehen. Diese sind aber für Bildungsergebnisse und Arbeitsmarktchancen sowie für Sozialisation und Informationsaustausch von hoher Bedeutung“, so die Forscher.
Weitere Informationen:
http://doku.iab.de/kurzber/2014/kb1214.pdf
Quelle: idw
Mikroben als Umweltsanierer
Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
Mikrobiologen der Universität Jena lassen Bakterien Enzyme zum Abbau giftiger Chlorverbindungen produzieren
Tetrachlorethen ist eine farblose, leicht flüchtige und nicht brennbare Flüssigkeit. Dank ihres großen Fettlösevermögens findet sie vor allem in der Textilreinigung sowie der Optik- und Metallindustrie zur Entfettung von Oberflächen Anwendung. Mehr als 100.000 Tonnen fallen Jahr für Jahr weltweit an. Und das ist ein Problem: Denn Tetrachlorethen ist nicht nur krebserregend und ein Umweltgift. Es ist in Anwesenheit von Sauerstoff nicht biologisch abbaubar und reichert sich stattdessen im Boden und Grundwasser an. „Von dort ist der Weg nicht weit in die menschliche Nahrungskette“, sagt Dr. Torsten Schubert von der Friedrich-Schiller-Universität Jena. Daher sei es dringend notwendig, Methoden zu entwickeln, chlorierte Schadstoffe zu entgiften, so der Mikrobiologe weiter.
Beim Abbau chlorierter Kohlenwasserstoffe in der Umwelt könnten Mikroorganismen eine wichtige Rolle spielen. „Es gibt Bakterien, die in Abwesenheit von Sauerstoff Substanzen, wie Tetrachlorethen, entgiften können“, weiß Dr. Schubert. Allerdings werden solche Mikroben bislang nur selten für die Sanierung genutzt. „Sie lassen sich nur schwer aus der Natur isolieren und im Labor kultivieren.“ Außerdem besitzen diese Bakterien häufig mehrere dechlorierende Enzyme, die sogenannten reduktiven Dehalogenasen, mit ganz unterschiedlichen Substratspektren, was die Charakterisierung dieser biologischen Katalysatoren erschwert.
Doch Anita Mac Nelly aus dem Team um Dr. Schubert ist es jetzt gelungen, Bakterien heranzuzüchten, die entsprechende Dehalogenasen in Reinform produzieren können. Wie die Forscher in der Fachzeitschrift „Applied und Environmental Microbiology“ schreiben, haben sie das ursprünglich nicht-dechlorierende Bakterium Shimwellia blattae dazu gebracht, nicht nur ein funktionstüchtiges Tetrachlorethen-abbauendes Enzym sondern auch eine spezifische Dehalogenase zum Abbau anderer halogenierter Verbindungen zu produzieren (DOI: 10.1128/AEM.00881-14).
„Ziel der vorliegenden Arbeit war es, zunächst eine einfache und universelle Produktionsplattform zu schaffen, um die Schadstoff-abbauenden Enzyme unabhängig von ihrem Ursprungsorganismus einer Charakterisierung zugänglich zu machen“, erläutert Dr. Schubert. Dazu haben die Jenaer Forscher ein Dehalogenase-Gen, das die Bauanleitung für das gewünschte Enzym enthält, aus dem Mikroorganismus Desulfitobacterium hafniense in das leicht zu kultivierende Bakterium Shimwellia blattae übertragen. Shimwellia blattae ist ein aus dem Darm der Küchenschabe isolierter und vergleichsweise anspruchsloser Mikroorganismus, der sich für die Produktion der dechlorierenden Enzyme bestens eignet, da er das hierfür essentielle Kobalt-haltige Vitamin B12 in ausreichenden Mengen produzieren kann.
In weiterführenden Arbeiten wollen die Mikrobiologen nun die so erhaltenen Enzyme hinsichtlich ihres Aufbaus und ihrer Funktion umfassend charakterisieren. „Die Kenntnis des Katalysemechanismus ist eine wesentliche Voraussetzung dafür, dass wir diese Enzyme in absehbarer Zeit für die Sanierung von kontaminierten Grundwässern oder Böden nutzen können“, macht Dr. Schubert deutlich. An diesem langfristigen Ziel arbeiten die Mikrobiologen der Uni Jena u. a. im Rahmen der kürzlich um eine zweite Förderperiode verlängerten DFG-Forschergruppe „Anaerobic Biological Dehalogenation“.
Original-Publikation:
Mac Nelly A et al. Functional heterologous production of reductive dehalogenases from Desulfitobacterium hafniense strains, Applied and Environmental Microbiology 2014, DOI: 10.1128/AEM.00881-14
Weitere Informationen zur Forschergruppe unter: http://www.uni-jena.de/en/FOR1530.html.
Kontakt:
Dr. Torsten Schubert
Institut für Mikrobiologie der Friedrich-Schiller-Universität Jena
Philosophenweg 12, 07743 Jena
Tel.: 03641 / 949349
E-Mail: torsten.schubert@uni-jena.de
Weitere Informationen:
http://www.uni-jena.de
Quelle: idw
Angenehmes Raumklima durch poröse Gläser
Die richtige Luftfeuchtigkeit und Temperatur beeinflussen das Wohnklima entscheidend. Künftig schaffen in Putze eingearbeitete poröse Gläser ein Wohlfühlklima in Räumen. Sie regulieren die Feuchtigkeit besonders gut und beugen Schimmel vor.
Kaum etwas beunruhigt Mieter und Eigentümer so sehr wie Schimmel an den Wänden. Die schwarzen Flecken sehen nicht nur hässlich aus, sondern gefährden die Gesundheit. Vor allem durch verschärfte Dämmstandards kann es zu hoher Feuchtigkeit in Wohnräumen kommen – der Hauptursache für Schimmel. Denn mit der 2002 in Kraft getretenen Energieeinsparverordnung hat die Bundesregierung festgelegt, dass Außenbauteile von Neubauten und sanierten Altbauten luftdicht ausgeführt werden müssen, damit möglichst keine Wärme entweicht. Die Kehrseite der Medaille: Die Feuchtigkeit bleibt in den Zimmern gefangen. »Feuchteregulierende Baustoffe gewinnen daher immer mehr an Bedeutung«, sagt Ferdinand Somorowksy, Wissenschaftler am Fraunhofer-Institut für Silicatforschung ISC in Würzburg.
Besonders schnelle Wasseraufnahme
Der Forscher und sein Team entwickeln gemeinsam mit der Universität Bayreuth und der Firma Keimfarben GmbH Zusätze für Farben und Putze, die ausgleichend auf das Raumklima, vor allem auf die Raumfeuchte wirken. Als Additive verwenden die Projektpartner künstlich hergestellte poröse Gläser, deren Porengröße, -volumen und Partikelform sich gezielt beeinflussen lassen – ein Vorteil dieser anorganischen Materialien gegenüber natürlichen Werkstoffen. Die Glaspartikel, die insbesondere in der Form von Flakes untersucht wurden, nehmen Wasser aus der Raumluft besonders schnell auf, speichern es und geben es langsam wieder ab. »Wasser ist als unsichtbarer Dampf ein Bestandteil der Luft. Damit das Raumklima angenehm ist und bleibt, muss das Wasser, das wir beim Duschen, Kochen und Schwitzen zusätzlich an die Raumluft abgeben, irgendwie auch wieder abgeführt werden. Wände und Decken bieten große Flächen, die für das Feuchtemanagement genutzt werden können. Wenn wir die Glaspartikel in Gipse, Putze und Farben für Innenwände einbringen, können sie täglich und jahreszeitlich bedingte Feuchteschwankungen abpuffern. Die Wohnung ist dann einfach behaglicher. 95 bis 98 Prozent der bislang erhältlichen Putze haben keine Zusätze«, erläutert Somorowsky.
Die Glaspartikel basieren auf Vycor-Glas®. Bei diesem Glas können sich durch eine geeignete Herstellung Poren bilden, die man durch Anpassen der Prozessparameter gezielt einstellen kann. Im Gegensatz zu anderen Materialien mit Sorptionseigenschaften wie Zeolithe oder Keramiken lassen sich runde Partikel, Fasern und Flakes produzieren. Möglich sind Füllstoffe mit Porengrößen zwischen wenigen Nano- bis zu mehreren Mikrometern. »Da sich die Porosität und die Größe der Poren exakt einstellen lässt, kann man die Feuchtigkeit effektiv regulieren. Indem wir die Porengröße minimal verändern, passen wir das Material für unterschiedliche Temperaturen und verschiedene Anwendungen wie Wohn-, Feucht – oder Kellerräume an«, sagt der Forscher. Die ungiftigen und nicht brennbaren porösen Gläser sind preisgünstig und konnten schon in Vorversuchen in großen Mengen von mehreren 100 Kilogramm hergestellt werden.
In Praxistests haben die Wissenschaftler nachgewiesen, dass Putze mit eingearbeiteten Glasflakes im Vergleich zu Zeolithen und Holzfaserplatten, die ebenfalls zur Feuchteregulierung verwendet werden, deutlich mehr Feuchtigkeit aufnehmen und diese auch wieder vollständig abgeben können. Die Tests wurden bei konstanter Temperatur und einer Luftfeuchtigkeit durchgeführt, die einem normalen Innenraumklima nachempfunden wurde. Auch in weiteren Untersuchungen mit Referenzputzen erwies sich das anorganische Material als überlegen. Bei steigender Luftfeuchtigkeit war die Massenzunahme und damit die Wasseraufnahme bei dem mit Glasflakes versetzten Putz deutlich höher als bei den Vergleichsmaterialien. »In einem 30 m3-Raum stehen über Decke und Wände etwa 40 m2 Fläche für einen feuchteregulierenden Putz zur Verfügung. Um die Luftfeuchtigkeit von 72 auf 47 Prozent Luftfeuchte zu reduzieren, müssten rund 180 Milliliter Wasser aufgenommen werden können. Tatsächlich kann unser Putz mit Glasflakes mehr als einen halben Liter Wasser adsorbieren«, so Somorowsky. Auch ließen sich Schimmelpilz hemmende Substanzen in den Putz einbringen.
Ein weiterer positiver Effekt der porösen Glasflakes: Sie beeinflussen die Energiebilanz eines Gebäudes. Wird bei hoher Luftfeuchte Wasser an der Glasoberfläche angereichert, macht die dabei freiwerdende Energie die Raumluft trockener und wärmer. Bei geringer Luftfeuchte und Desorption wird die Raumluft abgekühlt und feuchter. Diese Vorgänge laufen sowohl im Winter als auch im Sommer ab, so dass man primäre Energie zum Heizen oder Kühlen einsparen kann. Vor allem beim Heizungsbetrieb verbessern gleichmäßig in der Putzschicht verteilte Glasflakes das Raumklima.
Derzeit prüfen die Projektpartner wie sich die glasbasierten Werkstoffe unter zusätzlichen Farbschichten und Tapeten verhalten. Sie gehen davon aus, dass es noch etwa zwei Jahre dauern wird, bis die umweltfreundlichen, feuchteregulierenden Putze in den Fachhandel kommen.
Quelle: Fraunhofer-Gesellschaft
Simulationsmodelle optimieren Wasserkraft
Das Columbia River-Delta im Nordwesten der USA bietet großes Potenzial für die Wasserkraft. Über
20 000 Megawatt produzieren die Kraftwerke dort. Ein Simulationsmodell soll helfen, den Betrieb des weiträumigen Staustufensystems zu optimieren.
Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB entwickeln an ihrem Standort in Ilmenau Informationstechnologien, um Wasserkraftsysteme effizienter zu machen. Am Institutsteil Angewandte Systemtechnik AST erstellen sie Simulations- und Optimierungsmodelle, die sowohl externe Faktoren, wie Wetterdaten, Pegelstände und Marktpreise, als auch die Infrastruktur der Systeme zusammenführen und daraus Pläne für die zu betreibenden Anlagen errechnen. Hierzu gehören beispielsweise das Öffnen und Schließen der Schleusentore, die Regulierung der Pegel in den Stauseen und der Betrieb der Wasserturbinen. Die Betreiber können dadurch die Stromerzeugung ihrer Wasserkraftwerke an die aktuellen energiewirtschaftlichen Gegebenheiten anpassen und die erzeugte elektrische Energie mit höchstmöglichem Erlös vermarkten.
22 000 Megawatt im Delta des Columbia Rivers
Nach Projekten in Deutschland und China setzen die Ilmenauer ihr Fachwissen in Kooperation mit dem niederländisch-amerikanischen Unternehmen Deltares für einen der weltweit größten Wasserkraftbetreiber ein. Die Bonneville Power Adminstration (BPA) betreibt im Delta des Columbia Rivers im Nordwesten der USA ein komplexes, weiträumiges Staustufensystem, dessen Kraftwerke zusammen etwa 22 000 Megawatt (MW) Strom erzeugen. Das ist mehr als das Fünffache der in Deutschland verfügbaren Menge: Heute produzieren hierzulande rund 7500 Wasserkraftwerke an Flüssen und Seen eine Leistung von 4300 MW. Im Einzugsgebiet der BPA, zu dem die US-Bundesstaaten Idaho, Oregon, Washington, Montana, Kalifornien, Nevada, Utah und Wyoming gehören, leben über 12 Millionen Menschen. Zusammen mit Deltares entwickelten die Forscher im Projekt »HyPROM« ein funktionierendes Simulations- und Optimierungsmodell, das anhand vorgegebener Parameter den optimalen Betrieb des BPA-Staustufensystems gewährleistet.
»Es gibt sehr unterschiedliche Parameter, die das Erzeugen von Strom in Wasserkraftwerken beeinflussen: Niederschlagsstärke, Menge und Geschwindigkeit des Wassers sowie allgemeine Klimafaktoren gehören beispielsweise dazu. Gleichzeitig müssen Gesetze zum Fisch- und Hochwasserschutz oder Umweltvorgaben eingehalten werden«, so Dr. Divas Karimanzira, aus dem Projektteam am IOSB. »Nur wer alle Variablen im Blick hat, kann sein Wasserkraftwerk optimal betreiben. Bei ›HyPROM‹ kommt als zusätzliche Herausforderung die Komplexität des weiträumig verzweigten Staustufensystems im Delta des Columbia Rivers dazu: Es umfasst zwei verschiedene Flüsse mit durchschnittlich 7500 Kubikmetern Wasser pro Sekunde, zehn Kraftwerke, zehn Stauseen und einen Höhenunterschied von insgesamt 350 Metern.«
Aktuell arbeiten die Wissenschaftler daran, die Simulations- und Optimierungsmodelle um energiewirtschaftliche Aspekte zu erweitern. Sie berücksichtigen dabei die fluktuierende Verfügbarkeit von Wind- und Sonnenenergie ebenso wie sich stochastisch verändernde Marktpreise. »Wir sind dann in der Lage, noch mehr Informationen in die Berechnungen einfließen zu lassen. So entsteht ein Szenario, das der Realität sehr nahe kommt«, erklärt Karimanzira.
Die Projektpartner planen, die neu entwickelte Technologie in ein System zu integrieren, das den zuständigen Mitarbeitern hilft, die richtigen Entscheidungen beim Betrieb der Anlagen zu fällen. Ziel ist es, zukünftig die gesamte Kontroll- und Steuerungsanlage von BPA innerhalb einer Stunde an sich ändernde Rahmenbedingungen anzupassen. Damit wird es auch möglich sein, die Wasserkraft nur dann zu verkaufen, wenn der Preis stimmt. Andernfalls werden freie Speicher befüllt und zu einem späteren Zeitpunkt – wenn es wirtschaftlicher oder technisch notwendig ist – entleert. »Der Preis ist ein wichtiger Aspekt, gerade für Betreiber, die nicht nur Wasserkraft als schwankende Energiequelle verkaufen, sondern auch Sonnenenergie und Windkraft«, sagt Karimanzira.
Quelle: Fraunhofer-Gesellschaft
Online-Kurs gegen „Aufschieberitis“
Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie
Viele Menschen kennen das Verhalten aus ihrem Alltag: Unangenehme Tätigkeiten wie das Lernen auf Prüfungen oder das Verfassen einer schriftlichen Arbeit schieben sie erst einmal auf. Anstatt die Aufgabe sofort zu erledigen, beschäftigen sie sich mit vermeintlich vordringlicheren Dingen wie Internetsurfen oder Putzen. Am Lehrstuhl für Angewandte Psychologie wurde gemeinsam mit dem Fernstudienzentrum des Karlsruher Instituts für Technologie (KIT) ein videobasierter Online-Kurs für besseres Selbst- und Zeitmanagement entwickelt. Im August geht er auf der Plattform Iversity online.
„Bei einigen Menschen nimmt das Aufschieben ein solches Ausmaß an, dass man von einem chronischen Verhalten sprechen kann; es entsteht ein erheblicher Leidensdruck und es drohen beträchtliche negative Folgen wie das Scheitern in Studium oder Beruf“, sagt die Pädagogin Eliane Dominok. Die wissenschaftliche Mitarbeiterin am Lehrstuhl für Angewandte Psychologie des KIT beschäftigt sich mit dem Thema Prokrastination – so die wissenschaftliche Bezeichnung für das Aufschiebeverhalten. Von Betroffenen und ihrem Umfeld werde fortwährendes Aufschieben häufig als Mangel an Selbstdisziplin oder Faulheit abgetan. „Tatsächlich handelt es sich jedoch um eine ernsthafte Arbeitsstörung und ein schwerwiegendes Problem der Selbstregulation“, betont Dominok. Chronisches Aufschieben beeinträchtige das psychische Wohlbefinden und könne zur Ursache für andere psychische Belastungen und Symptome werden.
Am House of Competence (HoC), der zentralen Einrichtung für das Vermitteln fachübergreifender Kompetenzen am KIT, können Studierende Strategien gegen das Aufschieben lernen. „Diese Seminare sind regelmäßig überbucht“, sagt Dominok. Am erstmals angebotenen Online-Kurs „MOOCen gegen chronisches Aufschieben“ können alle Studierenden des KIT – und darüber hinaus auch alle interessierten Internetnutzer – ihren Informationsbedarf zum Thema decken. Mit MOOCs ermöglichen Hochschulen der breiten Öffentlichkeit an ihrem Lehrangebot teilzuhaben. „Das Vorlesungsformat im Internet kann viele Tausend Teilnehmer gleichzeitig erreichen“, erklärt Sarah Holstein, die am Fernstudienzentrum des KIT für die technische Umsetzung und Produktion des MOOC zuständig ist. Der Trend aus Kanada und den USA setzt sich mittlerweile in europäischen Bildungsinstitutionen fort.
Der KIT-MOOC gegen „Aufschieberitis“ bietet mehr als reine Wissensaneignung: Er unterstützt die Teilnehmer dabei, über das eigene Verhalten nachzudenken und es positiv zu verändern. Anhand unterschiedlicher Strategien können sie unter anderem lernen, Ziele im Auge zu behalten, realistisch zu planen, pünktlich zu beginnen, ihren Arbeitsplatz ablenkungsarm zu gestalten und sich selbst zu motivieren. „Die Verknüpfung eines Selbstregulations-Trainings mit einem MOOC stellt selbst innerhalb dieses innovativen Mediums universitärer Lehre ein experimentelles Novum dar“, betont Dominok. Elf Wochen lang wird auf der Internet-Plattform Iversity wöchentlich ein Kapitel des MOOC freigeschaltet. Mehrere jeweils etwa fünf- bis zehnminütige Lehr-Videos – ergänzt durch Quizfragen, Grafiken und Beispiele – vermitteln wissenschaftliche Hintergründe zum Prokrastinations-Phänomen. Zum Kurskonzept gehört die Bearbeitung von Wochenaufgaben durch die Kursteilnehmer. Kommunikation und Austausch zwischen den Teilnehmern ermöglichen unter anderem Elemente wie Online-Foren. Anonymisierte Online-Befragungen am Beginn und Ende des MOOC bieten den Teilnehmern eine differenzierte Auswertung hinsichtlich ihrer individuellen Ausprägung des Aufschiebeverhaltens und ermöglichen es, Verbesserungen von Symptomen empirisch nachzuweisen.
Studierende könnten den MOOC als Vorbereitungskurs nutzen, um gestärkt ins neue Semester zu starten, so Dominok. Die Strategien und Techniken seien jedoch ohne weiteres auf den beruflichen Kontext übertragbar. „Im Arbeitsleben gibt es zunehmend einen größeren Freiraum seine Arbeit zu erledigen und damit mehr Gelegenheit sie aufzuschieben“, sagt die Pädagogin.
Der Online-Kurs „MOOCen gegen chronisches Aufschieben“ startet im August auf der Internetplattform Iversity: http://www.iversity.org
Video-Teaser „MOOCen gegen das Aufschieben“:
http://www.youtube.com/watch?v=jUEI0ZrszfU&feature=youtu.be
Digitale Pressemappe zum Wissenschaftsjahr 2014
Ob in der Kommunikation, der Energieversorgung oder der Mobilität, in der Industrie, im Gesundheitsbereich oder in der Freizeit: Digitale Technologien sind längst Teil unseres Alltags, sie eröffnen neue Möglichkeiten und bieten Lösungen für gesellschaftliche Probleme. Gleichzeitig stellen sie uns vor Herausforderungen. Chancen und Risiken stehen im Mittelpunkt des Wissenschaftsjahres 2014 – Die Digitale Gesellschaft. Am KIT beschäftigen sich Forscherinnen und Forscher aller Disziplinen mit den vielfältigen – technischen und gesellschaftlichen – Aspekten der Digitalisierung. Kurzporträts, Presseinformationen und Videos dazu bietet die digitale Pressemappe des KIT zum Wissenschaftsjahr:
http://www.pkm.kit.edu/digitalegesellschaft
Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.
Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu
Quelle: idw
Spitzentechnologie in der Meeresforschung
Albert Gerdes Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen
Zukunftsweisendes Tiefsee-Bohrgerät wird vorgestellt
Nach vierjähriger Entwicklungs- und Bauphase wurde das neue Meeresboden-Bohrgerät MARUM-MeBo200 des Bremer Zentrums für Marine Umweltwissenschaften fertig gestellt. Wissenschaftlich erprobt wird das Hightech-Instrument während eine der kommenden Fahrten des neuen Forschungsschiffs SONNE, das erst am vergangenen Freitag von Bundeskanzlerin Merkel getauft wurde. Das gut acht Millionen Euro teure Projekt umfasst neben dem Tiefsee-Bohrgerät unter anderem ein System mit Spezialkabel und Winde, mit dem es von Deck der Forschungsschiffe zu Wasser gelassen wird. MARUM-MeBo200 wurde vom Bundesministerium für Bildung und Forschung finanziert.
Um Schlüsselfragen der Meeres- und Klimaforschung zu beantworten, benötigen Wissenschaftler Proben aus dem Meeresboden. Nur so lassen sich Klimaentwicklungen rekonstruieren, Rohstoffpotentiale und Risiken der im Meeresboden lagernden Gashydrate ergründen oder die Stabilität von Tiefseehängen untersuchen, an denen durch Rutschungen bis in die jüngste Vergangenheit immer wieder Tsunamis ausgelöst wurden.
Mit dem rund zehn Tonnen schweren MARUM-MeBo200 steht jetzt ein ferngesteuertes Bohrgerät zur Verfügung, das von größeren Forschungsschiffen eingesetzt werden kann. Das weltweit einzigartige, mobile Bohrgerät ist für den Einsatz in Wassertiefen von bis zu 2.700 Meter ausgelegt. Am Meeresboden abgesetzt kann es bis zu 200 Meter lange Kerne von Lockersedimenten und Festgesteinen erbohren. „Das funktionale Design, die Steuerungstechnik und Energieversorgung sowie die technologischen Anpassungen für das Arbeiten unter den extrem hohen Umgebungsdrücken in der Tiefsee hat die Meerestechnik-Gruppe am MARUM entwickelt und realisiert“, sagt Projektleiter Dr. Tim Freudenthal: „Der Rahmen, die Bohrtechnik sowie die hydraulische Antriebstechnik des sechs Meter hohen Bohrturms stammen von der Firma Bauer Maschinen. Sehr produktiv verlief auch die Kooperation mit einer Reihe mittelständischer Firmen aus dem Bremer Umland.“ Insgesamt sieben Container sind nötig, um das System, das aus Bohrgerät und -gestänge, Winde, Steuerungs- und Aussetzeinheit, Hydraulik und Stromversorgung besteht, zu den Ausgangshäfen zukünftiger Expeditionen zu verschiffen.
„Wir hatten bereits ab 2005 ein Vorgängermodell entwickelt“, sagt der frühere Direktor des MARUM, Prof. Gerold Wefer. Naturgemäß sind die damit gesammelten Erfahrungen hinsichtlich Betrieb und Wartung in die Konzeption des neuen Bohrgeräts eingeflossen: „Obwohl wir mit dem neuen System fast dreimal so tief bohren können wie mit dem Vorgänger und obwohl wir auf gleichem Raum mehr Gestänge unterbringen mussten, ist das Gerät nicht schwerer geworden oder anspruchsvoller im Handling an Deck“, sagt Gerold Wefer. „Darauf sind wir besonders stolz!“ Möglich wurde dies durch ein intelligentes Design sowie durch den verstärkten Einsatz von Aluminium und Titan bei Rahmen und Gestänge. Die Materialien sparen Gewicht, bieten zugleich aber die für die Bohroperationen in der Tiefsee notwendige Stabilität.
„Mit dem neuen Bohrsystem bauen wir die weltweite Spitzenstellung Bremens, aber auch Deutschlands in der Tiefseetechnologie weiter aus“, betont Prof. Michael Schulz. Der Direktor des MARUM verweist darauf, dass auf internationaler Ebene, etwa im Rahmen des weltweiten International Ocean Discovery Program IODP, bereits intensiv über Einsätze des Bremer Bohrgeräts diskutiert wird. „MARUM-MeBo200 bietet die Möglichkeit, deutlich kostengünstiger als mit Bohrschiffen wertvolle Proben aus der Tiefsee zu gewinnen.“
Weitere Informationen / Interviewanfragen / Bildmaterial:
Albert Gerdes
MARUM-Öffentlichkeitsarbeit
Tel.: 0421 218 65540
Email: agerdes@marum.de
Weitere Informationen:
http://www.marum.de/Spitzentechnologie_in_der_Meeresforschung.html
Quelle: idw
Die Psychologie des Autofahrens: Prof. Baumann erforscht den Faktor Mensch im Straßenverkehr
Annika Bingmann Pressestelle
Universität Ulm
Im Straßenverkehr entscheidet eine funktionierende Interaktion zwischen Fahrer und Auto über Leben und Tod. Die zunehmende Automatisierung von Fahrzeugen ist dabei Hilfestellung und Herausforderung zugleich. An der Universität Ulm testet und optimiert der neue Psychologieprofessor für Human Factors, Martin Baumann, gemeinsam mit Ingenieuren und Informatikern Fahrerassistenzsysteme von morgen.
Regen auf der A8. Die Sicht ist schlecht und der Autofahrer wird langsam nervös: Auf keinen Fall möchte er zu spät zum Vorstellungsgespräch in München erscheinen. Doch der LKW vor ihm schleicht im Schneckentempo über die Autobahn und auf der linken Spur wird bereits gedrängelt. Soll er das Überholmanöver riskieren? „Aus psychologischer Perspektive ist Auto fahren harte Arbeit“, sagt Martin Baumann, Professor für Human Factors an der Uni Ulm. Der Fahrer müsse zahlreiche Informationen gleichzeitig verarbeiten, ein mentales Bild der Situation aufbauen und in Sekundenbruchteilen Entscheidungen treffen. Assistenzsysteme versprechen Unterstützung – können aber auch neue Probleme schaffen. Wie die Interaktion mit den Hightech-Helfern funktioniert und wie sie optimiert werden kann, untersucht Baumann an der Universität Ulm.
Gemeinsam mit Ingenieuren und Informatikern arbeitet der Psychologe an Assistenzsystemen, die den Fahrer entlasten, nicht aber entmündigen. „Um ein technisches System zu akzeptieren, muss es der Mensch zunächst verstehen“, so Baumann. Fahrer und Maschine sollten also miteinander kommunizieren, denn auf beiden Seiten lauern Fehlerquellen: Das System könnte zum Beispiel ein Manöver vorschlagen, das dem Fahrer zu riskant erscheint, oder der Mensch könnte beim Überholen einen Wagen im toten Winkel übersehen. Gerade auf dem Weg zum automatisierten Fahren, bei dem das Auto ohne Fahrereingriff durch den Verkehr steuert, ist eine funktionierende Kommunikation zwischen Mensch und Maschine überlebenswichtig.
Wenn er bestehende Systeme testet oder seinen Kollegen aus den Technikfächern beratend zur Seite steht, greift Baumann einerseits auf kognitionspsychologisches Wissen zurück und führt andererseits Experimente durch. An der Uni Ulm wird gerade ein Fahrsimulator eingerichtet, der die Forschung des Psychologen ab etwa 2015 erleichtern soll. Über den „Bordcomputer“, Kameras und so genanntes eye-tracking, bei dem die Blickrichtung registriert wird, kann der Versuchsleiter dann die Fahrleistung der Testpersonen bewerten. Wie viele Fehler macht der Fahrer in der jeweiligen Situation? Hält er die Spur? Und wie leicht lässt er sich ablenken? Zusätzlich enthält der Versuchsaufbau womöglich die Erfassung physiologischer Parameter wie die Messung des Hautleitwiderstands, der Pupillengröße oder auch eine Befragung.
Am neuen Arbeitsplatz hat der gebürtige Regensburger mit wichtigen Stationen in Chemnitz und am Deutschen Zentrum für Luft- und Raumfahrt in Braunschweig ein ideales Umfeld vorgefunden. Die Psychologie ist stark kognitions- und technikorientiert, Kollegen aus den Ingenieurwissenschaften sind offen für eine Zusammenarbeit – zum Beispiel im Forschungszentrum für kooperative, hochautomatisierte Fahrerassistenzsysteme und Fahrfunktionen (F3). In dieser „Werkstatt für Fahrzeuge der Zukunft“ geht es auch um Autos, die untereinander beziehungsweise mit ihrer Umwelt kommunizieren, sich also vor Staus warnen oder Manöver aufeinander abstimmen. Was das für Auswirkungen auf den Fahrer hat, wird Martin Baumann untersuchen.
Er selbst beschreibt seine Arbeit als Grundlagenforschung, die teils anwendungsorientiert, nicht jedoch auf die Automobilindustrie zugeschnitten sei. Zunächst plant der 44-Jährige, den Schwerpunkt „Human Factors“ an der Universität Ulm zu etablieren. Dabei wird er sich auch einer Gruppe zuwenden, die in besonderem Maße von Fahrerassistenzsystemen profitieren könnte: den Senioren. Ausgehend von ihren Bedürfnissen soll (hoch-) automatisiertes Fahren für alle Altersgruppen optimiert werden.
Privat ist der zweifache Familienvater übrigens kein Autofan. Er räumt allerdings ein, sich bei Autofahrten zu beobachten und eigene Manöver mit der Theorie abzugleichen. Wie Martin Baumann, der über logisches Denken promoviert hat, beim Fahrleistungstest abschneidet, hat er nicht verraten.
Hintergrund:
Interdisziplinäres Forschungszentrum
Im Forschungszentrum für kooperative, hochautomatisierte Fahrerassistenzsysteme und Fahrfunktionen (F3) erarbeitet eine interdisziplinäre Gruppe aus Ingenieuren, Informatikern und Psychologen, wie sich menschliche Eigenschaften auf Fahrzeuge übertragen lassen. Seit 2013 unterstützt die Carl-Zeiss-Stiftung diesen bundesweit einzigartigen Zusammenschluss im Bereich automatisiertes Fahren für insgesamt vier Jahre mit 750 000 Euro. Die Förderung erfolgt im Rahmen des Programms zur Stärkung von Forschungsstrukturen an Universitäten. Durch verbesserte Assistenzsysteme sollen künftig Unfallzahlen reduziert werden.
Weiterhin könnten die Assistenten zur Komfortsteigerung des Fahrers – gerade im dritten Lebensalter – beitragen. Die Voraussetzungen an der Uni Ulm sind hervorragend: Am Institut für
Mess-, Regel- und Mikrotechnik wird seit mehr als zehn Jahren zu Fahrerassistenzsystemen geforscht – auch im gemeinsamen Innovationszentrum driveU mit der Daimler AG. Weitere Pluspunkte sind der Sonderforschungsbereich/Transregio 62 zu intelligenten technischen Systemen („Eine Companion Technologie für kognitive technische Systeme“) sowie der Schwerpunkt Mensch-Maschine- Interaktion an der Fakultät für Ingenieurwissenschaften und Informatik. Martin Baumanns Professur für Human Factors fügt sich passgenau in das Zentrum F3 ein.
Bitte beachten: Das Forschungszentrum heißt F*hoch 3*. Leider lässt sich die Hochzahl im System nicht darstellen.
Quelle: idw
Spinat unter Druck
Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena
Ernährungswissenschaftler der Uni Jena testen schonendes Verfahren zum Haltbarmachen von Gemüse
Fünf Mal am Tag eine Handvoll, so heißt die Empfehlung für den Verzehr von Obst und Gemüse. Voller Nähr- und Mineralstoffe steckt die pflanzliche Nahrung und enthält noch dazu jede Menge Vitamine. Sie liefert unserem Körper nicht nur Energie, sondern wirkt sich auch in vielerlei Hinsicht positiv auf die Gesundheit aus.
Auch das Augenlicht braucht die tägliche Dosis Gemüse: So haben pflanzliche Farbstoffe (Carotinoide) aus grünem Gemüse wie Spinat, Grünkohl oder Brokkoli eine positive Wirkung auf die Netzhaut im menschlichen Auge. „Carotinoide wie Lutein und Zeaxanthin wirken in der Netzhaut des Menschen als natürlicher Sonnenschutz, indem sie schädliches energiereiches, blaues Licht von der Netzhaut fernhalten“, sagt PD Dr. Volker Böhm von der Friedrich-Schiller-Universität Jena. Doch nicht mit jedem Biss in ein Spinatblatt tut man seinen Augen automatisch etwas Gutes. „Entscheidend ist, wie das Gemüse zubereitet bzw. haltbar gemacht wurde“, weiß der Ernährungswissenschaftler. So sei allgemein bekannt, dass etwa beim Kochen viele Inhaltsstoffe zerstört werden.
Dr. Böhm und sein Team haben daher in einer aktuellen Studie untersucht, wie sich der Gehalt an wertvollen Carotinoiden in Brokkoli und Co. bei der Konservierung schonen lässt. Wie die Forscher der Uni Jena in der Fachzeitschrift „LWT – Food Science and Technology“ schreiben, lassen sich die natürlichen Schutzpigmente durch den Einsatz eines Hochdruckverfahrens beim Haltbarmachen von Gemüse weitestgehend vor Zerstörung schützen (DOI: 10.1016/j.lwt.2014.01.004).
Für ihre Untersuchung haben die Forscher gemeinsam mit Kollegen der TU Dresden Spinat unterschiedlich lange einem Druck von bis zu 600 MPa ausgesetzt – das entspricht etwa dem Druck in 60 km Meerestiefe. Anschließend sind die Proben auf ihren Carotinoid-Gehalt untersucht und dieser mit Proben aus dampfgegartem und gekochtem Gemüse verglichen worden. „Während sich aus den erhitzten Proben deutlich geringere Mengen an Farbstoffen gewinnen ließen als aus dem rohen Gemüse, haben wir in den druckbehandelten Proben sogar leicht höhere Werte gefunden“, fasst Böhm die Studienergebnisse zusammen. Letzteres, so vermutet der Forscher, liege daran, dass die Farbstoffe durch das Druckverfahren leichter aus dem Gemüse herausgelöst werden.
Diese Erkenntnisse seien im Moment zwar noch ohne Relevanz für die Speisezubereitung in der heimischen Küche, so der Ernährungswissenschaftler. Doch für das industrielle Haltbarmachen von verarbeiteten Lebensmitteln, wie Gemüsesäften oder Fertiggerichten, sei das Hochdruckverfahren eine interessante Alternative zum gängigen Erhitzen. Nun planen die Jenaer Forscher weitere Untersuchungen, um die Auswirkungen der Hochdruckbehandlung auf die Bioverfügbarkeit der Carotinoide im menschlichen Körper zu testen.
Original-Publikation:
Arnold C et al. Carotenoids and chlorophylls in processed xanthophyll-rich food, LWT – Food Science and Technology 2014, DOI: 10.1016/j.lwt.2014.01.004
Kontakt:
PD Dr. Volker Böhm
Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Dornburger Straße 25, 07743 Jena
Tel.: 03641 / 949633
E-Mail: volker.boehm@uni-jena.de
Weitere Informationen:
http://www.uni-jena.de
Quelle: idw
UMSICHT beteiligt an Forschungsprojekt zur Wassereinsparung – ROOF WATER-FARM
Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT
Gemüseanbau mitten in der Stadt? Die Idee, im Supermarkt erhältliche Gemüse und Kräuter einfach auf dem Dach anzubauen, anstatt sie von weither zu transportieren, findet viele Befürworter. Morgens geerntet, liegt die Ware dann frisch in den Regalen – ohne Verlust an Geschmack oder Vitaminen und ohne großartige Transportkosten zu verursachen.
Aufgrund von globalen Trends wie wachsende Weltbevölkerung und steigende Urbanisierung sowie Klimawandel und Flächenversiegelung wird die Rolle für die lokale Nahrungsmittelversorgung und Bewirtschaftung multifunktionaler Landschaften zunehmend wichtiger. In Zukunft muss eine nachhaltige Versorgung mit Nahrungsmitteln über innovative, systemische Ansätze sichergestellt werden. Im Gegensatz zu bestehenden Versorgungsstrukturen, die häufig stark auf Lebensmittelimporten basieren, zielt der Ansatz des Fraunhofer-Instituts UMSICHT inFarming® darauf ab, Nahrungsmittel in einem regionalen, ressourcenschonenden sowie ganzheitlichen Kontext zu erzeugen und bereitzustellen (»lokale und qualitativ hochwertige Produktion unter optimiertem Wachstum in der Stadt für die Stadt«).
Zentrale Standortbedingungen für die erfolgreiche Pflanzenproduktion sind die Verfügbarkeit von Licht, Wasser, Wärme und Nährstoffen. Diese können im urbanen Raum ressourceneffizient durch Integration kommunaler und industrieller Stoff- und Energieströme mittels intelligenter Verknüpfung von Produktionssystemen und Gebäudeinfrastrukturen bereitgestellt werden. Das Einsparpotenzial ist erheblich. Neben der benötigten Anbaufläche gehen weltweit rund 70 Prozent des verfügbaren Trinkwassers in die Landwirtschaft, darüber hinaus trägt der Energieverbrauch mit ca. 14 Prozent zu den weltweiten CO2-Emissionen bei.
Nährstoffe aus Schwarzwasser
In dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt ROOF WATER-FARM wird über drei Jahre ein System entwickelt, das die Wasserströme aus Gebäuden zur Versorgung von Pflanzensystemen nutzt. Aufgetrennt nach der Herkunft des Wassers, werden in einem Gewächshaus im Berliner Stadtteil Kreuzberg in zwei unabhängigen Versuchsstrecken einerseits das Wasser aus Dusche, Badewanne und Waschmaschine (Grauwasser) und andererseits das Toilettenabwasser (Schwarzwasser) derart aufbereitet, dass damit Erdbeeren, Tomaten oder Salat ideale Wachstumsbedingungen erhalten.
Neben der Bereitstellung von frischem Wasser liegt ein Hauptaugenmerk des Forschungsprojekts in der effizienten und hygienischen Versorgung der Pflanzen mit Dünger. Fraunhofer UMSICHT entwickelt in diesem Zusammenhang ein neues Verfahren, das die notwendigen Hauptnährstoffe für das pflanzliche Wachstum direkt aus dem Schwarzwasser gewinnt. Ökobilanzielle Betrachtungen der einzelnen Stoffströme geben darüber hinaus Auskunft, ob der konzeptionelle Ansatz nachhaltig ist.
Am 11. Juni 2014 ist die Versuchsanlage mit einem Erdbeerfest der Öffentlichkeit vorgestellt worden. Die Technologie, die heute noch in einem begrünten Hinterhof eines Kreuzberger Wohnblocks steht, soll zukünftig in sogenannten gebäudeintegrierten Stadtfarmen nach dem inFarming®-Ansatz für mehr Effizienz sorgen.
Das Projekt ROOF WATER-FARM ist ein Verbundprojekt unter Koordination der TU Berlin. Weitere Verbundpartner sind:
inter 3 GmbH – Institut für Ressourcenmanagement
TERRA URBANA Umlandentwicklungsgesellschaft mbH
Nolde & Partner
Senatsverwaltung für Stadtentwicklung und Umwelt
Weitere Informationen:
http://www.roofwaterfarm.com
http://www.infarming.de
Quelle: idw
Internationale Fußballspiele in Höhenlagen – sind Top-Spieler aus dem ‚Flachland‘ benachteiligt?
Christian Wißler Mediendienst Forschung
Universität Bayreuth
Sind Fußballspieler benachteiligt oder sogar gefährdet, wenn sie in Höhenlagen von über 3.000 Metern an internationalen Spielen teilnehmen? Am Institut für Sportwissenschaft der Universität Bayreuth befassen sich Prof. Dr. Walter Schmidt, der hier die Abteilung Sportmedizin / Sportphysiologie leitet, und seine Mitarbeiterin Dipl.-Sportök. Nadine Wachsmuth mit dieser Thematik. Ein Forschungsprojekt hat ergeben: Die oft praktizierte ‚fly in – fly out‘-Strategie ist aus leistungsphysiologischer Sicht nicht zu empfehlen.
Viele Fußballspieler, die südamerikanischen Fußball-Nationalmannschaften angehören, stehen bei europäischen Vereinen unter Vertrag – darauf hat die Weltmeisterschaft 2014 in Brasilien erneut aufmerksam gemacht. Diese Spieler sind es oftmals nicht gewohnt, Spitzenleistungen in Höhenlagen zu erbringen, wie sie für einige Andenstaaten typisch sind. So liegt beispielsweise die bolivianische Hauptstadt La Paz rund 3.600 m über dem Meeresspiegel, die kolumbianische Hauptstadt Bogotá in rund 2.600 m Höhe. Für La Paz hat sich mittlerweile die sogenannte ‚fly in – fly out‘-Strategie durchgesetzt: Auswärtige Mannschaften fliegen unmittelbar vor dem Spiel ein und verlassen danach gleich wieder die Stadt. Diese Praxis beruht auf der Annahme, es gebe unmittelbar nach der Ankunft in der Höhenlage ein ‚physiologisches Fenster‘, also einen kurzen Zeitraum, innerhalb dessen die Leistung noch nicht wesentlich abfällt.
In internationalen Sportverbänden wird schon seit langem darüber diskutiert, inwiefern manche Spieler benachteiligt oder sogar gefährdet sind, wenn sie beispielsweise bei der „Copa América“, der südamerikanischen Fußballmeisterschaft, oder bei WM-Qualifikationsspielen auf Mannschaften treffen, die an Höhenlagen bereits akklimatisiert sind. Der Fußball-Weltverband FIFA entschied im Jahr 2007, dass Fußballspiele nicht in einer Höhe über 3.000 m stattfinden dürfen, und revidierte damit eine frühere Entscheidung, die die zulässige Höchstgrenze bei 2.500 m angesetzt hatte. Südamerikanische Fußballverbände intervenierten jedoch gegen diese Maßgabe, und so wurde 2008 von der FIFA beschlossen, dass sie erst dann umgesetzt werden solle, wenn genügend wissenschaftliche Daten über die Leistungsentwicklung und eine mögliche Gesundheitsgefährdung in diesen Höhen vorliegen. Dies ist aber bis heute nicht der Fall.
Vergleichende Untersuchungen an Fußballteams aus Bolivien und Australien
An der Universität Bayreuth befassen sich Prof. Dr. Walter Schmidt, der die Abteilung Sportmedizin / Sportphysiologie im Institut für Sportwissenschaft leitet, und seine Mitarbeiterin Dipl.-Sportök. Nadine Wachsmuth schon seit längerem mit dieser Thematik. Forschungsergebnisse, die gemeinsam mit internationalen Partnern erzielt wurden, sind mittlerweile in internationalen Fachzeitschriften publiziert.
In einer speziell auf den Fußball bezogenen Fallstudie mit australischen Partnern ging es um einen Vergleich zwischen Juniorenspielern eines traditionsreichen bolivianischen Fußballvereins und den Mitgliedern der australischen U-17-Nationalmannschaft. Beide Mannschaften trafen zunächst in zwei Fußballspielen aufeinander, die in der bolivianischen Stadt Santa Cruz in 420 m Höhe stattfanden. Dann folgten, während eines Zeitraums von zwei Wochen, drei Begegnungen in La Paz. Bei allen Spielen und Trainingseinheiten zeichnete ein GPS-System die Laufwege und Laufgeschwindigkeiten der Spieler auf, die so gewonnenen Daten wurden mit der zeitgleich registrierten Herzfrequenz in Beziehung gesetzt. Kontinuierliche Messungen registrierten die Blutbildung. Hinzu kamen Fragebögen, in denen die Spieler wiederholt Auskunft über ihr subjektives Empfinden gaben.
Die Ergebnisse waren eindeutig: Während der ‚Flachlandphase‘ zeigten sich beide Mannschaften gleich stark. Doch unmittelbar nach der Ankunft in der bolivianischen Hauptstadt auf einer Höhe von 3.600 m, gleich während des ersten Fußballspiels, brach die Leistungsfähigkeit der australischen Mannschaft ein. Die Leistungsminderungen waren bei ihnen wesentlich stärker ausgeprägt als bei den bolivianischen Spielern, die zwar ebenfalls, aber längst nicht in gleichem Umfang mit Anpassungsschwierigkeiten zu kämpfen hatten. „Die ‚fly in – fly out‘-Strategie kann somit vom leistungsphysiologischen Standpunkt nicht empfohlen werden“, erklärt daher Prof. Schmidt.
Besonders auffällig waren Anomalien im Schlafverhalten, die mit Elektroden und Bewegungsanalysatoren aufgezeichnet wurden. Bei der Hälfte der australischen Spieler wurde eine so genannte Cheyne-Stokes-Atmung beobachtet: ein ständiger Wechsel zwischen Atemunterdrückung, Atemnot und tiefen Atemzügen, der tagsüber starke Erschöpfungserscheinungen verursacht.
Unterschiedliche Akklimatisierungsprozesse
Während der zwei Wochen in La Paz blieben deutliche Unterschiede zwischen den Teams bestehen, trotz der allmählich einsetzenden Akklimatisation. Einige physiologische Funktionen – insbesondere die Atmung sowie die Sauerstoffsättigung des Hämoglobins im Blut – veränderten sich bei den australischen Spielern in der Weise, dass sie durch die Höhenlage weniger stark beeinträchtigt wurden. Und schon nach zwei Tagen waren keine höhenspezifischen Krankheitszeichen mehr zu erkennen. Gleichwohl führten diese Anpassungsprozesse insgesamt nicht zu einer völligen Wiederherstellung der ursprünglichen Leistungsfähigkeit. Unterschiede zu den bolivianischen Spielern, die sich nach kurzer Zeit regenerieren konnten und in der Höhenlage ihr gewohntes Leistungsniveau zeigten, blieben bestehen.
Handlungsempfehlungen für internationale Fußballverbände
Welche Empfehlungen lassen sich daraus für den Fußballsport ableiten? „Es ist eine schwierige Abwägung, ob die FIFA oder andere Fußballverbände eine Höhengrenze für internationale Fußballturniere definieren und einem Land wie Bolivien dadurch die Chance nehmen sollten, Gastgeber für solche Veranstaltungen zu sein“, meint Prof. Schmidt. „Einerseits sind Nachteile für Spieler, die Fußballturniere in Höhenlagen nicht gewohnt sind, unbestreitbar; andererseits haben wir kein generelles Risiko für ernsthafte Erkrankungen nachweisen können.“
Der Bayreuther Sportmediziner betont, dass die Höhenlage eines Austragungsorts keineswegs der einzige Faktor ist, der Fußballspieler aus Ländern mit anderen klimatischen Bedingungen einseitig benachteiligt. „Es gibt andere Umweltfaktoren, die für die Gesundheit der Spieler wesentlich riskanter sind als die Höhenexposition – beispielsweise große Hitze mit Schattentemperaturen von über 40 Grad Celsius, wie sie 2022 bei der Fußballweltmeisterschaft in Qatar zu erwarten sind. Wenn die FIFA in ihren Regularien gesundheitliche Risiken ausschließen will, die durch klimatische Gegebenheiten an den Austragungsorten bedingt sind, sollte sie konsequenterweise auch solche risikoreicheren Faktoren berücksichtigen“, so Prof. Schmidt.
Kontakt:
Prof. Dr. Walter Schmidt
Abteilung Sportmedizin/Sportphysiologie
Universität Bayreuth
D-95440 Bayreuth
Tel.: +49 (0)921 55 3464
E-Mail: walter.schmidt@uni-bayreuth.de
Veröffentlichungen (u.a.):
Nadine Wachsmuth et al.,
Changes in blood gas transport of altitude native soccer players near sea-level and sea-level native soccer players at altitude (ISA3600)
British Journal of Sports Medicine 47:i93-i99. DOI: 10.1136/bjsports-203-092761, 2013
Christopher J Gore et al.,
Methods of the international study on soccer at altitude 3600 m (ISA3600),
British Journal of Sports Medicine 47:i80-i85.
DOI: 10.1136/bjsports-2013-092770, 2013
Quelle: idw
Neues UNESCO-Wasserzentrum in Koblenz
Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde
Am 9. Juli wurde in Berlin von Bundesregierung und UNESCO der Vertrag zur Gründung des ersten UNESCO-Wasserinstituts in Deutschland unterzeichnet. Die Institution wird in Koblenz bei der Bundesanstalt für Gewässerkunde angesiedelt und trägt die Bezeichnung „Internationales Zentrum für Wasserressourcen und globalen Wandel“.
Weltweit gibt es bereits 26 Institute, die unter der Schirmherrschaft der UNESCO stehen. Es handelt sich um Forschungs- und Ausbildungszentren, von denen jedes einen anderen wasserspezifischen Themenkomplex behandelt. Im neuen Zentrum in Koblenz werden der globale Wandel und Wasserressourcen im Fokus stehen. Der Forschungsschwerpunkt wird auf der weltweiten Verfügbarkeit und Qualität von Wasser liegen. Das Wasser-Institut wird Experten aus aller Welt aus- und fortbilden und gemeinsame Forschungsprojekte initiieren. Mit neuen Datenstrukturen wird international ein effizienter Umgang mit gewonnenen Erkenntnissen auf dem Gebiet der Gewässerkunde ermöglicht. Hierzu gehören auch Referenzdatensätze, die weltweit die Abflussmenge und Güte großer Flüsse und Seen sowie die Grundwasserbeschaffenheit beschreiben.
Das UNESCO-Institut ist bei der Bundesanstalt für Gewässerkunde gut angesiedelt. In vielen Jahren der interdisziplinären Zusammenarbeit an praxisbezogenen Aufgabenstellungen wurde in der BfG ein umfassendes Expertenwissen zu Wassermengen, Wasserqualität sowie ökologischen Fragestellungen und Wirkungszusammenhängen an Gewässern aufgebaut. Gerade wurde unter Federführung der BfG das fünfjährige Forschungsprogramm KLIWAS abgeschlossen, das die Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt untersuchte. Das neue Institut wird eng mit dem deutschen IHP/HWRP-Nationalkomitee für die Wasserprogramme der UNESCO und WMO kooperieren, dessen Sekretariat schon seit 1975 in der Bundesanstalt für Gewässerkunde ansässig ist.
Dazu erklärt Michael Behrendt, Leiter der Bundesanstalt für Gewässerkunde: „Seit vielen Jahren arbeitet die Bundesanstalt für Gewässerkunde erfolgreich mit Institutionen der WMO und der UNESCO zusammen. Daher ist es uns eine Freude, nun dieses internationale Wasserzentrum unter der Schirmherrschaft der UNESCO beherbergen zu dürfen.“
Aus Sicht der Bundesregierung ist das Zentrum gleichzeitig ein wichtiger Baustein des deutschen Beitrags zur Umsetzung wasserbezogener Ziele der UN.
Weiter führende Informationen zu UNESCO, IHP/HWRP, GRDC und GEMS:
Die UNESCO (United Nations Educational, Scientific and Cultural Organization) ist eine Institution der Vereinten Nationen mit Sitz in Paris. Sie ist die Weltorganisation mit der größten Expertise zu allen Fragen rund um das Wasser. Die wichtigsten Instrumente der UNESCO sind das Internationale Hydrologische Programm (IHP) mit Nationalkomitees in mehr als 160 Staaten, die regelmäßige Herausgabe des Weltwasserberichts und die Forschungsinstitute unter UNESCO-Schirmherrschaft.
Die WMO, die Weltorganisation für Meteorologie, bündelt ihre Forschungsaktivitäten im Wasserbereich im HWRP (Hydrology and Water Resources Programme).
Das GRDC (Global Runoff Data Centre) ist eine einzigartige Sammlung weltweiter Abflussdaten. Zur Zeit werden Daten von ca. 9000 Stationen aus 157 Ländern vorgehalten. Das GRDC ist seit 1988 in der Bundesanstalt für Gewässerkunde angesiedelt.
GEMS ist eine globale Datensammlung zur Qualität von Oberflächen- und Grundwasser im Rahmen des United Nations Water Programme. Die Einrichtung kam im April 2014 nach Koblenz.
Weitere fachliche Informationen: Direktor und Professor Michael Behrendt, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon 0261/1306 5300, Mail: behrendt@bafg.de; Dr. Johannes Cullmann, IHP-/HWRP-Sekretariat, Fon 0261/1306 5313, Cullmann@bafg.de.
Kontakt und Adresse für Belegexemplar: Benno Dröge, Pressesprecher, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Tel. 0261/ 1306-5461, Fax: 0261/ 1306 5333, E-mail: droege@bafg.de, Internet: www.bafg.de
Die Bundesanstalt für Gewässerkunde ist das zentrale wissenschaftlich eigenständige Institut des Bundes für die wissenschaftlich-technische Versuchs- und Forschungsarbeit und die praxisbezogene Beratung der Wasser- und Schifffahrtsverwaltung in den Fachgebieten Hydrologie und Gewässernutzung, Gewässerbeschaffenheit sowie Ökologie und Gewässerschutz. Sie unterstützt das Bundesministerium für Verkehr und digitale Infrastruktur sowie andere Bundesressorts in fachspezifischen Fragestellungen zu Bundeswasserstraßen und deren Einzugsgebiete und vertritt diese auch international.
Quelle: idw
Bluttest zur Erkennung von Darmpolypen: Experten raten von Einsatz ab
Dipl.-Journ. Carsten Heckmann Pressestelle
Universität Leipzig
Die Zeitschrift „Journal of Translational Medicine“ publizierte vor einigen Monaten einen Artikel, an dessen Erstellung auch Wissenschaftler der Universität Leipzig beteiligt waren. Darin geht es um einen Bluttest zur Erkennung von Darmpolypen, der von der Leipziger Firma Indago GmbH angeboten wird. Auch das Magazin „Der Spiegel“ berichtet in seiner aktuellen Ausgabe (29/2014) darüber. Eine Expertenkommission der Universität Leipzig hat sich mit der Publikation befasst und ist zu einem eindeutigen Schluss gekommen: Der Bluttest sei wegen seiner unzureichenden Treffsicherheit und der fehlenden Qualitätskontrolle für eine valide labormedizinische Diagnostik ungeeignet.
„Die Herstellung der Proben ist nicht nachvollziehbar. Wir halten es daher ärztlich und ethisch für nicht vertretbar, wenn dieser Test für eine medizinische Diagnostik herangezogen wird“, sagt Prof. Dr. Ingo Bechmann, Prodekan der Medizinischen Fakultät der Universität Leipzig, der die Kommission einberufen hat. Nach Ansicht der vierköpfigen Expertengruppe sind „die in Broschüren und auf der Internetseite der Herstellerfirma geäußerten Behauptungen zum angeblichen Nutzen des Tests fehlleitend“. Sie könnten „zu einer Schädigung durch Fehldiagnostik und zu einer falschen Sicherheit getesteter Personen führen“. Die Medizinische Fakultät rät daher klar von dem Einsatz des Bluttests ab und warnt grundsätzlich vor unkritischem Einsatz von klinisch unzureichend geprüften diagnostischen Verfahren, auch wenn sie bereits kommerziell angeboten werden.
Dass es dennoch zu einem Beitrag in einer anerkannten wissenschaftlichen Zeitschrift gekommen ist, versteht Bechmann nicht. „Dieser Beitrag hätte nicht erscheinen dürfen. Wir haben den Herausgeber der Zeitschrift bereits schriftlich um eine Erklärung gebeten.“
Prof. Dr. Matthias Schwarz, Prorektor für Forschung und Nachwuchsförderung der Universität Leipzig, hatte im April durch einen umfangreichen Brief eines Konstanzer Wissenschaftlers Hinweise auf Ungereimtheiten bei dem Testverfahren erhalten. Nach einer ersten Sichtung und weiteren Anhaltspunkten durch die „Spiegel“-Recherche bat er Professor Bechmann und seine Kollegen um eine eingehende Prüfung. „Uns muss daran gelegen sein, dass stets alles erdenklich Mögliche für eine wissenschaftliche Qualitätssicherung getan wird. Entsprechende Mechanismen wie das Peer-Review-Verfahren bei wissenschaftlichen Veröffentlichungen haben in diesem Fall offenbar versagt.“
Zwar habe der Beitrag der beteiligten Leipziger Uni-Forscher von der Medizinischen Fakultät und dem Translationszentrum für Regenerative Medizin „vor allem in einer wissenschaftlichen Dienstleistung, nämlich der Bildauswertung“ bestanden, die Wissenschaftler hätten also nicht den fragwürdigen Bluttest entwickelt. Dennoch müsse auch die Universität Lehren aus dem Fall ziehen, sagt Schwarz. „Gerade wenn es um gemeinsame Projekte mit Unternehmen geht, vor allem bei Dienstleistungen, muss den beteiligten Forschern und anderen Mitarbeitern klar sein, dass sie mindestens die für das Thema am Ort ansässigen wissenschaftlichen Experten einbeziehen müssen. Damit erhalten sie dringend notwendige Informationen darüber, in welchem wissenschaftlichen Kontext sie sich mit ihrer Arbeit bewegen. Wir werden vor allem die Führungskräfte unter unseren Wissenschaftlern noch einmal deutlich darauf hinweisen.“
Natürlich könne es nicht die Aufgabe der Universität sein, Firmen zu kontrollieren, so der Prorektor. „Aber bei der Kooperation mit Firmen muss die wissenschaftliche Qualität des Gesamtprojekts stimmen.“ Die Zusammenarbeit mit der Firma Indago werde die Universität Leipzig so bald als möglich beenden. Derzeit werde zudem geprüft, ob und wie auch einzelnen Wissenschaftlern die Kooperation mit dem Unternehmen untersagt werden kann.
Der Beitrag im „Journal of Translational Medicine“ ist am 4. November 2013 unter dem Titel „Detection of colon polyps by a novel, polymer pattern-based full blood test“ erschienen (doi: 10.1186/1479-5876-11-278, online unter http://www.translational-medicine.com/content/11/1/278).
Weitere Informationen:
Prof. Dr. Matthias Schwarz
Prorektor für Forschung und Nachwuchsförderung
Telefon: +49 341 97-30020
E-Mail: prorektor.forschung@uni-leipzig.de
Quelle: idw
Bioenergie in künftige Energieversorgungssysteme integrieren
Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.
BMEL sucht Forschungsansätze für eine bedarfsgerechtere Erzeugung von Bioenergie
Um Strom und Wärme aus Biomasse besser in die künftige Energieversorgung integrieren zu können, konkretisiert das Bundesministerium für Ernährung und Landwirtschaft (BMEL) mögliche förderfähige Forschungsansätze im Rahmen des Förderprogramms Nachwachsende Rohstoffe. Gesucht werden modellhafte Konzepte, bei denen Bioenergie bedarfsgerechter eingesetzt und effizient in energetische Versorgungsstrukturen eingebunden wird.
Der Förderschwerpunkt „Integration von Bioenergie in zukünftige Energieversorgungssysteme“ des BMEL wird aus dem Energie- und Klimafonds der Bundesregierung finanziert und durch die Fachagentur Nachwachsende Rohstoffe e. V. (FNR) betreut.
Mit Biomasse besteht grundsätzlich die Möglichkeit, Energie zielgenau auf Anforderung bereitzustellen. Das gilt sowohl für das Abdecken von Bedarfsspitzen im Stromnetz als auch für die Erzeugung von Nutzwärme.
Teilweise ausgeschöpft werden die bestehenden Potenziale derzeit vor allem im Bereich kleiner und mittlerer Heizanlagen und -werke. Die überwiegende Mehrheit der größeren Biomasse-Heizkraftwerke liefert hingegen rund um die Uhr Grundlaststrom und dementsprechend auch Wärme.
Soll die Erzeugung z. B. von Strom, Prozess- und Nahwärme aus Biomasse stärker an die Nachfrageentwicklung angepasst werden, sind intelligente Lösungen erforderlich. Sie betreffen stärker vernetzende Energiekonzepte, die auf variierende Nachfrage durch Regel- und Speichersysteme reagieren, als auch spezifische Regularien und Strategien im nichttechnischen Bereich.
Sie im Rahmen einer gesamtheitlichen Energieversorgung zu modellieren, ist Gegenstand des ausgeschriebenen Förderschwerpunkts. Gesucht werden Vorhaben, die die Erzeugung von Bioenergie kompatibel machen mit den Herausforderungen fluktuierender Stromnetze und spezifischer Wärmebedürfnisse und damit in der Lage sind, die Vorteile der Bioenergie zur Kompensation von Kapazitätsproblemen anderer Energieträger in Wert zu setzen. Die Modellierungen können sich auf verschiedene Bereitstellungs- und Versorgungsebenen beziehen und den hierfür erforderlichen ökonomischen Aufwand beschreiben.
Zudem fördert das BMEL die Entwicklung der sich aus der Modellierung ableitenden technologischen Ansätze zur systemintegrierten Erzeugung von Bioenergie. Dazu zählen die Neu- und Weiterentwicklung von Anlagen, Regelungs- und Managementsystemen.
Projektskizzen können ab sofort bei der FNR eingereicht werden. Entsprechende Hinweise bietet die FNR unter http://www.fnr.de/projekte-foerderung/energie-und-klimafonds/antragsverfahren/.
Kontakt für den Förderschwerpunkt:
Jenny Holz
Tel.: +49 3843 6930-205
j.holz@fnr.de
Weitere Informationen:
http://www.fnr.de/projekte-foerderung/nachwachsende-rohstoffe/foerderschwerpunkt…
http://www.fnr.de/projekte-foerderung/energie-und-klimafonds/antragsverfahren/
Quelle: idw
Gärtrommel zur Erzeugung von Biogas
Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen
An einem neuartigen Verfahren zur Biogaserzeugung aus Abfällen arbeiten Forscher der Technischen Hochschule Mittelhessen. Bei der Entwicklung einer Gärtrommel kooperieren sie mit der Kompostierungsanlage Brunnenhof und dem Ingenieurbüro Dr. Geipert (beide aus Biebesheim) zusammen. Das Land Hessen fördert das Vorhaben mit 268.000 Euro. Projektleiter an der THM sind die Gießener Professoren Dr. Ulf Theilen und Dr. Harald Weigand vom Kompetenzzentrum für Energie- und Umweltsystemtechnik.
Bei der Vergärung von Biomasse entsteht mit Hilfe von Bakterien Biogas, das als Energieträger verwendet werden kann. Biomasse aus Abfällen gilt als wichtiger Beitrag zu einer nachhaltigen Energieversorgung, da sie nicht als Konkurrenzprodukt zu Nahrungs- und Futtermitteln erzeugt werden muss.
Zur Vergärung werden heute Fermenter in Garagen- oder Siloform, die mit strukturreichem stapelbarem Substrat befüllt werden, und verschiedene Reaktoren mit Rührwerken eingesetzt, die strukturarmes Material benötigen. Garagenfermenter haben einen relativ geringen Ertrag, da die Biomasse nicht durchmischt wird. Fermenter mit Rührwerken sind technisch aufwändig und haben einen hohen Verschleiß. Vergärungsanlagen, die sowohl strukturreichen Ernteabfall und Mist als auch Schlämme, Flüssigkeiten und pastöse Speisereste verarbeiten können, gibt es auf dem Markt nicht.
Die neu zu entwickelnde Gärtrommel mit einer Länge von bis zu 30 und einem Durchmesser von bis zu 6 Metern soll für alle Bioabfälle und organische Reststoffe geeignet sein. Sie besteht aus einem Hohlzylinder, der an zwei gegenüberliegenden Stirnseiten abgeschlossen ist. Der Fermenter ist drehbar gelagert. „Die Drehbewegung des großvolumigen Reaktorbehälters in Verbindung mit Mischwerkzeugen an der Trommelwand führt zu einer optimalen Materialdurchmischung und damit zu einem hohen Gasertrag. Die Trommelform und der Verzicht auf ein innenliegendes Rührwerk erlauben eine energieeffiziente Durchmischung bei sehr geringem Materialverschleiß“, erläutert Theilen. Die entwässerten Gärrückstände sollen zu Kompost weiterverarbeitet werden. Basis des neuen Trommelfermenters ist eine Rottetrommel, die sich in Biebesheim seit 15 Jahren für die Kompostierung bewährt hat.
Die Partner sehen für ihre Neuentwicklung ein großes Marktpotential. Laut einer Studie des Wiesbadener Umweltministeriums fallen in Hessen aktuell eine halbe Million Tonnen Bioabfälle an. Davon werden nur 15 Prozent in Vergärungsanlagen genutzt.
Das Forschungsvorhaben hat ein Gesamtvolumen von 377.000 Euro. Es wird im Rahmen der Förderlinie 3 der hessischen „Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz“ (Loewe) unterstützt. Damit bezuschusst die Landesregierung Projekte, bei denen Hochschulen mit kleinen und mittleren hessischen Unternehmen zusammenarbeiten.
Weitere Informationen:
http://www.thm.de/site/kompetenzzentren/zeuus.html
Quelle: idw
Feldversuch in Niedersachsen zur großtechnischen Nutzung von Mikroalgen als Biomasse
Dipl.-Ing. Bernd Schlütter Hochschulmarketing
Technische Hochschule Wildau [FH]
Seit einigen Jahren arbeitet der Lehr- und Forschungsbereich Biosystemtechnik der Technischen Hochschule Wildau unter Leitung von Prof. Dr. Franz-Xaver Wildenauer gemeinsam mit Praxispartnern an der energetischen und stofflichen Nutzung von Algenbiomasse. Nach dem Aufbau eines entsprechenden Technikums auf dem Campus im Jahre 2011 wurde jetzt ein neuer Meilenstein erreicht.
Unter dem Titel „Schaufenster Algentechnologie“ startete in Bad Fallingbostel im niedersächsischen Heidekreis ein Pilotvorhaben zur großtechnischen Nutzung der Algenbiotechnologie. Dabei werden das in den Biogasanlagen der dortigen Agrar-Energie Obernhausen GmbH & Co. KG (AEO) entstehende CO2 und die Abwärme umweltverträglich in Photobioreaktoren eingeleitet, um darin Grünalgen zu kultivieren. Das Projekt ist in dieser Form einmalig in Deutschland.
Je nach Sonneneinstrahlung ist bereits nach sechs bis zehn Tagen „Erntezeit“. Über eine Zentrifuge vom Wasser getrennt, entstehen aus 750 Litern Algen-Wasser-Gemisch rund sieben Liter reine Biomasse. „Der Protein- und Fettanteil in den Algen ist sehr hoch“, erläutert Prof. Wildenauer den innovativen Ansatz des Projektes. „Wir können so auf eine effektive Weise verschiedenste Wertstoffe gewinnen, beispielsweise Öle zum direkten Einsatz als Brennstoff, probiotische Wirk- und Zusatzstoffe für die Nahrungsmittel- bzw. Kosmetikindustrie, Zuschlagstoffe für Tierzucht und Aquakultur. Und wir benötigen zum Anbau keinen fruchtbaren Boden. Algen wachsen zudem in Süß- wie Salzwasser, sogar in Brackwasser oder verschmutztem Oberflächenwasser.“
Das Projekt am Standort Obernhausen ist Teil der Strategie des Unternehmens AEO, die auf CO2-Reduktion, nachwachsenden Rohstoffen und minimalem Energieverbrauch fußt. Die TH-Forscher wollen damit den wissenschaftlichen Nachweis erbringen, dass die Algenbiotechnologie unter den klimatischen Bedingungen Norddeutschlands großtechnisch effektiv für die Wertstoff- und Energiegewinnung einsetzt werden kann.
Weitere Informationen unter http://www.th-wildau.de/bio.
Weitere Informationen:
http://www.th-wildau.de
Projektpartner sind neben der Agrar-Energie Obernhausen (AEO) die Stadt Bad Fallingbostel, der Industrie- und Gewerbeverein Deltaland sowie die Unternehmen Georg Fischer in Schaffhausen/Schweiz und Dautphetal, LGem B.V. in Den Haag/Niederlande und die Fa. Lipinski in Dorfmark.
Quelle: idw
Bei Sau-Wetter lässt sich der Bock nicht sehen
Eva Goris Kommunikation
Deutsche Wildtier Stiftung
Die Deutsche Wildtier Stiftung rät: Erst den Wetterbericht hören, dann Wild beobachten gehen
Erst ist es heiß, dann zieht ein Gewitter übers Land und es regnet in Strömen: Was für ein Sauwetter! Für Spaziergänger, die Wildschweine beobachten wollten, trifft der Begriff „Sau-Wetter“ ins Schwarze: Schwarzwild kommt nach kräftigen Regenfällen aus der Deckung, denn dann lässt sich im aufgeweichten Boden leichter nach Nahrung suchen. Anschließend gib es noch eine Schlammpackung! Das hilft gegen Parasiten aller Art: Zecken und Flöhe ersticken nach dem Bad in der Suhle unter der eingetrockneten Erdkruste. Überhaupt macht Wildschweinen Dauerregen nichts aus! Sie sind mit ihrer dicken Schwarte wie unter einem Regenmantel geschützt.
Wer Wildtiere beobachten will, sollte aufs Wetter achten. Gerade nach einem heftigen Regenschauer kommen viele Wildtiere aus dem Wald. „Wenn im Wald die dicken Tropfen von den Bäumen klatschen, ziehen Rehe gern ins Freie. Ihnen sind die lauten Tropfen nicht ganz geheuer und auf dem Feld kann ihr Fell in der Sonne wieder trocknen“, sagt Dr. Andreas Kinser, Forst- und Jagdexperte der Deutschen Wildtier Stiftung.
Die meisten Wildtiere in unseren Wäldern sind keine klassischen Sonnenanbeter. „Bei großer Hitze verkriechen sie sich und suchen schattig-kühle Laubwälder auf“, sagt Kinser. Auch extrem windige Tage sind kein „Ausgeh-Wetter“ für Wildtiere. Dann bleiben Wildtiere lieber im sicheren Versteck. Der Wechsel von Hoch- und Tiefdruckgebieten ist keine gute Voraussetzung für eine erfolgreiche Wildbeobachtung.
Natürlich ist nicht nur das Wetter bei Wildtierbeobachtungen ausschlaggebend: Wer Wildtiere sehen will, muss Geduld bewahren und vor allem leise sein.
Weitere Informationen:
www.DeutscheWildtierStiftung.de
Quelle: idw
Auszeichnung für Modellprojekt zur dezentralen Abwasserentsorgung
Stephan Thomas M.A. Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig
An der HTWK Leipzig entwickeltes Konzept bringt Preis als „Ausgezeichneter Ort“ 2014
Der „Verein zum ökologischen Gewässerschutz Treptitz e.V.“ aus Nordsachsen ist mit seiner Kopplung einer dezentralen Abwasserentsorgung und Wärmeversorgung einer der Preisträger des Wettbewerbs „Ausgezeichnete Orte 2014/15: Innovationen querfeldein“ der Initiative „Deutschland – Land der Ideen“. Das zugrundeliegende Konzept wurde am Institut für Wasserbau und Siedlungswasserwirtschaft (IWS) der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) entwickelt und macht den Anschluss an eine Kläranlage auch in dünner besiedelten Regionen kostengünstiger.
„Um den ländlichen Raum attraktiv zu gestalten, brauchen wir solche kreativen und passgenauen Ideen. Grundlage für die Entwicklung solcher Konzepte ist die fachliche Expertise, eine wissenschaftliche Begleitung sowie die Empathie der Stakeholder“, so Prof. Hubertus Milke, Leiter des Instituts für Wasserbau und Siedlungswasserwirtschaft (IWS) an der HTWK Leipzig. Das Konzept sieht effiziente Gruppenkläranlagen statt teurerer Einzelkläranlagen sowie zusätzlich den Anschluss an ein durch Biogas gespeistes Fernwärmenetz vor. Dadurch sinken die Kosten für den Anschluss an eine Kläranlage in Treptitz (140 Einwohner) von 6.000 auf 3.000 Euro pro Haushalt, und es können zusätzlich 130.000 Liter Heizöl jährlich eingespart werden. Hintergrund ist die Europäische Wasserrahmenrichtlinie, welche den vollständigen Anschluss aller Haushalte an eine Kläranlage bis 2015 vorsieht. Im ländlichen Raum in Sachsen muss dies jedoch noch für ca. 80.000 Haushalte erfolgen.
„Durch unsere Lösung spart man nicht nur Geld und erreicht Umweltschutzziele. Die Tatsache, dass alle Einwohner mit an einem Strang gezogen haben, hat auch das Gemeinschaftsgefühl deutlich gestärkt“, erklärt der Treptitzer Tilo Sahlbach, Vorsitzender des Vereins zum ökologischen Gewässerschutz Treptitz e.V. und Geschäftsführender Direktor am IWS der HTWK Leipzig. Momentan gibt es Anfragen aus weiteren Gemeinden, die das Modell ebenfalls umsetzen wollen.
Im Wettbewerb „Innovationen querfeldein – Ländliche Räume neu gedacht“ der Initiative „Deutschland – Land der Ideen“ wurden 100 Innovationen ausgezeichnet, die die Zukunftsperspektiven ländlicher Regionen stärken, nationalen und internationalen Vorbildcharakter haben und als Inspiration für andere dienen können. Die Preisträger wurden am 1. Juli 2014 bekannt gegeben. Die Preisverleihung erfolgt am 13. September 2014 in Treptitz.
Ansprechpartner:
M.Sc. Tilo Sahlbach, HTWK Leipzig, Institut für Wasserbau und Siedlungswasserwirtschaft, Tel.: +49 341 3076- 6278, sahlbach@iws.htwk-leipzig.de
Prof. Dr.-Ing. Hubertus Milke, HTWK Leipzig, Institut für Wasserbau und Siedlungswasserwirtschaft, Tel.: +49 341 3076- 6230, milke@iws.htwk-leipzig.de
Weitere Informationen:
http://www.htwk-leipzig.de/de/hochschule/aktuelles/nachrichten/nachrichten-detai…
Quelle: idw
Wie blendet das Gehirn Störungen aus?
Dr. Julia Biederlack GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin
Wie schafft es unser Gehirn, Störreize zu ignorieren und aus einer Vielzahl an Informationen die relevanten herauszufiltern? Dieser Frage sind zwei Neurowissenschaftler der Charité – Universitätsmedizin Berlin und der Eberhard Karls Universität Tübingen in einer experimentellen Studie nachgegangen. Die Ergebnisse der Studie sind in der aktuellen Ausgabe des Fachjournals Neuron* veröffentlicht.
Täglich ist unser Gehirn einer Flut von wichtigen und unwichtigen Reizen ausgesetzt. Dennoch sind wir in der Lage, aus der Masse an Informationen, diejenigen herauszufiltern, die für uns relevant sind. Welche Mechanismen diesen Filterungsprozessen zugrunde liegen, untersuchten Dr. Simon Jacob von der Klinik für Psychiatrie und Psychotherapie am Campus Charité Mitte und Prof. Dr. Andreas Nieder von der Fakultät für Biologie der Eberhard Karls Universität Tübingen an Rhesusaffen. Die Tiere sollten sich eine bestimmte Anzahl an Punkten in einem Musterbild merken. In einer sich anschließenden Gedächtnisphase wurde ein Störreiz gezeigt. Danach sollten sie das Musterbild wiedererkennen.
Während die Rhesusaffen die Aufgabe durchführten, wurde die elektrische Aktivität einzelner Nervenzellen im Stirnlappen und im Scheitellappen gemessen, zwei für das Arbeitsgedächtnis wesentliche Regionen im Großhirn. Der Stirnlappen ist Sitz komplexer kognitiver Funktionen, während der Scheitellappen unter anderem eine wichtige Rolle bei der Verarbeitung sensorischer Informationen spielt. Die Forschungsergebnisse zeigen, dass die Nervenzellen im Stirnlappen zwar durch den Störreiz aktiviert werden, nach Ausschalten des störenden Reizes jedoch wieder das im Gedächtnis gespeicherte Musterbild darstellen. Demgegenüber wurden die Nervenzellen im Scheitellappen durch den Störreiz überhaupt nicht aktiviert.
„Die Studie hilft zu erklären, warum das Arbeitsgedächtnis bei vielen neurologischen und psychiatrischen Erkrankungen gestört ist“, sagt Dr. Jacob von der Charité. Weiterhin erklärt er: „Verschiedene Hirnareale scheinen bei der Ausblendung eines störenden Reizes unterschiedliche Strategien zu verwenden. Während Nervenzellen im Scheitellappen den Störreiz einfach unterdrücken, lassen sich die Zellen im Stirnlappen kurzzeitig ablenken, um aber sofort danach die eigentlich wichtige Gedächtnisinformation wieder herzustellen.“ Prof. Andreas Nieder fügt hinzu: „Uns hat vor allem die unterschiedliche Anfälligkeit der beiden Hirnareale gegenüber Störreizen überrascht. Bisher war man davon ausgegangen, dass der Stirnlappen alle Arten von Störreizen filtert, während der Scheitellappen sensibler für Störungen ist. Unsere Ergebnisse fordern ein Umdenken hinsichtlich der Beiträge und Strategien der jeweiligen Hirnareale während Arbeitsgedächtnisaufgaben.“
*Jacob S, Nieder A. Complementary roles for primate frontal and parietal cortex in guarding working memory from distractor stimuli. Neuron. 2014 July 02.
Dr. Simon Jacob
Klinik für Psychiatrie und Psychotherapie
Campus Charité Mitte
Charité – Universitätsmedizin Berlin
t: +49 30 450 517 327
E-Mail: simon.jacob@charite.de
Weitere Informationen:
http://www.charite.de/
http://psy-ccm.charite.de/
Quelle: idw
Algen sind Biomasse der Zukunft
Anette Schober-Knitz Referat für Presse- und Öffentlichkeitsarbeit
HBC Hochschule Biberach
Kluge Köpfe aus ganz Europa bringt das Europäische Forum Alpbach zusammen – in diesem Jahr ist Professorin Dr. Heike Frühwirth der Hochschule Biberach als Expertin zu dieser Tagung eingeladen, die sich als interdisziplinäre Plattform für Wissenschaft, Politik, Wirtschaft und Kultur versteht. Seit 1945 widmet sich das Forum in Alpbach relevanten gesellschaftspolitischen Fragestellungen. In diesem Jahr lautet das Thema „At the Crossroads“ und die teilnehmenden Experteninnen und Experten beschäftigen sich damit, wie Europa die Weichen stellen muss, um der Zukunft gewachsen zu sein. Mehr als 4000 Teilnehmer aus über 70 Staaten werden vom 13. bis 29. August im österreichischen Alpbach erwartet.
„Biomasse der Zukunft – Die Industrielle Biotechnologie als Lieferant für biogene Rohstoffe“ lautet das Thema von Prof. Frühwirth; die Verfahrenstechnikerin unterstützt die Alpbacher Tagung als Expertin im Arbeitskreis „Bioenergie – Auswege oder Irrtum“. Dr. Heike Frühwirth leitet als Studiendekanin den noch jungen Studiengang „Industrielle Biotechnologie“ an der Hochschule Biberach und beschäftigt sich mit der Entwicklung von alternativen Produktionsverfahren zur Realisierung von umwelt- und ressourcenschonenden Prozessen. Diese Prozesse, so Dr. Frühwirth, finden sowohl im Bereich der chemischen Industrie als auch in der Energiewirtschaft und in Umwelttechnologien Anwendung. Jeweils werden Mikroorganismen eingesetzt – etwa Bakterien, Hefen und Algen oder Enzyme daraus. Diese biotechnologischen Verfahren seien effizienter und weniger zielgerichteter – „und haben in bestimmten Bereichen klare Vorteile gegenüber klassischen Herstellungsprozessen“, so die Verfahrenstechnikerin.
Ihr ihrer Forschungsarbeit konzentriert sich Dr. Heike Frühwirth derzeit auf den Einsatz von Mikroalgen. Denn anders als Bakterien oder Hefen sind Algen in der Lage, Biomasse aus CO2 zu bilden – also ohne den Einsatz von urbaren Flächen. Allerdings werden Mikroalgen bisher industriell nur in der Herstellung von hochpreisigen Produkten – etwa von Kosmetik – eingesetzt. Das Problem: Noch sind die Prozesse zur Kultivierung von Algen in ausreichender Menge zu teuer. Forschergruppen weltweit arbeiten deshalb mit Hochdruck an der Weiterentwicklung von Kultivierungssystemen, die mit möglichst wenig Energie auskommen. Professorin Dr. Heike Frühwirth wird in Alpbach ihre aktuelle Forschungsarbeit vorstellen und aufzeigen, welche Ideen es in Biberach zur Erhöhung der Biomassekonzentration gibt, damit die Algenbiotechnologie kein Irrweg, sondern ein Ausweg in der Bioenergie darstellt.
Weitere Informationen:
http://www.hochschule-biberach.de
http://www.alpbach.org
Quelle: idw
„Die Bundesregierung schafft das EEG 2017 praktisch ab!“
Kathrin Fischer Präsidium
Universität Flensburg
„Die EEG-Novelle der Bundesregierung schafft den Kern des EEG ab, schadet dem Klima, erhöht die Kosten der Energiewende für die Bürger und füllt Großinvestoren die Taschen!“ stellt Prof. Dr. Olav Hohmeyer fest.
Professor Hohmeyer ist Inhaber der Professur für Energiewirtschaft der Universität Flensburg. Er war von 2002 bis 2008 einer der Koordinatoren des IPCC (UN-Klimarats) und von 2008 bis 2012 im Sachverständigenrat für Umweltfragen der Bundesregierung für Energie- und Klimafragen verantwortlich.
In einer heute vorgelegten Untersuchung über die Wirkungen der EEG-Novelle der Bundesregierung stellt Professor Hohmeyer fest, dass die vorgeschlagenen Maßnahmen völlig untauglich sind, um die angekündigte Kostenbegrenzung bei der Finanzierung des Ausbaus der regenerativen Energiequellen in Deutschland zu erreichen. Vielmehr wird fast jede der angekündigten Maßnahmen zu einer Kostenerhöhung des Ausbaus der regenerativen Energiequellen führen. Gleichzeitig werden große Potentiale zur Senkung der EEG‐Umlage nicht erschlossen.
Im Kern führt die vollständige Umstellung der Förderung der regenerativen Energiequellen ab 2017 von der gesetzlich festgelegten Vergütung auf ein Ausschreibungsmodell zur Abschaffung des EEG! Diese Umstellung führt dazu, dass nur noch sehr große Investoren wie Hedge Fonds oder große Energieversorgungsunternehmen in den Ausbau der regenerativen Energiequellen investieren können. Die Bundesregierung will offensichtlich die weitere Beteiligung der Bürger an der Energiewende verhindern.
Die vorgelegte Untersuchung zeigt, dass eine echte Reform der EEG-Finanzierung, die den Wert des regenerativen Stroms durch eine Abschöpfung des Merit-Order-Effekts an der Börse realisiert, die EEG‐Umlage von derzeit 6,2 c/kWh dauerhaft auf weniger als 4 c/kWh senken kann. Dies gilt auch bei einem Ausbau der regenerativen Energiequellen auf über 60% der deutschen Stromerzeugung in den nächsten 20 Jahren.
Die Studie kann von der Homepage der Universität Flensburg unter dem Menüpunkt ‚Downloads‘ von folgender Adresse herunter geladen werden:
http://www.iim.uni-flensburg.de/eum/
Was wirklich wichtig ist:
1. Die Bundesregierung schafft das EEG 2017 durch die Umstellung auf ein Ausschreibungsmodell praktisch ab!
2. Die Bundesregierung bremst mit der EEG-Novelle die notwendige Energiewende aus und verdrängt das Engagement zehntausender Bürger, das bisher die Energiewende getragen hat, zu Gunsten weniger Großinvestoren!
3. Die EEG-Novelle setzt die unsinnige Subventionierung von Kohlestromexporten durch die EEG-Umlage fort und fördert die massive zusätzliche Verstromung von Braunkohle!
4. Die EEG‐Novelle behindert den Klimaschutz massiv durch einen viel zu langsamen Ausbau der regenerativen Stromerzeugung und eine völlig unsinnige Ausweitung der deutschen Kohleverstromung!
5. Die Bundesregierung treibt die Kosten der Energiewende in die Höhe, anstatt sie zu senken!
6. Die Kosten der Energiewende könnten durch die Abschöpfung des Wertes des regenerativen Stroms, der an der Börse nicht realisiert wird (Merit‐Order‐Effekt), leicht von derzeit 6,2 c/kWh auf dauerhaft deutlich unter 4 c/kWh gesenkt werden.
7. Die Abschöpfung des Merit‐Order‐Effekts würde gleichzeitig die massive Subventionierung klimaschädlicher Exporte deutschen Kohlestroms über die EEG-Umlage und die Wettbewerbsverzerrungen durch subventionierte niedrige Strompreise zu Gunsten der energieintensiven deutschen Industrie abschaffen.
8. Im Interesse des Klimaschutzes darf die EEG-Novelle nicht in Kraft treten!
Ansprechpartner:
Kathrin Fischer, Referentin für Öffentlichkeit, Campusallee 3, 24943 Flensburg, Tel.: 0461/805-2771. Mobil: 0173/31 89 331. Email: Kathrin.Fischer@uni-flensburg.de
Quelle: idw
Zuversichtsstudie: Deutsche zuversichtlich wie nie
Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim
Umfrage der Universität Hohenheim ermittelt: Konjunktur in Deutschland sorgt für Zuversicht / Optimismus in Baden-Württemberg am größten / Fußball-WM heizt Stimmung an – bei Frauen und Männern
Was die deutsche Wirtschaft betrifft, waren die Deutschen nie optimistischer. Die Zuversicht in die wirtschaftliche Entwicklung stieg im zweiten Quartal 2014 auf den höchsten Wert seit der ersten Zuversichtsstudie im Jahr 2007. Gefragt nach der künftigen wirtschaftlichen Entwicklung Deutschlands, sind erstmals mehr als die Hälfte (53 Prozent) der Deutschen zuversichtlich oder sehr zuversichtlich. Im Hinblick auf ihr persönliches Leben – das heißt auf das eigene Zuhause, die Familie, die Sicherheit des eigenen Arbeitsplatzes oder auf die individuelle finanzielle Lage – schauen sogar mehr als zwei Drittel (68 Prozent) der Deutschen optimistisch in die Zukunft. Das zeigt die aktuelle repräsentative Allianz Zuversichtsstudie, ein Gemeinschaftsprojekt der Allianz Deutschland AG und der Universität Hohenheim. Zusammenfassung unter www.uni-hohenheim.de/presse
Vor allem das Vertrauen in die Sicherheit der Arbeitsplätze (+ acht Prozentpunkte) und in die Konjunktur (+14 Prozentpunkte) ließen die allgemeine Zuversicht auf einen Höchststand klettern (44 Prozent).
„Der positive Blick auf die allgemeine Wirtschaftslage lässt auch die Zuversicht in die Sicherheit der Arbeitsplätze deutlich wachsen. Wirtschaftslage und Arbeitsmarkt – beide verleihen der Zuversicht für Deutschland gegenüber dem Vorjahreszeitraum einen deutlichen Schub“, kommentiert Dr. Markus Rieß, Vorstandsvorsitzender der Allianz Deutschland die exzellente Stimmungslage in Deutschland.
Vertrauen in Wirtschaftsaufschwung: Baden-Württemberger weit vorne
Besonders deutlich wird der Zusammenhang zwischen Zuversicht und Konjunktur in Baden-Württemberg, Hessen und Nordrhein-Westfalen. Hier verzeichnet die Zuversicht in die Wirtschaft im Vorjahresvergleich zweistellige Zuwächse auf über 60 Prozent in Baden-Württemberg und Hessen (+26 Prozentpunkte und 31 Prozentpunkte) und 56 Prozent in Nordrhein-Westfalen (+11 Prozentpunkte).
„Die meisten Deutschen blicken erwartungsvoll in die Zukunft. Die Befragten vertrauen darauf, dass der Wirtschaftsaufschwung anhält“, sagt Prof. Dr. Frank Brettschneider, Kommunikationswissenschaftler der Universität Hohenheim, der die Zuversichtsstudie wissenschaftlich betreut.
Fußball vereint: junge Frauen und Männer im WM-Fieber
Die aktuelle Erhebung untersucht zusätzlich den Einfluss der Fußballweltmeisterschaft auf die Stimmung in Deutschland. Die Zuversichtsstudie zeigt: Bei gut einem Viertel der Deutschen hebt der Ausblick auf die Fußball-WM die Stimmung. Das sind sogar etwas mehr als vor der Europameisterschaft 2012.
Die Fußballbegeisterung ist dabei immer weniger eine Geschlechterfrage: Vor allem junge Frauen bis 29 Jahren (40 Prozent) lassen sich fast gleichermaßen begeistern wie gleichaltrige Männer (43 Prozent).
Fußballbegeisterung ist eher eine Frage des Alters: Bei den unter 40-Jährigen ist der Anteil der Fußballfans deutlich höher als bei den Älteren. Spitzenreiter ist die Altersgruppe der 30- bis 39-Jährigen, hier freuen sich 44 Prozent auf die Weltmeisterschaft in Brasilien.
Personen ab 60 Jahre beeindruckt die Weltmeisterschaft dagegen wenig. Lediglich jeder Fünfte gibt an, deswegen guter Laune zu sein.
Zuversicht für Deutschland 44% (+10)
• Allgemeine Wirtschaftslage: 53% (+14)
• Sicherheit der Arbeitsplätze: 37% (+8)
• Umwelt- und Klimaschutz: 31% (+4)
• Qualität der Schulen und Universitäten: 25% (-3)
• Gesetzliche Pflege- und Krankenversicherung: 25% (-1)
• Gesetzliche Rentenversicherung: 17% (+1)
2. Quartal 2014 (Differenz zum 2. Quartal 2013 in Prozentpunkten)
Zuversicht für das persönliche Leben 68% (+1)
• Eigenes Zuhause: 82% (+1)
• Familie / Partnerschaft / Kinder: 71% (+0)
• Sicherheit des eigenen Arbeitsplatzes: 62% (+0)
• Persönliche finanzielle Lage: 59% (-1)
• Finanzielle Versorgung bei Krankheit und Pflege: 47% (+2)
• Finanzielle Versorgung im Alter: 42% (-2)
2. Quartal 2014 (Differenz zum 2. Quartal 2013 in Prozentpunkten)
Die Allianz Zuversichtsstudie
Basis der Allianz Zuversichtsstudie, einer gemeinschaftlich durchgeführten Untersuchung der Allianz Deutschland AG und der Universität Hohenheim, sind repräsentative monatliche Befragungen mit jeweils mindestens 500 bis 1.000 Interviewpartnern. Seit Beginn der Erhebung im Jahr 2007 wurden mittlerweile insgesamt mehr als 48.000 Menschen befragt. Im 2. Quartal 2014 wurden 1.507 Interviews geführt. Ziel der Allianz Zuversichtsstudie ist es, die Stimmungslage in Deutschland zu erheben. Dazu wird regelmäßig die Zuversicht der Menschen für die jeweils kommenden zwölf Monate in sechs persönlichen und sechs gesellschaftlich übergreifenden Lebensbereichen erfasst. Die aktuellen Ergebnisse der Allianz Zuversichtsstudie sowie Trends, die sich daraus ablesen lassen, werden der Öffentlichkeit in der Regel vierteljährlich vorgestellt.
Die Ergebnisse des 3. Quartals 2014 erscheinen im September 2014.
Weitere Informationen:
http://www.uni-hohenheim.de/presse
Quelle: idw
Nachhaltiges Wassermanagement für das Jordantal
Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie
Der untere Jordan und seine Zuflüsse sind die Lebensadern für eine Region mit über 6 Millionen Einwohnern. Sauberes Trinkwasser wird dort immer knapper. Unter der Federführung des KIT hat das internationale Projekt SMART Daten zusammengetragen, Konzepte entwickelt und Pilotanlagen initiiert, um die Wasserversorgung auch in Zukunft zu gewährleisten.
„In den letzten vier Jahren haben wir begonnen die Forschungsergebnisse praktisch umzusetzen“, erklärt Nico Goldscheider vom KIT, der SMART koordiniert. Dazu wurden in enger Zusammenarbeit mit den lokalen Behörden Pilotanlagen geplant und installiert. Im Jordanischen Fuheis entstand eine Demonatrations-Anlage zur dezentralen Abwasseraufbereitung, deren Technik mittlerweile auch in mehreren lokalen Gemeinden verwendet wird. In Karame, Jordanien, liefert eine Entsalzungsanlage rund 200 Kubikmeter Trinkwasser und versorgt so etwa 650 Einwohner.
Des Weiteren erforscht SMART, wie durch Versickerungsbecken die seltenen, aber manchmal sehr heftigen Niederschläge im geologischen Untergrund gespeichert werden können. Diese „künstliche Grundwasserneubildung“ in natürlichen Speicherräumen schützt das Wasser vor Verdunstung. Die Wissenschaftler haben geeignete natürliche Speicher in Sedimenten und Gesteinen erkundet und Wasserkreisläufe kartiert. Dies ist auch die Basis, um Grundwasser vor der Kontamination mit ungefilterten Abwässern zu schützen und die Qualität des Grundwassers flächendeckend zu gewährleisten.
Der dramatische Wassermangel im unteren Jordantal hängt unter anderem mit der Bevölkerungsentwicklung zusammen. Das Klima im Einzugsgebiet zwischen See Genezareth und Totem Meer ist sehr trocken, gleichzeitig wächst die Bevölkerung rasant. „In Jordanien ist die Bevölkerung von etwa 500.000 Menschen im Jahr 1952 auf heute über sechs Millionen angewachsen, das bedeutet zehnmal mehr Menschen brauchen Trinkwasser“, erläutert Goldscheider. Der Wasserbedarf überschreitet das verfügbare Wasserangebot um ein Vielfaches. „Eine sichtbare Folge ist der rapide Schwund des Toten Meeres – dessen Oberfläche sinkt pro Jahr um etwa einen Meter“. Am KIT sind neben Goldscheiders federführendem Lehrstuhl für Hydrogeologie weitere Institute und Wissenschaftler an SMART beteiligt. So befasst sich der Lehrstuhl für Wasserchemie am Engler-Bunte-Institut (EBI) mit der Entsalzung von Brackwasser. Da das brackische Quell- oder Grundwasser weniger salzig als Meerwasser ist, lässt es sich mit geringerem Energieaufwand entsalzen. Da es auch im Landesinneren zu finden ist, muss das aufbereitete Wasser nicht weit transportiert werden, sondern kann dezentral zum Trinken und für die Landwirtschaft bereitgestellt werden.
Neben den technischen und wissenschaftlichen Meilensteinen war eine Informationskampagne Teil des SMART-Projektes. Durch die Einbindung von Bevölkerung, Behörden und Entscheidern in der Region sollten nachhaltige Lösungen initiiert werden. Technische Lösungen wurden in die nationalen Wasserstrategien und den sozio-ökonomischen Rahmen eingebunden. Mit einer Unterrichtsreihe über Wasser wurde bei rund 5000 Schülern in der Region ein Grundverständnis für ökologische Zusammenhänge gelegt. Techniker und Studenten wurden ausgebildet.
An der jetzt abgeschlossenen zweiten Phase (2010-2014) von SMART (Sustainable Management of Available Water Resources with Innovative Technologies) beteiligt waren unter anderem die Ben Gurion Universität des Negev, die Universität Tel Aviv, die palästinensische Al-Quds-Universität und die Jordanische Universität in Amman. An der Kooperation beteiligt sind außerdem Ministerien, Wasserversorgungsunternehmen und Behörden sowie lokale Entscheidungsträger. Das Bundesministerium für Bildung und Forschung (BMBF) finanzierte diese Projektphase mit rund 9 Millionen Euro. „In Zukunft wollen wir dazu beitragen, dass die noch singulären Projekte flächendeckend greifen“, erläutert Goldscheider. Dazu ist eine dritte Phase des SMART-Projektes bereits beantragt.
Webseite des SMART-Projekts:
http://www.iwrm-smart2.org
Weiterer Kontakt:
Kosta Schinarakis, Presse, Kommunikation und Marketing, Themenscout, Tel.: +49 721 608-41956, Fax: +49 721 608-43658, E-Mail:schinarakis@kit.edu
Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.
Weitere Informationen:
http://www.kit.edu/kit/pi_2014_15315.php
Quelle: idw
Vogelschutz lohnt sich! – Vogelbestände in Osteuropa profitieren von neuer Gesetzgebung
Sabine Wendler LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Senckenberg Forschungsinstitut und Naturmuseen
Die Ende der 80er / Anfang der 90er Jahre etablierte Gesetzgebung zum Vogelschutz in Osteuropa hat dazu beigetragen, den Rückgang der Bestände geschützter Vogelarten zu verringern. Das traf insbesondere in den Ländern zu, in denen die Ressourcen für den Schutz für ausgewählte seltene oder stark bedrohte Arten verwendet wurden. Das ist das Ergebnis einer Studie, die vor kurzem im Fachjournal Biological Conservation veröffentlicht wurde. Beteiligt waren Forschende der Universität Brno, des Frankfurter LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) sowie weitere Experten, z.B. die internationale Vogelschutz-Organisation BirdLife.
Vogelschutz ist eine internationale Aufgabe, nicht zuletzt, weil für Vögel nationale Grenzen bedeutungslos sind. Jedoch fußt der Schutz vor Ort auf nationaler Gesetzgebung. Während frühere Studien bereits den Nutzen des legislativen Vogelschutzes in Westeuropa und den Vereinigten Staaten untersucht haben, stellt eine neue Studie nun den Nutzen der Vogelschutz-Gesetzgebung in Osteuropa auf den Prüfstand.
Vergleich von Langzeitenreihen von Vögeln in zehn Ländern
Für die Untersuchung wurden Daten der Bestände geschützter und ungeschützter Vogelarten in zehn osteuropäischen Ländern – Tschechische Republik, Slowakei, Polen, Weißrussland, Litauen, Moldawien und Estland sowie Ungarn und Kroatien – ausgewertet. Allen Ländern ist gemein, dass die den Vogelschutz betreffende Gesetzgebung in den späten 80er oder frühen 90er Jahren verabschiedet wurde. Ein Team der Universität Brno, des Frankfurter LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) und weiterer Universitäten verglich, wie sich die Bestände einzelner Vogelarten in diesen Ländern in den Zeiträumen 1970 bis 1990 und 1990 bis 2000 entwickelt haben. Die Daten lieferte die Vogelschutzorganisation BirdLife, die regelmäßig großräumig Populationsdaten von Vögeln in Europa zusammenträgt.
Geschützte Vögel profitierten vom politischen Umbruch in Osteuropa
Die beiden Untersuchungszeiträume fallen mit der Zeit vor und nach dem politischen Umbruch und der Einführung moderner Umweltgesetzgebung in vielen Ländern in Osteuropa zusammen. Der Zustand der Populationen im ersten Zeitraum (d.h. ‚vor‘ der Schutzgesetzgebung) konnte daher direkt mit der Anzahl der Vögel im zweiten Zeitraum, also nach Etablierung der Schutzgesetzgebung, verglichen werden. Es zeigte sich, dass sich die Bestände geschützter Arten nach 1990 besser entwickelt haben als die der nicht-geschützten Arten. „Das deutet darauf hin, dass nationale Regelungen tatsächlich dazu beigetragen haben, den Rückgang geschützter Arten aufzuhalten. Insbesondere hat sich der Bestand geschützter Vogelarten in den Ländern positiv entwickelt, die mit großem Aufwand ausgewählte seltene oder charakteristische Vogelarten schützen“, so Prof. Katrin Böhning-Gaese, BiK-F.
Kombination unterschiedlicher Schutzkonzepte am effektivsten
Dieses Konzept kommt in Weißrussland, der Tschechischen Republik, Litauen, Moldawien und der Ukraine zum Tragen, die per Gesetzgebung für weniger als 50 % der Vogelarten einen solchen tiefgreifenden Schutzansatz anwenden. Kroatien, Estland, Ungarn, Polen und die Slowakei schützen über 80 % ihrer Vogelarten, auch solche die nicht akut bedroht sind, jedoch mit vergleichsweise oberflächlichen Maßnahmen. Obwohl es sich zunächst nur um eine Korrelation handelt, deutet der positive Zusammenhang zwischen Schutz und Bestandsentwicklung darauf hin, dass Artenschutz per Gesetz funktioniert. Insgesamt scheint es am effektivsten, viele Arten unter Schutz zu stellen und gleichzeitig besondere Maßnahmen zu ergreifen, um seltene oder bedrohte Arten zu erhalten.
Gesetzgebung konnte allgemeinen Negativtrend aber nicht aufhalten
„Dass die Bestände geschützter Arten nach Beginn des Schutzes durchschnittlich nur noch halb so stark zurückgingen wie vorher, klingt zunächst gut. Aber wir haben auch gesehen, dass in den Jahren 1990-2000 die Vogelbestände unabhängig vom Schutzstatus im Mittel noch immer rückläufig waren“, so der Ko-Autor der Studie, Dr. Matthias Schleuning, BiK-F. Ein dritter Statusbericht von BirdLife zum Zustand europäischer Vogelarten, in den auch im Auftrag der Europäischen Kommission zusammengestellte neue Daten einfließen, wird deshalb mit Spannung erwartet: Er wird zeigen, ob die in der vorliegenden Studie aufgezeigten Trends weiterhin gelten, und ob Europa sein Ziel, den Verlust der biologischen Vielfalt und den Rückgang der Ökosystemleistungen bis 2020 zu stoppen, erreichen kann. Die auf dem neuen Statusbericht basierende Rote Liste der Vögel Europas wird 2015 veröffentlicht.
Publikation:
Koleček, J et al.: Birds protected by national legislation show improved population trends in Eastern Europe. -Biological Conservation. DOI: /10.1016/j.biocon.2014.02.029
Für weitere Informationen kontaktieren Sie bitte:
Prof. Dr. Katrin Böhning-Gaese
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F),
Tel. + 49 (0)69 7542 1890
katrin.boehning-gaese@senckenberg.de
oder
Dr. Matthias Schleuning
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel. + 49 (0)69 7542 1892
matthias.schleuning@senckenberg.de
oder
Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F),
Pressereferentin
Tel. +49 (0)69 7542 1838
Sabine.wendler@senckenberg.de
__________________________________________________________
LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt am Main
Mit dem Ziel, anhand eines breit angelegten Methodenspektrums die komplexen Wech-selwirkungen von Biodiversität und Klima zu entschlüsseln, wird das Biodiversität und Klima Forschungszentrum (BiK‐F) seit 2008 im Rahmen der hessischen Landes‐Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz (LOEWE) gefördert. Die Senckenberg Gesellschaft für Naturforschung und die Goethe Universität Frankfurt sowie weitere direkt eingebundene Partner kooperieren eng mit regionalen, nationalen und internationalen Akteuren aus Wissenschaft, Ressourcen‐ und Umweltmanagement, um Projektionen für die Zukunft zu entwickeln und wissenschaftlich gesicherte Empfehlungen für ein nachhaltiges Handeln zu geben. Mehr unter www.bik‐f.de
Quelle: idw
Mit präziseren Messgeräten der Versauerung der Ostsee auf die Spur kommen
Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde
Neues europäisches Projekt PINBAL hat die Entwicklung eines neuartigen
Ostsee-tauglichen spektrophotometrischen pH-Meters zum Ziel
Am heutigen Donnerstag fand am Leibniz-Institut für Ostseeforschung Warnemünde (IOW) das kick-off-meeting für das europäische Projekt PINBAL statt. Die vier am Projekt beteiligten Partner kamen zum ersten Mal zusammen, um ihre Forschungs- und Entwicklungsarbeiten zu planen. Neben dem IOW, das die Projektkoordination übernommen hat, beteiligen sich die Universität Göteborg, das Institute for Oceanology in Sopot und das Unternehmen CONTROS Systems and Solutions an PINBAL.
Seit dem Beginn der Industrialisierung hat sich ein nicht unerheblicher Teil der ständig zunehmenden CO2 Emissionen in den Weltmeeren gelöst und dadurch den pH-Wert um 0,1 Einheiten reduziert. Das Intergovernmental Panel of Climate Change (IPCC) geht bei einer unverändert hohen weltweiten CO2 Produktion davon aus, dass sich bis zum Jahr 2100 der pH-Wert der Weltmeere von derzeit 8,1 auf rund 7,7 verringern wird, mit gravierenden Folgen für die Meeresumwelt. Für die Ostsee mit ihren stark schwankenden Salzgehalten und hohen Konzentrationen an organischen Stoffen sowie dem Vorkommen von Schwefelwasserstoff im Tiefenwasser existieren bislang noch keine geeigneten Messmethoden, um Langzeitänderungen zu erfassen. Das soll nun mit PINBAL geändert werden.
Auch die Grundlagenforschung wünscht sich präzisere Messmethoden zur Bestimmung des pH-Wertes, um damit die Kohlenstoffdioxid-Umsätze in der Ostsee genauer erfassen zu können. Gregor Rehder, Projektleiter und Meereschemiker am IOW, beschreibt die Ziele von PINBAL: „Wir wollen gemeinsam ein robustes, aber hochpräzises System entwickeln, das sich auf so genannten voluntary observing ships (VOS) einsetzen lässt. „Auf solchen VOS – Frachtschiffen oder Fähren – wurden in den vergangenen Jahren automatische Mess- und Beprobungsvorrichtungen installiert, um ein effektives Monitoring von Umweltparametern im Oberflächenwasser der Ostsee zu realisieren. Sie sollen nach Abschluss des Projektes auch das neue pH-Messsystem aufnehmen.
PINBAL wird in den kommenden drei Jahren im Rahmen von BONUS (Artikel 185) gefördert, einem Programm, das gemeinsam durch das 7. Forschungs-rahmenprogramm der Europäischen Union und nationalen Förderinstitutionen der Ostseeanrainerstaaten finanziert wird.
Kontakt:
Prof. Dr. Gregor Rehder, Sektion Meereschemie, Leibniz-Institut für
Ostseeforschung Warnemünde, Tel.: (0381 / 5197 336, Email: gregor.rehder@io-warnemuende.de)
Dr. Barbara Hentzsch, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 102, Email: barbara.hentzsch@io-warnemuende.de)
Nils Ehrenberg, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 106, Email: nils.ehrenberg@io-warnemuende.de)
Dipl.-Phys. Peer Fietzek, CONTROS Systems & Solutions
Prof. Dr. Leif Anderson, Universität Göteborg
Dr. Karol Kulinski, Institute for Oceanology, Polish Academy of Science,
Sopot
Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 17.200 MitarbeiterInnen, davon sind ca. 8.200 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,5 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr. (www.leibniz-gemeinschaft.de)
Quelle: idw
Gentechnisch veränderte Pflanzen beschleunigen den Biodiversitätsverlust
Franz August Emde Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz
Das Bundesamt für Naturschutz Deutschland und die Umweltbundesämter Österreichs und der Schweiz ziehen eine kritische Bilanz zu den Auswirkungen des langjährigen Anbaus von herbizidresistenten, gentechnisch veränderten Pflanzen. Solche Kulturen treiben die Intensivierung der Landwirtschaft und damit den Biodiversitätsverlust weiter, so die drei Institutionen.
Das deutsche Bundesamt für Naturschutz, das österreichische Umweltbundesamt und das schweizerische Bundesamt für Umwelt haben im Rahmen einer Literaturstudie untersuchen lassen, wie sich der langjährige Anbau herbizidresistenter gentechnisch veränderter Pflanzen (GV) auf die Umwelt auswirkt und die Ergebnisse in einem gemeinsamen Bericht veröffentlicht. Im Rahmen dieser Arbeit wurden Anbaupraktiken von GV-Pflanzen in Übersee und die Auswirkungen ihrer Bewirtschaftung auf die Ackerbegleitflora sowie die biologische Vielfalt analysiert.
Eine intensive Landbewirtschaftung und die damit einhergehende Verwendung hoher Mengen an Pflanzenschutzmitteln sind Hauptursachen für den Verlust von Biodiversität. In Nord- und Südamerika werden seit knapp 20 Jahren gentechnisch veränderte Pflanzen mit Resistenzen gegen verschiedene Totalherbizide (z.B. Glyphosat) großflächig angebaut. Die Studie zeigt, dass im Verlauf dieser Zeit der Herbizidverbrauch kontinuierlich ansteigt. Die Folge ist eine deutliche Abnahme der Biodiversität auf und neben den Ackerflächen.
Auswirkungen von herbizidresistenten Nutzpflanzen
Der intensive, langjährige Anbau von herbizidresistenten Pflanzen und der damit verbundene Einsatz von Totalherbiziden führen zum Aufkommen von herbizidresistenten Ackerbeikräutern. Es werden daher zunehmende Mengen von Totalherbiziden, meistens Glyphosat und weitere Herbizide eingesetzt.
Die intensive Verwendung von Pflanzenschutzmitteln führt auch zu einem Verlust von Tierarten in landwirtschaftlich genutzten Lebensräumen. Die ExpertInnen gehen davon aus, dass dieser Effekt eine der Ursachen für den Rückgang auch von geschützten Arten, wie z.B. dem Monarchfalter in Amerika, darstellt.
Der umfassende Bericht „Agronomic and environmental aspects of the cultivation of genetically modified herbicide-resistant plants“ ist zu finden unter:
http://www.bfn.de/0502_gentechnik.html
Auskünfte Schweiz
Sara Restrepo-Vassalli, Abteilung Boden und Biotechnologie, BAFU, Tel. +41 (0) 58 462 22 38, E-Mail: sara.restrepo-vassalli@bafu.admin.ch
Auskünfte Deutschland
Franz August Emde, Referat Presse/Öffentlichkeitsarbeit, Konstantinstraße 110, 53179 Bonn, Fon: 0228/8491 – 4444, E-Mail: presse@bfn.de
Auskünfte Österreich
Ingeborg Zechmann, Pressestelle Umweltbundesamt, Tel.: +43/ (0)1 31304-5413, E-Mail: ingeborg.zechmann@umweltbundesamt.at
Quelle: idw
Mehr Energieeffizienz in Großwäschereien – Fraunhofer IFF und DTV entwickeln gemeinsam Lösungen
René Maresch Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF
Die industrielle Wäscherei ist eine Branche mit großem Potenzial für Energieeinsparungen. Der Deutsche Textilreinigungs-Verband (DTV) holt sich darum die Unterstützung des Fraunhofer IFF in Magdeburg. Gemeinsam mit den Forschern wollen die Großwäschereien daran arbeiten, den Energieverbrauch zu senken und ihre Prozesse zu verbessern. Automatisierungslösungen, wie der Einsatz von Robotern und neuester RFID-Technologien, sollen eine besondere Rolle spielen.
Eine Großwäscherei lässt sich nicht mit dem heimischen Reinigen der Familienkleidung vergleichen. Die Textilienberge, die eine Wäscherei täglich vom Schmutz befreit, sind gigantisch. 20 bis 50 Tonnen Wäsche schleust so ein Betrieb locker durch seine Waschstraßen – pro Tag. Große Betriebe schaffen dabei 50.000 bis 100.000 Wäschestücke. Ebenso gigantisch ist auch der Energieverbrauch. Die Branche steht damit vor einem Problem. Denn Energie wird immer teurer. Um den Kostenanstieg zu bremsen, geht der Deutsche Textilreinigungs-Verband DTV nun neue Wege. Gemeinsam mit dem Magdeburger Fraunhofer-Institut für Fabrikbetrieb und
-automatisierung IFF wollen die Mitgliedsunternehmen neue Lösungen finden, die ihnen beim Energiesparen helfen sollen. Am 26. Juni unterzeichneten beide Seiten am Rande der 17. IFF-Wissenschaftstage in Magdeburg eine entsprechende Kooperationsvereinbarung.
»In der Zusammenarbeit mit dem Fraunhofer IFF sehen wir die Chance, mit versierter wissenschaftlicher Unterstützung fachliche Zukunftsfragen für die Betriebe anzugehen«, sagt Joachim Krause, Präsidiumsmitglied und Vorsitzender des Ausschusses für Technik und Umweltschutz im DTV. »Ganz wichtige Aspekte sind dabei der Automatisierungsgrad und die Logistik und die damit verbundenen Verbesserungsmöglichkeiten bei den energetischen Prozessen. Wir können durch technische Veränderungen in Prozessabläufen die Ressourcen- und Energieeffizienz unter die Lupe nehmen und steigern. Hierzu wollen wir gemeinsam forschen und die Prozesse sowie Technologien weiterentwickeln.«
RFID und Automatisierung sollen für Entlastung und mehr Effizienz sorgen
Das Fraunhofer IFF ist unter anderem auf die Planung energie- und ressourceneffizienter Produktionsmethoden spezialisiert. Institutsleiter Professor Michael Schenk betont die Rolle seines Instituts als Forschungs- und Entwicklungspartner für die Branche, die vor allem durch klein- und mittelständische Strukturen geprägt ist. »Unser gemeinsames Ziel ist es, neue Wege zu finden, mit denen sich die wachsenden technologischen, ökonomischen und ökologischen Herausforderungen für die kleinen und mittleren Unternehmen bewältigen lassen. Uns kommt dabei zu Gute, dass wir Lösungen für die Erhöhung der Ressourcen- und Energieeffizienz, die wir bereits erfolgreich für andere Branchen entwickelt haben, transferieren können. Mit der Integration von technischen Innovationen wird die Wäschereibranche auch weiterhin wettbewerbsfähig sein.«
Einer der Schwerpunkte der Zusammenarbeit ist der ganzheitliche Einsatz von RFID-Technologien im Flachwäschebereich, wie Hotel- und Krankenhaustextilien. Mit Hilfe der RFID-Chips in den Wäschestücken lassen sich die komplexen Prozesse in den Wäschereien über bessere Steuerungsmöglichkeiten deutlich optimieren. Zudem steigt die Transparenz der Abläufe auch gegenüber den Auftraggebern. Mögliche Verluste an Wäschestücken, wie es heute schon noch vorkommt, sollen damit bald der Vergangenheit angehören.
Ein weiteres Thema ist die Erhöhung der Automatisierung. Während z.B. schmutzige Krankenhauswäsche gar nicht manuell bearbeitet werden darf, wird die letztlich saubere Wäsche momentan noch per Hand sortiert. Erkrankte Mitarbeiter könnten diese aber möglicherweise gleich wieder infizieren. Hinzu kommt die große körperliche Belastung der anstrengenden Tätigkeit, für die sich nur noch schwer Mitarbeiter finden lassen. Serviceroboter, die dank der RFID-Technologie die einzelnen Wäschestücke fehlerfrei identifizieren können, sollen hier in Zukunft Entlastung bringen.
Industrie 4.0 für Großwäschereien
Zunächst wollen die Fraunhofer-Forscher die Mitgliedsunternehmen des DTV bei der Einführung von RFID-Technologien unterstützen. Beim Anpassen der Technik an die besonderen Gegebenheiten in Wäschereien waren sie in der Vergangenheit bereits sehr erfolgreich. Schon seit 2011 arbeitet das Fraunhofer IFF auf diesem Gebiet eng mit dem deutschen Laundry Innovation Network zusammen. Aus dieser Zusammenarbeit resultiert auch die nun erfolgte Kooperation mit dem DTV.
Neben dem Technologietransfer steht die Beratung der Unternehmen mit Blick auf die Optimierung ihrer energetischen Prozesse im Mittelpunkt. Für die mittlere Zukunft, so Professor Schenk, sei sogar die Chance für die Umsetzung einer »Industrie 4.0« in der Wäschereibranche sehr realistisch. Mit der unternehmensweiten Einführung von RFID-Technologien und dem Einsatz von Servicerobotern sei man nicht mehr weit von einer selbststeuernden und selbstüberwachenden Prozesskette entfernt. Die Möglichkeiten für weitgehende Energieeinsparungen und noch höhere Flexibilität würden damit noch mehr wachsen.
Deutscher Textilreinigungs-Verband e.V. (DTV)
Der Deutsche Textilreinigungs-Verband e.V. (DTV) vertritt ca. 1.300 Mitgliedsunternehmen aus allen Bereichen textiler Dienstleistungen. Mit seinen Aktivitäten als Branchen-, Wirtschafts-, Arbeitgeber- und Berufsverband orientiert sich der DTV vorrangig an den Bedürfnissen seiner Mitgliedsbetriebe. Zu diesen gehören neben Textilreinigungen im Privatkundenbereich auch Wäschereien und textile Dienstleistungsunternehmen, die andere Unternehmen und Einrichtungen mit Textilien und Wäsche versorgen, beispielsweise Hotels oder Krankenhäuser. Die Ziele der Verbandsarbeit sind u.a. das Stärken der Markt- und Wirtschaftspräsenz des Textilreinigungsgewerbes, die Interessenvertretung auf fachlicher, beruflicher und politischer Ebene sowie die ständige Weiterentwicklung der Aus- und Weiterbildung.
Fraunhofer IFF
Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF ist ein produktionstechnisch ausgerichtetes Forschungsinstitut im Verbund der Fraunhofer-Gesellschaft. Es ist Forschungsdienstleister sowie System- und Technologiepartner für große und mittelständische Unternehmen und für die öffentliche Hand. Das Institut ist in nationale und internationale Wirtschafts- und Wissenschaftsnetzwerke eingebunden und kooperiert eng mit der Otto-von-Guericke-Universität Magdeburg. Es forscht und arbeitet in den drei Geschäftsfeldern »Intelligente Arbeitssysteme«, »Ressourceneffiziente Produktion und Logistik« und »Konvergente Versorgungsinfrastrukturen«. Für eine zukunftsfähige Produktion und Energieversorgung entwickelt es automatisierte, intelligente Arbeitssysteme und entwirft Lösungen für eine ressourcen- und energiesparende Produktion.
Ansprechpartner
Dr.-Ing. Frank Ryll l Telefon +49 391 4090-413 l frank.ryll@iff.fraunhofer.de
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF, Magdeburg l www.iff.fraunhofer.de
Weitere Informationen:
http://www.iff.fraunhofer.de/de/presse/presseinformation/2014/textilreinigungsve…
Quelle: idw
Umfrage: Sind Hobbyangler Tierquäler?
Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.
Die meisten Deutschen glauben, dass Fische Schmerzen empfinden können. Dennoch akzeptiert ein Großteil der Bevölkerung das Angeln aus moralischer Sicht, insbesondere wenn es zur Nahrungsbeschaffung oder zur Gewässerhege erfolgt. Auch das vom Angler selbstentschiedene Zurücksetzen von großen, entnahmefähigen Fischen nach dem Fang aus ökologischen Gründen hält das Gros der Bevölkerung für unproblematisch. Das und vieles mehr ergab eine repräsentative Umfrage zur Einstellung der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei, die vom Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) gemeinsam mit der Humboldt-Universität vorgelegt wurde.
Rund 7 % der Deutschen angeln regelmäßig in ihrer Freizeit. Zugleich ist die Angelfischerei durch das Tierschutzgesetz streng reglementiert. Vor allem das Angeln ohne sogenannten vernünftigen Grund ist tierschutzrechtlich verboten, wenn dadurch Fischen Schmerzen, Leiden oder Schäden zugefügt werden. Doch der Teufel steckt im Detail. So gibt verschiedenste Ansichten über die guten Gründe, die das Hobbyangeln legitimieren. Zudem ist sich die Wissenschaft bezüglich der Schmerz- und Leidensfähigkeit von Fischen uneinig. Dr. Carsten Riepe (IGB) und Prof. Dr. Robert Arlinghaus (IGB und Humboldt-Universität zu Berlin) bilden mit Hilfe ihrer nun publizierten repräsentativen Umfrage erstmals die Stimme der Bevölkerung in Deutschland zum Thema Angeln und Tierschutz ab. Die wichtigsten Ergebnisse können auf Basis von über 1000 zufällig in ganz Deutschland ausgewählten Befragten folgendermaßen zusammengefasst werden:
1. Angeln ist positiver besetzt als die Freizeitjagd
Nur ein Fünftel der Deutschen lehnt das Angeln aus moralischen Gründen ab. Für die Mehrzahl der Befragten (61 %) ist das Angeln als Freizeitbeschäftigung positiv oder neutral besetzt. Ein Angelverbot würde mehrheitlich nicht unterstützt werden. Im Vergleich dazu wird die Jagd deutlich negativer bewertet.
2. Fische können Schmerzen empfinden, aber wohl begründetes Angeln wird akzeptiert
Die meisten Befragten glauben, dass eine Forelle Schmerz empfinden kann. Auch sind über 40 % der Deutschen der Meinung, dass das Angeln für Fische schmerzhaft ist. Dennoch findet die große Mehrheit der Bevölkerung die Hobbyfischerei akzeptabel, insbesondere wenn sie zur Nahrungsbeschaffung (62 % Zustimmung) oder als ökologische Hegemaßnahme (69 % Zustimmung) erfolgt. Die ethische Bewertung des Angelns orientiert sich dabei vor allem an der Intention des Fischenden und weniger daran, was dem Fisch an der Angel passiert. 88 % der Befragten finden es moralisch völlig akzeptabel, Fisch zu essen.
3. Es besteht kein besonders dringender Bedarf zur Verbesserung des Tierschutzes beim Hobbyangeln
Tierschutz ist ein wichtiges Thema in der Gesellschaft. Doch wird von der Mehrheit der Bevölkerung (74 %) kein dringender Bedarf gesehen, den Tierschutz in der Freizeitfischerei zu verbessern. Eine Verbesserung des Tierschutzes wird in anderen Bereichen der Mensch-Tier-Interaktion, wie z.B. in der Versuchstierhaltung oder in der Landwirtschaft, als viel wichtiger empfunden.
4. Gegenwärtig bereits verbotene Praktiken wie Wettangeln und der Einsatz lebender Köderfische sind nicht akzeptiert, Put-and-Take-Angeln und die Verwendung von Setzkeschern sind hingegen okay.
Die hierzulande verbotenen Formen des Wettangelns ohne Verwertungsabsicht und die Verwendung lebender Köderfische werden von der Mehrheit der Befragten rigoros abgelehnt. Gleiches gilt für das ebenfalls unerlaubte, nicht waidgerechte Töten von Fischen durch Erstickenlassen. Beim Put-and-Take-Angeln besetzen die Betreiber kommerzieller Angelteiche schlachtreife Fische, welche Kunden für ein Entgelt wieder herausangeln können. Auch diese Praktik ist in Deutschland aus Tierschutzsicht kritisch diskutiert. Tatsächlich aber hat die Mehrheit der Befragten kein Problem damit (51 % finden es völlig akzeptabel, 29 % stehen der Praktik neutral gegenüber, 20 % lehnen dies ab). Ganz ähnlich verhält es sich mit der Verwendung von Setzkeschern. Diese werden eingesetzt, um gefangene Fische lebend im Gewässer zu halten, bis sie weiter verwertet werden. Ihr Einsatz wird von der Mehrheit der Bevölkerung als unproblematisch angesehen.
5. Ökologische Gründe rechtfertigen Catch-and-Release entnahmefähiger Fische
Als Catch-and-Release-Angeln (Fangen und Zurücksetzen) bezeichnet man eine Angelpraxis, bei der Fische, die groß genug und legal entnahmefähig sind, nach dem Fang wieder in das Gewässer zurückgesetzt werden. Da in Deutschland das Angeln vor allem mit dem vernünftigen Grund der Verzehrabsicht toleriert wird, gibt es in einigen Bundesländern die Regelung, dass prinzipiell entnahmefähige Fische nach dem Fang entnommen werden müssen. Mit anderen Worten: Es herrscht ein Entnahmegebot und ein Zurücksetzverbot. Die Mehrzahl der Bürger steht einem selektiven Zurücksetzen aus ökologischen Gründen nach Selbstermessen des Anglers jedoch positiv gegenüber – zum Beispiel, um kleinen Fischen das Heranwachsen in den Bestand zu ermöglichen (78 % Zustimmung) oder um große Laichfische für den Bestand zu erhalten (65 % Zustimmung). Gesellschaftlich weniger akzeptiert ist es, wenn das Zurücksetzen zur Selbstprofilierung genutzt wird, beispielsweise um anderen Anglern den Wiederfang zu ermöglichen. 56 % der Befragten finden dies verwerflich. Doch auch ein totales Zurücksetzen aller Fische wird nur von 40 % der Bevölkerung abgelehnt. Die Gesellschaft hat damit eine moderatere Einstellung zum Catch-and-Release als viele Veterinär- und Fischereibehörden oder zahlreiche Tierschutz- und Angelfischereiverbände.
Insgesamt zeigt die Studie, dass Gesetzgeber, Behörden und Angelverbände das Tierschutzgesetz in vielen Fällen gemäß der allgemeinen Bevölkerungsmeinung zum Angeln in Deutschland auslegen. Doch gibt es auch überdenkenswerte Bestimmungen. Insbesondere die gegenwärtig weitverbreitete Entnahmepflicht ist für den Bestandsschutz aus ökologischen Gründen kontraproduktiv. Eine liberalere Regelung, die selektives Zurücksetzen von ökologisch bedeutsamen großen Fischen ermöglicht, würde aus Sicht der Bevölkerung grünes Licht erhalten und auch den Beständen zu Gute kommen.
Die Ergebnisse dieser repräsentativen Bevölkerungsbefragung sind in der Reihe „Berichte des IGB“ unter dem Titel „Einstellungen der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei“ erschienen. Der Bericht steht unter www.besatz-fisch.de zum Download bereit. Insgesamt wurden 1043 zufällig ausgewählte Personen ab 14 Jahren befragt. Die Antwortquote aller ausgewählten Personen betrug über 72 %. Die Datensammlung und -auswertung wurde durch die am IGB angesiedelten Projekte Adaptfish (gefördert im Rahmen des Pakts für Innovation und Forschung durch die Gottfried-Wilhelm-Leibniz-Gemeinschaft) sowie Besatzfisch (gefördert vom Bundesministerium für Bildung und Forschung) ermöglicht.
QUELLE:
Riepe, C. & Arlinghaus, R. (2014). Einstellungen der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei. Berichte des IGB, Heft 27/2014.
KONTAKT:
Prof. Dr. Robert Arlinghaus
Leibniz-Institut für Gewässerökologie und Binnenfischerei
Abteilung Biologie und Ökologie der Fische
Müggelseedamm 310, 12587 Berlin
E-Mail: arlinghaus@igb-berlin.de
Dr. Carsten Riepe
Leibniz-Institut für Gewässerökologie und Binnenfischerei
Abteilung Biologie und Ökologie der Fische
Müggelseedamm 310, 12587 Berlin
E-Mail: riepe@igb-berlin.de
Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) ist das bundesweit größte Forschungszentrum für Binnengewässer. Es gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.
Weitere Informationen:
http://www.igb-berlin.de
http://www.besatz-fisch.de
http://www.adaptfish.igb-berlin.de
Quelle: idw
Bienen können wichtiger als Dünger sein
Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau
Experiment bestätigt die wichtige Rolle von Insekten für die Bestäubung von Kulturpflanzen
Das Fehlen von Bienen und anderen wildlebenden Insekten als Bestäuber von Nutzpflanzen kann den Ernteeintrag der Landwirtschaft stärker mindern als ausbleibende Düngung oder stark reduzierte Bewässerung. Findet dagegen Bestäubung in ausreichendem Maß statt, tragen die Pflanzen mehr Früchte, und deren Nährstoffgehalte verändern sich. Diese Ergebnisse hat die Freiburger Ökologin Prof. Dr. Alexandra-Maria Klein gemeinsam mit Kolleginnen und Kollegen aus den USA in einem Experiment an Mandelbäumen in Kalifornien erzielt. Das Team hat dazu Artikel in den Fachzeitschriften „Plant Biology“ und „PLoS ONE“ veröffentlicht. Für diese und weitere Arbeiten über die Bedeutung von Insekten für die Bestäubung von Kulturpflanzen erhält Alexandra-Maria Klein am Dienstag, 17. Juni 2014, den mit 25.000 Euro dotierten CULTURA-Preis. Die Alfred Toepfer Stiftung F.V.S. würdigt mit der Auszeichnung europaweit innovative und beispielhafte Arbeitsansätze auf den Gebieten Naturschutz, Land- und Forstwirtschaft sowie den damit verbundenen Wissenschaften.
Alexandra Klein manipulierte zusammen mit Studentinnen sowie Kolleginnen der University of California, Berkeley Mandelbäume, indem sie Bienen mit Hilfe von Käfigen vom Blütenbesuch ausschlossen oder die Bestäubung durch Bienen zuließen oder die Blüten mit der Hand bestäubten. Zudem bewässerten und düngten die Forscherinnen und Forscher Bäume nach lokalen Praktiken oder gaben ihnen nur wenig Wasser oder keinen Dünger. An einigen Mandelbäumen kombinierten sie die verschiedenen Manipulationen, um die Effekte auf den Ertrag und die Zusammensetzung der Nährstoffe in den Nüssen getrennt und in Kombination zu untersuchen. Mandelbäume, die mit der Hand bestäubt wurden, brachten die meisten Nüsse hervor, allerdings waren diese sehr klein. Dagegen trug ein Baum, der nicht bestäubt wurde, kaum Nüsse – aber sehr große. Der Ertrag durch Bienenbestäubung konnte im Vergleich zur Selbstbestäubung um etwa 200 Prozent gesteigert werden.
Düngung und Bewässerung hatten nur in Kombination mit den Bestäubungsmanipulationen einen Effekt auf den Ertrag. Allerdings verloren die unzureichend bewässerten Bäume mehr Blätter, und ohne Dünger wurden die Blätter vermehrt gelb. Die Wissenschaftlerinnen und Wissenschaftler schlossen aus den Ergebnissen, dass ein Mandelbaum kurzfristig Nährstoff- und Wasserentzug ausgleicht, indem Nährstoff- und Wasserreserven aus dem Baum in die Früchte geholt werden. Defizite in der Bestäubung kann der Baum allerdings nicht ausgleichen. Weiter zeigten die Wissenschaftler, dass die Nährstoffzusammensetzungen sich je nach Bestäubungsmanipulation unterschieden: Nüsse aus Selbstbestäubung enthielten einen geringen Anteil an Linolsäuren, aber einen höheren Anteil an Vitamin E.
Information der Alfred Toepfer Stiftung F.V.S.:
http://toepfer-stiftung.de/cultura-preis
Originalveröffentlichungen:
Klein, A.M., Hendrix, S.D., Clough, Y., Scofield, A., Kremen, C. 2014. Interacting effects of pollination, water and nutrients on fruit tree performance. Plant Biology, online first, DOI:10.1111/plb.12180
Brittain, C., Kremen, C., Garber, A., Klein, A.M. 2014. Pollination and plant resources change the nutritional quality of almonds for human health. PLoS ONE 9: e90082. DOI:10.1371/journal.pone.0090082
Kontakt:
Prof. Dr. Alexandra-Maria Klein
Professur für Naturschutz und Landschaftsökologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-67770, 0176/84321671
E-Mail: alexandra.klein@nature.uni-freiburg.de
Weitere Informationen:
http://www.pr.uni-freiburg.de/pm/2014/pm.2014-06-10.50-en?set_language=en
Quelle: idw
Klärschlamm als flexibler Energielieferant – Neues Verbundprojekt an TU Darmstadt gestartet
Silke Paradowski Kommunikation
Technische Universität Darmstadt
Lässt sich aus Klärschlamm in einer Kläranlage Energie so erzeugen und verteilen, dass sie flexibel je nach Bedarf zur Verfügung steht? Das erforschen seit kurzem Wissenschaftlerinnen und Wissenschaftler der TU Darmstadt im vom Bund geförderten Verbundprojekt „ESiTI“ mit externen Partnerunternehmen. Sie setzen dabei auch auf Optimierung bekannter Verfahren.
Als Beispiel für die Untersuchung dient den Forscherinnen und Forschern die Wissenschaftsstadt Darmstadt, die mit ihren rund 145.000 Einwohnerinnen und Einwohnern für viele Städte stehen kann. Aufgesetzt wurde „ESiTI“ am Institut IWAR im Fachbereich Fachbereich Bau- und Umweltingenieurwissenschaften der TU Darmstadt. Hier liegt auch die Koordination des Verbundprojektes, an dem insgesamt elf Partner beteiligt sind. Das Bundesministerium für Bildung und Forschung fördert das Engagement der TU an „ESiTI“ über drei Jahre mit 1,2 Millionen Euro (Gesamtfördervolumen 2,7 Millionen Euro).
„Flexibilisierung“ ist eine Schlüsselforderung des Projekts „ESiTI“. Bislang wird die Klärschlammfaulung in Kläranlagen unter fast konstanten Bedingungen gefahren und erzeugt dadurch auch eine fast konstante Menge an Biogas. Das ist wenig effizient, erklärt Dr. Christian Schaum, gemeinsam mit Professor Peter Cornel verantwortlich für „ESiTI“: „Der Energieverbrauch einer Kläranlage unterliegt über den Tag Schwankungen. Wenn zum Beispiel besonders schmutziges Wasser in die Anlage kommt, braucht man auch mehr Energie zur Behandlung.“ Die Darmstädter Forscherinnen und Forscher arbeiten daran, punktgenau so viel Energie zu erzeugen, wie momentan gebraucht wird. „Im Idealfall kann man beides bedarfsgerecht anpassen“, sagt Schaum.
Dafür wird unter anderem an einem optimierten Faulverfahren gearbeitet. Diese Klärschlammbehandlung soll zum zentralen Baustein eines flexiblen Energiesystems werden – zum Beispiel, indem sie durch veränderte Reaktionsbedingungen schneller als bisher abläuft oder zeitlich so gut gesteuert werden kann, dass das Verfahren wie ein Puffer bei der Energieerzeugung wirkt. So kann eine Kläranlage sogar zum Energiespeicher werden.
Überschüsse an gewonnener Energie könnten auch in größeren Infrastruktursystemen einer Stadt genutzt werden, zum Beispiel durch intelligente Vernetzung etwa mit Energieversorgern oder Großverbrauchern.
Auch dieser Aspekt findet bei „ESiTI“ Berücksichtigung. Ein weiteres Teilprojekt unter Leitung von Professor Lieselotte Schebek, Fachgebiet Stoffstrommanangement und Ressourcenwirtschaft am Institut IWAR der TU Darmstadt, nimmt eine ökologische Bewertung der Energieeinsparung gegenüber den Umweltauswirkungen vor. Außerdem sollen Verfahren für die Nutzbarmachung von schwer abbaubaren Substanzen entwickelt werden. Volkswirtschaftliche Aspekte werden im Rahmen von „ESiTI“ ebenso untersucht wie die Frage, inwieweit unterschiedliche Motivation von beteiligten Unternehmen ein großes Energie-Projekt beeinflussen kann.
Was am Beispiel der Stadt Darmstadt und in den Versuchsanlagen der TU Darmstadt erforscht und entwickelt wird, wird in ein Planungswerkzeug einfließen, das Betreiber von Wasseraufbereitungsanlagen unterstützt. Mit seiner Hilfe sollen Kläranlagen dann flexibilisiert und optimal in die städtische Infrastruktur eingebettet ihren Beitrag zum intelligenten und schonenden Umgang mit der Ressource Abwasser leisten.
Weitere Informationen
Das Projekt „ESiTI“ (Abwasserbehandlungsanlage der Zukunft: Energiespeicher in der Interaktion mit technischer Infrastruktur im Spannungsfeld von Energieerzeugung und -verbrauch) ist eines von zwölf Verbundprojekten, die das Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Zukunftsfähige Technologien und Konzepte für eine energieeffiziente und ressourcenschonende Wasserwirtschaft (ERWAS)“ fördert.
Quelle: idw
Beeinflusst der Mond unseren Schlaf?
Dr Harald Rösch Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.
Max-Planck-Wissenschaftler finden keinen Zusammenhang zwischen den Mondphasen und menschlichem Schlaf
Im Volksglauben gibt es verschiedenste Mythen über den Einfluss des Mondes auf den Menschen. So leiden angeblich viele Menschen bei Vollmond unter Schlafstörungen. Im Gegensatz zu früheren Studien konnten Wissenschaftler am Max-Planck-Institut für Psychiatrie in München nun keinen Zusammenhang zwischen dem menschlichen Schlaf und den Mondphasen finden. Für die Untersuchung werteten die Forscher große, bereits vorhandene Datensätze über den Schlaf zahlreicher Probanden aus. Während der Recherchen stießen sie auf weitere Studienergebnisse, welche ebenfalls keinen Einfluss des Mondes feststellen konnten. Diese sind jedoch häufig nicht veröffentlicht worden. Dadurch waren Studien mit positivem Befund bislang in der wissenschaftlichen Literatur überrepräsentiert.
Seit Jahrhunderten glauben die Menschen, dass ihre Gesundheit oder ihr Verhalten durch den Mond beeinflusst werden. Im Volksglauben hält sich vor allem die Überzeugung, dass man in Vollmondnächten schlechter schläft. Aber gibt es tatsächlich einen wissenschaftlich nachweisbaren Zusammenhang?
Einige Studien beschäftigten sich bereits in Nachanalysen von zuvor zu einem anderen Zweck erhobenen Schlafdaten mit dem Einfluss des Mondes auf den menschlichen Schlaf. Allerdings wurden die Auswirkungen auf den Schlaf selten mit objektiven Methoden, wie z.B. dem Schlaf-EEG, untersucht und die Ergebnisse waren sehr unterschiedlich. In manchen Studien schienen sich die Mondphasen besonders auf Frauen auszuwirken, in andern wiederum besonders auf Männer. Zwei Analysen von Datensätzen mit jeweils 30 bis 50 Teilnehmern aus den Jahren 2013 und 2014 zeigten übereinstimmend, dass die Schlafdauer in Vollmondnächten verkürzt ist. Für andere Messungen kamen sie jedoch zu kontroversen Ergebnissen. Beispielsweise wurde in einer der beiden Analysen gezeigt, dass das Einsetzen des REM-Schlafes – die Schlafphase, in welcher wir vor allem träumen – bei Neumond verzögert ist. In der anderen Studie wurde hingegen eine Verzögerung in Vollmondnächten festgestellt.
Um Zufallsbefunde zu vermeiden, wie sie in Studien mit geringer Teilnehmerzahl möglich sind, untersuchten die Wissenschaftler nun Schlafdaten von 1.265 Probanden aus 2.097 Nächten. „Nachdem wir diese große Anzahl von Daten ausgewertet hatten, konnten wir frühere Ergebnisse aus anderen Studien nicht bestätigen“, berichtet Martin Dresler, Neurowissenschaftler am Max-Planck-Institut für Psychiatrie in München und Donders Institute for Brain, Cognition and Behaviour in Nijmegen, Niederlande. „Wir konnten keinen statistisch belegbaren Zusammenhang zwischen menschlichem Schlaf und den Mondphasen aufzeigen.“ Im Rahmen dieser Untersuchungen fand sein Team weitere unveröffentlichte Analysen von über 20.000 Schlafnächten, welche ebenfalls keinen Einfluss des Mondes feststellen konnten. Dass diese Ergebnisse nicht veröffentlicht worden sind, könnte ein Beispiel für eine verzerrte Veröffentlichungspraxis sein, wie sie beispielsweise auch als „Schubladenproblem“ bekannt ist.
Darunter versteht man das Phänomen, dass viele Untersuchungen zwar durchgeführt, aber nie veröffentlicht werden – sie verbleiben stattdessen in der Schublade der Forscher. Die Tendenz nur positive oder signifikante Ergebnisse zu veröffentlichen, nicht aber negative oder unschlüssige, ist ein viel diskutiertes Problem in der Wissenschaft, Medizin und Pharmazie.
Bisher wurde der Einfluss des Mondes auf den menschlichen Schlaf durch die Nachanalyse von bereits früher zu einem anderen Zweck erhobenen Datensätzen untersucht. „Um die ganz offensichtlichen Einschränkungen von solchen Nachanalysen zu umgehen, müssten gut überlegte und genau auf den Zweck abgestimmte Experimentreihen mit einer großen Anzahl von Probanden durchgeführt werden“, kommentiert Dresler.
Originalveröffentlichung:
Cordi M, Ackermann S, Bes FW, Hartmann F, Konrad BN, Genzel L, Pawlowski M, Steiger A, Schulz H, Rasch B, Dresler M.
Lunar cycle effects on sleep and the file drawer problem.
Current Biology. Vol 24, Nr. 12 (doi: 10.1016/j.cub.2014.05.017)
Ansprechpartner:
Anna Niedl
Press and Public Relations
Max-Planck-Institut für Psychiatrie, München
Telefon: +49 89 30622-263
Fax: +49 89 30622-370
E-Mail:anna_niedl@mpipsykl.mpg.de
Dr. Martin Dresler
Max-Planck-Institut für Psychiatrie, München
E-Mail:dresler@mpipsykl.mpg.de
Quelle: idw
Neues Energiezeitalter in Oberfranken
Anja Matern-Lang Zentrale Verwaltung / Öffentlichkeitsarbeit
Bayerisches Zentrum für Angewandte Energieforschung e.V.
Neues Energiezeitalter in Oberfranken – ZAE Bayern und Areva präsentieren System zur wasserstoffbasierten Energiespeicherung
Das ZAE Bayern und die Areva GmbH präsentierten heute in Anwesenheit des ehemaligen Bayerischen Ministerpräsidenten Günther Beckstein und des Parlamentarischen Staatssekretärs im Bundesforschungsministerium Stefan Müller ein System zur wasserstoff-basierten Energiespeicherung. Dieses System wurde von der Areva GmbH für das vom ZAE Bayern geleitete Projekt „Smart Grid Solar“ erstellt und wird im oberfränkischen Arzberg in Betrieb gehen.
Der von Areva realisierte Elektrolyseur wird in Arzberg aus dem von PV-Anlagen gelieferten Strom Wasserstoff produzieren. Damit wird an sonnenreichen Tagen entstehende überschüssige Energie speicherbar und kann mit der ebenfalls erstellten Brennstoffzelle zur Generierung elektrischer Energie für weniger wind- und sonnenreiche Perioden eingesetzt werden. Der erzeugte Wasserstoff kann außerdem zum Betrieb von Fahrzeugen mit wasserstoffbasierten Antrieben und im Bereich der Gasversorgung verwendet werden. Die vorgestellte Technologie hat daher eine hohe Bedeutung für die zukünftige Energieversorgung, da mir ihr nicht nur Zeiten mit geringer Windkraft- und Photovoltaikleistung überbrückt werden können, sondern ebenso die hohe Abhängigkeit Deutschlands von Erdgasimporten reduziert werden kann. Geleitet wird das Projekt vom Vorstandsvorsitzenden des ZAE Bayern Prof. Dr. Christoph J. Brabec.
Weitere Informationen:
http://www.zae-bayern.de
Quelle: idw
Europäische Gewässer stärker durch Chemikalien belastet als bislang angenommen
Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau
Großflächige Studie zeigt: Ökologische Ziele der Wasserrahmenrichtlinie werden vermutlich verfehlt.
Die Gewässerqualität bis 2015 deutlich zu verbessern, das haben sich die EU-Mitgliedsstaaten nicht zuletzt durch die Wasserrahmenrichtlinie (WRRL) auf die Fahnen geschrieben. Wie eine aktuelle Studie des Instituts für Umweltwissenschaften Landau und des Helmholtz-Zentrums für Umweltforschung (UFZ) mit Kollegen aus Frankreich (Universität Lorraine und EDF) und der Schweiz (EAWAG) zeigt, wird dieses Ziel aufgrund starker Schadstoffeinträge wohl nicht erreicht werden. Ein Grund: Aktuelle Maßnahmen zur Verbesserung der Gewässerqualität berücksichtigen Chemikalieneinträge nur unzureichend. Dabei sind die ökologischen Risiken durch Chemikalien wesentlich höher als bislang angenommen, wie die Studie erstmals auf europäischer Ebene belegt.
Bislang gingen Umweltbehörden und Teile der Fachwelt davon aus, dass der Eintrag von Chemikalien eher ein lokales Problem in einigen Gewässern darstellt. Die aktuelle Untersuchung zeigt nun erstmals im großen Maßstab das ökologische Risiko durch Chemikalieneinträge für mehrere Tausend europäische Gewässer: Die chemische Belastung stellt für rund die Hälfte der europäischen Gewässer ein ökologisches Risiko dar. Bei rund 15 Prozent könnten sogar akut toxische Effekte auf Gewässerorganismen auftreten