Freitag, März 29, 2024
StartAblageTägliche Meldungen 2014

Tägliche Meldungen 2014

Dezember 2014
Umwelt 
Gesundheit  
Gesellschaft
Umwelt  
30.12.2014 Neue Schwerpunkte für die Erforschung der Ozeanversauerung 
29.12.2014 Biogas: Energiepflanzen-Mix für natürliche Spurenelemente 
28.12.2014 Altbekannter Oxidationsmechanismus auch in der Atmosphäre aktiv – und das mit weitreichenden Folgen 
26.12.2014 Beitrag zum Klimaschutz: Forschung an Gasmotoren 
23.12.2014 Intelligente, multifunktionelle Infrastruktursysteme f. die zukunftsfähige Wasserver- u. Entsorgung 
21.12.2014 Vorbereitung für den »Stresstest« im Meer 
19.12.2014 Energieeffizienz, die sich rechnet 
17.12.2014 Wie Bodenmikroben durch den Klimawandel aus dem Takt geraten 
15.12.2014 Thementisch: Kläranlagen versus Mikroplastik 
14.12.2014 Thermoelektrische Abwärmenutzung: Neues Design spart Material 
13.12.2014 Rohstoffeffizienz-Preis 2014: Neues Textil filtert Wertmetalle aus Industrieabwässern 
12.12.2014 Bald Brennstoffe aus Kohlendioxid? 
10.12.2014 Wissenschaftlicher Taucheinsatz im Toten Meer: Der Salzsee ist in Gefahr 
09.12.2014 Antarktis: Wärme kommt aus der Tiefe 
07.12.2014 Acht Jahre REACH – positive Bilanz, aber es bleibt viel zu tun 
05.12.2014 Wie viel Sauerstoff war im Zürich-See? 
04.12.2014 Welches Umweltproblem hat Vorrang? 
03.12.2014 Studie: Gefahr für die Honigbiene durch die Erwärmung des Weltklimas 
01.12.2014 Zukunft von Feuerwehren und Katastrophenschutz in Gefahr? 
Gesundheit  
24.12.2014 Stoßwellen fördern Wundheilung 
22.12.2014 Wirbel um Saccharin & Co: Maßvoller Konsum von Süßstoff scheint unbedenklich 
20.12.2014 Volkskrankheit Adipositas: Fraunhofer-App unterstützt den Therapieerfolg 
16.12.2014 Gesunde Zähne = niedriger Blutdruck. Zahnarztbesuch senkt Herzinfarkt-und Schlaganfallrisiko 
11.12.2014 Blutdrucksenkendes Salz bald auf dem Markt? 
08.12.2014 Rapsöl verbessert im Vergleich zu Olivenöl die Cholesterin- und Leberwerte übergewichtiger Männer 
02.12.2014 Zeig‘ mir Deine Zähne: Implantate verbessern die Lebensqualität im Alter 
Gesellschaft
25.12.2014 Was Verbraucher wirklich möchten 
18.12.2014 Arbeitsunfähigkeit kostet Deutschland 103 Milliarden Euro – Unfallquote so niedrig wie nie 
06.12.2014 Energiekabinett bringt keinen energiepolitischen Durchbruch 
November 2014 
Umwelt 
Gesundheit  
Gesellschaft    
Umwelt 
26.11.2014 Frühwarnsystem für Deiche besteht Praxistest 
24.11.2014 Mehr Methan aus der Tiefe des Meeres: Schlammvulkane als Quelle des Treibhausgases Methan 
21.11.2014 Ozeanversauerung verändert klimarelevante Funktionen in der obersten Mikroschicht 
19.11.2014 Damit es Europas Bienen wieder besser geht 
16.11.2014 Hochwasservorsorge für Gebäude, Stadt und Region 
11.11.2014 Bioabfall hält Einzug in die Gastronomie 
08.11.2014 Internationaler Tag der Flüsse: Schlechte Karten 
07.11.2014 Deponiegas kostengünstig aufbereiten 
05.11.2014 Städtische Wasserinfrastrukturen nachhaltig (um)gestalten 
03.11.2014 Wasser als zentrales Politikum 
01.11.2014 Energiespeicher aus Kunststoff 
Gesundheit  
28.11.2014 Neues Risiko Pedelec? 
27.11.2014 Rotweinbestandteil Resveratrol wirkt entzündungshemmend 
25.11.2014 Bislang kein Hinweis auf Botox-Bakterien in niedersächsischen Biogasanlagen 
22.11.2014 Aktionsbündnis Arbeitsmedizin 
20.11.2014 Menschen vor Legionellen aus Kühlanlagen schützen 
17.11.2014 Türklinken aus Kupfer gegen Keime: Infektionsvorbeugung im Asklepios Klinikum Hamburg Harburg 
14.11.2014 Schon ein Bier verschlechtert die Nachtsicht. Augenärzte raten zu gänzlich nüchternen Autofahrten 
12.11.2014 Smartphones: sauberer als gedacht 
09.11.2014 Weltmännertag 2014 – Urologen appellieren: Männergesundheit beginnt beim Jungen 
01.11.2014  Brustkrebsangst: Vorbeugend operieren oder nicht? 
Gesellschaft    
30.11.2014 Leichter Rückgang der Arbeits- und Wegeunfälle im ersten Halbjahr 2014 
23.11.2014 Training für den „Denkapparat“: Teilnehmende für Studie gesucht 
18.11.2014 Wer bekommt Weihnachtsgeld – was sehen die Tarifverträge vor? 
13.11.2014 Gierige Menschen lernen schlechter aus ihren Fehlern 
10.11.2014 Familie und berufliche Mobilität: Welchen Herausforderungen müssen sich Betroffene stellen? 
06.11.2014 GfK-Umfrage: Zwei-Klassen-Medizin in Deutschland? 
04.11.2014 Gehirnjogging am Computer hält nicht, was es verspricht 
02.11.2014 Elfmeterabwehr: Die Einstellung des Torwarts macht den Unterschied 
01.11.2014 Wie Erfahrungen die Persönlichkeit von Mensch und Tier beeinflussen 
Oktober 2014
Umwelt 
Gesundheit
Gesellschaft  
Umwelt
31.10.2014 Reportage über Flussforschung erhält Deutschen Preis für Wissenschaftsfotografie 
29.10.2014 Wasserpflanzen – Rohstoff für Biogasanlagen? – Forscher untersuchen Machbarkeit 
25.10.2014 Einzigartige Fließwasserlabore nehmen Betrieb auf 
23.10.2014 Infrastruktur und Energiemanagement: Geschwisterpaar der Wasserwirtschaft 
20.10.2014 Erdgas-Boom kann den Klimawandel nicht verlangsamen 
17.10.2014 Umweltqualität und Innovation Hand in Hand: Die Nominierungen für den Bundespreis Ecodesign 2014 
15.10.2014 Volkszählung unter der Erde – Erste Regenwurm-Bestandsaufnahme in Deutschland 
14.10.2014 Hitze, Überflutungen, Stürme: Welche regionalen Folgen hat der Klimawandel für Deutschland? 
12.10.2014 Enorme Fortschritte in der Ozeanversauerungsforschung 
10.10.2014 Der Ostseeschnäpel vor dem Comeback 
07.10.2014 Thermische Verwertung von Grünschnitt 
02.10.2014 Große Akzeptanz der Energiewende 
Gesundheit 
30.10.2014 Was tun mit dem Huhn? Mangelnde Küchenhygiene kann krank machen 
26.10.2014 Ein gesunder Lebensstil ist mit einem verminderten Darmkrebs-Risiko verbunden 
21.10.2014 Mehrheit der Ärzte befürwortet flächendeckende Einführung von Telemedizin 
11.10.2014 Gesunde Ernährung: Bienen nutzen Heilstoffe des Honigs als Medikament 
09.10.2014 Abi und Studium schlecht für die Augen. Kurzsichtigkeit wächst mit dem Bildungsgrad 
08.10.2014 Rheumatologen empfehlen neue Diät und Therapieoptionen bei Gicht 
06.10.2014 Malaria-Medikamente aus Abfall – Erfolg durch Zusammenarbeit von Chemikern und Ingenieuren 
01.10.2014 UDE: Macht Essen süchtig? 
Gesellschaft   
28.10.2014 Informativer Toilettengang 
24.10.2014 Männer mögen fröhliche Frauen 
22.10.2014 Förderung der Arbeitsfähigkeit von Arbeitnehmern 
19.10.2014 EARTO-Preis für Fraunhofer 
16.10.2014 Unterschiedliche Faktoren beeinflussen Strompreise 
13.10.2014 DGPM warnt vor Überbelastung am Arbeitsplatz: Männer sind öfter gestresst als Frauen 
05.10.2014 Neue Fahrzeugantriebe entwickeln 
Sepember 2014
Umwelt
Gesundheit    
Gesellschaft    
Umwelt
23.09.2014 Deutsche Wälder speichern mehr Kohlenstoff als vor 20 Jahren 
21.09.2014 Bakterien sollen Biokraftstoff produzieren 
12.09.2014 Innovationen querfeldein: Wenn Biokohle den Acker fruchtbar macht 
08.09.2014 TU Berlin: Kälte aus (Ab)wärme 
04.09.2014 Asiatische Firmen sichern sich Vormacht bei Energiespeichern 
01.09.2014 Mikroplastik in süddeutschen Flüssen und Seen 
Gesundheit    
30.09.2014 „In Vino Veritas“-Studie: Kein verringertes Atherosklerose-Risiko bei regelmäßigem Weinkonsum 
25.09.2014 Kakao-Inhaltsstoffe reduzieren das Herz-Kreislaufrisiko 
22.09.2014 Ethanolfeuerstellen – die unterschätzte Gefahr 
19.09.2014 Übergewicht in der Schwangerschaft ist gefährlich fürs Herz 
17.09.2014 „Trink einen Schluck“, sagt das Pflaster 
14.09.2014 Zwillingspaare für Internetstudie gesucht 
11.09.2014 Bluthochdruck: Gesunder Lebensstil allein reicht nicht immer aus 
09.09.2014 Mainzer Fluglärmstudie beweist: Nachtfluglärm verursacht deutliche Gefäßschäden bei Herz-Patienten 
07.09.2014 Menschen mit Arthrose bewegen sich zu wenig. Experten raten zu moderatem Sport 
05.09.2014 Zu salzig, zu süß, zu fett: EU-Projekt zu ungesunden Geschmacksstoffen in Nahrungsmitteln 
02.09.2014 Was uns Lebensjahre raubt 
01.09.2014 Babyboomer kommen in die Jahre: Urologen erwarten 20 Prozent mehr Patienten und raten zu Prävention 
Gesellschaft    
29.09.2014 Dritter wissenschaftlicher Männerkongress ging zu Ende 
18.09.2014 Forschung zum Arbeitszeitmodell „Arbeitszeitfreiheit“ 
16.09.2014 Wie Kunden sich gegenseitig beim Einkaufen beeinflussen 
10.09.2014 Fahrtauglichkeit im Alter – darf Oma noch Autofahren? 
06.09.2014 Trendwende für die Konjunktur? IMK: Rezessionsgefahr stark gestiegen 
03.09.2014 Austausch übers Essen bringt neue Genuss-Kultur im Internet hervor 
01.09.2014 Junge Arbeitslose sind auch später häufiger ohne Job 
August 2014
Umwelt  
Gesundheit   
Gesellschaft   
Umwelt   
27.08.2014 Neue Wege der Phosphornutzung: Leibniz-WissenschaftsCampus Rostock gegründet 
24.08.2014 Regenwürmer im Einsatz gegen Hochwasser 
23.08.2014 Besseres Recht für mehr Umweltschutz in der Landwirtschaft 
21.08.2014 Student entwickelt Biogas-Anlage aus Plastiktonne 
15.08.2014 Rezession und Erneuerbare unschuldig am Preissturz für CO2 in Europa 
13.08.2014 Kurzes Aufatmen am Ostseegrund: Sauerstoff im Tiefenwasser der zentralen Ostsee gemessen 
11.08.2014 Häusliche Abwässer energetisch nutzen 
10.08.2014 Wasserentsalzung – umweltschonend und effizient 
08.08.2014 Schadstoffe im Abwasser mit Plasma abbauen 
06.08.2014 Tagung zum kommunalen Umweltschutz 
04.08.2014 Mikroben als Umweltsanierer 
02.08.2014 Simulationsmodelle optimieren Wasserkraft 
Gesundheit   
31.08.2014 Starke Bauchmuskeln schützen Fußballer beim Kopfballstoß 
25.08.2014 Große Hitze begünstigt die Steinbildung: Urologen warnen vor der Sommerkrankheit Harnsteine 
17.08.2014 Winterschlaf fällt aus: Höhepunkt der Zecken-Welle 2014 bereits vorbei – Aktivität lässt nach 
03.08.2014 Angenehmes Raumklima durch poröse Gläser 
Gesellschaft   
28.08.2014 Senckenberg sucht Hobbyfotografen – Digitaler Fotoführer für afrikanische Pflanzen im Netz 
26.08.2014 Angst und Ärger verleiten Autofahrer zum Rasen 
22.08.2014 Neues Quizspiel erzielt 22.000 Downloads in vier Wochen 
16.08.2014 Kein „Merkel-Faktor“: Studie untersucht Frauen auf dem Weg zur Macht 
14.08.2014 Von welchem Elternteil Gene geerbt werden beeinflusst Alter der Sexualreife 
12.08.2014 Frauenquote in Norwegen hat wenig gebracht 
09.08.2014 Vielen Deutschen mangelt es an Zeit 
07.08.2014 Wie das Internet die Welt und unser Verständnis von ihr verändert 
05.08.2014 Einkommensgruppen leben in Berlin stärker voneinander getrennt als in München 
01.08.2014 Online-Kurs gegen „Aufschieberitis“ 
Juli 2014
Umwelt  
Gesundheit 
Gesellschaft 
Umwelt 
31.07.2014 Spitzentechnologie in der Meeresforschung 
27.07.2014 UMSICHT beteiligt an Forschungsprojekt zur Wassereinsparung – ROOF WATER-FARM 
25.07.2014 Neues UNESCO-Wasserzentrum in Koblenz 
23.07.2014 Bioenergie in künftige Energieversorgungssysteme integrieren 
22.07.2014 Gärtrommel zur Erzeugung von Biogas 
21.07.2014 Feldversuch in Niedersachsen zur großtechnischen Nutzung von Mikroalgen als Biomasse 
20.07.2014 Bei Sau-Wetter lässt sich der Bock nicht sehen 
19.07.2014 Auszeichnung für Modellprojekt zur dezentralen Abwasserentsorgung 
17.07.2014 Algen sind Biomasse der Zukunft 
16.07.2014 „Die Bundesregierung schafft das EEG 2017 praktisch ab!“ 
14.07.2014 Nachhaltiges Wassermanagement für das Jordantal 
13.07.2014 Vogelschutz lohnt sich! – Vogelbestände in Osteuropa profitieren von neuer Gesetzgebung 
12.07.2014 Mit präziseren Messgeräten der Versauerung der Ostsee auf die Spur kommen 
11.07.2014 Gentechnisch veränderte Pflanzen beschleunigen den Biodiversitätsverlust 
10.07.2014 Mehr Energieeffizienz in Großwäschereien – Fraunhofer IFF und DTV entwickeln gemeinsam Lösungen 
08.07.2014 Bienen können wichtiger als Dünger sein 
07.07.2014 Klärschlamm als flexibler Energielieferant – Neues Verbundprojekt an TU Darmstadt gestartet 
05.07.2014 Neues Energiezeitalter in Oberfranken 
04.07.2014 Europäische Gewässer stärker durch Chemikalien belastet als bislang angenommen 
02.07.2014 Macht Kalk aus Haushaltsgeräten Schrott? 
01.07.2014 Ein französisches Start-up installiert ein Mini-Kraftwerk auf einer Biogasanlage 
Gesundheit  
28.07.2014 Spinat unter Druck 
24.07.2014 Bluttest zur Erkennung von Darmpolypen: Experten raten von Einsatz ab 
18.07.2014 Wie blendet das Gehirn Störungen aus? 
01.07.2014 Wie wirken Nanomaterialien in Leber und Darm? 
Gesellschaft  
28.07.2014 Die Psychologie des Autofahrens: Prof. Baumann erforscht den Faktor Mensch im Straßenverkehr 
26.07.2014 Internationale Fußballspiele in Höhenlagen – sind Top-Spieler aus dem ‚Flachland‘ benachteiligt? 
15.07.2014 Zuversichtsstudie: Deutsche zuversichtlich wie nie 
09.07.2014 Umfrage: Sind Hobbyangler Tierquäler? 
06.07.2014 Beeinflusst der Mond unseren Schlaf? 
03.07.2014 Welchen Einfluss haben Energieversorgung und Umweltfragen auf das persönliche Wohlergehen? 
01.07.2014 Die Zukunft der Arbeitswelt – Herausforderungen und Chancen für Frauen 
Juni 2014
Umwelt  
Gesundheit 
Gesellschaft   
Umwelt 
30.06.2014 Die Brennstoffzelle für zu Hause 
26.06.2014 Sauberer Strom aus Abwärme 
25.06.2014 EU-Projekt PROMISE zu Phosphorrecycling startet 
24.06.2014 Instrumente für die Planung von Bioenergieprojekten in Kommunen 
22.06.2014 Fließendes Wasser energetisiert Mineralien 
20.06.2014 Medikamenten-Entsorgung: Verbraucherwissen mangelhaft 
16.06.2014 Wird das Christkind Dauergast? – Klimawandel könnte für einen permanenten El Niño sorgen 
14.06.2014 Bioenergie „made in Germany“ – DBFZ-Expertise stößt in China auf breites Interesse 
12.06.2014 Kohle-Doping für Biogasanlagen: Mit Biokohle zu höheren Gaserträgen 
05.06.2014 Feenkreise wohl doch nicht durch Termiten entstanden. Neue Studie erschienen 
01.06.2014 Neue Informationsplattform zu Erde und Umwelt 
Gesundheit
21.06.2014 Mit beiden Augen liest man besser 
06.06.2014 OP-Plan ohne Mondkalender 
02.06.2014 Untersuchung möglicher gesundheitlicher Gefährdungen durch Drucker- und Kopierer-Emissionen 
01.06.2014 Warnung vor dem Wunderpulver 
Gesellschaft
27.06.2014 Friedensforscher fordern: Das Friedensprojekt Europa ist nicht zu Ende – es ist zu stärken 
23.06.2014 Wissenschaftler veröffentlichen Prognose des WM-Turniers auf Basis der Marktwerte der Spieler 
19.06.2014 Überraschend unpopulär – Fallstudie zur Akzeptanz einer einmaligen Besteuerung hoher Vermögen 
15.06.2014 Wie Gratis-Apps teuer werden können: Tools für mehr Sicherheit beim Smartphone-Betrieb 
13.06.2014 Wer tippt bei der Fußball-WM besser? 
10.06.2014 Bundestagspräsident wirft kritischen Blick auf Energiewende 
04.06.2014 WSI Tarifarchiv – Wer bekommt Urlaubsgeld und was sehen die Tarifverträge vor? 
03.06.2014 RWI: Elterngeldmütter arbeiten häufiger und haben bessere Jobs 
01.06.2014 UDE: Durchschnittliche Stundenverdienste untersucht – Enorme Spanne zwischen Branchen 
Mai 2014
Umwelt 
Gesundheit   
Gesellschaft 
Umwelt  
29.05.2014 Umweltlabor auf drei Rädern 
24.05.2014 TH-Forschung aktuell: Drohnen für den Umwelt- und Katastrophenschutz 
21.05.2014 Mikroorganismen filtern Uran aus Grundwasser 
20.05.2014 Biomasse zur bedarfsgerechten Stromerzeugung – FNR veröffentlicht Kurzstudie des DBFZ 
18.05.2014 Wasser im Web – Neues Portal online 
16.05.2014 Emscher Landschaftspark – weitergedacht 
15.05.2014 Der CO2-Aufnahme durch den Ozean auf der Spur 
12.05.2014 Hocheffiziente Wasseraufbereitung mit Licht 
08.05.2014 Materialwissenschaftler forscht an nachhaltiger Entsalzungsmethode für Wasser 
05.05.2014 TU Berlin: Studie eröffnet neue Wege in der Biowasserstoff-Forschung 
02.05.2014 Tannen im Stresstest 
01.05.2014 BfG registrierte an Fischaufstiegsanlage Koblenz 30.000 Fische 
Gesundheit
30.05.2014 Blutdruck- und Fettsenker haben komplexe Wirkungen auf den Stoffwechsel 
28.05.2014 Neue Patienteninformationen zum Thema Nervenschädigungen bei Diabetes erschienen 
25.05.2014 Krafttraining – wie geht es richtig? 
22.05.2014 BAuA-Bericht: Kleine und mittlere Betriebe sollten vorbeugend im Arbeitsschutz handeln 
17.05.2014 Sauberes Wasser für die Zukunft – Semizentrales Ver- und Entsorgungszentrum startet in Qingdao 
13.05.2014 Hohes Herzrisiko für dicke Bäuche 
10.05.2014 Krafttraining senkt Bluthochdruck 
09.05.2014 Tasse oder Kännchen? Mit Koffein gegen die Alzheimer-Krankheit 
07.05.2014 Den Geheimnissen der Kakaobohne auf der Spur 
03.05.2014 Adipositas: Die Gene sind schuld 
01.05.2014 Und er bewegt sich doch – Tinnitusfrequenz lässt sich durch Neuro-Musiktherapie verändern 
Gesellschaft  
27.05.2014 Gerät der Profifußball aus den Fugen? 
26.05.2014 BAuA informiert mit „Arbeitswelt im Wandel 2014″ über aktuelle Trends in der Arbeitswelt 
18.05.2014 Studie zeigt politischen Einfluss der Kirchen in der Öffentlichkeit 
14.05.2014 Giftgas: Wer den Alliierten erstmals von Tabun erzählte, und warum sie dem Mann nicht glaubten 
11.05.2014 Wie sozial ist digital? – Freundschaften im digitalen Zeitalter 
04.05.2014 Eine Stadtführung durch das mittelalterliche Frankfurt zum Herunterladen 
01.05.2014 Die Psychologie des Elfmeters 
April 2014
Umwelt 
Gesundheit  
Gesellschaft
Umwelt 
30.04.2014 Umwelthormone – kleine Mengen mit großer Wirkung 
29.04.2014 InduKOCH: Wissenschaftler machen Induktionsherde energiesparender und preiswerter 
25.04.2014 Effizienter Betrieb von Kläranlagen 
23.04.2014 Wie Stroh zu Gold: Energiegewinn aus Abwärme 
21.04.2014 Geplante EEG-Neuregelungen lassen fast keinen wirtschaftlichen Betrieb von neuen Bioenergieanlagen 
19.04.2014 Klimawandel: Erwärmung führt bereits zu deutlichen Veränderungen der Weltmeere 
18.04.2014 DBFZ veröffentlicht Hintergrundpapier zu Auswirkungen der Novellierung des EEG 2014 
16.04.2014 Biogas zu Biomethan aufbereiten 
14.04.2014 Deutsches Biomasseforschungszentrum veröffentlicht den Jahresbericht 2013 
13.04.2014 Weltwassertag 2014: Wasser und Energie – Abwasser als Ressource nutzen 
11.04.2014 Weltwassertag: Neues Poster zeigt Wissenswertes und Überraschendes rund ums Wasser in Deutschland 
10.04.2014 Wissenschaftliche Belege für Wirkung der Umweltzone 
09.04.2014 IHK NRW trifft Fraunhofer: Wir in NRW für die Energiewende 
07.04.2014 Website zum KfW-Programm „Energetische Stadtsanierung“ gestartet 
06.04.2014 Weltwassertag 2014: Abwasser als regenerative Energiequelle? 
05.04.2014 Netzwerk „Wasser&Technik“ sucht Verstärkung 
04.04.2014 Rohrleitungen umweltschonender verlegen 
03.04.2014 Ein Fluss fließt – und was, wenn nicht? 
01.04.2014 Bioabfälle zu Biomethan: Konzepte für fünf europäische Städte 
Gesundheit  
27.04.2014 EU-Studie: Schlechte Mundgesundheit und unregelmäßige Zahnarztbesuche steigern Krebsrisiko 
24.04.2014 DGVS besorgt über rückläufige Teilnehmerquoten – Frühe Darmkrebsvorsorge rettet Leben 
22.04.2014 Prof. Dr. Klemperer ist Eckart von Hirschhausen der OTH Regensburg 
17.04.2014 Darmkrebs – Wie kann ich mich schützen? 
12.04.2014 Eine schlafende Zeitbombe 
08.04.2014 Neuer Schnelltest für Fluorid-Nachweis im Trinkwasser (BAM-Pressemitteilung Nr. 2/2014) 
02.04.2014 Neue Wege in der Therapie von Schlafstörungen 
01.04.2014  Wenn beim Autofahren die Kontraste verschwimmen – Nachtfahreignung durch Augentest prüfen 
Gesellschaft
28.04.2014 Frauen bewerben sich nicht auf „männliche“ Stellenausschreibung 
24.03.2014 Entscheidungsfindung: Sind Hunde Individualisten oder Gruppentiere? Psychologen starten Hunde-Studie 
20.04.2014 Mit NIR zu biobasierten Wertstoffen nach Maß: Neuer Ansatz für die hydrothermale Biomassewandlung 
15.04.2014 Das wohlschmeckendste Rindfleisch der Welt 
01.04.2014  Arbeitskosten: Normalisierung nach lange unterdurchschnittlicher Entwicklung 
März 2014
Umwelt  
Gesundheit
Gesellschaft
Umwelt
31.03.2014 Von Kontinent zu Kontinent: Wie kommt der Strom aus Afrika nach Europa? 
29.03.2014 Zukünftiger Umgang mit wertvoller Ressource Wasser: große Herausforderungen und viel Nachholbedarf 
26.03.2014 Schiffsabgase über der Nordsee könnten bis 2030 um 25 Prozent steigen 
25.03.2014 Netzwerk „Wasser&Technik“ sucht Verstärkung 
24.03.2014 Rohrleitungen umweltschonender verlegen 
22.03.2014 EFI-Gutachten: EEG fördert weder Klimaschutz noch Innovationen 
20.03.2014 Nährstoffe aus Gülle umweltgerecht verwertet 
16.03.2014 Selbst Bakterien vermeiden den Ausstoß des Treibhausgases Methan 
14.03.2014 Woher hat Afrika seine Form? – Ein verhinderter Sahara-Atlantik 
12.03.2014 Ostsee „trainiert“ marine Lebewesen für den Klimawandel 
10.03.2014 Umweltdetektiv für Treibhausgase: CarbonSat-Messkonzept der Uni Bremen erfolgreich getestet 
07.03.2014 Mehr als 1,34 Millionen Anlagen erzeugen Öko-Strom 
06.03.2014 Fahren von Elektroautos wird noch kundenfreundlicher 
05.03.2014 Biomasse: Beste Ökobilanz bei Nutzungskaskade 
03.03.2014 Kommunale Energiebeauftragte beraten auf Jahreskongress über Energieeffizienz 
02.03.2014 Beitrag zum Hochwasserschutz an der Elbe 
Gesundheit 
30.03.2014 Sag‘ mir wo Du wohnst und ich sag‘ Dir was Du wiegst: Wohnort beeinflusst das Gewicht von Kindern 
23.03.2014 Verordnung von Blutzuckermessgeräten: Deutsche Diabetes Gesellschaft kritisiert „Hausarzt-Modell“ 
21.03.2014 Sonnenbrände schaden doppelt 
19.03.2014 Welche Therapie der Legasthenie hilft, welche nicht? 
17.03.2014 Die Aufmerksamkeit des Autofahrers – wie das Gehirn mit relevanten und irrelevanten Reizen umgeht. 
15.03.2014 Aktuelle Auswertung des WSI – Job und Hausarbeit: Doppelbelastung erschöpft viele Frauen 
11.03.2014 Feinstaubbelastung: Wer an der Hauptstraße lebt, stirbt womöglich früher 
09.03.2014 Feinstaub und Stickstoffdioxid belasten auch 2013 weiter die Gesundheit 
02.03.2014 gesundheitsinformation.de hat ein neues Gesicht 
Gesellschaft 
18.03.2014 RWI-Studie: Trotz Berufstätigkeit bleibt Hausarbeit Frauensache 
13.02.2014 Powerfrauen im Top-Management treffen andere Entscheidungen 
08.03.2014 „Gehen in ein gutes Frühjahr“ 
04.03.2014 Umweltverbandsklage – erfolgreich in Sachen Umwelt und Natur 
02.03.2014 Zu viel Einweg bei Tragetaschen 
Februar 2014
Umwelt 
Gesundheit  
Gesellschaft  
Umwelt 
28.02.2014 Multitalent: Bio-Kläranlage, Lebensraum und Baumaterial 
26.02.2014 Hochwasserrisiko: Lässt sich das Niveau von Extrem-Hochwasser vorhersagen? 
25.02.2014 Tropische Vulkanausbrüche sorgen für verregnete Sommer in Europa 
23.02.2014 Kommunale Energiebeauftragte beraten auf Jahreskongress über Energieeffizienz 
22.02.2014 Beitrag zum Hochwasserschutz an der Elbe 
20.02.2014 Multitalent: Bio-Kläranlage, Lebensraum und Baumaterial 
18.02.2014 Hochwasserrisiko: Lässt sich das Niveau von Extrem-Hochwasser vorhersagen? 
17.02.2014 Tropische Vulkanausbrüche sorgen für verregnete Sommer in Europa 
15.02.2014 Versauerung im Atlantik: Erstes Freilandexperiment zu Auswirkungen von Versauerung im offenen Ozean 
12.02.2014 Grüne Oase auf dem Dach 
10.02.2014 Wärmepumpenversuchsstand eingeweiht 
08.02.2014 Know-how aus Witten macht den Saigon-Fluss sauber 
06.02.2014 Windräder aus der Ferne vermessen 
05.02.2014 Keine Chance für falsche Töne 
04.02.2014 Frost-Alarm! Was macht ein Maulwurf, wenn es friert? 
03.02.2014 Erster globaler Atlas der Biodiversität in Binnengewässern online 
02.02.2014 Ist der Mensch für eine Zunahme der extremen El Niño-Ereignisse verantwortlich? 
Gesundheit  
24.02.2014 Abgeschlossene Studie zur Neuro-Musiktherapie bei akutem Tinnitus weist gute Ergebnisse auf 
19.02.2014 gesundheitsinformation.de hat ein neues Gesicht 
11.02.2014 BAuA informiert über Arbeitsstättenverordnung 
07.02.2014 Tarnkappe für Hörgeräte und Implantate 
02.02.2014 Cholesterinsenker sind nicht schädlich für das Gedächtnis. Schützen sie sogar vor Vergesslichkeit? 
Gesellschaft  
27.02.2014 Kosten der Arbeitslosigkeit haben sich in den vergangenen zehn Jahren real halbiert 
21.02.2014 Kosten der Arbeitslosigkeit haben sich in den vergangenen zehn Jahren real halbiert 
16.02.2014 Mobilität: Welcher Komfort-Typ sind Sie? 
14.02.2014 Kommerziell oder ideell: Warum die causa ADAC weitere Kreise ziehen könnte 
09.02.2014 Welche Gesichter man nicht vergisst 
02.02.2014 Steigende Tendenz zur inneren Kündigung? Aktuelles Forschungsprojekt an der SRH Hochschule HD 
Januar 2014
Umwelt 
Gesundheit 
Gesellschaft  
Umwelt
31.01.2014 Stromfresser auf Diät 
29.01.2014 Erfolgreiche Renaturierung von Gewässern: Das biologische Umfeld ist entscheidend 
27.01.2014 Sensoren sichern Wasserqualität 
24.01.2014 Weltmärkte für Nahrungsmittel: Klimawandel größerer Preistreiber als die Bioenergie 
20.01.2014 Studie sagt schwerere und länger anhaltende Dürren in Europa voraus 
19.01.2014 Neue Studie: Große Bäume sind die besten Kohlendioxid-Speicher 
17.01.2014 Hendricks: Beim Klimaschutz ehrgeiziger werden 
16.01.2014 Mehr Umweltfreundlichkeit im Lebensmittelbereich nötig 
14.01.2014 Forschung Biogas: Neue Anlagen sollen Multifunktionsanlagen sein 
09.01.2014 Bericht belegt dringenden Handlungsbedarf beim Netzausbau 
08.01.2014 Geo-Engineering: Kommerzielle Düngung der Meere endlich verboten 
07.01.2014 Online-Software analysiert Nachhaltigkeit von Städten 
06.01.2014 Bergwerke als Pumpspeicherkraftwerke nutzen 
05.01.2014 Klimawandel setzt 40 Prozent mehr Menschen dem Risiko absoluter Wasserknappheit aus 
03.01.2014 Wie klimafreundlich sind strombasierte Kraftstoffe? 
01.01.2014 Forschungsvorhaben: Schwermetalle und Schadstoffe gezielt aus Klärschlämmen entfernen 
Gesundheit 
30.01.2014 Grüner Tee beeinflusst Medikamentenwirkung 
28.01.2014 Trotz Rheuma im Job bleiben: Das geht immer besser 
22.01.2014 Fangen Sie sich nichts ein – Verbrauchertipps im Umgang mit Fisch 
13.01.2014 Keime in der Küche: Tipps zur Lebensmittelhygiene 
04.01.2014 Studie liefert Daten: Opioid lindert Restless-Legs-Syndrom 
02.01.2014 Angriff auf die Kläranlagen des Körpers 
01.01.2014  Neue Richtlinie sieht besseren Schutz vor Radon in Wohnungen und am Arbeitsplatz vor 
Gesellschaft 
18.01.2014 Am Arbeitsmarkt neue Chancen schaffen 
15.01.2014 Bilanz 2013: 374 Berufe im Gehalts-Check – 13.000 Besucher beteiligen sich an Online-Umfrage 
12.01.2014 Der Wähler von heute: unberechenbar und mobil 
01.01.2014 Stress im Job – Wie gehen junge Mitarbeiterinnen und Mitarbeiter damit um? 

Neue Schwerpunkte für die Erforschung der Ozeanversauerung

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Damit die Erforschung der Ozeanversauerung weiterhin große Fortschritte machen kann, müssen auseinanderstrebende Bereiche zu einer ganzheitlichen Betrachtung zusammenfinden, fordern Prof. Ulf Riebesell vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel und Dr. Jean-Pierre Gattuso vom französischen Centre National de la Recherche Scientifique (CNRS). Die beiden international anerkannten Experten ziehen im Fachmagazin „Nature Climate Change“ Bilanz und zeigen neue Herausforderungen auf.

Das Thema Ozeanversauerung hat in den vergangenen zehn Jahren einen eindrucksvollen Sprung auf die wissenschaftliche Agenda absolviert. Auch Entscheidungsträgern und der Öffentlichkeit wird „Das andere Kohlendioxid-Problem“ zunehmend bewusst. Zeit für den nächsten Schritt: In der Januar-Ausgabe des Fachmagazins „Nature Climate Change“ rufen Prof. Ulf Riebesell, Professor für Biologische Ozeanografie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, und Dr. Jean-Pierre Gattuso vom französischen Centre National de la Recherche Scientifique (CNRS) die internationale Wissenschaftsgemeinde auf, ihre Kräfte zu bündeln. Nur so ließen sich zukünftige Herausforderungen meistern. Nach Einschätzung der beiden Experten müssen Reaktionen ganzer Lebensgemeinschaften, die Auswirkungen der Versauerung in Kombination mit anderen Stressfaktoren sowie die Chancen einer Anpassung durch Evolution jetzt verstärkt untersucht werden. „Die auseinanderstrebenden Bereiche der Versauerungs-Forschung müssen zu einer ganzheitlichen Betrachtung zusammenfinden“, unterstreicht Prof. Riebesell.

Für die Forscher liegt auf der Hand, dass Ozeanversauerung nicht als einziger Stressfaktor auftritt. Temperaturanstieg, Sauerstoff-Rückgang, Überdüngung, Verschmutzung und andere Faktoren beeinflussen die Entwicklung mariner Organismen und Lebensgemeinschaften zusätzlich. „Die Effekte können miteinander oder gegeneinander wirken – das müssen wir ausloten“, so Prof. Riebesell. „Aber je mehr Parameter ein Experiment abdecken soll, desto größer wird der Aufwand. Weil immer mehr Werte voneinander differieren können, sind Ergebnisse ähnlicher Studien außerdem schwerer als bisher zu vergleichen und zu verifizieren.“

Wie einzelne Arten auf Ozeanversauerung allein reagieren, ist mittlerweile recht gut erforscht: Kalkbildende Organismen wie Korallen, Muscheln oder Schnecken geraten unter Stress. Sie benötigen zusätzliche Energie, um der Belastung standzuhalten. Diese Energie fehlt dann für andere biologische Prozesse, etwa das Wachstum oder die Fortpflanzung. Eine wichtige Frage sei bisher jedoch so gut wie unbeantwortet, urteilt der Kieler Meeresbiologe. „Selbst wenn man die Reaktionen aller einzelnen Arten kennen würde, könnte man nicht absehen, wie sich diese im Gefüge einer Lebensgemeinschaft ausprägen. Dafür sind Informationen über Konkurrenz-Beziehungen und Wechselwirkungen zwischen den Nahrungsebenen unerlässlich.“

Laborexperimenten zufolge ist eine Anpassung durch Evolution möglich. Je schneller sich eine Art vermehrt und je größer ihre Population ist, desto besser stehen die Chancen, dass sie sich durch Selektion oder Mutation an neue Lebensbedingungen anpassen kann. „Die Frage ist jedoch: Läuft die Adaption schnell genug ab, damit ein Organismus seine Funktion innerhalb der sich wandelnden Lebensgemeinschaft aufrechterhalten kann? Außerdem ist ungeklärt, inwiefern sich Laborergebnisse auf die Natur übertragen lassen“, erklärt Prof. Riebesell.

Damit die Erforschung der Ozeanversauerung weiterhin große Fortschritte machen kann, sei es nötig, ihre drei auseinanderstrebenden Entwicklungszweige – die Kombination von Umweltfaktoren, Interaktionen zwischen den verschiedenen Ebenen des Nahrungsnetzes und die Anpassung durch Adaption – zusammenzuführen, urteilen die beiden Wissenschaftler. „Dies erfordert interdisziplinäre Anstrengungen, zum Beispiel im Rahmen von Langzeit-Experimenten, die die Auswirkungen mehrerer Stressfaktoren über viele Generationen hinweg auf der Ebene von Lebensgemeinschaften untersuchen. Laborexperimente müssen in enger Verzahnung mit Feldstudien und Modellrechnungen stattfinden“, rät Prof. Riebesell. „Hier sind auch die Wissenschaftsorganisationen gefordert, Forschungsmittel verstärkt für national und international vernetzte, disziplinübergreifende Projekte bereitzustellen.“ Da die Zeit drängt, sollte jetzt, da grundlegende Konzepte bekannt sind, ein besonderes Augenmerk auf gesellschaftlich relevante Aspekte gelegt werden. „Nur so wird es möglich sein, schließlich auch Handlungsoptionen für politische Entscheidungen und Management-Strategien zu geben.“

Originalpublikation:
Riebesell, U., Gattuso, J.-P. (2015), Lessons learned from ocean acidification research. Reflection on the rapidly growing field of ocean acidification research highlights priorities for future research on the changing ocean. Nature Climate Change 5, 12-14 (2015), doi: 10.1038/nclimate2456

Hintergrund: Ozeanversauerung und das Projekt BIOACID
Die Ozeane nehmen etwa ein Drittel des von Menschen produzierten Kohlendioxids (CO2) auf. So verbleibt eine geringere Menge dieses Klimagases in der Atmosphäre – die globale Erwärmung wird verlangsamt. Doch im Meer reagiert das Kohlendioxid zu Kohlensäure. Das Wasser wird saurer und damit zu einer Gefahr für große und kleine Lebewesen. Im Rahmen des am GEOMAR koordinierten Forschungsverbunds BIOACID (Biological Impacts of Ocean Acidification) untersuchen 14 Institutionen, wie marine Lebensgemeinschaften auf Ozeanversauerung reagieren und welche Konsequenzen dies für das Nahrungsnetz, die Stoff- und Energieumsätze im Meer sowie schließlich auch für Wirtschaft und Gesellschaft hat. Eine Liste der Mitglieds-Institutionen, Informationen zum wissenschaftlichen Programm und den BIOACID-Gremien sowie Fakten zur Ozeanversauerung sind auf der Website www.bioacid.de zu finden.

Bildmaterial:
Unter www.geomar.de/n2228 steht Bildmaterial zum Download bereit. Video-Footage auf Anfrage.

Weitere Informationen:

http://www.bioacid.de BIOACID (Biological Impacts of Ocean Acidification)
http://www.geomar.de/fileadmin/content/service/presse/Pressemitteilungen/2014/Oz… „Ozeanversauerung.

Zusammenfassung für Entscheidungsträger
http://www.iaea.org/ocean-acidification Ocean Acidification International Coordination Centre (OA-ICC)
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.cnrs.fr Centre National de la Recherche Scientifique (CNRS)

Quelle: idw

(nach oben)


Biogas: Energiepflanzen-Mix für natürliche Spurenelemente

Thomas Richter Öffentlichkeitsarbeit
Georg-August-Universität Göttingen

In mehr als 3.000 Biogasanlagen in Deutschland funktioniert die Produktion von Biogas nur unter Zugabe industriell hergestellter Spurenelemente. Wissenschaftler der Universität Göttingen sowie des Deutschen Biomasseforschungszentrums (DBFZ) und des Helmholtz-Zentrums für Umweltforschung (UFZ) in Leipzig suchen nun nach pflanzlichen Alternativen.

Biogas: Energiepflanzen-Mix für natürliche Spurenelemente
Bund fördert Verbundprojekt unter der Leitung der Universität Göttingen mit 1,1 Millionen Euro

(pug) In mehr als 3.000 Biogasanlagen in Deutschland funktioniert die Produktion von Biogas nur unter Zugabe industriell hergestellter Spurenelemente. Diese Anlagen werden fast ausschließlich mit Mais betrieben, und Mais ist nicht in der Lage, die für die Biogasbildung notwendigen Spurenelemente wie Kobalt oder Nickel in ausreichender Menge aufzunehmen. Wissenschaftler der Universität Göttingen sowie des Deutschen Biomasseforschungszentrums (DBFZ) und des Helmholtz-Zentrums für Umweltforschung (UFZ) in Leipzig suchen nun nach pflanzlichen Alternativen zu den industriellen Spurenelementen. Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert das Verbundprojekt über die Fachagentur Nachwachsende Rohstoffe e.V. (FNR) drei Jahre lang mit insgesamt rund 1,1 Millionen Euro.

„Die Verwendung industrieller Spurenelemente birgt verschiedene Umweltrisiken, verursacht zusätzliche Kosten und steht im Konflikt mit der Düngemittelverordnung“, erläutert Projektleiter Dr. Benedikt Sauer vom Interdisziplinären Zentrum für Nachhaltige Entwicklung (IZNE) der Universität Göttingen. „Andere Pflanzen sind im Vergleich zum Mais deutlich besser in der Lage, die für die Biogasbildung notwendigen Spurenelemente aufzunehmen.“ Die Wissenschaftler wollen nun im Freilandversuch die entsprechenden Eigenschaften beispielsweise bei Ackerbohne, Amarant oder Wickroggen untersuchen. Im Labor wollen sie testen, inwieweit bestimmte Pflanzenmischungen die künstlichen Zugaben bei der Biogasproduktion ersetzen könnten.

Weitere Untersuchungen beschäftigen sich mit den Fragen, welche Konzentration an Spurenelementen in einem Fermenter zur Biogasbildung nötig ist beziehungsweise ab welcher Konzentration die Spurenelemente hemmend oder sogar toxisch wirken können. Um ihre Ergebnisse in einem möglichen Folgeprojekt auch praktisch testen zu können, begleiten die Forscher bereits in der ersten Projektphase eine Biogasanlage wissenschaftlich. Ziel des Projekts ist eine höhere Biodiversität im Anbau von Energiepflanzen. „Das ist ein wichtiges Argument für die Akzeptanz von Biogasanlagen“, so Dr. Sauer. „Durch die Abkehr von reinen Mais-Monokulturen hin zu einem vielfältigeren Energiepflanzenanbau werden die Nachhaltigkeitsansprüche an die Biogaserzeugung deutlich besser erfüllt.“

Kontaktadresse:
Dr. Benedikt Sauer
Georg-August-Universität Göttingen
Geowissenschaftliches Zentrum
Abteilung Sedimentologie/Umweltgeowissenschaften
Goldschmidtstraße 3, 37077 Göttingen
Telefon (0551) 39-13736
E-Mail: bsauer@gwdg.de

Weitere Informationen:
http://www.uni-goettingen.de/de/473791.html

Quelle: idw

(nach oben)


Altbekannter Oxidationsmechanismus auch in der Atmosphäre aktiv – und das mit weitreichenden Folgen

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.

Forscher entschlüsseln Mechanismus der schnellen Bildung von extrem schwer flüchtigen organischen Verbindungen

Leipzig. Dass Kohlenwasserstoffe durch atmosphärischen Sauerstoff oxidiert werden können ist bereits seit 1875 bekannt. Bisher waren diese sogenannten „Autoxidationsprozesse“ jedoch nur in der kondensierten Phase erforscht. Jetzt ist einem internationalen Wissenschaftlerteam unter Beteiligung des Leibniz-Instituts für Troposphärenforschung (TROPOS) erstmals der Nachweis derartiger Prozesse in der Atmosphäre gelungen.

In Laborexperimenten konnte mit Hilfe von neuesten analytischen Techniken der Mechanismus weitestgehend entschlüsselt werden, der dafür sorgt, dass Kohlenwasserstoffe, die aus der Vegetation in die Luft gelangen, auf einer kurzen Zeitskala von Sekunden in organische Produkte mit bis zu 12 Sauerstoff-Atomen umgewandelt werden können. Diese hochoxidierten Produkte stellen extrem schwerflüchtige Verbindungen dar. Da diese das Partikelwachstum entscheidend vorantreiben können, werden so auch die Wolkenbildung und das Klimasystem beeinflusst, schreiben die Wissenschaftler aus Deutschland, Finnland und den USA im Fachjournal Angewandte Chemie. Die neuen Erkenntnisse könnten helfen, die Auswirkungen von natürlichen Emissionen der Vegetation auf das Klima besser zu verstehen.

Wälder geben große Mengen an flüchtigen organischen Verbindungen (VOCs) ab. Dazu gehören beispielsweise Alpha-Pinen und Limonen, der typische Duft von Nadelwäldern. Deren Reaktionsprodukte bilden das sogenannte sekundäre organische Aerosol. Dabei werden Gase zu Partikelbestandteilen umgewandelt. Diese atmosphärischen Partikel können die Sonnenstrahlung reflektieren oder als Keime für Wolkentropfen fungieren. Prozesse, die großen Einfluss auf das Klima haben und daher von großem wissenschaftlichen Interesse sind. Allerdings sind die dazugehörigen Modellrechnungen bisher sehr ungenau, da es noch breite Wissenslücken dabei gibt, welche Rolle die von den Pflanzen abgegebenen Verbindungen für den Prozess der Partikelbildung und -wachstum genau spielen. Solange diese Prozesse aber nur unzureichend verstanden sind, fällt es schwer, genaue Prognosen zu machen. Eine Unsicherheit, die sich auch auf sämtliche Klimamodelle auswirkt.

Große Unsicherheiten bestehen vor allem beim Wachstum von neugebildeten Partikeln hin zu Wolkenkeimen, an denen Wasser kondensiert und dadurch die Wolkenbildung beginnt. Das Partikelwachstum in Größen von etwa zwei bis einhundert Nanometern würde schwerflüchtige organische Dämpfe erfordern, wurde lange spekuliert. Diese extrem schwer flüchtigen organischen Verbindungen – auf Englisch „extremely low-volatility organic compounds (ELVOCs)“ genannt – wurden erst vor kurzem durch Fortschritte in der Messtechnik nachweisbar. Anfang 2014 wurde dieser Nachweis im Fachmagazin NATURE veröffentlicht.

Über mögliche Bildungswege wurde anschließend in der Fachwelt spekuliert. Mit der jetzt veröffentlichten Studie von Wissenschaftlern des TROPOS und der Universität Helsinki in Zusammenarbeit mit amerikanischen Kollegen lösen die Atmosphärenchemiker einen weiteren Teil des Rätsels. Durch Laborversuche im Strömungsrohr des TROPOS sowie Feldmessungen in Melpitz bei Leipzig und im südfinnischen Hyytiäla konnten die Zwischenprodukte auf dem Wege zur Bildung der ELVOCs identifiziert werden. „Unsere Untersuchungen haben gezeigt, dass die häufigsten Monoterpene wie Limonen und Alpha-Pinen innerhalb von Sekunden hochoxidierte RO2-Radikale mit bis zu 12 Sauerstoff-Atomen und nachfolgend die dazugehörigen nichtradikalischen Endprodukte bilden. Der Gesamtprozess in der Atmosphäre verläuft damit ähnlich zu dem bereits lange bekannten Autooxidationsprozess in der kondensierten Phase“, erklärt Dr. Torsten Berndt vom TROPOS. Unter Autooxidation wird in der Chemie ein Prozess verstanden, bei dem Stoffe mit Luftsauerstoff bei Umgebungstemperatur langsam umgewandelt werden. Diese Selbstoxidation sorgt zum Beispiel auch dafür, dass Kunststoffe spröde werden oder Lebensmittel verderben.

„Die Feldmessungen über den Wiesen von Melpitz und im Nadelwald von Hyytiäla in Finnland bestätigen die Laborergebnisse und weisen die Bedeutung der Autooxidation für die Oxidation der Kohlenwasserstoffe in der Atmosphäre nach. Die gebildeten hochoxidierten RO2-Radikale und ihre nichtradikalischen Endprodukte besitzen wahrscheinlich eine sehr geringe Flüchtigkeit. Deshalb sind sie für das Wachstum atmosphärischer Aerosole entscheidend und beeinflussen so die Wechselwirkungen zwischen Aerosol, Wolken und Klima“, unterstreicht Tujia Jokinen von der Universität Helsinki. Die neuen Erkenntnisse werden also helfen, den Beitrag der Vegetation und damit von verschiedenen Landnutzungsformen auf das Klima genauer abzuschätzen. Dadurch können auch die Klimamodelle verbessert werden, die bisher das Wachstum von Partikeln nicht zufriedenstellend beschreiben konnten.
Tilo Arnhold

Publikation:
Jokinen, T., Sipilä, M., Richters, S., Kerminen, V.-M., Paasonen, P., Stratmann, F., Worsnop, D., Kulmala, M., Ehn, M., Herrmann, H. and Berndt, T. (2014): Schnelle Autoxidation bildet hochoxidierte RO2-Radikale in der Atmosphäre (Rapid autoxidation forms highly oxidiced RO2 radicals in the atmosphere). Angewandte Chemie (International Edition). E-pub ahead of print. doi: 10.1002/ange.201408566
http://dx.doi.org/ 10.1002/ange.201408566
Die Untersuchungen wurden gefördert vom der Europäischen Kommission, der Finnischen Akademie und dem Europäischen Forschungsrat ERC (ATMNUCLE).

Weitere Infos:
Dr. Torsten Berndt, Prof. Hartmut Herrmann
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49-341-2717-7032, -7024
http://www.tropos.de/institut/abteilungen/chemie-der-atmosphaere/
http://www.tropos.de/institut/ueber-uns/mitarbeitende/hartmut-herrmann/
und
Tuija Jokinen, Dr. Mikael Kristian Ehn
Universität Helsinki
Tel. +358-294-151698, -151076
https://tuhat.halvi.helsinki.fi/portal/en/persons/tuija-jokinen%28d67c0c24-6d64-…
https://tuhat.halvi.helsinki.fi/portal/en/persons/mikael-kristian-ehn%280f9f7088…
oder
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7060
http://www.tropos.de/aktuelles/pressemitteilungen/

Links:
Forschung zur Partikelneubildung (Nukleation) am TROPOS:
http://www.tropos.de/forschung/atmosphaerische-aerosole/prozessstudien-auf-klein…

Pressemitteilungen zum Thema:
Neue Gasphasenverbindungen bilden organische Partikelbestandteile (Pressemitteilung vom 26.02.2014)
http://www.tropos.de/aktuelles/pressemitteilungen/details/neue-gasphasenverbindu…
Pflanzen bremsen die Klimaerwärmung (Pressemitteilung vom 28.04.2013)
http://www.tropos.de/aktuelles/pressemitteilungen/details/pflanzen-bremsen-die-k…
NATURE: Neues Oxidationsmittel der Atmosphäre entdeckt, das Luftschadstoffe abbaut (Pressemitteilung vom 08.08.2012)
http://www.tropos.de/aktuelles/pressemitteilungen/details/nature-neues-oxidation…
Wolken verändern die chemische Zusammensetzung und die Eigenschaften von Partikeln (Pressemitteilung vom 02.08.2012)
http://www.tropos.de/aktuelles/pressemitteilungen/details/wolken-veraenderen-die…

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 89 selbständige Forschungseinrichtungen verbindet. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u.a. in Form der WissenschaftsCampi – , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.200 Personen, darunter 8.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


Beitrag zum Klimaschutz: Forschung an Gasmotoren

Dipl.-Ing. Stefanie Jost-Köstering Pressestelle
Forschungsvereinigung Verbrennungskraftmaschinen e.V.

Gasförmige Kraftstoffe haben das Potenzial, die CO2-Emissionen aus dem Straßenverkehr deutlich abzusenken. Allerdings zeigen Arbeiten der Forschungsvereinigung Verbrennungskraftmaschinen (FVV), dass noch großer Forschungsbedarf besteht. Motor und Kraftstoff sollen künftig besser aufeinander abgestimmt werden.

Wenig Kohlenstoff, viel Wasserstoff – diese molekularen Eigenschaften von Methan, dem Hauptbestandteil von Erdgas, führen zu einer besonders CO2-armen Verbrennung. Wird ein Motor mit Erdgas statt mit Flüssigkraftstoffen betrieben, stößt er rund ein Viertel weniger Kohlendioxid aus. Zudem können Gasmotoren einen wesentlichen Beitrag zur Energiewende leisten: Technisch ist es möglich, dem Erdgas höhere Mengen Wasserstoff beizumischen, der aus überschüssigem Solar- und Windstrom gewonnen werden kann. Doch wie sollen Motoren für den Betrieb mit Erdgas-Wasserstoff-Gemischen ausgelegt werden? Und wie kann verhindert werden, dass unverbranntes Methan in die Erdatmosphäre gelangt?

Grundsätzlich können moderne Verbrennungsmotoren, die auf Erdgasbetrieb ausgelegt sind, mit einem Wasserstoffanteil von rund 30 Prozent betrieben werden. Würde jedoch der Motor nicht an diese Betriebsart angepasst, stiegen die Stickoxidemissionen. Grund dafür ist die hohe Geschwindigkeit der Wasserstoffverbrennung und die erhöhte Flammentemperatur. Eine Anpassung des Motors an das Gasgemisch ist daher dringend erforderlich – und technisch vor allem durch eine Verstellung des Zündzeitpunkts auch möglich. Dies zeigt eine Übersichtsarbeit, die Professor Dr. Georg Wachtmeister von der Technischen Universität München kürzlich abgeschlossen hat. Im Auftrag der FVV hat Wachtmeister die Ergebnisse aus mehr als 250 wissenschaftlichen Veröffentlichungen zusammengetragen. Dabei wurde deutlich, dass noch erheblicher Forschungsbedarf besteht. „In vielen Punkten liegen wissenschaftliche Arbeiten zum motorischen Verhalten von Erdgas-Wasserstoff-Gemischen gar nicht vor“, so Wachtmeister. Als Beispiel nennt er die Abhängigkeit der Verbrennung von der tatsächlichen Gaszusammensetzung. Beispielsweise ist der Heizwert von Erdgas nicht konstant und liegt bei unkonventionellen Gewinnungsmethoden, zum Beispiel durch Fracking, relativ niedrig. Auch Wasserstoff ist als Kraftstoff nicht genormt. „Wir müssen uns darauf einstellen, eine Vielzahl verschiedener Gase zu verbrennen“, sagt Wachtmeister. „Um Motoren darauf optimal einzustellen, fehlt uns noch das notwendige Wissen.“

In einem derzeit noch laufenden Forschungsvorhaben der FVV beschäftigt sich Wachtmeister gemeinsam mit Professor Dr. Friedrich Dinkelacker von der Leibniz Universität Hannover mit dem Methanschlupf von Gasmotoren. Unter „Methanschlupf“ verstehen die Wissenschaftler das Entweichen von nicht verbranntem Gas in die Umwelt. Dies ist besonders kritisch, weil Methan in der Erdatmosphäre als Treibhausgas wirkt – und zwar rund 20-mal stärker als Kohlendioxid. Den Ursachen für Methanschlupf sind die Wissenschaftler auf der Spur. „Es sind überwiegend lokale Effekte, die zum Methanschlupf führen“, erläutert Dinkelacker. Daher wird die Verbrennung im Rahmen des Vorhabens detailliert simuliert. Validiert werden die Ergebnisse durch Experimente an einem 4,8-Liter-Motor. Dabei zeigte sich bereits, dass ein Zielkonflikt zwischen der Minimierung der Kohlendioxidemission und des Methanschlupfes besteht. So führt ein Verbrennungsverfahren, das mit frühem Schließen des Einlassventils arbeitende Miller-Verfahren, zwar zu einer geringeren NOX-Bildung und je nach Auslegung auch zur einem höheren Wirkungsgrad, aber auch zu höheren Anteilen unverbrannten Kraftstoffes. Wenn das Forschungsvorhaben Ende 2015 abgeschlossen ist, wollen die beteiligten Institute Empfehlungen erarbeitet haben, wie solche Zielkonflikte durch die Gestaltung des Brennraums und der Motorsteuerung optimal zu lösen sind.

Ein weiteres von der FVV koordiniertes Forschungsprojekt beschäftigen sich mit den Verbrennungseigenschaften von Flüssiggas (LPG, Liquified Petroleum Gas). LPG besteht im Wesentlichen aus einem Gemisch der Gase Butan und Propan, die sowohl bei der Erdölförderung als auch in Raffinerien als Nebenprodukt anfallen. Wie effizient dieses Gemisch verbrennt, hängt stark vom Propananteil ab. Wissenschaftler der RWTH Aachen und der Hochschule für Wirtschaft und Technik des Saarlandes untersuchen nun gemeinsam, wie sich verschiedene Gasmischungen verhalten, wenn sie in modernen Ottomotoren mit Direkteinspritzung genutzt werden. Die Ergebnisse des Mitte 2015 vorliegenden Vorhabens sollen vor allem dazu dienen, die Einspritzsysteme für Flüssiggas zu optimieren. Gleichzeitig können sie für die anstehende Überarbeitung der europäischen LPG-Kraftstoffnorm genutzt werden.

Weitere Informationen:
http://www.fvv-net.de

Quelle: idw

(nach oben)


Was Verbraucher wirklich möchten

André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen

Im Forschungsprojekt „SmartLive“ werden an der Uni Siegen gemeinsam mit den Nutzern Lösungen für ein intelligentes Zuhause entwickelt.

Wenn das Fenster öffnet, geht die Heizung aus. Wenn das Fenster schließt, heizt die Heizung wieder. Genau bis zu der Temperatur, die vorher eingestellt worden ist. Heizung und Fenster werden drahtlos gesteuert, die Einstellung erfolgt über eine App auf dem Smartphone oder dem Tablet. So kann ein „Smart Home“ funktionieren, ein intelligentes Zuhause. Im Forschungsprojekt „SmartLive“ wollen Wissenschaftlerinnen und Wissenschaftler des Instituts für Wirtschaftsinformatik der Universität Siegen und Partner aus der Industrie Lösungen entwickeln, die auf die Bedürfnisse der Nutzer zugeschnitten sind – und zwar mit den Nutzern gemeinsam.

„Wichtig ist das Nutzer-Erlebnis. Wie fühlt sich das intelligente Haus im Alltag an? Wie muss Technik gestaltet sein, die sich gut anfühlt, einfach ist, Spaß macht? Können wir vielleicht auch vollkommen neue Wohnerlebnisse schaffen? Dies sind Fragen, die wir im Labor nie beantworten können. Hier müssen wir raus ins wahre Leben, um sie gemeinsam mit dem Nutzer zu erforschen“, sagt Gunnar Stevens, Junior-Professor am Lehrstuhl Human-Computer-Interaction. Deshalb stehen der Nutzer des Smart Home und seine Wünsche im Mittelpunkt.

Das Forschungsprojekt wird über drei Jahre vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert und hat ein Gesamtbudget von 1,2 Millionen Euro. Gemeinsam mit privaten Haushalten möchte das Projekt-Team Richtlinien entwickeln, die die Gestaltung der neuen Technologie einfacher machen, indem von Anfang an die Meinung und die Erfahrung der Nutzer einbezogen werden. Es geht um Benutzerfreundlichkeit, um Komfort und um Sicherheit.

Beispielsweise bei der Steuerung der Geräte im Haushalt. Ein „Smart Home“ kann Daten liefern, wie viel Strom welches Gerät verbraucht. Doch ob der alte Kühlschrank nun weg muss oder das angelassene Licht im Flur ein Vermögen kostet, erfährt der Nutzer dann, wenn das „Smart Home“ die Daten in Euro umrechnet und die Stromkosten so sichtbar werden. „Der Nutzer soll es leicht haben. Es geht um seine Erfahrungen im Umgang mit der Technik. Basierend auf diesen Erkenntnissen wollen wir Richtlinien entwickeln. Ziel ist ein Baukasten-System“, sagt Corinna Ogonowski, die Projektleiterin. Dieses Baukasten-System können kleine und mittlere Unternehmen (KMU) für die Entwicklung neuer Produkte verwenden.

Privat-Haushalte gesucht
Für „SmartLive“ werden noch Privat-Haushalte aus der Region Siegen-Wittgenstein gesucht, die mitmachen. Die einzigen Voraussetzungen sind ein Smartphone und ein Internet-Anschluss. Wer Interesse hat, kann sich über die Homepage www.praxlabs.de ab sofort anmelden.

Beteiligte
Lehrstuhl Wirtschafsinformatik und Neue Medien, Universität Siegen (Prof. Dr. Volker Wulf)
Lehrstuhl Human-Computer Interaction, Universität Siegen (Jun.-Prof. Dr. Gunnar Stevens)
Devolo AG, Aachen (Dr. Markus Wächter)
ProSyst Software GmbH, Köln (Kai Hackbarth)
the peak lab. GmbH & Co KG, Oldenburg (Jens Läkamp)
ASEW – Arbeitsgemeinschaft für sparsame Energie- und Wasserverwendung im VKU GbR, Köln (Stefan Schulze-Sturm)

Weitere Informationen:

http://www.praxlabs.de

Quelle: idw

(nach oben)


Stoßwellen fördern Wundheilung

Robin Jopp Presse- und Öffentlichkeitsarbeit
Klinikum der Ruhr-Universität Bochum – Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH

Plastische Chirurgen vom Bergmannsheil erhalten DGUV-Forschungsförderung
Wie sich extrakorporale, also außerhalb des Körpers erzeugte Stoßwellen auf die Verbesserung der Wundheilung auswirken, untersuchen Forscher der Universitätsklinik für Plastische Chirurgie und Schwerbrandverletzte (Direktor: Prof. Dr. Marcus Lehnhardt). Die Arbeitsgruppe „Klinische und experimentelle Mikrozirkulation“ unter Leitung von Priv.-Doz. Dr. Ole Goertz erhält jetzt eine Förderung der Deutschen Gesetzlichen Unfallversicherung (DGUV) in Höhe von 24.200 Euro, um die Wirksamkeit des Verfahrens am Patienten zu untersuchen. Zielsetzung ist es, eine effektive Therapie zur Beschleunigung der Heilung schlecht heilender Wunden zu entwickeln.

Hochenergetische Schallwellen
Bei dem neuen Verfahren wirken hochenergetische Schallwellen von außen auf das betroffene Körperareal des Patienten ein. In experimentellen Studien erzielten die Forscher hierbei sehr gute Ergebnisse bezogen auf die Förderung der Gefäßneubildung (Angiogenese) und Wundheilung. Für ihre Forschungsarbeiten wurden Priv.-Doz. Dr. Goertz und sein Team bereits 2013 mit dem Cicatrix-Studienpreis ausgezeichnet. Die Übertragung ihrer Erkenntnisse für die therapeutische Anwendung erfolgt jetzt im Rahmen klinischer Patientenstudien.

Über das Bergmannsheil
Das Berufsgenossenschaftliche Universitätsklinikum Bergmannsheil repräsentiert den Strukturwandel im Ruhrgebiet wie kein anderes Krankenhaus: 1890 als erste Unfallklinik der Welt zur Versorgung von verunglückten Bergleuten gegründet, zählt es heute zu den modernsten und leistungsfähigsten Akutkliniken der Maximalversorgung und gehört zum Universitätsklinikum der Ruhr-Universität Bochum (UK RUB). In 23 Kliniken und Fachabteilungen mit insgesamt 652 Betten werden jährlich rund 22.000 Patienten stationär und 61.000 Patienten ambulant behandelt. Mehr als die Hälfte der Patienten kommen aus dem überregionalen Einzugsbereich.

Das Bergmannsheil gehört zum Klinikverbund der gesetzlichen Unfallversicherung e.V. (KUV). Der KUV besteht aus neun berufsgenossenschaftlichen Akutkliniken, zwei Kliniken für Berufskrankheiten und zwei Unfallbehandlungsstellen, den BG-Kliniken. Mit 12.000 Mitarbeitern und jährlich über 500.000 Patienten ist der KUV einer der größten Klinikverbünde Deutschlands. Weitere Informationen: www.bergmannsheil.de, www.k-uv.de

Weitere Informationen:
Priv.-Doz. Dr. Ole Goertz
Berufsgenossenschaftliches Universitätsklinikum Bergmannsheil GmbH
Universitätsklinik für Plastische Chirurgie
und Schwerbrandverletzte, Handchirurgiezentrum
Operatives Referenzzentrum für Gliedmaßentumoren
Bürkle-de-la-Camp-Platz 1
44789 Bochum
Tel.: 0234/302-6841
E-Mail: ole.goertz@bergmannsheil.de

Weitere Informationen:
http://www.bergmannsheil.de – Website des Berufsgenossenschaftlichen Universitätsklinikums Bergmannsheil
http://www.k-uv.de – Website des Klinikverbundes der gesetzlichen Unfallversicherung

Quelle: idw

(nach oben)


Intelligente, multifunktionelle Infrastruktursysteme f. die zukunftsfähige Wasserver- u. Entsorgung

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Um „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung – INIS“ geht es bei der Konferenz zur gleichnamigen BMBF-Fördermaßnahme am 20./21.1.2015 im Bürgerhaus Hamburg-Wilhelmsburg. Herzlich eingeladen sind Interessierte aus Wissenschaft, Praxis, Politik und Verwaltung.

http://www.bmbf.nawam-inis.de/de/veranstaltungen/inis-statuskonferenz-2015
http://www.bmbf.nawam-inis.de/sites/default/files/dokumente/veranstaltungen/inis… (Programm-Flyer)
http://www.difu.de/veranstaltungen/2015-01-20/inis-statuskonferenz.html

Einladung zur INIS-Statuskonferenz 2015 am 20. und 21. Januar 2015 in Hamburg

Im Januar 2015 findet die Statuskonferenz zur BMBF-Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung“ (INIS) im Bürgerhaus Wilhelmsburg in Hamburg statt.

Im Fokus der INIS-Statuskonferenz stehen erste Ergebnisse aus den 13 geförderten Verbundprojekten, die sich seit Mitte 2013 den drängenden Herausforderungen der Siedlungswasserwirtschaft widmen und hierfür neue und angepasste systemübergreifenden Lösungsansätze entwickeln.

Die Statuskonferenz steht allen Interessierten Teilnehmern aus Wissenschaft, Praxis, Politik und Verwaltung offen.

Veranstalter:
Bundesministerium für Bildung und Forschung (BMBF), Deutsches Institut für Urbanistik gGmbH (Difu), Forschungsstelle des Deutschen Vereins des Gas- und Wasserfaches (DVGW) an der Technischen Universität Hamburg-Harburg (TUHH), Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA)

Veranstaltungsort:
Bürgerhaus Wilhelmsburg, Mengestr. 20, 21107 Hamburg

Online-Anmeldung bis zum 9. Januar 2015:
http://www.difu.de/webform/statuskonferenz-zur-bmbf-foerdermassnahme-intelligent…

Kosten:
Die Teilnahmegebühr für externe Gäste beträgt 50 Euro. Für Mitglieder des INIS-Verbunds ist die Teilnahme kostenfrei

Ansprechpartnerin zur Anmeldung:
Katja Kreuziger
Tel.: +49 (0)30 39001 172
kreuziger@difu.de

Ansprechpartnerin zum Programm:
Margarethe Langer
Tel.: +49 (0)40 42878 3914
margarethe.langer@tuhh.de

Weitere Informationen:
http://www.bmbf.nawam-inis.de/de/veranstaltungen/inis-statuskonferenz-2015 Details
http://www.difu.de/veranstaltungen/2015-01-20/inis-statuskonferenz.html

Quelle: idw

(nach oben)


Wirbel um Saccharin & Co: Maßvoller Konsum von Süßstoff scheint unbedenklich

Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Aus Sicht der Deutschen Diabetes Gesellschaft (DDG) gibt es nach wie vor keinen Beleg dafür, dass der maßvolle Gebrauch von Süßstoff dem Menschen schadet und etwa das Risiko für Typ-2-Diabetes erhöht. Die Fachgesellschaft tritt damit Befürchtungen entgegen, die nach Veröffentlichung einer tierexperimentellen Studie in der Fachzeitschrift Nature laut geworden waren. Die Studie hatte für Wirbel gesorgt, weil bei Mäusen nach dem Genuss sehr großer Mengen von Süßstoff der Blutzuckerspiegel angestiegen war.

Um diesen Effekt beim Menschen zu erzeugen, seien unrealistisch hohe Dosierungen erforderlich, betont die DDG. Süßstoff sei als gelegentlicher Zusatz für Getränke oder feste Nahrungsmittel im Rahmen eines ausgewogenen Ernährungsplanes für Menschen mit Diabetes mellitus weiterhin sinnvoll und sollte Zuckeraustauschstoffen wie Fruktose vorgezogen werden. Bemerkenswert sei die Studie vor allem in Hinblick auf eine mögliche Rolle von Darmbakterien bei der Modulation der Glukosetoleranz.

Wissenschaftler aus Israel hatten vor kurzem in Nature über Versuche mit Mäusen berichtet, denen sie elf Wochen lang Wasser gaben, das in hoher Konzentration mit Süßstoff versetzt war. Im Vergleich zu Mäusen, die ungesüßtes oder mit Zucker gesüßtes Wasser erhielten, stiegen bei der Süßstoff-Gruppe die Blutzuckerwerte in Glukosetoleranztests unverhältnismäßig stark an. Eine gestörte Glukosetoleranz gilt als Risikofaktor für die Entwicklung eines Typ-2-Diabetes.

In einem weiteren Experiment testeten die Wissenschaftler, ob sich dieser Effekt auch beim Menschen einstellt. Dazu nahmen sieben Probanden eine Woche lang die erlaubte Höchstdosis des Süßstoffs Saccharin zu sich. Ergebnis: Bei vier Teilnehmern verschlechterten sich die Blutzuckerwerte, bei den drei anderen machte sich keine Veränderung in den Glukosetoleranztests bemerkbar. „Aus diesem Ergebnis abzuleiten, dass der Gebrauch von Süßstoff generell das Diabetes-Risiko erhöht, ist jedoch zum jetzigen Zeitpunkt übertrieben“, betont Professor Dr. med. Jochen Seufert, Leiter der Abteilung Endokrinologie und Diabetologie am Universitätsklinikum Freiburg. „Denn um die in den Studien verwendeten Dosierungen im Rahmen einer normalen Ernährung zu erreichen, müsste man beispielsweise literweise mit Süßstoffen gesüßte Diät-Getränke täglich trinken, und das ist unrealistisch“, so Seufert.

Privatdozent Dr. med. Erhard Siegel, Präsident der DDG, rät daher zu einem maßvollen Umgang mit Süßstoff. „Süßstoff ist nach derzeitigem Erkenntnisstand gesünder als etwa Fruchtzucker, der die Blutfette ungünstig beeinflusst und Fettleber, Übergewicht und Typ-2-Diabetes zu fördern scheint“, erläutert Siegel. Als gelegentlicher Zusatz in Getränken oder festen Nahrungsmitteln sei Süßstoff unbedenklich. „Im Übrigen gilt: Sogar Diabetespatienten können Zucker zu sich nehmen – bis zu 50 Gramm pro Tag“, fügt der DDG-Präsident hinzu.

Wichtig ist aus Sicht der DDG eine weitere Erkenntnis, die die Nature-Studie zu Tage förderte. Denn das Wissenschaftler-Team um Jotham Suez ging in einem zweiten Schritt in Experimenten der Frage nach, auf welche Weise Süßstoff die Blutzuckerwerte beeinflusst. Die Ergebnisse legen nahe, dass Süßstoff die Zusammensetzung der Bakterien im Darm verändert. So begünstigt Süßstoff offenbar das Wachstum von Darmbakterien, die die Aufnahme von Zucker ins Blut steigern und damit den Blutzuckerwert erhöhen, vermuten die Forscher. „Dass Süßstoff unseren Stoffwechsel über Darmbakterien beeinflussen kann, ist eine spannende neue Erkenntnis“, erklärt Seufert. „Möglicherweise können wir ja eines Tages Darmbakterien als therapeutisches Mittel zur Behandlung von Diabetes einsetzen.“

Quelle:
Suez, J. et al. Artificial sweeteners induce glucose intolerance by altering the gut microbiota. Nature 514, 181-186 (2014)
doi:10.1038/nature13793

Über die Deutsche Diabetes Gesellschaft (DDG):
Die Deutsche Diabetes Gesellschaft (DDG) ist mit über 8.700 Mitgliedern eine der großen medizinisch-wissenschaftlichen Fachgesellschaft in Deutschland. Sie unterstutzt Wissenschaft und Forschung, engagiert sich in Fort- und Weiterbildung, zertifiziert Behandlungseinrichtungen und entwickelt Leitlinien. Ziel ist eine wirksamere Prävention und Behandlung der Volkskrankheit Diabetes, von der mehr als sechs Millionen Menschen in Deutschland betroffen sind. Zu diesem Zweck unternimmt sie auch umfangreiche gesundheitspolitische Aktivitäten.

Deutsche Diabetes Gesellschaft
Geschäftsstelle
Reinhardtstr. 31
10117 Berlin
Tel.: 030 3116937-11
Fax: 030 3116937-20
info@ddg.info

Weitere Informationen:
http://www.deutsche-diabetes-gesellschaft.de

Quelle: idw

(nach oben)


Vorbereitung für den »Stresstest« im Meer

Stephan Nachtigall Presse und Kommunikation
Technische Universität Braunschweig

Studie zur Gruppierung von Multistressoren in »Nature Climate Change« veröffentlicht

Steigende Temperaturen, saureres Wasser und weniger Nährstoffe – der Klimawandel stellt das ökologische Gleichgewicht der Ozeane vor neue Herausforderungen. Viele dieser Stressfaktoren, die so genannten Stressoren, wirken gleichzeitig auf die Meereslebewesen und können sich sogar gegenseitig verstärken oder abmildern. Bisher wurden die Stressfaktoren zumeist individuell und getrennt voneinander betrachtet. Ein internationales Forscherteam hat nun mit Beteiligung der Geoökologin Sinikka Lennartz einen Ansatz entwickelt, der eine systematische und gemeinsame Untersuchung wichtiger Stressoren ermöglicht.

Ihre Studie wird in der aktuellen Ausgabe der Zeitschrift „Nature Climate Change“ veröffentlicht.

Stressfaktoren: unendliche Kombinationsmöglichkeiten
„Das Leben im Meer wird durch das komplexe Gleichgewicht einer Vielzahl von Faktoren wie Nährstoffen, Temperatur und pH-Wert bestimmt. Verändern sie sich, dann verändert sich auch das gesamte ökologische Gleichgewicht.“ erklärt Sinikka Lennartz, Absolventin der Technischen Universität Braunschweig. Während ihres Masterstudiums der Geoökologie konnte sie im Rahmen eines Auslandsaufenthalts an einer Studie mitarbeiten, die nun in der Zeitschrift „Nature Climate Change“ veröffentlicht wird.

Grundlage der Studie waren Untersuchungen des Phytoplanktons, das die Basis der Nahrungskette im Meer bildet und daher für das ökologische Gleichgewicht besonders wichtig ist. „Phytoplankton wird von vielen verschiedenen Stressoren beeinflusst, die bereits einzeln im Labor und in Feldstudien untersucht werden. Wie wissen aber auch, dass diese sich gegenseitig verstärken oder abschwächen können“, erklärt die junge Geoökologin, und ergänzt: „Zusammen ergeben sie fast unendliche Kombinationsmöglichkeiten, was bisher eine gemeinsame, systematische Betrachtung aller wichtigen Stressoren erschwert hat“.

Klimasimulation und statistische Verfahren
Mit Hilfe von Klimasimulationen und einem statistischen Verfahren gelang es dem Forscherteam mehrere dieser Stressfaktoren zu erfassen und zu gruppieren, um ihre Wirkung als so genannte Multistressoren auf das Phytoplankton besser verstehen und abbilden zu können. „Wir haben nun eine bessere Vorstellung davon, welche Faktoren sich in Zukunft regional gleichzeitig ändern und tatsächlich in Zukunft eine Rolle spielen könnten“, fasst Geoökologin Lennartz zusammen.

Neben dem allgemeinen Temperaturanstieg gäbe es beispielweise auch Multistressoren, die an verschiedenen Orten unterschiedlich stark wirken. So zeigten die wichtigen Nährstoffe Phosphat und Eisen dabei einen gegenläufigen Effekt. Wiederum ändern sich Lichtverhältnisse und Nährstoffe simultan, was eine Änderung der Artenzusammensetzung zur Folge haben könnte, erklärt Sinikka Lennartz.

Wie die Studie außerdem zeigt, sind die untersuchten Multistressoren im gesamten Ozean vorhanden. Es sei anzunehmen, so Lennartz, dass sie nicht nur das Phytoplankton, sondern auch weitere Meereslebewesen beeinflussen. „Um die Folgen des Klimawandels besser abschätzen zu können, sollten sie, zusammen mit der tatsächlichen Artenzusammensetzung in einer bestimmten Region, berücksichtigt werden“, erklärt Lennartz. Die Auswirkungen der Multistressoren könnten nun in Labor- und Feldstudien gezielt weiter untersucht und auf weitere Planktonarten angewendet werden. Damit liefert die Studie Grundlagen für einen „Stresstest“ im Meer unter realen Bedingungen.

Zur Publikation
Philip W. Boyd, Sinikka T. Lennartz, David M. Glover and Scott C. Doney (2014) Biological ramifications of climate-change mediated oceanic multi-stressors. Nature Climate Change (AOP 2014-12-01). DOI: 10.1038/nclimate2441

Sinikka Lennartz studierte bis Ende 2013 im Masterstudiengang Geoökologie und konnte in diesem Rahmen einen Forschungsaufenthalt am Woods Hole Institut of Oceanography nahe Boston absolvieren. Dort arbeitete sie zwei Monate unter der Betreuung von Dr. Scott Doney in der Abteilung Marine Chemie und Geochemie. Gegenwärtig ist sie Doktorandin am GEOMAR Helmholtz-Zentrum für Ozeanforschung in Kiel.

Kontakt
Sinikka Lennartz
Marine Biogeochemistry
GEOMAR Helmholtz-Zentrum für Ozeanforschung
Düsternbrooker Weg 20
24105 Kiel
Tel.: 0431/600-4132
E-Mail: slennartz@geomar.de
http://www.geomar.de

Weitere Informationen:
http://blogs.tu-braunschweig.de/presseinformationen/?p=7706

Quelle: idw

(nach oben)


Volkskrankheit Adipositas: Fraunhofer-App unterstützt den Therapieerfolg

Britta Klocke Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Software- und Systemtechnik ISST

Hilfe beim Abnehmen: Am Dortmunder Fraunhofer-Institut für Software- und Systemtechnik ISST haben Forscher eine App entwickelt, die adipösen Patienten bei der Gewichtsreduktion zur Seite steht.

Zu viel Zucker, zu viele Kalorien, zu wenig Bewegung: Die Deutschen werden immer dicker – ein Trend, den die jüngsten Zahlen des Statistischen Bundesamts belegen. Jeder zweite Erwachsene hat demzufolge Übergewicht. In den vergangenen Jahren ist der Anteil Übergewichtiger somit kontinuierlich gestiegen. Auch die Zahl der Menschen, die unter Fettleibigkeit – in der Fachsprache Adipositas genannt – leiden, nimmt Jahr für Jahr zu. Mediziner befürchten deshalb, dass in Zukunft ernährungsbedingte Erkrankungen, wie Diabetes mellitus Typ 2 oder arterielle Hypertonie, hierzulande massiv zunehmen werden. Diese Sorge scheint begründet, wie eine kürzlich von Demografie-Forschern veröffentlichte Studie zeigt. Nach Berechnungen der Experten vom Rostocker Zentrum zur Erforschung des Demografischen Wandels könnte bis 2030 insbesondere die Zahl der adipösen über 50-Jährigen um bis zu 80 Prozent steigen.
Gerade angesichts dieser alarmierenden Zahlen sind effiziente Therapiemethoden gefragt, die Betroffene bei der Gewichtsabnahme unterstützen. Besonders nach einem stationären Klinikaufenthalt fällt es Patienten oft schwer, Ratschläge und neu erlernte Verhaltensweisen auch im Alltag umzusetzen. Das jedoch ist für einen langfristigen Behandlungserfolg unabdingbar.

Adipositas Begleiter: App-nehmen zum Abnehmen
Das Fraunhofer-Institut für Software- und Systemtechnik ISST hat deshalb den Adipositas Begleiter entwickelt – eine Android-basierte App, die Betroffenen als Coach zur Seite steht und ihnen dabei hilft, nach einem stationären Aufenthalt in einer Klinik auch Zuhause erfolgreich weiter Gewicht abzunehmen. Die App vereint nicht nur Lern- und Ratgeberelemente, sondern dient den Patienten zugleich als Tagebuch und Feedbackinstrument. Gleichzeitig bietet sie die Möglichkeit, in Kontakt mit anderen Betroffenen zu treten. So kann der Patient sich unter anderem an wichtige Termine seines Tagesablaufs erinnern lassen, Vitalwerte und subjektive Befindlichkeiten dokumentieren. Zudem kann er sich über die App zum Beispiel auch über Sport- und Selbsthilfekurse in der Region informieren.

Auch die menschliche Betreuung durch Fachpersonal kommt mit dem Adipositas Begleiter nicht zu kurz. Die Besonderheit der App: Sie fungiert nicht nur als Mittler zwischen Patienten und Ärzten, sondern ermöglicht zudem die Verbindung zu telemedizinischen Dienstleistern. Durch diese Funktion können die Patienten jederzeit auch in Kontakt mit einem realen Therapeuten treten und sich medizinisch beraten lassen.

Medizinisch evaluiert
Dass dieses Konzept funktioniert, zeigt die erste Evaluation eines Prototyps des Adipositas-Begleiters: Im Rahmen einer Studie mit der Gelderland-Klinik hat sich die App als erfolgsversprechend in der Behandlung adipöser Patienten erwiesen. Probanden, die an einem speziellen Adipositas-Nachsorge-Programm teilnahmen, erzielten im Vergleich zur Kontrollgruppe eine signifikant höhere Gewichtsabnahme in der Phase nach der Entlassung.

In Zukunft soll die App weiterentwickelt und als Medizinprodukt zertifiziert werden. Interessierten Kliniken, Telemedizin-Dienstleistern und anderen Unternehmen stellt das Fraunhofer ISST die App sowie die benötigte IT-Infrastruktur gerne im Rahmen eines Lizenzvertrags zur Verfügung.

Weitere Informationen:
http://www.isst.fraunhofer.de/de/geschaeftsfelder/it-fuer-die-gesundheitsversorg…

Quelle: idw

(nach oben)


Energieeffizienz, die sich rechnet

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

Neue Mobile App »ENBUS!« begleitet Hausbesitzer auf dem Weg zum energieeffizienten Gebäude

Der Gebäudesektor verursacht 40 Prozent des Primärenergieverbrauchs in Europa. Hausbesitzer, die über Energieeffizienz nachdenken, sehen sich aber unübersichtlichen und teils widersprüchlichen Informationen ausgesetzt. Im EU-Projekt ENBUS! entwickelt das Fraunhofer IAO eine mobile App für Hausbesitzer. Diese errechnet den konkreten Nutzen energieeffizienter Maßnahmen.

»Ich bin Energiesparer« – der Slogan der 80er Jahre erlebt heute als »Energieeffizienz« ein Revival. Doch allein der Umwelt zuliebe engagieren sich damals wie heute nur wenige. Dabei existieren zahlreiche Produkte und Lösungen, die hohe Einsparpotenziale versprechen. Energieeffiziente Maßnahmen sollen aber nicht nur den Wert eines Hauses nachhaltig steigern, sondern auch den Komfort erhöhen, die Bausubstanz sichern und optisch gefallen. Allen voran aber müssen sich die Maßnahmen finanziell rechnen und ökologisch Sinn machen. Dazu müssen konkrete Zahlen im Vorfeld auf den Tisch.

Um Hauseigentümern Orientierung im Informationsdschungel rund um Energieeffizienz im Gebäude zu bieten, hat das Fraunhofer IAO gemeinsam mit Partnern aus Forschung und Industrie im EU-Projekt ENBUS! eine App entwickelt, die eine neutrale und kostenfreie Nutzenabschätzung erlaubt. Denn die Nutzenabschätzung im Vorfeld einer Sanierung ist nicht nur wichtig, sondern auch schwierig: Bauindustrie und Hersteller energieeffizienter Baustoffe und Geräte bewerben ihre Angebote, beraten aber nicht neutral. Neutrale Fachleute hingegen sind teuer und der Prozess ist aufwendig, das schreckt viele Hausbesitzer ab.

Bei der ENBUS!-App kann der Nutzer ein Gebäudemodell und dessen Standort auswählen. Dafür ermittelt die App modellhafte Energieeinsparungen für eine Vielzahl hinterlegter Produkte und Baustoffe und liefert weitere Hilfestellungen rund um »Energieeffizienz im Gebäude«. »Wir möchten nicht nur zeigen, dass sich Energieeffizienz theoretisch lohnt«, sagt Dr. Thomas Fischer, Projektleiter am Fraunhofer IAO. »Wir zeigen Hausbesitzern den konkreten wirtschaftlichen Nutzen einer Investition auf«. Nur so glaubt Dr. Fischer, wird der Hausbesitzer auf dem Weg zu Energieeffizienz angemessen unterstützt und kann anhand konkreter Zahlen – in Euro und Cent bemessen – Entscheidungen treffen.

Die ENBUS!-App ist derzeit als Prototyp für iPhone und iPad verfügbar. Künftig soll die Software auf andere Plattformen ausgeweitet und inhaltlich umfassend ergänzt werden. Ziel ist eine Lösung, die ein konkretes Gebäude möglichst gut abbildet und dennoch einfach nutzbar ist. Gemäß den Vorgaben des Anwenders macht das System dann umfassende Vorschläge für energieeffiziente Verbesserungen im konkreten Fall.

Kontakt:
Dr. Thomas Fischer
Technologiemanagement
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-2037
thomas.fischer@iao.fraunhofer.de

Weitere Informationen:
http://www.iao.fraunhofer.de/lang-de/geschaeftsfelder/technologie-und-innovation…
http://www.enbus.eu

Quelle: idw

(nach oben)


Arbeitsunfähigkeit kostet Deutschland 103 Milliarden Euro – Unfallquote so niedrig wie nie

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Dortmund – Knapp 960.000 Arbeitsunfälle wurden 2013 in Deutschland gemeldet. Damit erreichte die Unfallquote mit 24 je 1.000 Vollarbeiter den niedrigsten Stand seit Bestehen der Bundesrepublik. Auch die Zahl der tödlichen Arbeitsunfälle nahm weiter ab. Mit 606 Todesfällen in 2013 sank die Zahl um rund 10 Prozent seit 2010. Durch Arbeitsunfähigkeit fielen nach Schätzungen der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in 2013 rund 1,6 Millionen Erwerbsjahre aus. Dies führte zu einem Produktionsausfall anhand der Lohnkosten von etwa 59 Milliarden Euro. Durch Verlust an Arbeitsproduktivität verlor die deutsche Volkswirtschaft rund 103 Milliarden Euro an Bruttowertschöpfung.

Diese Zahlen nennt der statistische Bericht zum Stand von Sicherheit und Gesundheit bei der Arbeit (SuGA, früher Unfallverhütungsbericht Arbeit), den die BAuA jährlich im Auftrag des Bundesministeriums für Arbeit und Soziales (BMAS) erstellt und der – wie in diesem Jahr – alle vier Jahre in einer ausführlichen Fassung erscheint. Als klassische Indikatoren für die Güte von Sicherheit und Gesundheit bei der Arbeit führt der Bericht die Unfallentwicklung und die Anzahl der Berufserkrankungen auf. Der SuGA zeichnet ein Bild der Entwicklungen im Bereich von Sicherheit und Gesundheit bei der Arbeit in Deutschland und Europa im Zeitraum 2010 bis 2013.

Während die Unfallzahlen sanken, steigt die Zahl der Arbeitsunfähigkeitstage wieder an. Lag sie in 2010 noch bei rund 115 Fällen pro 100 gesetzlich Krankenversicherte, gab es in 2013 fast 126 Fälle pro 100 Versicherte. Dabei änderte sich die Dauer einer Arbeitsunfähigkeit mit durchschnittlich etwa 12 Tagen kaum.

Im Jahr 2013 starben 2.357 Menschen an den Folgen einer Berufskrankheit. Dies bedeutet im Vergleich zum Jahr 2010 eine Abnahme um 152 Fälle. Trotz des Verbotes von Asbest 1993 gehen fast zwei Drittel dieser Todesfälle auf die Einwirkung asbesthaltiger Stäube zurück.

Im Vergleich zum Beginn des Berichtszeitraums (2010) sanken die Rentenzugänge wegen verminderter Erwerbsfähigkeit um etwa drei Prozent. Insgesamt gab es 2013 über 175.000 neue Frührenten. Zugleich nehmen jedoch die Rentenzugänge aufgrund von psychischen und Verhaltensstörungen zu. Betrug der Anteil dieser Diagnosegruppe am gesamten Neuverrentungsgeschehen 2010 noch rund 39 Prozent, lag dieser im Jahr 2013 bei fast 43 Prozent. Alle anderen Diagnosen sind von 2010 auf 2013 absolut und prozentual rückläufig.

Der Bericht erscheint alle vier Jahre in einer ausführlichen Version. Die aktuelle Fassung enthält daher neben den statistischen Kennzahlen zu Arbeitsunfällen, zu Berufskrankheiten, zum Arbeitsunfähigkeitsgeschehen und zu Arbeitsbedingungen einen Überblick über Entwicklungen hinsichtlich der Rahmenbedingungen von Arbeit und Gesundheit im Zeitraum 2010 bis 2013.

So greift der SuGa 2013 neben dem Abschluss der ersten Strategie-Periode der Gemeinsamen Deutschen Arbeitsschutzstrategie (GDA) und der Vorstellung des neuen Strategischen Rahmens der Europäischen Union für Gesundheit und Sicherheit am Arbeitsplatz 2014-2020 auch verschiedene weitere Themen auf. In diesem Zusammenhang befasst sich der Bericht beispielsweise intensiv mit der psychischen Belastung, der arbeitsmedizinischen und sicherheitstechnischen Betreuung oder den Zulassungsverfahren im Rahmen der Chemikalien-Gesetzgebung.

Weitere Themen sind Veränderungen des staatlichen Rechts und des Rechts der Unfallversicherungsträger, Aufgaben, Projekte und Schwerpunkte der Länder und der Unfallversicherungsträger, ausgewählte Maßnahmen anderer Arbeitsschutzakteure und Projekte und Aktionen der Schülerunfallversicherung sowie eine Beschreibung des Schülerunfallgeschehens.

Für den jährlichen Bericht „Sicherheit und Gesundheit bei der Arbeit – Unfallverhütungsbericht Arbeit“ (SuGA) wertet die BAuA Informationen über das Arbeits- und Wegeunfallgeschehen sowie über Berufskrankheiten von allen Trägern der gesetzlichen Unfallversicherung aus. Ebenfalls nutzt die BAuA Informationen des Statistischen Bundesamtes, der Krankenkassen, der Gewerbeaufsicht und der BIBB/BAuA-Erwerbstätigenbefragung, um zum Beispiel die Belastungen und Arbeitsunfähigkeit darzustellen.

Sicherheit und Gesundheit bei der Arbeit 2013 – Unfallverhütungsbericht Arbeit; 1. Auflage; Dortmund; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2014; ISBN 978-3-88261-036-9; 339 Seiten. Eine Version im PDF-Format zu Herunterladen steht unter http://www.baua.de/publikationen.

Weitere Informationen unter http://www.baua.de/suga.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 650 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/5746626
Direkter Link zum Bericht „Sicherheit und Gesundheit bei der Arbeit 2013 – Unfallverhütungsbericht Arbeit“

Quelle: idw

(nach oben)


Wie Bodenmikroben durch den Klimawandel aus dem Takt geraten

Susanne Eichacker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Wissenschaftler des Helmholtz Zentrums München haben gemeinsam mit Kollegen der Technischen Universität München (TUM) und des Karlsruher Instituts für Technologie (KIT) erforscht, wie Bodenmikroorganismen auf klimatische Veränderungen reagieren. Ihr Resultat: Extremwetterereignisse wie lange Trockenperioden und starke Niederschläge beeinflussen die Stoffwechselaktivität von Mikroben stark. Dies kann zu einer Veränderung des Stickstoffhaushalts im Boden führen und, in extremen Fällen, sogar Konzentrationen des Treibhausgases Distickstoffmonoxid in der Atmosphäre erhöhen.

Um den Einfluss des Klimawandels auf Bodenmikroorganismen unter möglichst natürlichen Bedingungen zu beobachten, verpflanzten die Wissenschaftler intakte Jungbuchen von einem kühlen, feuchten Standort, der in etwa den heutigen klimatischen Bedingungen entspricht, an eine südwestlich gelegene, wärmere Stelle. Diese spiegelte Temperatur und Niederschlagsprofile wider, wie sie durch den Klimawandel erwartet werden können. „Bodenart und Nährstoffgehalt blieben erhalten“, erläutert Prof. Dr. Michael Schloter, Leiter der Abteilung Umweltgenomik (EGEN) am Helmholtz Zentrum München. „Außerdem haben wir das Szenario zusätzlich verschärft, indem wir lange Trockenperioden, aber auch starke Regenfälle simulierten“, fügt er hinzu.

Um die Dynamik der Bodenmikroflora zu bestimmen, untersuchten die Forscher Markergene von Mikroorganismen, die typischerweise am Stickstoff-Umsatz beteiligt sind. Sie fanden heraus, dass bereits der Standortwechsel ohne zusätzliche Extremwetterbedingungen zu einer drastischen Veränderung der Stoffwechselaktivität und Zusammensetzung der Mikroorganismen führte. „Unter extremen klimatischen Veränderungen wurden diese Effekte noch deutlicher“, erklärt Dr. Silvia Gschwendtner (EGEN), die die Untersuchungen durchführte. Die Ergebnisse weisen darauf hin, dass die Aktivität der Mikroorganismen, die vor allem an der Denitrifikation beteiligt sind, positiv beeinflusst wird. „Das wirkt sich einerseits auf den Wettbewerb zwischen Pflanzen und Mikroorganismen aus. Andererseits könnte es aber auch zu einer erhöhten Emission des klimarelevanten Treibhausgases Lachgas (Distickstoffmonoxid) führen“, sagt Geschwendtner.

Weitere Informationen
Denitrifikation: Bei der D. wird das im Boden vorliegende, pflanzenverfügbare Nitrat zum gasförmigen Stickstoff und zu Stickoxiden verarbeitet

Original-Publikation:
Gschwendtner, S. et al.(2014)Climate change induces shifts in abundance and activity pattern of bacteria and archaea catalyzing major transformation steps in nitrogen turnover in a soil from a Mid-European beech forest, PLOS ONE, doi: 10.1371/journal.pone.0114278

Link zur Fachpublikation:
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0114278

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.200 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 34.000 Beschäftigten angehören.http://www.helmholtz-muenchen.de/index.html

Die selbstständige Abteilung Umweltgenomik (EGEN) untersucht die Struktur und Funktion mikrobieller Gemeinschaften im Boden und identifiziert abiotische und biotische Parameter die Abundanz, Diversität und Aktivität der entsprechenden Mikrobiome steuern. Das Ziel ist die genetischen Ressourcen des Bodenmikroflora für eine nachhaltige Biookonomie besser nutzbar zu mache. EGEN gehört dem Department of Environmental Sciences an. http://www.helmholtz-muenchen.de/egen/index.html

Die Technische Universität München (TUM) ist mit rund 500 Professorinnen und Professoren, 10.000 Mitarbeiterinnen und Mitarbeitern und 36.000 Studierenden eine der forschungsstärksten Technischen Universitäten Europas. Ihre Schwerpunkte sind die Ingenieurwissenschaften, Naturwissenschaften, Lebenswissenschaften und Medizin, ergänzt um Wirtschafts- und Bildungswissenschaft. Die TUM handelt als unternehmerische Universität, die Talente fördert und Mehrwert für die Gesellschaft schafft. Dabei profitiert sie von starken Partnern in Wissenschaft und Wirtschaft. Weltweit ist sie mit einem Campus in Singapur sowie Niederlassungen in Brüssel, Kairo, Mumbai, Peking und São Paulo vertreten. An der TUM haben Nobelpreisträger und Erfinder wie Rudolf Diesel und Carl von Linde geforscht. 2006 und 2012 wurde sie als Exzellenzuniversität ausgezeichnet. In internationalen Rankings gehört sie regelmäßig zu den besten Universitäten Deutschlands.http://www.tum.de/

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9 400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6 000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation. http://www.kit.edu/index.php

Fachlicher Ansprechpartner:
Prof. Dr. Michael Schloter, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Ingolstädter Landstr. 1, 85764 Neuherberg – Tel. +49 89 3187-2304, E-Mail schloter@helmholtz-muenchen.de

Weitere Informationen:
http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…

Quelle: idw

(nach oben)


Gesunde Zähne = niedriger Blutdruck. Zahnarztbesuch senkt Herzinfarkt-und Schlaganfallrisiko

Maximilian Broglie Geschäftsstelle
Deutsche Hochdruckliga

Berlin, 2014 – Menschen mit Parodontitis, einer bakteriellen Zahnfleischentzündung, erleiden häufiger einen Herzinfarkt oder Schlaganfall. In einer aktuellen Studie stellten Bluthochdruckforscher nun fest, dass eine Behandlung der Parodontitis auch einen erhöhten Blutdruck wieder absenken kann. Auf der Pressekonferenz anlässlich des 38. wissenschaftlichen Kongresses „Hypertonie und Prävention 2014″ der Deutschen Hochdruckliga e.V.® – Deutsche Gesellschaft für Hypertonie und Prävention (DHL®) am 11. Dezember 2014 in Berlin stellen Experten die Studie vor. Sie erörtern auch, was sich daraus für den Kampf gegen Herz-Kreislauf-Erkrankungen ableiten lässt.

Bei Parodontitis entzündet sich das Zahnfleisch so stark, dass der Zahnhalteapparat Schaden nimmt. Ohne Behandlung lockern sich die Zähne und fallen mitunter sogar aus. Hinzu kommt: Menschen mit Parodontitis leiden häufiger als jene mit gesunden Zähnen an Erkrankungen, die den ganzen Körper betreffen. Dazu gehört neben Diabetes vor allem Bluthochdruck. Noch ist der Zusammenhang zwischen Bluthochdruck und der Zahnfleischerkrankung nicht abschließend ergründet. „Sehr wahrscheinlich sind jedoch dieselben Bakterien, die die Parodontitis auslösen, auch die Ursache für den erhöhten Blutdruck und die vermehrten Herzinfarkte sowie Schlaganfälle“, erläutert Dr. med. Johannes Baulmann, der die Abteilung für Angiologie der Kardiologischen Klinik am Universitätsklinikum Schleswig-Holstein in Lübeck leitet. Die Erreger verteilen sich im ganzen Körper, so der Experte, und damit auch in den Blutgefäßen. „Dort regen sie entzündliche Prozesse an, die Gefäßwände werden fest und irgendwann sogar brüchig.“ Wie elastisch die Gefäße noch sind, können Forscher mittels der Pulswellengeschwindigkeit messen. Diese beschreibt, wie schnell die Druckwelle des Pulses die Arterien durchläuft. Eine hohe Pulswellengeschwindigkeit zeigt an, dass die Gefäße versteift sind – damit steigt das Risiko von Herz-Kreislauf-Erkrankungen. In einer Vorläuferstudie, deren Ergebnis kürzlich in der Fachzeitschrift PLOS One veröffentlicht wurde, erforschte Baulmann gemeinsam mit anderen Medizinern, dass Patienten mit Parodontitis steifere Gefäße haben und einen höheren zentralen Blutdruck.

In der aktuellen Studie gingen sie der Frage nach, ob sich der Bluthochdruck im Umkehrschluss mit besserer Zahngesundheit wieder absenkt. Sie verfolgten dafür die Behandlungsfortschritte von 100 Patienten mit Parodontitis. Nach zwölf Monaten stellten die Forscher fest, dass Patienten mit erfolgreich bekämpfter Zahnfleischentzündung auch elastischere Blutgefäße hatten. Und besonders eindrucksvoll war für sie, dass der zentrale Blutdruck dieser Patienten gesunken war. „Die Studie gibt erste Hinweise darauf, dass mit der Parodontitis-Behandlung Herz-Kreislauf-Erkrankungen und mögliche Folgen wie Herzinfarkt oder Schlaganfall reduziert werden könnten“, so Baulmann. Bei der Pressekonferenz anlässlich des Kongresses „Hypertonie und Prävention 2014″ der Deutschen Hochdruckliga am 11. Dezember um 12.30 Uhr diskutieren Experten die Bedeutung interdisziplinärer Behandlungsmethoden der Hypertonie und welche grundlegende Rolle die Elastizität der Gefäße für unsere Gesundheit spielt.

Quelle:
http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0103449

Weitere Informationen:
http://www.hypertonie2014.de

Quelle: idw

(nach oben)


Thementisch: Kläranlagen versus Mikroplastik

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Mikroplastik. Die kleinen Kunststoffpartikel stehen in der Kritik, da sie sich, offensichtlich weitestgehend ungehindert, durch den Wasserkreislauf bewegen und so in die Nahrungskette und langfristig auch in den menschlichen Organismus gelangen können – mit noch unbekannten Folgen. Jüngste Schlagzeilen in den Medien titulierten Kläranlagen als überfordert² hinsichtlich deren Eignung, Mikroplastik aus dem Abwasser herauszufiltern. Doch: Wie überfordert sind die Kläranlagen mit Mikroplastik tatsächlich? Hier fehlen gesicherte Erkenntnisse. Am 18. November 2014 wurde bei Fraunhofer UMSICHT zum Thema »Mikroplastik und Kläranlagen« über den Status quo sowie zukünftige Aufgaben diskutiert.

Mit dem Ziel, die Aktivitäten rund um das Thema Mikroplastik weiter voranzutreiben, organisierte Fraunhofer UMSICHT zusammen mit dem Cluster Umwelttechnologien.NRW am 18. November 2014 einen eintägigen Thementisch mit dem Titel »Mikroplastik und Kläranlagen«. Rund 25 Experten, überwiegend aus der Abwasserbranche, nahmen an der Veranstaltung teil.

Bedarf an Forschung
Ralf Bertling von Fraunhofer UMSICHT eröffnete den Thementisch mit einem Übersichtsvortrag zu Mikroplastik sowie der Vorstellung aktueller Aktivitäten des Instituts in diesem Bereich. Bertling stellte in seinem Vortrag den FuE-Ansatz von Fraunhofer UMSICHT heraus. Dieser Ansatz grenzt sich insofern von bisherigen Denkweisen ab, da er das gesamte Mikroplastik-System als eine Prozesskette mit der Kläranlage als zentralem Bestandteil betrachtet.

Seit März 2014 gibt es bei Fraunhofer UMSICHT mit der »AG Mikroplastik« eine interdisziplinär zusammengesetzte Gruppe von Forschern, in der sich verschiedene Kompetenzen gebündelt dem Thema Mikroplastik widmen. »Es gibt Handlungsbedarf«, heißt es unisono in der AG.

Maren Heß vom Landesamt für Natur, Umwelt und Verbraucherschutz NRW (LANUV) begrüßt diese Aktivitäten. Zum einen seien bisher nur wenige Studien zu Mikroplastik veröffentlicht worden, die zudem meist in Zusammenhang mit Salzwasser und nicht mit Süßwasser stehen. Es fehlten beispielsweise detaillierte Informationen zu Ursprung und konkreter Verbreitung, Anzahl, Qualität und Auswirkungen auf die Umwelt. Zum anderen gebe es bisher keine allgemein gültige und wissenschaftlich belastbare Vorgehensweise zur Bestimmung und Bewertung der Mikroplastikproblematik. »Hier herrscht eindeutig Forschungsbedarf. Für die Zurückhaltung der Forschung sind sicherlich auch fehlende finanzielle Mittel verantwortlich«, fügt Ralf Bertling hinzu.

Bereits etablierte Methoden nutzen
Carmen Nickel, Institut für Energie- und Umwelttechnik e.V. (IUTA) in Duisburg, ist Expertin für Nanotechnologie. Hier gibt es bereits entsprechende Analysemethoden. Nickel stellt die Eigenschaften von Nanomaterial und Mikroplastik gegenüber und möchte bereits etablierte Methoden und Erkenntnisse vom einen in den anderen Bereich überführen: »Was können wir aus unseren bisherigen Erfahrungen mit Nanomaterialien für das Thema Mikroplastik lernen?« Etwa, dass eine Abschätzung über die reine Masse des Mikroplastiks im Abwasser nicht unbedingt aussagekräftig sein muss. Die Oberfläche der gleichen Masse an Partikeln vergrößert sich um ein Vielfaches, je kleiner die Partikel sind. Und umso größer die Oberfläche ist, desto mehr Schadstoffe können sich prinzipiell an ihr anlagern.

Burkhard Hagspiel von der Stadtentwässerung und Umweltanalytik Nürnberg (SUN) hingegen hält die Aufregung um das Thema Mikroplastik in Kläranlagen für übertrieben. Hagspiel begründet dies mit den geringen Mengen Mikroplastik, die in behandeltem Abwasser bisher nachgewiesen wurden. Dennoch fordert auch Hagspiel: »Es bedarf umfangreicher Forschung.«

Unter den Teilnehmern des Thementischs waren auch Forscher aus Belgien und Frankreich. Kris De Gussem vom belgischen Kläranlagenbetreiber AQUAFIN referierte zu durchgeführten Mikroplastik-Untersuchungen in einer Kläranlage. Außer am Zulauf und Ablauf wurden auch innerhalb der Kläranlage, hinter Sandfang, Vorklär- und Belebungsbecken, unterschiedliche Mikroplastik-Konzentrationen ermittelt. Hieraus resultierte eine erste Mikroplastik-Bilanz für eine Kläranlage. Auch De Gussem regte eine Vereinheitlichung der Analysemethoden sowie weitere Untersuchungen in Kläranlagen an.

Jürgen Bertling, Abteilungsleiter Werkstoffsysteme bei Fraunhofer UMSICHT, stellt in seinem Vortrag heraus, dass vor allem die Entstehung von Mikroplastik durch Verwitterung von Kunststoffen bislang noch viel zu wenig untersucht ist. Nichtsdestotrotz sieht er vor allem aufgrund der Langlebigkeit von Polymeren (10 000 Jahre und mehr) eine drastische Reduktion des Mikroplastikeintrags als zwingend erforderlich – nicht zuletzt aus einem ästhetisch verstandenen Umweltschutz. Bertling zeigte darüber hinaus, dass die Bestimmung der Mikroplastikmenge in hohem Maße von einer korrekten Ermittlung der Partikelgrößenverteilung abhängig ist. Andernfalls kann die Gefährdung schnell um zwei bis drei Zehnerpotenzen unter- oder überschätzt werden.

Initiative Mikroplastik
Die Veranstaltung wurde von den Teilnehmern als sehr guter Einstieg in weitere zielgerichtete Aktivitäten bewertet. Als ein wichtiges Ziel wurde die Vereinheitlichung der Untersuchungsmethoden formuliert. Außerdem wurde ein Bedarf an weiteren, verlässlichen Daten zu Quantität und Qualität von Mikroplastik in Kläranlagen formuliert. Gemeinsames Fazit ist, dass diese Ziele nur mit weiteren Studien, sprich weiteren Untersuchungen von Mikroplastik in Kläranlagen, zu erreichen sind. Dabei sind vor allem auch verfahrens-, polymer- und partikeltechnische Aspekte stärker als bisher einzubeziehen, um ein umfassendes Bild und Lösungsansätze abzuleiten. Die Fraunhofer-UMSICHT-Teilnehmer schlugen die Gründung einer »Initiative Mikroplastik« vor, welche sich der Klärung der Fragestellungen rund um Mikroplastik widmet. Der Vorschlag stieß auf ein positives Echo, sodass weitere Aktivitäten zu erwarten sind.

²Mikroplastik überfordert Kläranlagen, SPIEGEL ONLINE Wissenschaft, 10/2014

Cluster Umwelttechnologien.NRW
In regionalen und überregionalen Netzwerken (Clustern) kooperieren unterschiedliche Akteure entlang der Wertschöpfungskette, um Synergien zu nutzen und dadurch die Wettbewerbsfähigkeit der einzelnen Partner zu stärken und Wachstumspotenziale zu erhöhen. Für die Umsetzung der NRW-Clusterpolitik im Bereich Umwelttechnologie ist das Ministerium für Klimaschutz, Umwelt, Landwirtschaft, Natur- und Verbraucherschutz des Landes NRW verantwortlich. Das Clustermanagement Umwelttechnologien.NRW setzt sich interdisziplinär aus Wissenschaftlern und Umweltingenieuren unter der Führung der Grontmij GmbH zusammen. Eines der Hauptziele ist es, die Innovationsfähigkeit in NRW weiter auszubauen und eine gemeinsame Identität der Umwelttechnikbranche zu schaffen. Der Cluster Umwelttechnologien.NRW bietet eine landesweite Plattform für die über 3 500 Unternehmen der Umweltwirtschaft in NRW. Das Clustermanagement hat am 19. Mai 2009 seine Arbeit aufgenommen.

AG Mikroplastik
Die AG Mikroplastik, gegründet im März 2014, ist Teil des Formats »Werkstattgespräch«, das von der Ideenfabrik »Zukünftige Produkte« bei Fraunhofer UMSICHT initiiert wurde. Zehn Teilnehmer aus unterschiedlichen Forschungsbereichen widmen sich u. a. den thematischen Schwerpunkten Mikroplastik in der Umwelt und in Wasserkreisläufen, Entfernung und Substitution von Mikroplastik, Zersetzungskinetik von Kunststoffen, biotische Zersetzungsprozesse, Toxizität und Schadstoffanreicherung sowie Mikroplastik und Kläranlagen. »In der AG können wir viele Kompetenzen zusammenführen – von der Werkstoffentwicklung für biologisch abbaubare Mikropartikel über experimentelle Untersuchungen zu Bewegungsmustern von Partikeln in Gewässern und ihrer Abtrennbarkeit aus Abwasserströmen bis hin zur Frage, wie aus Kunststoffverpackungen oder Plastiktüten kleine Mikropartikel entstehen «, erklärt Jürgen Bertling, Initiator der AG.

Quelle: idw

(nach oben)


Thermoelektrische Abwärmenutzung: Neues Design spart Material

Fraunhofer IPM, Holger Kock Kommunikation
Fraunhofer-Gesellschaft

Wissenschaftlern am Fraunhofer IPM ist es gelungen, den Materialeinsatz bei der Herstellung thermoelektrischer Module um die Hälfte zu reduzieren – bei gleicher Leistung. Dank des geringeren Materialverbrauchs werden die Module zukünftig deutlich günstiger und auch leichter sein. Fraunhofer IPM stellt das neue Moduldesign auf der »4. Tagung Thermoelektrik« im Dezember vor.

Die Thermoelektrik gehört zu den Zukunftstechnologien für das so genannte »Energy Harvesting«. Dazu zählt z. B. die Nutzung überschüssiger Abwärme: Thermoelektrische Module wandeln dabei Wärme direkt in Strom um und können so zur besseren Energieeffizienz beitragen. Für einen breiten Einsatz der Energiewandler – z. B. im Auto, in Energiesystemen oder Industrieanlagen – müssen die Module deutlich effizienter und preisgünstiger werden. Mit der optimierten Modul-Geometrie ist Fraunhofer IPM der Marktreife nun einen großen Schritt näher gekommen: Bei gleicher Leistung und Effizienz genügt jetzt die Hälfte des üblicherweise eingesetzten thermoelektrischen Materials. Vergleichsmessungen haben gezeigt, dass weitere wichtige Moduleigenschaften wie thermischer Leitwert, Innenwiderstand sowie die Seebeck-Spannung der optimierten Module im Vergleich zu Modulen mit herkömmlicher Geometrie unverändert bleiben.

Forschungsarbeiten auf dem Gebiet der Thermoelektrik konzentrieren sich bis dato vor allem auf die Verbesserung thermoelektrischer Materialien, weniger auf deren Verarbeitung und deren Einsatz in Modulen. Neue Materialien wie Halb-Heusler-Verbindungen, Skutterudite oder Silicide, die vor allem für Anwendungen bei hohen Temperaturen eingesetzt werden, erreichen heute eine deutlich höhere Effizienz als noch vor wenigen Jahren. Dies ist jedoch nur die Grundvoraussetzung für den Einsatz der Thermoelektrik auf breiter Front. Für die meisten Anwendungen sind diese High-Tech-Materialien bisher zu teuer. Hier bedeutet die Materialeinsparung bei der Modulfertigung einen großen Schritt in Richtung Industrialisierung. Gleichzeitig sind die signifikanten Gewichtseinsparungen bei gleichbleibender Leistungsfähigkeit insbesondere für mobile Anwendungen wie im Automobilbereich entscheidend. Und das Designkonzept erlaubt weitere Verbesserungen.

Weitere Informationen:
http://www.ipm.fraunhofer.de/de/gf/energiesysteme-thermoelektrik.html
Thermoelektrische Energiesysteme von Fraunhofer IPM

Quelle: idw

(nach oben)


Rohstoffeffizienz-Preis 2014: Neues Textil filtert Wertmetalle aus Industrieabwässern

Für die Entwicklung eines Textils, das in der Lage ist, Wertstoffe aus industriellen Abwässern zu filtern, haben Dr. Klaus Opwis vom Deutschen Textilforschungszentrum Nord-West (DTNW) Krefeld und Frank Grüning vom Institut für Energie- und Umwelttechnik (IUTA) Duisburg am 4. Dezember den Rohstoffeffizienz-Preis 2014 erhalten. Das Bundesministerium für Wirtschaft und Energie (BMWi) und die Deutsche Rohstoffagentur würdigen mit dieser Auszeichnung besondere Beiträge zur Sicherung der Rohstoffversorgung. Das Forscherteam hatte darüber hinaus mit dieser Innovation das Finale in der Bewerbung um den Otto von Guericke-Preis der AiF Arbeitsgemeinschaft industrieller Forschungsvereinigungen erreicht. Der Preis wird einmal im Jahr für herausragende Leistungen der Industriellen Gemeinschaftsforschung (IGF) vergeben und ist mit 5.000 Euro dotiert. Die vorwettbewerbliche IGF wird im Innovationsnetzwerk der AiF und ihrer 100 Forschungsvereinigungen organisiert und vom BMWi mit öffentlichen Mitteln gefördert.

Neben Elektroschrott stellen industrielle Prozess- und Abwässer eine wichtige Wertmetallquelle dar. „Wegen der zu geringen Konzentration war es bisher schwer möglich, diese ‚wertvolle Fracht‘ mit konventionellen Methoden herauszufiltern. Vielfach lohnte sich auch der Aufwand nicht.“, beschreiben die Wissenschaftler die bisherige Situation. Ziel des Forschungsvorhabens war es daher, mittels eines textilen Adsorbermaterials die relevanten Metalle zu isolieren und zurückzugewinnen.

In dem ausgezeichneten IGF-Vorhaben – organisiert von den AiF-Mitgliedern Institut für Energie- und Umwelttechnik (IUTA) und Forschungskuratorium Textil (FKT) – fixierten Opwis und Grüning zunächst Polyelektrolyte an verschiedenen Textilien. Diese Moleküle sind in der Lage, aus bestimmten Lösungen Wertmetalle „herauszufischen“. Mit Hilfe von Polyesterstoff konnten die Forscher – zunächst im Labormaßstab – unterschiedliche Edelmetalle wie Gold, Silber, Platin und Palladium binden. Das Verfahren wurde in einem weiteren Schritt praxistauglich umgesetzt: Es gelang, aus mehreren hundert Litern Abwässer der Leiterplattenindustrie pro Kilogramm Textil 20 Gramm Palladium zurückzugewinnen.

Die Ergebnisse des Forschungsvorhabens lassen viele weitere Anwendungsmöglichkeiten des innovativen Adsorbertextils erkennen. Insbesondere kleinen und mittleren Unternehmen der deutschen Textilindustrie ist es möglich, mit geringem Aufwand ein textiles Spezialprodukt herzustellen und entsprechend zu vermarkten. Für mittelständische Unternehmen der metallverarbeitenden Industrie besteht ein Anreiz, mit Hilfe des Textilmaterials auch aus niedrigkonzentrierten Reststofflösungen hochwertige Metalle zurückzugewinnen, gegebenenfalls sogar dort, wo sich eine Aufbereitung bisher mit konventionellen Methoden nicht lohnte oder unmöglich war. Die mittelstandsgeprägte Branche des Anlagebaus zieht ebenfalls großen Nutzen aus dem IGF-Projekt, beispielsweise durch die Konstruktion stationärer Filtermodule bei industriellen Anwendern.

Ansprechpartner zum Projekt
Deutsches Textilforschungszentrum Nord-West;
Dr. Klaus Opwis, opwis@dtnw.de, Telefon: +49 2151 843 205

Institut für Energie- und Umwelttechnik;
Frank Grüning, gruening@iuta.de, Telefon: +49 2065 418 213

Über die AiF
Die Arbeitsgemeinschaft industrieller Forschungsvereinigungen „Otto von Guericke“ e.V. ist ein 1954 gegründetes, industriegetragenes Innovationsnetzwerk zur Förderung von Forschung und Entwicklung im Mittelstand. Es verknüpft die Interessen von Wirtschaft, Wissenschaft und Politik. Aufgabe ist es, als Dachverband von 100 branchenspezifischen Forschungsvereinigungen die Volkswirtschaft Deutschlands in ihrer Wettbewerbsfähigkeit nachhaltig zu stärken. Die AiF als gemeinnütziger Verein ist Träger der Industriellen Gemeinschaftsforschung und betreut über die AiF Projekt GmbH und die AiF F∙T∙K GmbH, ihre einhundertprozentigen Tochtergesellschaften, weitere Förderprogramme der öffentlichen Hand. Im Jahr 2013 setzte die AiF rund 490 Millionen Euro an öffentlichen Fördermitteln ein.

Weitere Informationen:
http://www.aif.de

Quelle: idw

(nach oben)


Bald Brennstoffe aus Kohlendioxid?

Dr. Renate Hoer Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Effektives Katalysatorsystem für die photokatalytische Reduktion von CO2 zu Kohlenwasserstoffen

Kohlenwasserstoffe sind immer noch unsere bedeutendsten Energieträger, aber müssen sie zwangsläufig aus fossilen Quellen gewonnen werden? Warum nicht den Verbrennungsprozess umkehren und sie aus CO2 aufbauen? Dies ließe sich mit einem durch Sonnenenergie getrieben Verfahren realisieren, sobald geeignete Katalysatoren zur Verfügung stehen. Wissenschaftler aus Japan und China stellen in der Zeitschrift Angewandte Chemie jetzt ein neues, besonders effektives photokatalytisches System vor – vielleicht ein weiterer Schritt auf dem Weg zu CO2-neutralen Kraft- und Brennstoffen.

Verschiedene Katalysatoren für die photokatalytische Reduktion von CO2 wurden bereits entwickelt, z.B. auf der Basis von Strontiumtitanat (SrTiO3, STO) oder Titandioxid (TiO2). Angesichts der speziellen Energieniveaus dieser zwei Halbleitermaterialien schien den Forschern um Jinhua Ye eine Heterostruktur aus beiden Stoffen besonders erfolgversprechend. Die Wissenschaftler vom National Institute for Materials Science (Japan) und dem U-NIMS Joint Research Center der Tianjin University (China) stellten Anordnungen koaxial ausgerichteter STO/TiO2-Nanoröhrchen her. Die Röhrchen bestückten sie gleichmäßig mit Nanopartikeln aus einer Gold-Kupfer-Legierung als Co-Katalysator. Hydrazin-Hydrat (N2H4•H2O) dient als Wasserstoffquelle und sorgt für die notwendige reduzierende Atmosphäre. So gelang es den Forschern, CO2 sehr effizient in CO, Methan (CH4) und weitere Kohlenwasserstoffe umzusetzen.

Bestrahlung mit Sonnenlicht setzt Elektronen in den Halbleiter-Röhrchen frei. Dank der STO/TiO2-Heterostrukturen lässt sich die damit verbundene Ladungstrennung besser aufrecht erhalten als bei den reinen Substanzen. Die Elektronen werden auf die bimetallischen Edelmetall-Nanopartikel übertragen und von dort weiter auf das CO2, das entstehende CO und weitere gasförmige Zwischenprodukte. Die hohe Oberfläche der Röhrenbündel und die Porosität der Wände der Nanoröhrchen sorgen für eine hohe Gasdiffusion und sorgen für einen effektiven Transport der Ladungen. Aufgrund spezieller Legierungseffekte können die Gold-Kupfer-Nanopartikel den Rücktransport photogenerierter Elektronen in den Halbleiter wesentlich effektiver aufhalten als die Reinmetalle. Das Hydrazin-Hydrat liefert den benötigten Wasserstoff, sorgt für einen Elektronen-Nachschub am Katalysator und schafft eine reduzierende Atmosphäre, die die Metall-Nanopartikel über lange Zeit stabilisiert. Wird dagegen Wasser als Wasserstoff-Quelle genutzt, ist eine rasche Deaktivierung des katalytischen Systems zu verzeichnen. Das CO2 wird an den Nanopartikeln zunächst zu CO und dann weiter zu CH4 und anderen Kohlenwasserstoffen reduziert. Bei einem Verhältnis von Gold zu Kupfer von 3:1 in der Legierung ist der Anteil der entstehenden Kohlenwasserstoffe am höchsten.

Angewandte Chemie: Presseinfo 41/2014

Autor:
Jinhua Ye, National Institute for Materials Science (Japan), http://www.nims.go.jp/units/erm/project_1/JYE/yejinhua.htm

Permalink to the original article: http://dx.doi.org/10.1002/ange.201409183

Angewandte Chemie, Postfach 101161, 69451 Weinheim, Germany.

Weitere Informationen:
http://presse.angewandte.de

Quelle: idw

(nach oben)


Blutdrucksenkendes Salz bald auf dem Markt?

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

CEN Nutriment ist ein KMU aus Dijon, dass Untersuchungen und klinische Studien für die Industrie durchführt, die sich heute einer neuen EU-Verordnung zu nährwert- und gesundheitsbezogenen Angaben gegenübersieht. Vor wenigen Monaten hat das KMU einen Vertrag mit dem deutschen Hersteller und Vertreiber von Nahrungsergänzungsmitteln, Han Biotech GmbH, und dem südkoreanischen Hersteller von Blutzuckermessgeräten, Biotech CO. LTD., abgeschlossen. Ziel ist die Entwicklung eines Salzes, das durch die Zugabe von Chitin aus Krabbenschalen weniger blutdrucksteigernd wirkt als herkömmliche Salze.

In einer Studie konnte nachgewiesen werden, dass die Verwendung des modifizierten Salzes, und eine gleichzeitige Verringerung der konsumierten Salzmenge, eine deutliche Senkung des Bluthochdrucks zur Folge hatte.
Die Ergebnisse der Studie wurden in der Fachzeitschrift International Angiology veröffentlicht.

Es wurde ein Antrag auf Zulassung der gesundheitsbezogenen Angaben bei der Europäischen Behörde für Lebensmittelsicherheit (EFSA) eingereicht. Das südkoreanische Unternehmen hat bereits ein internationales Patent für dieses Produkt angemeldet, und in Belgien ist es schon als Nahrungsergänzungsmittel zugelassen. CEN Nutriment und HAN Biotech haben in diesem Sommer einen Vertrag abgeschlossen, in dem sie zu gleichen Teilen ein Drittel des südkoreanischen Unternehmens erwerben.

In einem nächsten Schritt ist der Aufbau einer Produktionsstätte für dieses Salz in Frankreich geplant. In Anbetracht der Tatsache, dass allein in Europa täglich mehrere Hundert Tonnen Salz verkauft werden, wäre ebenfalls ein Forschungszentrum für Salz in Dijon denkbar, begeistert sich der Vorsitzende von CEN Nutriment.

Quelle: BE France 295 – 20/11/2014 – http://www.bulletins-electroniques.com/be_france_295.htm

Übersetzerin: Jana Ulbricht, jana.ulbricht@diplomatie.gouv.fr

Quelle: idw

(nach oben)


Wissenschaftlicher Taucheinsatz im Toten Meer: Der Salzsee ist in Gefahr

Madlen Domaschke Pressestelle
Technische Universität Bergakademie Freiberg

Das Tote Meer ist nicht nur besonders salzig, es wird auch immer weniger: Der Was-serspiegel ist in den vergangenen 30 Jahren um 28 Meter gesunken – und das hat Konsequenzen für Mensch und Umwelt. Wissenschaftliche Taucher von der TU Berg-akademie Freiberg waren gemeinsam mit Forschern des Helmholtz-Zentrums für Umweltforschung (UFZ) sowie Mitarbeitern des Unternehmens EvoLogics vor Ort, um Frischwasserzutritte am Seeboden zu finden, die helfen können, das System besser zu verstehen.

Das Ökosystem und die es verändernden Prozesse besser zu verstehen – das war das Ziel des Forschungseinsatzes in Israel. Prof. Broder J. Merkel, Dr. Thomas Pohl und M.Sc. Mandy Hoyer vom Scientific Diving Center (SDC) der TU Bergakademie Freiberg hatten es bei Ih-rem Einsatz im Toten Meer nicht leicht. Wüstenklima, die angespannte politische Situation sowie die extremen Bedingungen im und um das Wasser machten die Arbeit vor Ort zu einer Herausforderung. „Die hohe Dichte des Wassers und der damit verbundene Auftrieb sowie die Aggressivität der Sole stellten zusätzliche Herausforderungen für das Arbeiten unter Wasser dar“, erklärt Prof. Broder J. Merkel. Das Wasser weist Salzgehalte von durchschnittlich 28 Prozent auf – fast zehnmal höher als die der Weltmeere. Ohne ein Zusatzgewicht von etwa 60 Kilogramm (größtenteils in Form von Bleigewichten) pro erwachsenen Taucher ist der Tauchgang nicht möglich. Das Scientific Diving Center der TUBAF bildet Wissenschaftler für wissenschaftliche Einsätze unter Wasser aus; allerdings sei laut Prof. Merkel ein Taucheinsatz unter solch extremen Bedingungen wie im Toten Meer eher die Ausnahme.

Vor Ort wollten die Freiberger Forscher zusammen mit Wissenschaftlern des UFZ und der Firma EvoLogics erkunden, welche Folgen die Absenkung des Wasserspiegels des Toten Meeres auf die Region und insbesondere das Grundwasser in der Region hat. Dies ist auch Ziel des Helmholtz-Verbundprojektes DESERVE (www.deserve-vi.net), in dem Hydrogeologen des Helmholtz-Zentrums für Umweltforschung seit mehreren Jahren die hydrogeochemische und isotopische Zusammensetzung der Grundwässer in Zusammenarbeit mit Mikrobiologen vom IGB Berlin untersuchen. Seit 2012 existiert die Zusammenarbeit der Tau-cher vom SDC mit den Kollegen vom UFZ.

Das Tote Meer ist, entgegen seinem Namen, kein Meer, sondern ein abflussloser See. In der Region herrscht Wüstenklima und so verdunstet permanent Wasser von der Seeoberfläche und der Wasserspiegel sinkt, wenn er nicht durch Zuflüsse ausgeglichen wird. Diese natürlichen Zuflüsse werden durch menschliches Zutun verändert: Wasser aus dem Jordan, dem Hauptzufluss zum Toten Meer, wird abgeleitet und für Bewässerungsmaßnahmen in der Landwirtschaft sowie für Industrie und private Haushalte genutzt. Das Wasser aus dem Toten Meer selbst wird verdampft, um aus den Rückständen Kalium, Brom, Magnesium und Jod sowie als heilend angepriesene Salze zu gewinnen. All das führt in Summe dazu, dass der Seespiegel dramatisch sinkt. Im Vergleich zu 1980 liegt der Wasserspiegel nun nicht mehr nur 400 Meter unter dem Meeresspiegel, sondern heute bei -428 Meter. In den letzten beiden Jahren sank er um ca. drei Meter; Prognosen gehen davon aus, dass das Tote Meer in 50 Jahren verschwunden sein könnte, wenn die Übernutzung der Wasserressourcen weiterhin in diesem Tempo voranschreitet.

Und das hat weitreichende Konsequenzen für Mensch und Umwelt in der Region. Denn das Wasser des Toten Meeres ist hydraulisch mit dem umliegenden Grundwasser verbunden. Sinkt der Seespiegel, wird automatisch auch der Grundwasserspiegel abgesenkt – die ohne-hin schon knappe Ressource Wasser wird noch rarer. Eine weitere Konsequenz sind massive Einbrüche an der Erdoberfläche.
Die wissenschaftlichen Taucher der TU waren nun auf der Suche nach Frischwasserzutritten, die unter Wasser im Küstenbereich in das Tote Meer fließen. Diese kann man aufgrund von Temperatur- und Dichteunterschieden schon an der Seeoberfläche erkennen. Die Wissenschaftler wollen die einströmenden Wässer sowohl quantitativ als auch qualitativ charakterisieren, um zu verstehen, wie der fallende Wasserspiegel das System verändert.

Die genommenen Wasserproben werden nun in Freiberg, Leipzig und Bremen auf Haupt- und Spurenelemente, anorganischen und organischen Kohlenstoffgehalt, Wasserstoff-, Sauerstoff- und Schwefelisotope sowie die DNA von Mikroorganismen untersucht. Denn das Tote Meer ist zwar kein Lebensraum für Fische, aber dennoch keineswegs tot; insbesondere im Bereich der Frischwasserzutritte gibt es Mikroorganismen. Es bleibt also spannend, welche Erkenntnisse die Ergebnisse bringen werden.

Weitere Informationen:
http://tu-freiberg.de/presse/wissenschaftlicher-taucheinsatz-im-toten-meer

Quelle: idw

(nach oben)


Antarktis: Wärme kommt aus der Tiefe

Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

– Wissenschaftler belegen steigende Temperaturen auf dem westantarktischen Schelf –

Die Wassertemperaturen auf dem westantarktischen Schelf steigen. Grund dafür ist vor allem warmes Wasser aus größeren Tiefen, das im Zuge globaler Veränderungen jetzt vermehrt auf die flachen Schelfmeere gelangt. Dort könnte es von unten die Gletscherschmelze beschleunigen und noch mehr große Gletscher ins Rutschen bringen. Das zeigen Daten, die Wissenschaftler des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel zusammen mit Kollegen aus Großbritannien, den USA und Japan jetzt in der internationalen Fachzeitschrift Science veröffentlichen.

Das antarktische Eis ist ein gigantischer Wasserspeicher. Auf dem Südkontinent liegt eine durchschnittlich 2100 Meter dicke Eisdecke, die etwa 70 Prozent des weltweiten Süßwassers beinhaltet. Würden diese Wassermassen komplett freigesetzt, könnten sie den Meeresspiegel um über 60 Meter ansteigen lassen. Kein Wunder, dass Wissenschaftler Veränderungen in der Antarktis aufmerksam beobachten. In dem internationalen Wissenschaftsjournal Science veröffentlichen Forscher aus Deutschland, Großbritannien, den USA und Japan jetzt Daten, die nahelegen, dass vor allem in der Westantarktis die Wassertemperaturen auf den flachen Schelfmeeren steigen. „Dort liegen viele große Gletscher. Die erhöhten Temperaturen haben das Abtauen und Abrutschen dieser Gletscher in den letzten Jahrzehnten beschleunigt und es ist nicht abzusehen, dass dieser Trend nachlässt“, sagt der Erstautor der Studie Dr. Sunke Schmidtko vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel.

Für ihre Studie haben er und Kollegen von der University of East Anglia, vom California Institute of Technology sowie von der Universität Hokkaido (Japan) alle ozeanographischen Daten aus den Gewässern rund um die Antarktis zwischen 1960 und 2014 ausgewertet, die in öffentlichen Datenbanken verfügbar waren. Diese Daten zeigen, dass schon zu Beginn der Messungen die Wassermassen in den westantarktischen Schelfmeeren etwas wärmer waren, als zum Beispiel im Weddellmeer. Doch der Temperaturunterschied ist nicht konstant. Seit 1960 steigen die Temperaturen in der westantarktischen Amundsensee und der Bellingshausensee weiter an. „Anhand der Daten konnten wir sehen, dass dieser Prozess von außen verstärkt wird“, sagt Dr. Schmidtko.

Entlang des Kontinentalhangs vor den flachen Schelfmeeren befinden sich rund um die Antarktis in größeren Tiefen Wassermassen, die mit 0,5 bis 1,5 Grad Celsius für antarktische Verhältnisse sehr warm sind. „Diese Wassermassen haben sich in der Westantarktis im Laufe der vergangenen 50 Jahre erwärmt. Und sie liegen nicht mehr so tief wie noch vor 50 Jahren“, so Schmidtko. Speziell in der Amundsensee und der Bellingshausen-See schwappen sie mittlerweile verstärkt auf das Schelf und beschleunigen dort den Erwärmungsprozess.

„Genau in diesen Regionen sind schon länger beschleunigte Gletscherschmelzen beobachtet worden. Wir zeigen, dass ozeanische Veränderungen der vergangenen 50 Jahre diesen Prozess wohl maßgeblich verursacht haben. Das vermehrte Eindringen von wärmeren Wassermassen über die Schelfkante wird mit großer Wahrscheinlichkeit diesen Prozess noch verstärken“, erklärt Co-Autorin Professor Karen Heywood von der University of East Anglia, „das hätte dann Auswirkungen auf die Geschwindigkeit des weltweiten Meeresspiegelanstiegs.“

Die Wissenschaftler lenken die Aufmerksamkeit außerdem auf den Anstieg der warmen Wassermassen im südwestlichen Weddellmeer. Dort herrschen noch sehr kalte Temperaturen von weniger als minus 1,5 Grad Celsius auf dem Schelf vor. Ein größeres Abschmelzen der Eisschelfe ist bisher nicht beobachtet worden. Falls der Anstieg der warmen Wassermassen anhält, ist aber zu erwarten, dass es auch dort zu größeren Veränderungen mit dramatischen Folgen für das Filchner- und eventuell auch Rønne-Eisschelf kommt. So würden dann erstmals auch Gletscher von unten anschmelzen, die nicht zur westlichen Antarktis gehören. Auch sie könnten verstärkt abrutschen.

In wie weit die vielfältige Biologie des südlichen Ozeans von den beobachteten Veränderungen beeinflusst wird, ist nicht abschließend geklärt. Die Schelfgebiete sind unter anderem Laichgebiete für den Antarktischen Krill, eine im Südozean weit verbreitete Garnelenart, welche im Antarktischen Nahrungskreislauf eine Schlüsselstellung einnimmt. So haben Forschungsergebnisse gezeigt, dass sich Laich-Zyklen unter wärmeren Bedingungen verändern. Eine abschließende Bewertung der Auswirkungen steht jedoch noch aus.

Die genauen Ursachen für das weitere Erwärmen und Ansteigen der warmen Wassermassen konnten die Autoren noch nicht ausmachen. „Wir vermuten, dass sie mit großräumigen Veränderungen der Windsysteme über der Südhalbkugel zusammenhängen. Aber welche Prozesse im Einzelnen dabei eine Rolle spielen, muss in zukünftigen Studien noch genauer betrachtet werden“, erklärt Dr. Schmidtko.

Originalarbeit:
Schmidtko, S., K. J. Heywood, A. F. Thompson, S. Aokih (2014): Multi-decadal warming of Antarctic Waters. Science, http://dx.doi.org/10.1126/science.1256

Weitere Informationen:
http://www.geomar.de
Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Quelle: idw

(nach oben)


Rapsöl verbessert im Vergleich zu Olivenöl die Cholesterin- und Leberwerte übergewichtiger Männer

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Potsdam-Rehbrücke – Wie eine Pilotstudie unter Leitung des Deutschen Instituts für Ernährungsforschung (DIfE) nun zeigt, verbessert der tägliche Konsum von 50 g Rapsöl im Vergleich zu Olivenöl in einem Untersuchungszeitraum von vier Wochen den Cholesterinspiegel sowie die Leberwerte übergewichtiger Männer. Zudem fand das Team um die Mediziner Michael Kruse und Andreas F. H. Pfeiffer vom DIfE Hinweise darauf, dass die Aufnahme von Rapsöl zwar kurzfristig die Produktion von entzündungsfördernden Botenstoffen im Unterhautfettgewebe stimuliert, jedoch langfristig chronischen Entzündungsreaktionen entgegenwirkt.

Das Wissenschaftlerteam veröffentlichte seine Ergebnisse nun in der Fachzeitschrift Molecular Nutrition and Food Research (M. Kruse et al.: 2014; DOI 10.1002/mnfr.201400446). An der Pilotstudie waren auch Forscher der Universität Hamburg sowie der Friedrich-Schiller-Universität Jena beteiligt.

Zahlreiche Untersuchungen weisen darauf hin, dass Übergewicht (Adipositas) mit chronischen Entzündungen einhergeht, die das Risiko für einen Herzinfarkt oder Schlaganfall erhöhen. Ebenso leiden übergewichtige Menschen häufig unter Fettstoffwechselstörungen, Bluthochdruck und einer Leberverfettung, die zum Beispiel einem Typ-2-Diabetes oder einer schweren Herz-Kreislauf-Erkrankung vorangehen. Verschiedene Studien lassen dabei annehmen, dass ein hoher Verzehr von Olivenöl, wie er im Rahmen einer mediterranen Ernährung üblich ist, diesen Krankheiten vorbeugen kann.

„Da Nordeuropäer Olivenöl nicht in dem hohen Maße verwenden wie Südeuropäer, wollten wir untersuchen, ob sich heimisches Rapsöl als Alternative anbietet, da es besonders reich an einfach- aber auch mehrfach ungesättigten Fettsäuren ist. Bisher fehlen Ernährungsstudien, welche die Wirkung beider Öle direkt miteinander vergleichen“, sagt Erstautor Michael Kruse.

An der Pilotstudie nahmen 18 übergewichtige Männer* im Alter zwischen 39 und 63 Jahren teil, welche die Mediziner nach dem Zufallsprinzip in zwei gleichgroße Gruppen aufteilten. Die Studienteilnehmer erhielten für vier Wochen zu einer ausgewogenen Kost entweder täglich 50 g raffiniertes Rapsöl oder kaltgepresstes Olivenöl (extra virgin), wobei beide Öle in etwa den gleichen Gehalt an Vitamin E und Polyphenolen** aufwiesen. Die Teilnehmer sollten die Öle zum Beispiel in Form von Salatsaucen oder Pesto verzehren.

Nach der vierwöchigen Diätphase hatten die Teilnehmer wie beabsichtigt weder ab- noch zugenommen. Im Vergleich zur Olivenölgruppe senkte sich der LDL-Cholesterinspiegel der Männer, die Rapsöl verzehrten, um etwa 0,45 mmol/L. Ebenso verbesserten sich ihre Leberwerte. Zum Beispiel verminderte sich der Wert für das Enzym Aspartat-Aminotransferase*** um 18 Prozent. Im Nüchternzustand produzierte das Unterhautfettgewebe dieser Männer zudem deutlich weniger entzündungsförderndes Interleukin-6, wobei allerdings der Verzehr einer Testmahlzeit vorübergehend die Synthese dieses Botenstoffs stimulierte.

„Dauerhaft erhöhte Interleukin-6-Spiegel, die oft bei Übergewicht zu beobachten sind, stehen im Verdacht, eine Insulinunempfindlichkeit der Körperzellen und Typ-2-Diabetes zu fördern“, erklärt Kruse. „Deshalb ist es gut, wenn das Fettgewebe nach der vierwöchigen Diätphase deutlich weniger dieses Botenstoffs synthetisierte als vorher.“

„Aus anderen Studien wissen wir zudem, dass durch Muskelaktivität, zum Beispiel durch Sport, der Interleukin-6-Spiegel im Blut vorübergehend bis um das 100-fache ansteigen kann. Gleichzeitig ist bekannt, dass körperliche Aktivität Stoffwechselkrankheiten vorbeugt. Daher vermuten wir, dass der von uns beobachtete akute, aber kurzzeitige Anstieg der Interleukin-6-Synthese eher eine positive, hormetische**** Wirkung hat“, so Pfeiffer, der die Abteilung Klinische Ernährung am DIfE leitet. „Zusammenfassend weisen unsere Ergebnisse darauf hin, dass der tägliche Verzehr von 50 g Rapsöl dazu beitragen kann, bei übergewichtigen Männern die Leber- und Cholesterinwerte zu verbessern. Weitere Studien mit weitaus größeren Probandenzahlen sind jedoch notwendig, um die von uns beobachteten Effekte genauer zu untersuchen.“

Hintergrundinformation:
* Der Body-Mass-Index (BMI) ist eine Maßzahl für die Bewertung des Körpergewichts eines Menschen in Relation zu seiner Körpergröße. Er berechnet sich, indem man das Körpergewicht (gemessen in Kilogramm) durch das Quadrat der Körperlänge (gemessen in Meter) teilt [kg/m2]. Die Teilnehmer der Pilotstudie wiesen einen BMI zwischen 27 und 35 auf. Eine Person mit einem BMI über 25 gilt als übergewichtig, eine mit einem BMI über 30 als adipös (fettsüchtig).

** Polyphenole sind aromatische Verbindungen, die zu den sekundären Pflanzenstoffen gezählt werden. Viele Polyphenole gelten als gesundheitsfördernd.

*** In der Labordiagnostik wird die Aktivität des Enzyms Aspartat-Aminotransferase aus dem Plasma oder dem Serum bestimmt, um abzuklären, ob eine Leber- oder Gallenwegserkrankung vorliegt. Erhöhte Enzym-Werte im Blut sind in der Regel Folge einer Leber- oder Skelettmuskelerkrankung bzw. eines Herzinfarktes. Starke Erhöhungen findet man bei allen entzündlichen Lebererkrankungen sowie bei toxischen Leberschädigungen (z. B. durch Pilzgifte). Unter einer Antibiotika-Therapie sind oft auch bei sonst Gesunden die Aspartat-Aminotransferase-Werte erhöht. Nach Therapieende sinken die Spiegel wieder auf Normalwerte (Quelle: Wikipedia).

**** Hormesis (griech.: „Anregung, Anstoß“, engl.: adaptive response) ist die schon von Paracelsus formulierte Hypothese, dass geringe Dosen schädlicher oder giftiger Substanzen eine positive Wirkung auf den Organismus haben können. Sie wird heute in der Definition weiter gefasst. Bei medizinisch wirksamen Substanzen ist ein solcher dosisabhängiger Umkehreffekt (hormetischer Effekt) gut nachweisbar (Quelle: Wikipedia).

Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsassoziierter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Zu seinen Forschungsschwerpunkten gehören die Ursachen und Folgen des metabolischen Syndroms, einer Kombination aus Adipositas (Fettsucht), Hypertonie (Bluthochdruck), Insulinresistenz und Fettstoffwechselstörung, die Rolle der Ernährung für ein gesundes Altern sowie die biologischen Grundlagen von Nahrungsauswahl und Ernährungsverhalten. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung. Näheres unter http://www.dzd-ev.de.

Die Leibniz-Gemeinschaft vereint 89 Einrichtungen, die anwendungsbezogene Grundlagenforschung betreiben und wissenschaftliche Infrastruktur bereitstellen. Insgesamt beschäftigen die Leibniz-Einrichtungen rund 17.200 Menschen – darunter 8.200 Wissenschaftlerinnen und Wissenschaftler – bei einem Jahresetat von insgesamt knapp 1,5 Milliarden Euro. Die Leibniz-Gemeinschaft zeichnet sich durch die Vielfalt der in den Einrichtungen bearbeiteten Themen und Disziplinen aus. Die Forschungsmuseen der Leibniz-Gemeinschaft bewahren und erforschen das natürliche und kulturelle Erbe. Darüber hinaus sind sie Schaufenster der Forschung, Orte des Lernens und der Faszination für die Wissenschaft. Näheres unter http://www.leibniz-gemeinschaft.de.

Kontakt:
Dr. Michael Kruse
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 (0)33200 88-2782
E-Mail: michael.kruse@dife.de

Prof. Dr. Andreas F.H. Pfeiffer
Abteilung Klinische Ernährung
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal/Deutschland
Tel.: +49 (0)33200 88-2771
Tel.: +49 (0)30 450514 422
E-Mail: afhp@dife.de
E-Mail: afhp@charite.de

Weitere Informationen:
http://www.dife.de/forschung/abteilungen/kurzprofil.php?abt=KLE
Informationen zur Abteilung Klinische Ernährung am Deutschen Institut für Ernährungsforschung Potsdam-Rehbrücke (DIfE)

Quelle: idw

(nach oben)


Acht Jahre REACH – positive Bilanz, aber es bleibt viel zu tun

Fachleute aus Wirtschaft, Wissenschaft und Verwaltung diskutieren auf REACH-Kongress
Bundesumweltministerium (BMUB) und Umweltbundesamt (UBA) ziehen nach acht Jahren REACH eine positive Bilanz: „Die EU-Chemikalienverordnung REACH ist ein wichtiger Fortschritt hin zu einem besseren und nachhaltigen Umgang mit Chemikalien – in Europa und global. Gleichzeitig zeigt die Praxis, dass die Verordnung alle Akteure täglich aufs Neue fordert“, sagte UBA-Präsidentin Maria Krautzberger anlässlich der Eröffnung des deutschen REACH-Kongresses in Dessau-Roßlau mit 200 Fachleuten aus Wirtschaft, Wissenschaft und Verwaltung.
Ein wichtiger Schwerpunkt der Arbeit des UBA zu REACH ist, besonders besorgniserregende Substanzen zu identifizieren: „Das ist wissenschaftlich wie organisatorisch außerordentlich komplex. Manchen geht es hier zu langsam, und doch: Die Liste besonders besorgniserregender Substanzen umfasst inzwischen 155, ab Mitte Dezember vermutlich 161 Stoffe. 18 Vorschläge davon gehen auf Arbeiten des Umweltbundesamtes zurück“, sagte Krautzberger. Für die ersten der besonders besorgniserregenden Stoffe ist schon die Zulassungspflicht nach REACH wirksam, unter anderem für vier Phthalate, die wegen ihrer fruchtschädigenden Wirkung gelistet wurden.

Zulassungspflicht bedeutet, dass die Verwendung des Stoffes nur noch erlaubt ist, soweit die betreffende Anwendung von der EU-Kommission nach einem Zulassungsverfahren, in das alle Mitgliedstaaten involviert sind, explizit zugelassen ist. Unternehmen, die zulassungspflichtige Stoffe weiter einsetzen möchten, müssen in einem Zulassungsantrag die sichere Verwendung nachweisen oder zeigen, dass die beantragte Verwendung für die Gesellschaft insgesamt von Vorteil ist. In jedem Fall werden für die Zulassungen Überprüfungsfristen festgelegt, denn langfristig sollen alle zulassungspflichtigen Substanzen ersetzt werden, entweder durch geeignete Alternativstoffe oder mittels Alternativtechnologien, sofern diese wirtschaftlich und technisch tragfähig sind.

Gerade kleine und mittlere Unternehmen fordern beim Zulassungsverfahren mehr Unterstützung durch die Behörden. „Um den Unternehmen eine größere Planungssicherheit zu geben, werden zukünftig die deutschen Behörden frühzeitig über ihre regulatorische Arbeitsplanung informieren. Im Gegenzug erhalten sie dann von den Firmen praktische Informationen zum Einsatz der Chemikalien, die für die Wahl der angemessenen Regelungsinstrumente wichtig sind. Insgesamt soll das Zulassungsverfahren transparenter und die Zulassungschancen für die Antragsteller vorhersehbarer werden“, so Bundesum-weltministerin Barbara Hendricks. In einem Schreiben mehrerer Mitgliedstaaten an die neue Europäische Kommission mit der Forderung nach ambitionierter Fortentwicklung der Chemikalienpolitik, das auch Ministerin Hendricks unterzeichnete, wurde dieses Thema ebenfalls adressiert.

Ein wichtiges Anliegen von REACH ist die Transparenz, etwa über besorgniserregende Stoffe, die auch in Alltagsprodukten wie Textilien, Spielzeugen oder Haushaltsgeräten stecken können. Auf der Grundlage der REACH-Verordnung können sich Verbraucher erkundigen, ob Produkte solche Chemikalien enthalten. Durch ein Webangebot hat das UBA das Verfahren für alle Akteure vereinfacht – unter http://www.reach-info.de kann man eine Anfrage online stellen. Benötigt werden nur der Produktcode und die Kontaktdaten der Anfragenden. Händler, Hersteller und Importeure müssen dann innerhalb von 45 Tagen kostenlos darüber informieren, welche Stoffe der Kandidatenliste in einem Erzeugnis enthalten sind – unabhängig von einem möglichen Kauf.

Webseite REACH-Kongress
http://www.umweltbundesamt.de/themen/chemikalien/chemikalien-reach/reach-kongress-2014-start
Webseite REACH
http://www.reach-info.de/

Quelle: Umweltbundesamt

(nach oben)


Energiekabinett bringt keinen energiepolitischen Durchbruch

Zentrale Fragen des zukünftigen Strommarktes bleiben ungelöst / Energieeffizienz-Pläne leider weiter unter Finanzierungsvorbehalt

„Die heutigen Entscheidungen des Bundeskabinetts stellen leider noch keinen echten Durchbruch dar. Die zentralen energiepolitischen Herausforderungen wie insbesondere eine effektive CO2-Minderung in Europa und berechenbare Perspektiven für dringend notwendige Investitionen in einen hochmodernen konventionellen Kraftwerkspark bleiben ungelöst. Unklar bleibt zudem, wie im Rahmen des Aktionsplans Klimaschutz der zusätzliche Minderungsbeitrag der Stromerzeugung in Höhe von 22 Millionen Tonnen CO2 erreicht werden soll. Völlig unzureichend behandelt das Aktionsprogramm auch die schon heute kosteneffizient realisierbaren CO2-Minderungspotenziale der Kraft-Wärme-Kopplung. Das Potenzial eines verstärkten Erdgas-Einsatzes in der Stromerzeugung und in der Wärmeversorgung wird ebenfalls vernachlässigt“, sagte Hildegard Müller, Vorsitzende der BDEW-Hauptgeschäftsführung in Berlin zu den heute im Bundeskabinett verabschiedeten energiepolitischen Maßnahmen.

„Der Dialog über weiterführende Maßnahmen zur Reduktion der CO2-Emissionen in der Energiewirtschaft muss aus unserer Sicht in die zukünftige Diskussion zu den Perspektiven des Strommarktes eingebettet werden. Die Unternehmen brauchen Klarheit über die langfristigen Rahmenbedingungen für den deutschen Kraftwerkspark. Die Energiewirtschaft bekennt sich ausdrücklich zu den klimapolitischen Zielen der Bundesregierung, wenig zielführend sind aber nationale Maßnahmen, die im Bereich Stromerzeugung nur die nationale CO2-Bilanz statistisch verbessern, während die so eingesparten Treibhausgas-Emissionen nicht tatsächlich vermieden, sondern über den europäischen Emissions-Zertifikate-Handel lediglich ins europäische Ausland verlagert werden.

Grundsätzlich positiv bewertet der BDEW die im Nationalen Aktionsplan Energieeffizienz (NAPE) skizzierten Maßnahmen. Es ist allerdings mehr als bedauerlich, dass noch längst nicht alle Finanzierungsfragen geklärt sind. Maßnahmen, die mit zusätzlichen Ausgaben verbunden sind, hat das Kabinett unter einen Finanzierungsvorbehalt gestellt. Auch ist das Volumen der Maßnahmen zu gering. Dass die Bundesregierung endlich das Instrument der steuerlichen Förderung zur energetischen Gebäudesanierung aufgreift, ist zwar positiv. Es stellen sich jedoch nach einer ersten Bewertung noch Fragen an die Ausgestaltung. Auch die Bundesländer sind weiterhin gefordert, ihre Blockadehaltung der vergangenen Jahre zu überwinden.

Zu den positiven Aspekten zählt, dass die Bundesregierung im Bereich Energieeffizienz auf ordnungsrechtliche Zwangsinstrumente weitgehend verzichtet. Der BDEW hat heute zusammen mit anderen Wirtschaftsverbänden eine Vereinbarung zu Energie-Effizienz-Maßnahmen unterzeichnen. Die Energiewirtschaft beweist damit wieder einmal ihre Bereitschaft zu einem konstruktiven Dialog.

Auch im Bereich Erdgas-Mobilität ist es eine längst überfällige Entscheidung, dass die Steuerermäßigung für umweltschonende Erdgasfahrzeuge, die im Koalitionsvertrag angekündigt wurde, über das Jahr 2018 verlängert werden soll. Hierfür hat sich der BDEW immer wieder nachdrücklich eingesetzt. Aber auch hier gilt, dass die Erwähnung in einem Aktionsprogramm nach wie vor keine Realisierung der Maßnahme ist.

Das Kabinett hat heute zudem auch den Evaluierungsbericht zum Stand der Energiewende verabschiedet. Die Bundesregierung unternimmt mit dem Bericht den Versuch, die Vielfalt der Energiewende-Ziele neu zu strukturieren und zu ordnen. Klar benannt werden dort jetzt die politischen Ziele: CO2-Reduzierung, Versorgungssicherheit, Wettbewerbsfähigkeit und Kernenergie-Ausstieg. Der Ausbau der Erneuerbaren Energien und die Energieeffizienz sind nun Kernziele, die helfen sollen, die politischen Ziele zu erreichen. Auch Steuerungsziele werden benannt. Diese klare Ziel-Priorisierung unterstützen wir. Sie muss Ausgangspunkt einer intensiven Debatte über die zukünftige Ausrichtung der Energiepolitik in Deutschland werden.“

Quelle: BDEW

(nach oben)


Wie viel Sauerstoff war im Zürich-See?

Dr. Ernst Guggolz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Seit den späten 1980er Jahren sinkt der Sauerstoffgehalt in Binnengewässern. Ein neuer Indikator dokumentiert den Gehalt an Sauerstoff im Tiefenwasser der Seen ähnlich der Jahresringe der Bäume. Wie das funktioniert und was das Verhältnis von Mangan zu Eisen in den Seesedimenten über die Umwelt der Vergangenheit aussagt, steht in den „Nachrichten aus der Chemie“.

Umweltverschmutzung und steigende Wassertemperaturen durch den Klimawandel verringern den Sauerstoffgehalt in Gewässern, sodass Organismen darin an Sauerstoffmangel sterben. Um mehr über die Veränderungen der Sauerstoffgehalte in Seen in der Vergangenheit zu erfahren, haben Forscher Mangan- und Eisenverbindungen in den Sedimenten des Zürichsees untersucht.
Sedimente sind wasserhaltige Schlämme am Seegrund, die aus mineralischen und organischen Bestandteilen bestehen. Je nach Jahreszeit verändert sich die Zusammensetzung der Ablagerungen und somit auch deren Farbe. So ist, ähnlich wie bei den Jahresringen eines Baumes, eine Datierung möglich.

Um die Seesedimente im Tiefenwasser auf ihre Zusammensetzung zu untersuchen, entnahmen Wissenschaftler Bohrkerne. Ein Röntgenfluoreszenz-Kernscanner bestimmt anschließend die Mangan- und Eisenprofile im Sediment. Im Labor verglichen die Forscher die Mangan- und Eisenwerte mit den Sauerstoffmessdaten, die im Zürichsee seit dem Jahr 1936 monatlich in verschiedenen Tiefen erfasst und dokumentiert worden sind. Dabei zeigte sich ein Zusammenhang zwischen dem Verhältnis der beiden Metalle und den Trends der Sauerstoffmessdaten. Demnach ist das Verhältnis der Mangan- und Eisenwerte ein Indikator für den Sauerstoffgehalt im Tiefenwasser und damit für die jeweiligen Umweltbedingungen.

Die Geologen und Geochemiker Sebastian Näher, Adrian Gilli, Yvonne Hamann und Carsten Schubert erläutern in den „Nachrichten aus der Chemie“ das Verfahren, Sauerstoff anhand der Sedimente zu bestimmen, dessen Aussagekraft und Anwendung sowie erste Erkenntnisse über die historische Entwicklung des Zürichsees. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 60.000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte, das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen sowie der große Stellenmarkt.

Weitere Informationen:
http://www.nachrichtenausderchemie.de „Nachrichten aus der Chemie“

Quelle: idw

(nach oben)


Welches Umweltproblem hat Vorrang?

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Umweltdebatten sind von kulturellen Aspekten gefärbt. Zu diesem Schluss kommt der Skandinavist Dr. Reinhard Hennig in seiner Dissertation an der Universität Bonn. Er analysierte Beispiele aus der skandinavischen Umweltliteratur von den 1970er Jahren bis heute. Ergebnis: Was überhaupt als Umweltproblem wahrgenommen, wie darüber diskutiert wird und welche Lösungen vorgeschlagen werden, hängt stark vom nationalen Selbstverständnis ab.

Die Umweltbewegung war anfangs vor allem von ökologischen Fragen geprägt: Welche Risiken birgt die Nutzung der Kernkraft? Wie verbreitet ist das Artensterben? Was sind die Ursachen der globalen Erwärmung? „Für diese Fragen war zunächst vor allem naturwissenschaftliches Knowhow gefragt“, sagt der Skandinavist Dr. Reinhard Hennig. „Doch oft beeinflussen auch literarische Texte die Diskussion von Umweltfragen.“ Damit rücken die „environmental humanities“ zunehmend in den Blickpunkt. Dieses interdisziplinäre Forschungsfeld verbindet unter anderem umweltbezogene Literaturwissenschaft („Ecocriticism“), Umweltethik und Umweltgeschichte.

Einen solch umfassenden Ansatz verfolgte Dr. Hennig in seiner Dissertation an der Universität Bonn über umwelt-engagierte Literatur: Der Skandinavist analysierte und verglich Literaturbelege aus Island und Norwegen, die für einzelne Jahrzehnte repräsentativ sind. Die untersuchten Texte reichen zeitlich von Halldór Laxness‘ provokantem Essay „Der Krieg gegen das Land“ (1970) bis zu Jostein Gaarders Klimawandelroman „Anna“ (2013). Die Dissertation wurde von Privatdozent Dr. Thomas Fechner-Smarsly und Prof. Dr. Rudolf Simek betreut.

Island und Norwegen verfolgen gänzlich verschiedene Umweltthemen
Dr. Hennig ging davon aus, dass aufgrund der historischen und kulturellen Nähe von Island und Norwegen Umweltthemen einen ganz ähnlichen literarischen Niederschlag gefunden haben sollten. In seinen Untersuchungen zeigte sich aber, dass das genaue Gegenteil der Fall ist: Was überhaupt als Umweltproblem wahrgenommen, wie darüber diskutiert wird und welche Lösungen vorgeschlagen werden, unterscheiden sich in Island und Norwegen erheblich. Der Skandinavist führt diese verschiedene Wahrnehmung und den Umgang mit Umweltproblemen auf Unterschiede im nationalen Selbstverständnis der beiden skandinavischen Staaten zurück.

Welche umweltbezogenen Fragen wurden in den vergangenen Jahrzehnten diskutiert? Welche Argumente wurden ausgetauscht? „In Island rücken Klimaerwärmung und globales Artensterben in den Hintergrund. Die Debatten konzentrieren sich auf Naturschutzfragen vor Ort – vorrangig zum Bau von Wasserkraftwerken“, fasst Dr. Hennig zusammen. Da das ursprüngliche Pflanzenkleid auf der Insel weitgehend verschwunden ist, würden die Stauseen vor allem als ein Angriff auf die typische Landschaft der Nation gesehen.

Lange Zeit von fremden Mächten bestimmt, wurde Island erst 1918 formal unabhängig. „Die Angst vor einem Verlust der Souveränität ist jedoch nach wie vor groß“, sagt der Forscher. Deshalb werde der Bau von Wasserkraftwerken als Ausverkauf nationaler Interessen gesehen, weil damit Strom für die Aluminiumindustrie internationaler Großkonzerne produziert werden soll. „In der Literatur wird immer wieder ins Feld geführt, dass damit die Unabhängigkeit Islands riskiert werde. Dieser reflexartige Isolationismus verhindert aber zugleich, dass globale ökologische Probleme überhaupt diskutiert werden“, erklärt Dr. Hennig.

In der norwegischen Literatur wird dagegen deutlich, dass sich das Land als humanitär-ökologische Großmacht versteht. „Entwicklungshilfe, internationale Friedensvermittlung, Schutz von Menschenrechten und der Umwelt werden in Norwegen als positive Verkörperungen einer globalen Sonderrolle der eigenen Nation aufgefasst“, führt der Skandinavist aus. Dieses Selbstbild paust sich auch in der Umweltliteratur durch: Die globalen Herausforderungen wie Artensterben und Klimawandel spielen in den Debatten eine große Rolle. Vor diesem Hintergrund wird jedoch die Erdöl- und Erdgasförderung, eine Haupteinnahmequelle Norwegens, kritisiert: „Schließlich führt die Förderung fossiler Brennstoffe zu mehr Treibhausgasen“, erklärt Dr. Hennig. Dies thematisiere zum Beispiel Jostein Gaarder, Autor des berühmten Philosophie-Romans „Sofies Welt“, in seinem literarischen Frontalangriff auf die Erdölwirtschaft.

Praktische Konsequenzen für die Kommunikation
Bislang sei der große Einfluss von nationaler Identität und kulturellen Hintergründen auf Umweltdebatten nicht ausreichend erkannt worden, stellt der Skandinavist der Universität Bonn fest. Die Ergebnisse der Dissertation haben daher auch ganz praktische Konsequenzen: „Sie zeigen, dass die Kommunikation wichtiger Umweltthemen erfolgreicher sein kann, wenn sie kulturell bedingte Unterschiede berücksichtigt“, sagt Dr. Hennig.

Publikation: Reinhard Hennig: Umwelt-engagierte Literatur aus Island und Norwegen. Ein interdisziplinärer Beitrag zu den environmental humanities. Texte und Untersuchungen zur Germanistik und Skandinavistik, Bd. 66, Verlag Peter Lang, 399 S., 74,95 Euro (Print) und 83,30 Euro (eBook)

Quelle: idw

(nach oben)


Studie: Gefahr für die Honigbiene durch die Erwärmung des Weltklimas

Kerrin Zielke Stabsstelle für Presse und Kommunikation
Freie Universität Berlin

Wissenschaftler der Freien Universität und der Bundesanstalt für Materialforschung und -prüfung sowie der Martin-Luther-Universität Halle-Wittenberg und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig sehen eine verstärkte Gefährdung der Honigbiene in Europa. Sie fanden heraus, dass die Verbreitung eines asiatischen Honigbienen-Parasiten in Europa durch einen Anstieg der weltweiten Temperaturen begünstigt wird. Dieser Parasit verursacht Nosemose, eine schwere Erkrankung der Honigbiene. Die Ergebnisse der Studie sind in der jüngsten Ausgabe des Fachjournals „Proceedings of the Royal Society B“ (Biological Sciences) veröffentlicht worden.

Wissenschaftler der Freien Universität und der Bundesanstalt für Materialforschung und -prüfung sowie der Martin-Luther-Universität Halle-Wittenberg und des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig sehen eine verstärkte Gefährdung der Honigbiene in Europa. Sie fanden heraus, dass die Verbreitung eines asiatischen Honigbienen-Parasiten in Europa durch einen Anstieg der weltweiten Temperaturen begünstigt wird. Dieser Parasit verursacht Nosemose, eine schwere Erkrankung der Honigbiene. Die Ergebnisse der Studie sind in der jüngsten Ausgabe des Fachjournals Proceedings of the Royal Society B (Biological Sciences) veröffentlicht worden.

Ursprünglich in Europa war allein der Honigbienen-Parasit Nosema apis verbreitet, in Asien der Parasit Nosema ceranae. Erst in jüngerer Zeit wurde Nosema ceranae auch in europäischen Bienenvölkern entdeckt; er hat die Tendenz, den ursprünglichen Parasiten zurückzudrängen. „Nicht allein die Widerstandsfähigkeit des neuen Parasiten begünstigt dessen Ausbreitung, auch klimatische Parameter müssen berücksichtigt werden. Der neue Parasit kann sich unter bestimmten Gegebenheiten besser ausbreiten als der einheimische“, sagt Myrsini Natsopoulou von der Martin-Luther-Universität Halle-Wittenberg. Sie leitete die Studie gemeinsam mit Dino McMahon, Professor an der Freien Universität Berlin und der Bundesanstalt für Materialforschung und -prüfung.

Die Wissenschaftler verglichen das Wachstum der Erreger in Honigbienen, die von beiden Parasitenarten befallen waren, also von der asiatischen Variante Nosema ceranae und vom einheimischen Verwandten Nosema apis. Die Experimente zeigten, dass beide Parasiten das Wachstum des anderen hemmten, aber der asiatische Parasit einen größeren negativen Einfluss auf den Konkurrenten hatte. Indem sie die Konkurrenz der Parasiten untereinander mit klimatischen Faktoren in ein mathematisches Modell integrierten, konnten die Wissenschaftler die relative Häufigkeit der beiden Parasitenarten in der Natur prognostizieren. „Der neue Parasit ist anfälliger für Kälte, was vermutlich mit seiner angenommenen Herkunft aus Ostasien zusammenhängt“, erläutert der Mitautor der Studie Robert Paxton, Professor an der Martin-Luther-Universität Halle-Wittenberg und Mitglied des Deutschen Zentrums für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig. „Angesichts steigender Temperaturen weltweit legen unsere Erkenntnisse nahe, dass sich das Vorkommen des neuen Parasiten weiter ausbreiten wird und dies womöglich zu weiteren Verlusten von Honigbienenvölkern führt.“

Die Studie wurde finanziert durch das Bundesministerium für Ernährung und Landwirtschaft und die UK Insect Pollinators Initiative.

Publikation
Natsopoulou ME, McMahon DP, Doublet V, Bryden J, Paxton RJ. (2015) Interspecific competition in honey bee intracellular gut parasites is asymmetric and favours the spread of an emerging infectious disease. Proceedings of the Royal Society B: Biological Sciences. 20141896. http://dx.doi.org/10.1098/rspb.2014.1896

Weitere Informationen
Prof. Dr. Dino McMahon, Institut für Biologie der Freien Universität Berlin und Bundesanstalt für Materialforschung und -prüfung (BAM), Telefon: 030 / 8104-3837, E-Mail: dino-peter.mcmahon@bam.de
Prof. Dr. Robert Paxton, Institut für Biologie der Martin-Luther-Universität Halle-Wittenberg, Telefon: 0345 / 55-26500, E-Mail: robert.paxton@zoologie.uni-halle.de

Quelle: idw

(nach oben)


Zeig‘ mir Deine Zähne: Implantate verbessern die Lebensqualität im Alter

Dipl. Biol. Barbara Ritzert Pro Science Communications
Deutsche Gesellschaft für Implantologie im Zahn-, Mund- und Kieferbereich e. V.

Zähne sind ein „Ausweis“ im Gesicht. Wie Menschen von ihrem Gegenüber beurteilt werden, hängt unter anderem vom Zustand ihrer Zähne ab – auch im höheren Alter. Dies zeigt eine Studie, an der erstmals auch ältere Menschen teilnahmen. „Ältere profitieren jedoch nicht nur aus sozialen, sondern vor allem aus medizinischen Gründen von Zahnimplantaten, wenn die Indikation korrekt gestellt und reversible Versorgungen gewählt werden“, erklärt Prof. Dr. Frauke Müller von der Abteilung für Gerodontologie und Prothetik der Universität Genf auf dem 27. Kongress der Deutschen Gesellschaft für Implantologie.

Die natürlichen Zähne bleiben bei einer steigenden Zahl von Menschen bis ins hohe Alter erhalten. „Da gleichzeitig die Lebenserwartung steigt, wächst die Zahl der Patienten, die erst im höheren oder hohen Alter mit Zahnersatz versorgt werden müssen“, erklärt Prof. Dr. Frauke Müller von der Abteilung für Gerodontologie und Prothetik der Universität Genf. Dabei spielt neben der Wiederherstellung der Funktion auch die mundgesundheitsbezogene Lebensqualität eine Rolle, zu der natürlich soziale Faktoren gehören.
Zeig‘ mir Deine Zähne … Vom Erscheinungsbild der Zähne hängt beispielsweise ab, wie Menschen Sozialstatus und Bildungsgrad eines anderen beurteilen. Das Team um Frauke Müller untersuchte, wie Versuchspersonen verschiedener Altersgruppen ältere Menschen (Mann und Frau) beurteilten, auf deren Foto die Forscher mittels Bildbearbeitung die Zahnsituation verändert hatten. Getestet wurde dabei der Einfluss beschädigter, altersgemäßer und idealer Zähne. In allen Altersgruppen beeinflusste der Zustand des Gebisses das Urteil. Je regelmässiger die Zähne, desto höher wurde der soziale Status der abgebildeten Personen bewertet. Nur das Urteil von über 80-jährigen Testpersonen wurde vom Zustand der Zähne weniger beeinflusst.

Implantate verbessern die Kaueffizienz.
„Kauen hat auf den Körper dieselben postiven Effekte wie Sport; die Herzfrequenz steigt, die Muskulatur wird trainiert, Kognition und Konzentration werden günstig beeinflusst“, sagt Professor Müller – und fügt mit einem Augenzwinkern hinzu: „Kauen ist ein Sport, der auch im Sitzen und beim Fernsehen funktioniert.“ Darum ist der Erhalt der Kaufunktion von großer Bedeutung. „Alte Leute sollten so lange wie es geht feste Nahrung zu sich nehmen und nicht, wie es in vielen Pflegeheimen üblich ist, einfach auf pürrierte Nahrung gesetzt werden“, betont Professor Müller. Mit dem Zahnverlust geht auch oft eine unbemerkte Umstellung der Nahrungsauswahl einher – verzehrt wird vorzugsweise, was einfach zu kauen ist. Alte Menschen brauchen zwar weniger Kalorien, aber qualitativ die selben Nahrungselemente wie jüngere Menschen. Darum nehmen implantatprothetische Versorgungen im hohen und auch sehr hohen Alter inzwischen einen unumstrittenen Platz im Behandlungsspektrum für zahnlose Patienten ein.

Flexible Versorgungen.
Da die Menschen älter werden, muss eine Implantatversorgung jedoch anpassungsfähig sein. „Beim Alterungsprozess, ändert sich nicht nur die Physiologie, sondern auch die Anatomie“, erklärt Frauke Müller. Dann kann sich ein Vorteil der Implantate – ihre lange Haltbarkeit – als Nachteil erweisen. Wenn das Seh- und Tastvermögen sowie die Geschicklichkeit schwinden, fällt die Mundhygiene zunehmend schwerer. Wenn Implantatträger zu Pflegefällen werden, sind die Pflegekräfte ebenfalls oft mit der Mundhygiene überfordert. Dann droht eine Entzündung der Gewebe um Implantate herum, die Periimplantitis. Eine Pflegeanweisung des Zahnarztes an das Heim hilft dem Personal bei der individuellen Mundhygiene.
„Wir brauchen aus all diesen Gründen in der Implantologie reversible Lösungen“, betont die Expertin. „Wenn Patienten eine implantatgetragene Prothese nicht mehr tragen wollen oder können, dann muss das, was wir eingesetzt haben, herausschraubbar sein, dann müssen wir die Implantate „schlafen legen“.

Alte Menschen sollten am Fortschritt teilhaben.
„Viele Ältere könnten eine bessere orale Lebensqualität haben, sie werden aber nicht informiert und oft sogar nicht untersucht“, kritisiert Professor Müller. Schon zwei Implantate können beispielsweise im zahnlosen Unterkiefer einer Prothese festen Halt geben. Ob auch ein Implantat ausreichend sein könnte, ist noch unklar, weil Langzeitergebnisse fehlen.
Die negative Einstellung älterer Menschen gegenüber einer Implantatversorgung hat vor allem mit Informationsdefiziten zu tun. Viele ältere Menschen lehnen besonders den chirurgischen Eingriff ab. In solchen Fällen setzt Frauke Müller auf gute Information: „Wenn wir die Patienten über die modernen minimalinvasiven Techniken und über kürzere und schmalere Implantate aufklären, gehen die Vorbehalte zurück.“

Die Deutsche Gesellschaft für Implantologie im Mund-, Kiefer- und Gesichtsbereich e.V. (DGI) ist mit mehr als 8000 Mitgliedern – Zahnärzten, Oralchirurgen, Mund-, Kiefer- und Gesichtschirurgen – die größte wissenschaftliche Gesellschaft im Bereich der Implantologie in Europa und die größte weltweit. Als einzige implantologische Fachgesellschaft ist sie auch Mitglied der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften (AWMF). Markenzeichen der DGI ist die enge Kooperation von Praktikern und Hochschullehrern. Deren gemeinsames Ziel ist die schnelle Umsetzung gesicherten Wissens und neuer Erkenntnisse in die Praxis durch ein differenziertes Fortbildungsangebot – zum Nutzen von Patientinnen und Patienten. Mehr Informationen: www.dgi-ev.de

Weitere Informationen:
http://www.dgi-kongress.de

Quelle: idw

(nach oben)


Zukunft von Feuerwehren und Katastrophenschutz in Gefahr?

Dr. Volker Hielscher Pressestelle
Institut für Sozialforschung und Sozialwirtschaft e.V. (iso)

Die Folgen des demografischen Wandels treffen auch den Zivil- und Katastrophenschutz. Die Alterung der Gesellschaft und schrumpfende Zahlen von Personen in jüngeren und mittleren Jahrgängen machen die Rekrutierung freiwilliger Helferinnen und Helfer schwieriger. Vor diesem Hintergrund hatte die Innenministerkonferenz von Bund und Ländern Teilstudien zu neuen Zielgruppen für Feuerwehren und Hilfsorganisationen in Auftrag gegeben. Das iso-Institut für Sozialforschung und Sozialwirtschaft in Saarbrücken hat nun eine analytische Auswertung dieser Studien vorgelegt und Handlungsempfehlungen zum Erhalt der Leistungsfähigkeit des Zivil- und Katastrophenschutzes entwickelt.

In Deutschland sind ehrenamtliche Helferinnen und Helfer für das Funktionieren von Feuerwehren und Hilfsorganisationen im Brand- oder Katastrophenfall unverzichtbar. Diese Säule des Zivil- und Katastrophenschutzes scheint nun unübersehbare Risse zu bekommen: „Es wird immer schwieriger, in diesem Bereich noch genügend freiwillige Helferinnen und Helfer zu finden, die bereit sind, sich über viele Jahre hinweg zu engagieren“, so die Autoren Dr. Volker Hielscher und Lukas Nock vom iso-Institut. Die Auswertung der Wissenschaftler hat nun gezeigt, dass Frauen, Migrantinnen und Migranten sowie ältere Menschen bei Feuerwehren und Hilfsorganisationen bisher noch unterrepräsentiert sind. Bei der Ansprache neuer Zielgruppen steht der Zivil- und Katastrophenschutz allerdings in Konkurrenz zu anderen Organisationen, etwa aus dem Bereich von Pflege und Betreuung oder aus dem Umweltschutz. Zudem sind zielgruppenbezogene Strategien voraussetzungsvoll, weil sie einer interkulturellen Öffnung und eines funktionierenden Gender-Mainstreamings bei den Organisationen bedürfen.
Die Handlungsempfehlungen der Expertise wurden in der Länder-offenen Arbeitsgruppe „Auswirkungen des Demographischen Wandels auf den Bevölkerungsschutz“ der Innenministerkonferenz intensiv diskutiert. Den Hilfsorganisationen wird neben einer Optimierung der Öffentlichkeitsarbeit empfohlen, die Arbeitspraxis der Organisationen kulturell zu öffnen und auch niedrigschwellige Engagementmöglichkeiten anzubieten. An politische Entscheidungsträger geht die Empfehlung, die Anreize für bürgerschaftliches Engagement weiter zu verbessern und Unternehmen sowie Wirtschaftsverbände stärker in die Belange des bürgerschaftlichen Engagements einzubinden. Zur Sicherung der Zukunftsfähigkeit des Zivil- und Katastrophenschutzes wird zudem die Entwicklung einer langfristigen Strategie angeraten, die die Verantwortlichkeiten zwischen Bund und Ländern klärt und die Arbeitsteilung zwischen den Hilfsorganisationen überprüft, so dass Doppelstrukturen abgebaut und Synergieeffekte gewonnen werden können. Schließlich sollte dabei auch das Verhältnis von ehrenamtlichem Engagement und professionellen Kräften der Hilfsorganisationen zeitgemäß ausbalanciert werden. Die Studie ist als iso-Report Nr. 3 zum kostenfreien Download verfügbar unter www.iso-institut.de

Quelle: idw

(nach oben)


Leichter Rückgang der Arbeits- und Wegeunfälle im ersten Halbjahr 2014

Deutlicher Anstieg bei den Schulunfällen

Im ersten Halbjahr 2014 ist die Zahl der meldepflichtigen Arbeitsunfälle nach vorläufigen Angaben abermals leicht um 1,1 Prozent gegenüber dem Vorjahreszeitraum gesunken. Gemeldet wurden insgesamt 430.939 Unfälle bei der Arbeit. Noch deutlicher gingen die meldepflichtigen Wegeunfälle zurück: Ihre Zahl sank um 10,7 Prozent auf 86.881. Hintergrund dieser Entwicklung ist der milde Winter 2013/14. Im Winter zuvor hatte es hingegen viel Schnee und Eis gegeben. Dementsprechend waren die Unfallzahlen in die Höhe geschnellt.

2014 ging auch die Zahl der tödlichen Wegeunfälle zurück. Anders sieht es bei den Arbeitsunfällen aus: 211 endeten tödlich, das sind 14 mehr als im ersten Halbjahr 2013.

Erhöht hat sich die Zahl der meldepflichtigen Schulunfälle. Sie stieg um 9,3 Prozent auf 669.214 Fälle. In der Schüler-Unfallversicherung ist jeder Unfall meldepflichtig, der ärztliche Behandlung nach sich zieht. Die Entwicklung der Schülerunfälle ist möglicherweise darauf zurück zu führen, dass immer mehr Kinder und Jugendliche Ganztagseinrichtungen besuchen. Sie verbringen damit mehr Zeit in Bildungseinrichtungen als zuvor.

Auf den Schulwegen passierten hingegen kaum mehr Unfälle als im Vorjahr. Auch die Zahl der tödlichen Schülerunfälle ging zurück: um 6 auf 20.

Quelle: idw

(nach oben)


Neues Risiko Pedelec?

Dipl.-Ing. Mario Steinebach Pressestelle
Technische Universität Chemnitz

Arbeitspsychologen und Sportgerätetechniker der TU Chemnitz führten für die Unfallforschung der Versicherer eine Studie zum natürlichen Fahrverhalten von Fahrrad- und Elektrofahrradfahrern durch

Elektrofahrräder (Pedelecs) liegen im Trend. Allein im Jahr 2013 wurden 410.000 dieser Fahrräder verkauft. Tendenz steigend. Damit ergeben sich neue Herausforderungen für die Verkehrssicherheit. Die Frage, wie sich die potenziell höheren Geschwindigkeiten auf das Fahrverhalten und das Unfallgeschehen auswirken, ist bisher völlig offen. Die Unfallforschung der Versicherer untersuchte daher gemeinsam mit der Professur Allgemeine und Arbeitspsychologie der Technischen Universität Chemnitz die Mobilität, die Geschwindigkeit und die Verkehrssicherheit von Elektroradfahrern im Vergleich zu Fahrradfahrern. Dazu wurden Sensoren und Kameras an den Zweirädern von insgesamt 90 Teilnehmern im Alter von 16 bis 83 Jahren installiert. Davon waren 31 Fahrradfahrer, 49 Pedelec-Fahrer (Motorunterstützung bis 25 km/h) und 10 S-Pedelec-Fahrer (Motorunterstützung bis 45 km/h). Über einen Zeitraum von vier Wochen wurde das natürliche Fahrverhalten der Teilnehmer aufgezeichnet. Zudem wurden mittels Befragungen die subjektiven Erfahrungen der Nutzer erfasst.

Im Ergebnis zeichnet die Studie folgendes Bild: Pedelecs werden gegenwärtig vor allem von älteren Personen gefahren. Pedelecs und Fahrräder werden in ähnlichem Umfang und zu ähnlichen Zwecken eingesetzt. Lediglich bei den S-Pedelec-Fahrern dominieren die Arbeitswege. S-Pedelec-Fahrer erreichen statistisch signifikant höhere Durchschnittsgeschwindigkeiten, als Fahrrad- und Pedelec-Fahrer. Pedelec-Fahrer sind geringfügig schneller unterwegs als Fahrradfahrer. Sie scheinen die Motorunterstützung in erster Linie einzusetzen, um mit geringerem Aufwand Geschwindigkeiten zu erzielen wie sie auch mit herkömmlichen Fahrrädern erreicht werden.

Alle drei Zweiradtypen erleben ähnlich häufig kritische Situationen im Straßenverkehr. Am häufigsten werden für alle drei Zweiradtypen Konflikte im Längsverkehr, Einbiegen-/Kreuzen- oder Abbiege-Konflikte beobachtet. Entsprechend der Exposition ereignen sich die meisten Konflikte mit Pkw, gefolgt von Fußgängern und Fahrrad- bzw. Elektrofahrradfahrern. Dahinter verbergen sich typischerweise Vorfahrtsmissachtungen bzw. Auspark- oder Wendemanöver der Pkw sowie Querungen, das Vorauslaufen oder Entgegenkommen von Fußgängern bzw. anderen Radfahrern. Auch die höhere Durchschnittsgeschwindigkeit von S-Pedelec-Fahrern führt zu keiner Häufung von kritischen Situationen. Das Konfliktgeschehen von Pedelec- und S-Pedelec-Fahrern entspricht damit dem klassischen Radunfallgeschehen.

Der Vergleich von Fahrräder und Elektrofahrrädern zeigte, dass Elektrofahrräder per se keinem erhöhten oder anders gelagertem Sicherheitsrisiko als Fahrräder unterliegen. Die potenziell höheren Geschwindigkeiten werden vor allem von S-Pedelec-Fahrern realisiert, während für Pedelec-Fahrer der erhöhte Komfort im Mittelpunkt steht. Die rechtliche Einordnung von Pedelec als Fahrrad und von S-Pedelec als Kleinkraftrad erscheint vor dem Hintergrund der Ergebnisse gerechtfertigt. Aufgrund der höheren Durchschnittsgeschwindigkeit von S-Pedelec-Fahrern ist zu empfehlen, dass diese auch weiterhin nur auf der Fahrbahn zugelassen sind und einer Helm- und Versicherungspflicht unterliegen. Es ist durchaus möglich, dass S-Pedelec-Fahrer zwar nicht häufiger in Unfälle verwickelt sind, aber dann schwerer verletzt werden. Erste Ergebnisse aus der Schweiz legen diesen Schluss nahe.

Die stärkere Variation der Geschwindigkeit von Pedelec-Fahrern im Vergleich zu Fahrradfahrern in Verbindung mit ihrer zunehmenden Verbreitung stellt besondere Anforderungen an die Dimensionierung der Radinfrastruktur. Sie sollte so ausgestaltet sein, dass sichere Überholvorgänge von Zweiradfahrern untereinander möglich sind. Da ein Teil der S-Pedelec-Fahrer immer noch die Radinfrastruktur statt der Fahrbahn nutzt, ist hier verstärkt Aufklärung zu betreiben.

Weitere Informationen:
https://www.tu-chemnitz.de/hsw/psychologie/professuren/allpsy1/verkehr/ncs.php

Kontakt:
Dipl. Psych. Katja Schleinitz, Telefon 0371 531-39161, E-Mail katja.schleinitz@psychologie.tu-chemnitz.de, Dr. Tina Gehlert, Unfallforschung der Versicherer, E-Mail t.gehlert@gdv.de

(Quelle: Unfallforschung der Versicherer, www.udv.de)

Quelle: idw

(nach oben)


Rotweinbestandteil Resveratrol wirkt entzündungshemmend

Oliver Kreft Stabsstelle Kommunikation und Presse
Universitätsmedizin der Johannes Gutenberg-Universität Mainz

Der in Rotwein vorkommende Naturstoff Resveratrol hemmt die Bildung von Entzündungsfaktoren, die Herz-Kreislauf-Erkrankungen auslösen. Das fand eine Forschergruppe um Juniorprofessorin Dr. Andrea Pautz und Univ. Prof. Dr. Hartmut Kleinert vom Institut für Pharmakologie der Universitätsmedizin Mainz in Kooperation mit Wissenschaftlern der Universität Jena und der Universität Wien heraus. Die Forschungsergebnisse wurden im Wissenschaftsmagazin Nucleic Acids Research publiziert.

Trotz fettreichem Essen findet sich in Frankreich eine geringere Herzerkrankungsrate als in Deutschland. Das sogenannte „French paradox“ wird dem Rotweingenuss der Franzosen zugeschrieben. Dieses Phänomen gab in der Vergangenheit Anlass zu verschiedenen Studien.
In diversen Forschungsprojekten ließ sich bereits zeigen, dass der in Rotwein enthaltene Naturstoff Resveratrol eine schützende Wirkung gegen Herz-Kreislauf-Erkrankungen hat. Doch wie genau sind die Wirkzusammenhänge? Zumindest ein Teil der schützenden Wirkung ist durch die Hemmung der Bildung von Entzündungsfaktoren durch Resveratrol zu erklären. Dieser Nachweis gelang nun einem Forscherteam um Juniorprofessorin Andrea Pautz und Professor Hartmut Kleinert, beide vom Institut für Pharmakologie der Universitätsmedizin Mainz, in einer gemeinsamen Forschungsarbeit mit Professor Oliver Werz von der Universität Jena und Professorin Verena Dirsch von der Universität Wien. Konkret fanden die Wissenschaftler heraus, dass der Naturstoff an das Regulatorprotein KSRP bindet und es dabei aktiviert. KSRP verringert die Stabilität der Boten-RNA (mRNA) für eine Vielzahl von entzündlichen Mediatoren und hemmt so deren Bildung.
„Wir wissen jetzt genauer, wie Resveratrol die Bildung von Entzündungsfaktoren hemmt, die Herz-Kreislauf-Erkrankungen auslösen. Das ist eine wichtige Entdeckung vor dem Hintergrund, dass neuere Forschungen belegen, dass Herzkreislauferkrankungen sehr stark durch Entzündungsprozesse im Körper vorangetrieben werden“, sagt Juniorprofessorin Dr. Andrea Pautz. Herz-Kreislauf-Erkrankungen wie Herzinfarkt und Schlaganfall treten so gehäuft bei chronisch entzündlichen Erkrankungen (wie dem Rheuma) auf. Der Naturstoff Resveratrol hat also insbesondere bei entzündlichen Erkrankungen, die mit einer starken Schädigung des Herz-Kreislauf-Systems einhergehen, ein großes therapeutisches Potential.

Originalpublikation:
Andrea Pautz, Hartmut Kleinert (beide Universitätsmedizin Mainz), Oliver Werz (Universität Jena), Verena Dirsch (Universität Wien) et al. Resveratrol post-transcriptionally regulates pro-inflammatory gene expression via regulation of KSRP RNA binding activity, Nucleic Acids Research, Nucl. Acids Res. (2014) doi: 10.1093/nar/gku1033

Kontakt:
Univ. Prof. Dr. Hartmut Kleinert, Komm. Direktor des Instituts für Pharmakologie, Universitätsmedizin Mainz, Tel. 06131 17 9150, Fax 06131 17 9043, E-Mail: kleinert@uni-mainz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.300 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.500 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein

Quelle: idw

(nach oben)


Frühwarnsystem für Deiche besteht Praxistest

Dr. Norbert Aschenbrenner Corporate Communications, Corporate Technology
Siemens AG

Sensoren und eine intelligente Auswertung ihrer Daten können Schäden an Deichen frühzeitig erkennen und so auch größere Abschnitte absichern. Die von Siemens entwickelte Technologie hat ihren Praxistest bestanden: Derzeit ist eine Kette von Sensoren auf einer Länge von fünf Kilometern an einem Deich in Amsterdam installiert und liefert permanent Informationen über dessen Zustand. Nach Abschätzungen von Experten könnte das automatische Deichmonitoring die Instandhaltungskosten um zehn bis maximal 20 Prozent senken.

Deichschutz bekommt angesichts steigender Meeresspiegel und zunehmender Stürme weltweit zunehmende Bedeutung. Mehr als zwei Drittel der Städte in Europa setzen sich bereits jetzt damit auseinander, wie sie sich vor Hochwasser schützen -am Meer und an Flüssen. Nach Angaben des Rückversicherers Munich Re machten Überschwemmungen 2013 knapp 40 Prozent der weltweiten Gesamtschäden aus Naturkatastrophen aus.

Zustandsinformationen in Echtzeit
Waternet Amsterdam, Pilotkunde des Deichmonitorings und Betreiber des örtlichen Trink- und Abwassernetzes und des Deichschutzes, ist verantwortlich für mehr als 1.000 Deichkilometer im Großraum Amsterdam. Auf den 700 Quadratkilometern Land dahinter leben mehr als eine Million Menschen. Je nach Material des Deiches wurden diese bisher alle fünf bis 30 Jahre gewartet. Ob Sand, Lehm, Torf oder Erde – die Stabilität musste in regelmäßigen Intervallen gemessen werden. Alle paar Jahre machten Experten eine Begehung und versenkten Messgeräte im Boden.

Heute sind die Informationen in Echtzeit auf dem Smartphone verfügbar. Um die Batterien zu schonen, kommen die Zustandsmeldungen einmal pro Stunde und im Gefahrenfall im Minutentakt. Erhoben werden die Daten von Sensoren, die etwa alle 100 Meter im Deich versenkt und über und unter der Oberfläche von Wasserläufen installiert werden. Sie messen Temperatur, Druck und Feuchtigkeit im Deich, Wasserstand und Wassertemperatur im Kanal und senden die Ergebnisse via GPRS-Mobilfunk an eine Zentrale, wo die Daten aufbereitet und mit Langzeitwerten abgeglichen werden.

Wärmerer Deich bedeutet eindringendes Wasser
Wenn beispielsweise plötzlich 14 Grad Innentemperatur im Deich gemessen werden, könnte das ein Hinweis sein, dass ein Bruch droht, weil wärmeres Wasser von außen eingedrungen sein muss. Das Grundwasser, und damit normalerweise das Innere des Deichs, hat etwa acht Grad. Das System gleicht die Echtzeitdaten mit gespeicherten Langzeitmessungen ab. Wie hoch ist der Grundwasserpegel? Wie viel Niederschlag fällt normalerweise zu dieser Jahreszeit an dieser Stelle? Herrschte zuvor eine Trockenperiode, kann der Deich also Wasser aufnehmen oder ist er schon gesättigt? Auch das Material des Deichs spielt eine Rolle, weil es Aussagen erlaubt, wie wahrscheinlich ein Abrutschen des Hangs ist.

Die neuronalen Netze unterscheiden zwischen typischen Schwankungen und untypischen Abweichungen und schlagen erst dann Alarm – oft Wochen oder Monate im Voraus. Die Software kann sogar bei gleichen Voraussetzungen exakte Schlüsse ziehen für jene Deichabschnitte, in denen keine Sensoren stecken.

Pressebild:
http://www.siemens.com/press/de/pressebilder/innovationnews/2014/im2014110138cod…

Weitere Informationen:
http://www.siemens.de/innovationnews

Quelle: idw

(nach oben)


Bislang kein Hinweis auf Botox-Bakterien in niedersächsischen Biogasanlagen

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Aktuelle Ergebnisse aus einen Forschungsprojekt des Thünen-Instituts für Biodiversität

Landwirtschaftliche Biogasanlagen vergären organische Reststoffe und pflanzliche Biomasse zu Methan, das als Energiequelle genutzt wird. Der Gärungsprozess wird durch das Zusammenwirken einer komplexen Mikroorganismen-Gemeinschaft verursacht, die typischerweise viele Clostridien enthält. In der Gruppe der Clostridien gibt es neben vielen harmlosen Arten auch einige, die im Zusammenhang mit Vergiftungen und Krankheiten bei Mensch und Tier stehen.

Ob niedersächsische Biogasanlagen mit ihren typischen Substraten (Gülle, Silage, Hühnertrockenkot) auch problematische Clostridien enthält, vor allem den Produzenten des gefährlichen Botulinum-Toxins („Botox“), Clostridium botulinum, und ob sich diese vermehren können, untersucht eine Arbeitsgruppe am Thünen-Institut für Biodiversität in Braunschweig in Zusammenarbeit mit der Hochschule für Angewandte Wissenschaft und Kunst (HAWK), Fakultät Ressourcenmanagement (Göttingen). Die Arbeiten werden durch das Niedersächsische Landwirtschaftsministerium gefördert.

Die Thünen-Forschergruppe unter der Leitung von Prof. Dr. Christoph Tebbe setzt für ihre Untersuchungen neuartige molekulare Methoden ein. Sie sequenziert einzelne Abschnitte der Erbsubstanz (DNA), um so Hinweise auf das Vorkommen von C. botulinum zu erhalten. Der einzig gültige Beweis, ob C. botulinum vorhanden ist, muss allerdings im Mäuse-Test erfolgen, denn nur im lebenden Tier kann die Wirksamkeit bewiesen werden. „Dank unseres molekularen Verfahrens können Mäuse-Tests für die Untersuchung von Umweltproben extrem eingeschränkt werden“, so Tebbe.

Bisher wurden in dem Projekt eine halbe Millionen Gene aus den Substraten, Fermentern und Nachgärern untersucht. Tatsächlich fanden sich Gene, die auf C. botulinum hinweisen, wenn auch nur in sehr niedriger Häufigkeit: Je nach Probe zwischen 0,003 bis 0,18 % aller Clostridien. Gene für das Botulinum-Toxin konnten dabei nicht nachgewiesen werden. Auch die Mäusetest mit ausgewählten verdächtigen Proben, durchgeführt von einem zertifizierten Labor, gaben Entwarnung: Alle getesteten Proben waren für Mäuse nicht giftig. Tebbe: „Der molekulare Nachweis zeigt, dass es eng verwandte Bakterien von C. botulinum gibt, die keine Botulinum-Toxine bilden können“.

Noch steht die Analyse weiterer 50 Millionen Gene aus; das Projekt soll bis Ende 2014 abgeschlossen sein. Bis heute weist jedoch kein einziges Ergebnis des gesamten Projekts darauf hin, dass sich Toxin-bildende C. botulinum Bakterien oder andere problematische Clostridien in einer Biogasanlage vermehren und so eine Gefahr für die Gesundheit von Mensch und Tier darstellen können.

Ansprechpartner:
Prof. Dr. Christoph Tebbe
Thünen-Institut für Biodiversität, Braunschweig
Tel.: 0531 596-2553, E-Mail: christoph.tebbe@ti.bund.de

Quelle: idw

(nach oben)


Mehr Methan aus der Tiefe des Meeres: Schlammvulkane als Quelle des Treibhausgases Methan

Dr. Manfred Schloesser Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Der Schlammvulkan Haakon Mosby in der Barentssee vor Norwegen stößt jährlich mehrere hundert Tonnen des Treibhausgases Methan aus. Ein Forscherteam unter der Leitung des Bremer Max-Planck-Instituts berichtet jetzt über seine Langzeitbeobachtungen in der Zeitschrift NATURE Communications. Über 431 Tage lang sammelten sie Temperatur-, Druck- und pH-Daten und dokumentierten mit einer Unterwasserkamera 25 Ausbrüche von Schlamm und Gas. Vier dieser Ausbrüche waren so gewaltig, dass sie die Unterwasserlandschaft drastisch veränderten. Anhand ihrer Daten berechneten die Wissenschaftler, dass aus dem Schlammvulkan ungefähr 10-mal mehr Gas austritt als bislang angenommen.

An Land sind Tausende dieser Schlammvulkane bekannt; und auch im Ozean, zwischen 200 und 4000 Meter Wassertiefe, werden immer mehr solcher methanspeienden Strukturen gefunden. So der Haakon Mosby Schlammvulkan vor Norwegen. Wissenschaftler schätzten bislang, dass Unterwasservulkane jährlich 27 Millionen Tonnen zum weltweiten Methanausstoß beitragen, das sind mehr als 5% der insgesamt 500 Millionen Tonnen. Doch könnte der Anteil auch noch höher liegen, da nicht alle Kontinentalränder vermessen sind und es keine Dauerbeobachtungsstationen im Meer gibt.

Der innere Rhythmus der Schlammvulkane
Strömen Gas und Schlamm kontinuierlich aus oder gibt es einen chaotischen Rhythmus, ähnlich wie bei einem Schluckauf? Ist es ein Fließgleichgewicht, das nur manchmal durch Eruptionen gestört wird? Im Fließgleichgewicht ändern sich die einzelnen Ströme nicht. Gas steigt kontinuierlich von unten aus dem Schlot auf, ein bestimmter Teil davon geht in die Wassersäule über, der Rest wird durch mikrobielle Prozesse im Meeresboden inaktiviert. So ein Fließgleichgewicht können Forscher mit Sensoren gut erfassen, mit mathematischen Formeln beschreiben und Prognosen aufstellen. Eruptionen finden aber nur selten statt – um sie in der Tiefsee zu beobachten, brauchen Meeresforscher dauerhafte Observatorien. Ein solches haben die Wissenschaftler um Dirk de Beer entwickelt.

Ein biologischer Filter aus Mikroorganismen inaktiviert das Methan
Man weiß, dass ein Großteil des Methans nicht in die Atmosphäre gelangt, denn besondere methanfressende Mikroorganismen wandeln das Treibhausgas schon im Meeresboden zu Karbonat um, sofern sie ausreichende Konzentrationen an Oxidationsmittel wie Sulfat finden. Diese Mikroorganismen sind sehr langsam, denn ihre Generationszeit beträgt 3-6 Monate. Doch was passiert, wenn sie durch Eruptionen und Umwälzungen des Meeresbodens gestört würden?

Störung des Fließgleichgewichts
Strömt das Gas kontinuierlich, funktioniert dieser biologische Filter am Meeresboden gut. Bei einer Störung dieses Fließgleichgewichts, also einer Eruption, sind die Mikroorganismen schlicht überfordert und das Gas steigt fast ungehindert in die Wassersäule auf. Das passiert, wenn die austretenden Fluide sehr schnell ausströmen und die Oxidationsmittel nicht ausreichend nachfließen. Oder wenn die Eruption die Schichtung des Schlamms so durcheinandergewirbelt hat, dass der Lebensraum der methanfressenden Mikroorganismen zerstört.

Das Langzeit-Observatorium nimmt kontinuierlich Daten auf
Um zu sehen, wann und wie oft der Vulkan ausbricht, stationierten die Forscher eine Plattform mit verschiedenen physikalischen und chemischen Sensoren auf dem Haakon Mosby-Schlammvulkan in über 1200 Meter Wassertiefe. Der Vulkan deckt eine kreisförmige Fläche mit einem Kilometer im Durchmesser ab und erhebt sich nur zehn Meter über das umliegende Terrain. Er wird von eiskaltem Bodenwasser überströmt – doch je tiefer man im Meeresboden misst, desto wärmer wird es. Dr. Tomas Feseker vom MARUM Zentrum für marine Umweltwissenschaften der Universität Bremen sagt: „Wir konnten im Zentrum des Schlots in einem Meter Tiefe über 25 Grad Celsius messen, die Wärme wird durch aus der Tiefe aufsteigende gasreiche Fluide geliefert.“
Mit dem Observatorium LOOME wollten die Forscher prüfen, ob die im Meeresboden dieses Schlammvulkans befindlichen Gashydrate manchmal durch Hitzepulse aufgelöst werden und als Gas entweichen können. Sie stellten dazu im Juli 2009 ihr Observatorium nahe dem aktiven Zentrum auf und verlegten mit Hilfe des ferngesteuerten Roboters MARUM-QUEST an Bord der FS Polarstern die Kabel zu ihren Sensoren. Im Laufe des Jahres veränderte sich der Vulkan mehrmals. Die Thermometer zeigten steigende Temperaturen, Gase stiegen auf und drückten den Meeresboden um über einen Meter nach oben und um über hundert Meter zur Seite. Anschließend sank der Boden wieder langsam in sich zusammen.

10-mal mehr Methan als bisher angenommen
Dr. Dirk de Beer vom Max-Planck-Institut für Marine Mikrobiologie und wissenschaftlicher Leiter des sogenannten LOOME Observatoriums erläutert die Ergebnisse: „Diese Eruptionen werden vom aufsteigenden Gas aus tieferen Schichten des Vulkans angetrieben. Zusätzlich führt jede Eruption zu Temperaturerhöhungen an der Oberfläche und die im Schlamm gefrorenen Gashydrate gehen vom festen Zustand in den gasförmigen über. Das Methan kann in die Wassersäule aufsteigen. Unsere Berechnungen zeigen, dass ungefähr 10-mal mehr Methan austritt als bisher angenommen. Ein Großteil dieses im Wasser gelösten Gases erreicht die Atmosphäre aber nicht, sondern wird beim Aufstieg im Meerwasser verteilt und schließlich von Bakterien aufgezehrt.“

Die Forscher haben zehn Jahre alte Meeresboden-Karten des Forschungsgebiets mit heutigen Befunden verglichen und festgestellt, dass sich die Gestalt des Meeresbodens deutlich verändert hat durch Sedimentverschiebungen. Diese horizontale Bewegungen konnten die Forscher genau rekonstruieren, denn ihre tonnenschwere Temperatur-Messlanze legte im Laufe des Jahres eine Strecke von 165 Metern zurück. Überraschend war, dass bei den Eruptionen der Vulkan an den Rändern nicht überlief. Das bedeutet, dass der Schlamm wieder in den Vulkan zurückgelaufen sein muss.
Eine wichtige Erkenntnis dieser Studie ist, dass die Eruptionen den biologischen Filter im Meeresboden schädigen, der das meiste Methan des Haakon Mosby Schlammvulkans zurückhält. Prof. Dr. Antje Boetius, Fahrtleiterin der Expeditionen und Mitautorin der Studie, sagt: „Wir haben durch die erstmals ganzjährige Beobachtung des Schlammvulkans viel über sein Verhalten und den Einfluss auf die Umwelt gelernt. Da Eruptionen solcher Schlammvulkane an Land wie im Meer erhebliche Schlammrutschungen verursachen können und eine erhebliche Quelle von Gas sind, sollte es mehr Dauerbeobachtungsstationen für sie geben.“
Manfred Schlösser

Rückfragen an
Dr. Dirk de Beer, Max-Planck-Institut für Marine Mikrobiologie, Tel. +49 421 2028 802,
dbeer@mpi-bremen.de

Dr. Tomas Feseker, MARUM-Zentrum für marine Umweltwissenschaften Fachbereich Geowissenschaften der Universität Bremen ; feseker@uni-bremen.de

Prof. Dr. Antje Boetius, HGF-MPG Brückengruppe für Tiefseeökologie und -Technologie. Alfred -Wegener-Institut Helmholtz Zentrum für Polar und Meeresforschung und Max-Planck-Institut für Marine Mikrobiologie, Tel. +49 421 2028 860, antje.boetius@awi.de

Originalartikel:
Eruption of a deep-sea mud volcano triggers rapid sediment movement
Tomas Feseker, Antje Boetius, Frank Wenzhöfer, Jerome Blandin, Karine Olu, Dana R. Yoerger, Richard Camilli, Christopher R. German, Dirk de Beer.
Nature Communications, November 2014, DOI: NCOMMS6385

Beteiligte Institute
Max Planck Institute for Marine Microbiology, 28359 Bremen, Germany
MARUM – Center for Marine Environmental Sciences and Faculty of Geosciences, University of Bremen, 28359 Bremen, Germany
GEOMAR, Helmholtz Centre for Ocean Research Kiel, 24148 Kiel, Germany
HGF-MPG Group for Deep Sea Ecology and Technology, Alfred Wegener Institute for Polar and Marine Research in the Helmholtz Association, 27515 Bremerhaven, Germany
IFREMER, Institut Carnot EDROME, RDT/ SI2M F-29280 Plouzané, France
IFREMER, Institut Carnot EDROME, REM/EEP, Laboratoire Environnement Profond, F-29280 Plouzané, France
Woods Hole Oceanographic Institution, Woods Hole, MA 02543, USA

Danksagung: Das Projekt LOOME war Teil des Europäischen Programmes ESONET und von ihm gefördert, weitere Förderer sind die Helmholtz Gemeinschaft, die Max-Planck-Gesellschaft und das Leibniz-Programm der DFG.

Weitere Informationen:
http://www.mpi-bremen.de/Forschung_am_Tiefsee-Schlammvulkan_Haakon_Mosby.html
http://www.esonet-emso.org/ (Webseite Europäischer Meeresboden Observatorien)

Quelle: idw

(nach oben)


Training für den „Denkapparat“: Teilnehmende für Studie gesucht

Susanne Bossemeyer Dez. 7.2 – Hochschulstrategie und Kommunikation
FernUniversität in Hagen

Aufmerksamer werden, sich besser konzentrieren und erinnern: Als eine interessante Möglichkeit zur Veränderung des kognitiven Systems werden Computer-basierte Gehirntrainings gesehen. Der Psychologe Dr. Tilo Strobach, FernUniversität in Hagen, sucht Teilnehmende für eine Studie.

Aufmerksamer werden, sich besser konzentrieren und erinnern: Ist der „Denkapparat“ des Menschen flexibel genug, um seine kognitiven Fähigkeiten gezielt verändern zu können? Eine Frage, mit der sich PD Dr. Tilo Strobach schon seit Jahren befasst. Für eine Studie, die er nun durchführen möchte, sucht der Lehrgebietsvertreter Allgemeinen Psychologie: Urteilen, Entscheiden, Handeln an der FernUniversität in Hagen jetzt Teilnehmerinnen und Teilnehmer.

Als eine interessante Möglichkeit zur Veränderung des kognitiven Systems werden zunehmende „strukturierte Computer-basierte Gehirntrainings“ gesehen. In den USA ist dieses Brain Training bereits ein Milliarden-Dollar-Markt. Dabei führen die Teilnehmenden in regelmäßigen Abständen – z.B. einmal täglich oder zweimal wöchentlich – eine bestimmte Aufgabe aus, um grundlegende kognitive Prozesse zu verbessern, z. B. ihre Aufmerksamkeit, ihre Konzentrationsfähigkeit, ihre Wahrnehmung oder vor allem ihr Gedächtnis.

Dr. Strobach möchte nun diese Thematik systematisch und wissenschaftlich untersuchen: Wie wirken Gehirntrainings? Wie effizient sind sie? Sind grundlegende kognitive Prozesse situationsunabhängig und lassen sich die Effekte auf andere Situationen übertragen? Lassen sie sich von den trainierten Aufgaben auf unbekannte Situationen transferieren? Haben sie also „Alltagsrelevanz“? Strobachs Grundlagenforschung zielt auch auf die Bedingungen wie Alter der Teilnehmenden, Trainingszeiten oder Aufgabenkombinationen, die für eine Optimierung der Gehirnleistungen notwendig sind.

Technisch organisiert wird die Studie von der Firma NeuroNations. Die Teilnehmenden erhalten als Dank nach Beendigung der Studie eine sechsmonatige Mitgliedschaft bei dem Start-Up-Unternehmen. „Zudem sind wir optimistisch, dass die Teilnehmenden von den Trainings der Studie profitieren können“, so Strobach. An der Teilnahme Interessierte müssen mindestens 18 Jahre alt sein und einen Internetzugang haben, weil die Aufgaben online gestellt werden. Sie sollten bereit sein, täglich oder alle zwei Tage an 22 Sitzungen zu je ca. 30 Minuten teilzunehmen – nicht im Labor in der FernUniversität, sondern in einer vertrauten Umgebung, vor allem zuhause: „Im Mittelpunkt steht ja die Alltagsrelevanz“, betont Strobach.

Erfahrungen für dieses neue Vorhaben, mit dem er bestimmte Merk- und Aufmerksamkeitskompetenzen trainieren will, bringt der Wissenschaftler mit: Er hat sich bereits mit dem Training von Arbeitsgedächtnissen von Kindern in 2. und 3. Grundschulklassen befasst. Sie sollten sich Tiere merken. Hatte dieses Training Effekte für ihre Lesekompetenz? Und auf ihre mathematischen Leistungen? Auch beim Rechnen muss man sich etwas merken. Strobach: „Zumindest für die Lesekompetenz konnten wir eine Steigerung und damit einen Transfereffekt nachweisen.“

Auch mit einer anderen Untersuchung konnte er positive Effekte nachweisen: bei kommerziellen Videospielen mit komplexen Situationen wie „Ego Shooter“-Spielen. Die Teilnehmenden mussten beim Spielen mehrere Aufgaben gleichzeitig ausführen: etwa ferne Welten Laufen, Schießen und Kommunizieren. „Dabei haben sie ihre Multi-Tasking-Fähigkeiten verbessert“, berichtet der Wissenschaftler. „Auch solche Spiele haben also positive Aspekte.“

Interessierte sollten sich baldmöglichst unter http://www.neuronation.de/fernunihagen informieren.

Quelle: idw

(nach oben)


Aktionsbündnis Arbeitsmedizin

Dr. Thomas Nesseler Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Arbeitsmedizin und Umweltmedizin e.V.

Erstes Projekt des Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses erfolgreich mit auf den Weg gebracht: Stiftungsprofessur für Arbeitsmedizin und Prävention an der Universität zu Lübeck

Das Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses hat sein erstes Projekt erfolgreich mit auf den Weg gebracht: Am 22. Oktober 2014 wurde in Lübeck im Beisein der Ministerin für Soziales, Gesundheit, Wissenschaft und Gleichstellung des Landes Schleswig-Holstein, Kirstin Alheit, sowie Vertretern der Stifter, der Universität zu Lübeck und des Aktionsbündnisses zur Sicherung des arbeitsmedizinischen Nachwuchses ein Vertrag zur Einrichtung einer Stiftungsprofessur für Arbeitsmedizin und Prävention unterzeichnet. Die Einrichtung der Stiftungsprofessur ist ein gemeinsames Ergebnis der Zusammenarbeit einzelner Unfallversicherungsträger, der Berufsgenossenschaft für Gesundheitsdienst und Wohlfahrtspflege (BGW), der Verwaltungsberufsgenossenschaft (VBG), der Berufsgenossenschaft Transport und Verkehrswirtschaft (BG Verkehr) sowie der Unfallkasse Nord, mit dem Gesundheitsministerium Schleswig Holstein, der Universität zu Lübeck und dem Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses. Zusammen mit der W3-Professur soll ein Institut für Arbeitsmedizin eingerichtet werden. Die Einrichtung der Professur wird zunächst über einen Zeitraum von fünf Jahren mit insgesamt 255.000 Euro pro Jahr von den Stiftern gefördert. Im Anschluss daran soll eine Evaluation über die weitere Zukunft der Professur entscheiden.

Die Stifter waren bei der Vertragsunterzeichnung vertreten durch den Hauptgeschäftsführer der BGW, Professor Dr. Stephan Brandenburg, den Direktor Prävention der VBG, Dr. Andreas Weber, die Hauptgeschäftsführerin der BG Verkehr, Sabine Kudzielka, sowie den Geschäftsführer der Unfallkasse Nord, Jan Holger Stock. Für das Aktionsbündnis zur Sicherung des arbeitsmedizinischen Nachwuchses war dessen Vorsitzender, Professor Dr. Stephan Letzel, bei der feierlichen Unterzeichnung anwesend.

Ministerin Alheit betonte: „Die arbeitsmedizinische Versorgung Berufstätiger ist eine wichtige Zukunftsaufgabe. Die neu errichtete Professur wird einen für Schleswig-Holstein wichtigen Beitrag zur Nachwuchsförderung im Fach Arbeitsmedizin und zur Forschung in einer sich rasch wandelnden Arbeitswelt leisten. Der Bedarf an arbeitsmedizinischer Beratung und Betreuung wird weiter steigen.“

Der wissenschaftliche Schwerpunkt der Professur soll neben den klassischen arbeitsmedizinischen Themen wichtige Fragestellungen wie beispielsweise arbeitsbedingte muskuloskelettale Erkrankungen, psychosoziale und psychomentale Aspekte der Arbeit, Entwicklung der Gesundheitskompetenz und arbeitsmedizinische Aspekte von Inklusion, Diversität und Verkehrsmedizin erfassen. Die Professur und das zukünftige Institut werden dem profilbildenden Zentrum für Bevölkerungsmedizin und Versorgungsforschung der Universität zu Lübeck zugeordnet. Die Ausschreibung der Professur erfolgt Anfang des nächsten Jahres.
Die Universität zu Lübeck knüpft damit an die Tradition des Instituts für Arbeitsmedizin an, das in den vergangenen Jahren/Jahrzehnten von Prof. Dr. Dr. Richard Kessel in Lübeck geleitet wurde.

Für weitere Rückfragen:
Univ.-Prof. Dr. Stephan Letzel
Vorsitzender des Aktionsbündnisses Arbeitsmedizin
Universitätsmedizin Mainz
Institut für Arbeits-, Sozial- und Umweltmedizin
Obere Zahlbacher Str. 67, 55131 Mainz
letzel@uni-mainz.de

Weitere Informationen:
http://www.dgaum.de/nachwuchs/

Quelle: idw

(nach oben)


Ozeanversauerung verändert klimarelevante Funktionen in der obersten Mikroschicht

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Ozeanversauerung kann klimarelevante Funktionen verändern, die in der obersten Schicht des Ozeans ablaufen, erklärt eine Gruppe von Wissenschaftlern im Fachmagazin „Journal of Geophysical Research: Oceans“. Laut einer Studie, die unter Leitung des GEOMAR Helmholtz Zentrum für Ozeanforschung Kiel stattfand, spiegelt die Chemie in der obersten Mikroschicht biologische Prozesse aus der darunterliegenden Wassersäule. Die Veränderungen könnten Wechselwirkungen zwischen Ozean und Atmosphäre beeinflussen, etwa den Austausch von Gasen oder die Emission von Gischt-Aerosolen, die Sonnenstrahlen streuen oder zur Wolkenbildung beitragen können.

Wie eine Haut trennt die oberste Mikroschicht das Meer von der Atmosphäre. Mit dem Austausch von Gasen und der Freisetzung von Aerosolen aus der Gischt laufen hier gleich zwei Prozesse ab, die unser Klima maßgeblich mitbestimmen. Während eines Mesokosmen-Experiments beobachteten Wissenschaftler des GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, des Alfred Wegener Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI) und des Leibniz-Instituts für Ostseeforschung Warnemünde (IOW) zum ersten Mal, wie der Ozeanwandel die speziellen physikalischen, chemischen und biologischen Eigenschaften dieses Biofilms verändern kann. Ihre Ergebnisse beschreiben die Forscher im Fachmagazin „Journal of Geophysical Research: Oceans“. Erstautorin ist Dr. Luisa Galgani, die die Studie als Teil ihrer Doktorarbeit am GEOMAR und am AWI durchführte.

„Viele Experimente haben bereits gezeigt, wie Ozeanversauerung – eine Veränderung in der Ozeanchemie, die durch die Aufnahme menschengemachten Kohlendioxids ausgelöst wird – das Wachstum und die Effizienz mariner Bakterien und das Absinken kohlenstoffhaltiger Partikel beeinflusst“, fasst Dr. Luisa Galgani zusammen. „Wir wissen, dass sich in der obersten Mikroschicht das selbe organische Material und die selben Mikroorganismen ansammeln, die auch in der Wassersäule darunter zu finden sind. Darum hatten wir erwartet, dass die Mikroschicht Veränderungen wiederspiegelt, die im Zuge der Ozeanversauerung in der Wassersäule stattfinden. Die Prozesse in diesem Mikromilieu zu verstehen ist wichtig, weil sie Auswirkungen auf unser Klima haben können.“

Um die Folgen der Ozeanversauerung zu untersuchen, simulierten die Wissenschaftler verschiedene zukünftige Szenarien in den KOSMOS Mesokosmen (KOSMOS: Kiel Off-Shore Mesocosms for future Ocean Simulations), die sie im Raunefjord in Norwegen platziert hatten. Die neun Schwimmkonstruktionen, von denen jede 75.000 Liter Meerwasser isoliert, wurden auf verschiedene Kohlendioxid-Niveaus gebracht, die für die kommenden Jahrzehnte und Jahrhunderte erwartet werden. Einen Monat lang beprobte das Team um Dr. Galgani die Wasseroberfläche in sechs Mesokosmen mit einer Plexiglasplatte.

Analysen der Proben belegten die Hypothese, dass die organischen Verbindungen an der obersten Mikroschicht die Entwicklung in der Wassersäule abbilden. Außerdem war bei höheren Kohlendioxid-Konzentrationen mehr Bakterioneuston zu finden, marine Bakterien, die an der Wasseroberfläche leben. Die saureren Bedingungen förderten Veränderungen in der Dynamik von organischem Material. Vor allem eiweißhaltige marine Gelpartikel blieben kleiner; sie waren jedoch häufiger vorhanden und dienten als Nährsubstrat. Mikroorganismen waren in größerer Zahl vertreten und konnten das organische Material, das während der Planktonblüte entstand, effizienter umsetzen.

„Aus früheren Studien wissen wir, dass zusätzliches Kohlendioxid marine Bakterien stimuliert“, erklärt Dr. Galgani. „Angesichts unserer Beobachtungen nehmen wir jetzt an, dass dieser Effekt sehr bedeutsam werden kann: Er kann bedeuten, dass Teile des Lebens im Ozean positiv auf die Aufnahme von Kohlendioxid aus der Atmosphäre reagieren – indem der Stoffwechsel der Mikroben an der Grenzschicht zwischen Luft und Wasser angeregt wird.“

Ein gesteigerter bakterieller Abbau könnte auch die organische Zusammensetzung neu entstehender Gischt-Partikel stark beeinflussen. Von ihrer Komposition hängt ab, inwiefern sie als marine Aerosole mit dem Klimasystem interagieren können. Über den Beitrag der marinen Aerosole zum Klima ist noch immer wenig bekannt. „Wir sind noch weit davon entfernt, zu verstehen, in welcher Weise der Ozean Bausteine für die Wolkenbildung liefert“, betont Prof. Dr. Anja Engel, Leiterin der Gruppe Mikrobielle Biogeochemie am GEOMAR. „Dennoch sind wir davon überzeugt, dass diese Studie uns einen deutlichen Schritt weitergebracht hat. Wir haben uns zum Ziel gesetzt, die Struktur und die Dynamik in der Grenzschicht zwischen Luft und Wasser genauer zu untersuchen. Dann können wir auch besser abschätzen, wie sich die Wechselwirkungen zwischen dem Ozean und der Atmosphäre in der Hoch-CO2-Welt gestalten.“

Die Arbeiten wurden durch die vom Bundesminsterium für Bildung und Forschung (BMBF) geförderten Projekte SOPRAN (Surface Ocean Processes in the Anthropocene) und BIOACID (Biological Impacts of Ocean Acidification) unterstützt und fließen in das internationale Projekt SOLAS (Surface Ocean – Lower Atmosphere Study) ein.

Originalpublikation:
Galgani, L., Stolle. C., Endres, S., Schulz, K. G., Engel, A. (2014), Effects of ocean acidification on the biogenic composition of the seasurface microlayer: Results from a mesocosm study, J. Geophys. Res. Oceans, 119, doi:10.1002/2014JC010188.

Bildmaterial:
Unter www.geomar.de/n2157 steht Bildmaterial zum Download bereit. Video-Footage auf Anfrage.

Ansprechpartner:
Prof. Dr. Anja Engel (GEOMAR FB2/BI) Tel. 0431 600-1510, aengel@geomar.de
Maike Nicolai (GEOMAR Kommunikation & Medien) Tel. 0431 600-2807, mnicolai@geomar.de

Weitere Informationen:
http://www.geomar.de GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.bioacid.de BIOACID (Biological Impacts of Ocean Acidification)
http://sopran.pangaea.de SOPRAN (Surface Ocean Processes in the Anthropocene)
http://www.solas-int.org SOLAS (Surface Ocean – Lower Atmosphere Study)
http://www.awi.de Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung
http://www.io-warnemuende.de Leibniz-Institut für Ostseeforschung Warnemünde

Quelle: idw

(nach oben)


Menschen vor Legionellen aus Kühlanlagen schützen

Stephan Berends Strategie & Kommunikation / Presse
VDI Verein Deutscher Ingenieure e. V.

Der Gesetzgeber reagiert auf die Legionellen-Epidemien 2010 in Ulm und 2013 in Warstein und erarbeitet eine Verordnung, durch die im Lauf des Jahres 2015 Verdunstungskühlanlagen mit Meldepflicht belegt werden sollen. Verdunstungskühlanlagen gelten in beiden Fällen als Quelle der Keime. Die angestrebte Verordnung soll Festlegungen zum hygienisch einwandfreien Betrieb treffen, die im Wesentlichen auf der Richtlinie VDI 2047 Blatt 2 „Rückkühlwerke – Sicherstellung des hygienegerechten Betriebs von Verdunstungskühlanlagen (VDI-Kühlturmregeln)“ basieren.

Die Richtlinie VDI 2047 Blatt 2 beschreibt nicht nur die Hygieneaspekte in Planung, Ausführung und Betrieb von Verdunstungskühlanlagen, sondern legt auch ein Konzept für eine Schulung der verantwortlichen Personen dar. Der VDI geht davon aus, dass in den nächsten drei Jahren ca. 10.000 Menschen im hygienisch sicheren Umgang mit Verdunstungskühlanlagen geschult werden müssen.

Die VDI-Gesellschaft Bauen und Gebäudetechnik wird daher zur Qualitätssicherung ein Schulungspartnersystem initiieren, wie es sich bei den Richtlinien-Schulungen zu VDI 6022 und VDI/DVGW 6023 bewährt hat. Am 8. Januar 2015 können Interessenten an einer Referententätigkeit im Rahmen von VDI-Partnerschulungen an einer Erstschulung in Düsseldorf teilnehmen, um die über den Rahmen ihrer jeweiligen Berufsausbildung hinausgehende erforderliche Qualifikation zu erwerben. Weitere Informationen unter www.vdi.de/schulung-vdi2047.

Der VDI – Sprecher, Gestalter, Netzwerker
Ingenieure brauchen eine starke Vereinigung, die sie bei ihrer Arbeit unterstützt, fördert und vertritt. Diese Aufgabe übernimmt der VDI Verein Deutscher Ingenieure. Seit über 150 Jahren steht er Ingenieurinnen und Ingenieuren zuverlässig zur Seite. Mehr als 12.000 ehrenamtliche Experten bearbeiten jedes Jahr neueste Erkenntnisse zur Förderung unseres Technikstandorts. Das überzeugt: Mit 152.000 Mitgliedern ist der VDI die größte Ingenieurvereinigung Deutschlands.

Weitere Informationen:
http://www.vdi.de/schulung-vdi2047 – Infos zur Schulung

Quelle: idw

(nach oben)


Damit es Europas Bienen wieder besser geht

Hans-Christoph Keller Stabsstelle Presse- und Öffentlichkeitsarbeit
Humboldt-Universität zu Berlin

Projekt „Smartbees“ bekommt sechs Millionen Euro von der Europäischen Kommission

Die Vielfalt der Bienenarten in Europa ist in Gefahr. Früher gab es zahlreiche Bienenrassen. Doch in den vergangenen Jahren hat sich die Situation dramatisch verändert.

Einerseits verursacht eine aus Asien stammende Milbe (Varroa destructor) seit vielen Jahren hohe Verluste unter den Europäischen Bienenvölkern (Apis mellifera). Andererseits kommt es zu einer systematischen Verdrängung vieler Europäischer Bienenrassen durch zwei Rassen, die bereits seit einiger Zeit auf Leistung, ruhiges Verhalten und Krankheitsresistenz gezüchtet wurden. Beide Ursachen reduzieren die genetische Vielfalt der Honigbienen in Europa und gefährden die nachhaltige, regional angepasste Bienenhaltung. Die Konsequenzen sind dramatisch für die Landwirtschaft. Dabei geht es nicht nur um weniger Honig oder Wachs. Die Bestäubungsleistung der Bienen hat einen enormen ökonomischen Wert.

Um dem Bienensterben zu begegnen, kooperieren jetzt in dem mit sechs Millionen Euro von der Europäischen Kommission geförderten Projekt „SMARTBEES“ Genetiker, Molekularbiologen, Parasitologen, Virologen, Immunologen, Kommunikationswissen¬schaftler, Mathematiker und Bienenspezialisten aus elf Ländern. Koordiniert wird es von Prof. Dr. Kaspar Bienefeld. Er leitet die Abteilung Zucht und Genetik am Länderinstitut für Bienenkunde in Hohen Neuendorf und ist Honorarprofessor am Albrecht Thaer Institut für Agrar- und Gartenbauwissenschaften der Humboldt-Universität zu Berlin.

Mit dem internationalen Projekt soll der aktuelle Stand der genetischen Vielfalt in ganz Europa analysiert und mit geeigneten Methoden verbessert werden. Zudem werden sich die Wissenschaftler mit der gefährlichen Dreiecksbeziehung Biene-Milbe-Viren beschäftigen und die Mechanismen ergründen, die dazu führen, dass aus im Zusammenspiel mit der Varroamilbe aus harmlosen Viren tödliche Viren werden. Mit modernsten molekulargenetischen Methoden werden die Gründe der unterschiedlichen Widerstandskraft von Bienen gegenüber Varroa und Viren geklärt.

Die Unzufriedenheit der Imker mit den einheimischen Bienenrassen war der zentrale Grund für deren Austausch durch züchterisch verbesserte Rassen. Daher sollen Zuchtstrategien, die sich als sehr erfolgreich erwiesen haben, für die bislang züchterisch vernachlässigten Bienenrassen so modifiziert werden, dass diese Rassen an die Bedürfnisse der lokalen Imkerschaft angepasst werden. Damit kannihre Verdrängung gestoppt werden. Daten aus dem Europäischen Referenzlabor für Bienenkrankheiten werden analysiert, um auch für noch nicht aktuelle aber möglicherweise in Zukunft auftretende Krankheitserreger gewappnet zu sein.

Bienen werden von hunderttausenden Imkern in Europa gehalten. Das bedeutet, dass wissenschaftliche Erkenntnisse und die Entwicklung von neuen Methoden und Strategien nur dann nachhaltig zu einer Verbesserung der Situation führen, wenn die Europäische Imkerschaft involviert wird. Eine Arbeitsgruppe, die auf Wissenstransfer spezialisiert ist, wird die Ergebnisse des Projektes für die Praxis aufbereiten, Lernmodule erstellen und für eine Vernetzung innerhalb und zwischen den Ländern sorgen. Kaspar Bienefeld sagt: „Es ist das erste Mal, dass sich so unterschiedliche Disziplinen gemeinsam und aufeinander abgestimmt mit dem Bienensterben beschäftigen. Die Aufgabe ist komplex, aber das multidisziplinäre Konzept des Projekts eröffnet große Chancen, nachhaltig die Gesundheit und die genetische Vielfalt der Bienen in Europa zu verbessern.“

Kontakt
Prof. Dr. K. Bienefeld
Länderinstitut für Bienenkunde Hohen Neuendorf
Tel.: 03303/ 29 38 30
kaspar.bienefeld@hu-berlin.de

Quelle: idw

(nach oben)


Wer bekommt Weihnachtsgeld – was sehen die Tarifverträge vor?

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Rund 54 Prozent der Beschäftigten erhalten eine Jahressonderzahlung in Form eines Weihnachtsgeldes. Rund 15 Prozent erhalten eine Gewinnbeteiligung und 19 Prozent erhalten sonstige Sonderzahlungen. Zu diesem Ergebnis kommt eine Online-Umfrage der Internetseite www.lohnspiegel.de, die vom WSI-Tarifarchiv der Hans-Böckler-Stiftung betreut wird und an der sich rund 10.100 Beschäftigte beteiligt haben. Die Analyse der Befragungsdaten, die im Zeitraum von Juli 2013 bis Juni 2014 erhoben wurden, zeigt, dass die Chancen ein Weihnachtsgeld zu erhalten, ungleich verteilt sind (siehe auch die Grafik in der pdf-Version dieser PM). Besonders groß ist der Vorsprung von Beschäftigten, die nach Tarifvertrag bezahlt werden, gegenüber Beschäftigten in Unternehmen ohne Tarifbindung:

West/Ost: Nach wie vor gibt es Unterschiede zwischen Ost- und Westdeutschland. In Westdeutschland bekommen 57 Prozent, in Ostdeutschland 40 Prozent der Beschäftigten ein Weihnachtsgeld.

Männer/Frauen: Frauen erhalten seltener Weihnachtsgeld als Männer. Bei den Frauen sind es 51 Prozent, bei den Männern dagegen 56 Prozent.

(Un)Befristet Beschäftigte: Beschäftigte mit einem unbefristeten Arbeitsvertrag bekommen zu 56 Prozent ein Weihnachtsgeld, befristet Beschäftigte nur zu 42 Prozent.

Vollzeit/Teilzeit: Vollzeitbeschäftigte erhalten mit 55 Prozent öfter Weihnachtsgeld als Teilzeitbeschäftigte mit 42 Prozent.

Tarifbindung: Eindeutig profitieren die Beschäftigten von einer Tarifbindung ihres Arbeitgebers. Beschäftigte mit Tarifbindung erhalten zu 71 Prozent ein Weihnachtsgeld, Beschäftigte ohne Tarifbindung dagegen nur zu 42 Prozent.

Gewerkschaftsmitglieder: Mitglieder einer Gewerkschaft stehen sich besser. 66 Prozent von ihnen erhalten Weihnachtsgeld, Nichtmitglieder dagegen nur zu 51 Prozent.

Grundsätzlich sehen in den meisten Wirtschaftszweigen die geltenden Tarifverträge ein Weihnachtsgeld vor. Dies zeigt die Auswertung des WSI-Tarifarchivs. Es wird überwiegend als fester Prozentsatz vom Monatseinkommen berechnet (siehe die ausführliche Tabelle in der pdf-Version; Link unten). Die in den einzelnen Tarifverträgen festgelegten Prozentsätze haben sich im Vergleich zu den Vorjahren kaum verändert. Dort, wo die Tarifabschlüsse dieses Jahr höher ausgefallen sind, steigen auch die tariflichen Weihnachtsgelder stärker. Die Spanne reicht von plus 1,8 Prozent in der Energiewirtschaft Ost (AVEU), 2,4 Prozent im Bankgewerbe, 3,0 Prozent in der Druckindustrie über 3,5 Prozent im öffentlichen Dienst (Gemeinden) bis zu 4,5 % in der Kautschukindustrie Hessen, Rheinland-Pfalz, Saarland. In der chemischen Industrie Ostdeutschlands wurde das Weihnachtsgeld von 65 auf 80 % eines Monatsentgelts angehoben, das entspricht einschließlich der Tarifanhebung einem Anstieg um fast 28 Prozent. Für die Metallindustrie Sachsen ist eine Angleichung des Weihnachtsgeldes an das West-Niveau erreicht, was zu einer Steigerung von insgesamt rund 13 % führt.

Ein im Vergleich relativ hohes Weihnachtsgeld erhalten unter anderem die Beschäftigten im Bankgewerbe, in der Süßwarenindustrie, in der westdeutschen Chemieindustrie sowie in der Druckindustrie (95 bis 100 Prozent eines Monatseinkommens). Darunter liegen unter anderem die Bereiche Versicherungen (80 Prozent), Einzelhandel (West, 62,5 Prozent) sowie Metallindustrie (West und Sachsen, 55 Prozent). Im öffentlichen Dienst (Gemeinden, West) beträgt die Jahressonderzahlung (zusammengesetzt aus Urlaubs- und Weihnachtgeld) je nach Vergütungsgruppe zwischen 60 und 90 Prozent. In vielen Bereichen haben die Beschäftigten in den neuen Ländern mittlerweile gleichgezogen.

Weniger als ihre KollegInnen im Westen erhalten die Ost-Beschäftigten z. B. in den Bereichen Chemie (80 Prozent) und öffentlicher Dienst (Gemeinden, 45 – 67,5 Prozent). Kein Weihnachtsgeld erhalten unter anderem die Beschäftigten im Bauhauptgewerbe Ost und im Gebäudereinigerhandwerk.

Für Beamtinnen und Beamte bestehen für die Sonderzahlung im Rahmen der Besoldung jeweils gesonderte gesetzliche Regelungen für den Bund und die einzelnen Bundesländer.

Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 0211/7778-232
E-Mail: Reinhard-Bispinck@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2014_11_03.pdf – Die Pressemitteilung mit Grafik und Tabelle (pdf)

Quelle: idw

(nach oben)


Türklinken aus Kupfer gegen Keime: Infektionsvorbeugung im Asklepios Klinikum Hamburg Harburg

Dr.med. Franz Jürgen Schell Konzernbereich Unternehmenskommunikation/Pressestelle
Asklepios Kliniken Hamburg GmbH

Das Asklepios Klinikum Harburg in Hamburg hat große Bereiche seines gerade eröffneten Neubaus mit insgesamt 600 Türklinken aus Kupferlegierungen ausgestattet. Das Projekt ist das bislang größte seiner Art in Europa und den USA. Kupfer wirkt nachweislich antimikrobiell und kann gefährliche Keime wie Bakterien, Pilze und Viren erheblich reduzieren. Eine kürzlich vor Ort durchgeführte stichprobenartige Untersuchung dieser neuen Türklinken aus einer Vollguss-Kupferlegierung hat gezeigt, dass eine Reduzierung von bis zu zwei Drittel der Keime möglich ist. Das ist besonders für Patienten in Risikobereichen wie Intensivstationen und Isolierzimmern von großer Bedeutung.

„Patientensicherheit hat in den Asklepios Kliniken höchste Priorität. Mit dem Einsatz vieler hundert Kupferklinken zur Infektionsprävention in der Asklepios Klinik Harburg setzen wir jetzt einen weiteren Meilenstein beim wichtigen Thema Hygiene und stellen einmal mehr unsere Vorreiterrolle bei der Bekämpfung und Reduzierung gefährlicher Keime, insbesondere der multiresistenten Erreger, unter Beweis“, sagt Dr. Thomas Wolfram, Sprecher der Geschäftsführung der Hamburger Asklepios Kliniken. „Hände sind bekanntlich die Hauptüberträger von Erregern. Dabei spielen Türgriffe als die am häufigsten genutzten Kontaktflächen eine wichtige Rolle. Genau hier setzen wir mit den Klinken aus antimikrobiellem Kupferwerkstoff an“, erläutert Dr. med. Susanne Huggett, Ärztliche Leiterin des Asklepios Großlabors MEDILYS. „Die Klinken bestehen aus rund 70 Prozent Kupfer und haben nachweislich eine stark keimreduzierende Wirkung, wie wir aus eigenen Untersuchungen wissen. Sie sind damit Teil eines umfassenden Bündels von Maßnahmen zur Infektionsprävention, sind also kein Ersatz, sondern eine effektive Ergänzung zu etablierten Hygieneaktivitäten wie der Händedesinfektion, der regelmäßigen Flächendesinfektion und der Schulung von Mitarbeitern in Hygienefragen“, so Dr. Huggett weiter. Auf Grundlage der stichprobenartigen Untersuchung im Sommer 2014 im Asklepios Klinikum Harburg sei damit zu rechnen, dass sich mit Hilfe der Kupferkliniken unter Alltagsbedingungen im Klinikbereich eine Reduzierung der Keime von mehr als 50 Prozent im Vergleich zur Keimbesiedelung auf herkömmlichen Türkliniken erzielen lässt. Das Asklepios Großlabor MEDILYS in Hamburg wird das jetzt angelaufene Projekt in der Asklepios Klinik Harburg mit regelmäßigen Untersuchungen begleiten und in einigen Monaten weitere Untersuchungsergebnisse präsentieren.

„Die Erkenntnis, dass Kupfer eine desinfizierende Wirkung hat, gab es schon im alten Ägypten zur Zeit der Pharaonen. Damals wurden beispielsweise Kupferspäne zur Wunddesinfektion in Salben gerührt. Mit Hilfe der modernen Wissenschaft beginnen wir aber erst heute zu verstehen, auf welche Weise Kupfer diese Wirkung entfalten kann“, sagt Dr. Anton Klassert, Geschäftsführer Deutsches Kupferinstitut Berufsverband. Angesichts der zunehmenden Verbreitung von Bakterien, Pilzen und Viren komme den Jahrhunderte alten Erfahrungen jetzt eine ganz aktuelle Bedeutung zu.

Das Ziel: Infektionen stoppen und die Patientensicherheit erhöhen
In Europa erkrankt jeder 14. Patient während eines Krankenhausaufenthaltes an einer so genannten nosokomialen Infektion, also an einer Infektion, die im zeitlichen Zusammenhang mit dem Krankenhausaufenthalt steht. Zu den unerwünschten Komplikationen zählen Harnwegsinfekte, Wundinfektionen nach Operationen oder Lungenentzündungen nach künstlicher Beatmung. Nach aktuellen Schätzungen kommt es europaweit pro Jahr zu 147.000 Todesfällen, wobei sich allein in Deutschland rund 400.000 bis 600.000 Menschen in Kliniken infizieren. Viele der gewöhnlich in Krankenhäusern oder Altenheimen für Oberflächen genutzten Materialien sind nachgewiesenermaßen eine bevorzugte Quelle für Kreuz-Kontaminationen, das heißt die direkte oder indirekte Übertragung von pathogenen Mikroorganismen von bereits kontaminierten auf nicht kontaminierte Gegenstände oder Personen. Ein Teufelskreis, der auch durch eine verstärkte Flächendesinfektion nicht umfassend zu durchbrechen ist. Hier sind neue, innovative Lösungswege gefragt, die nicht allein auf äußerliche Reinigungsvorgänge setzen. Als Lösung bietet sich hier der Einsatz antimikrobieller Kupferwerkstoffe an, die für hoch frequentierte Kontaktoberflächen verwendet werden und damit eine zusätzliche Barriere gegen nosokomiale Infektionen etwa durch Erreger wie multiresistente Keime (MRSA) darstellen können. Weltweit haben sich deshalb schon mehr als 200 medizinische und öffentliche Einrichtungen entschlossen, antimikrobielle Kupferbauteile einzusetzen – eine Zahl, die weiter wächst, so die Erkenntnisse des Kupferinstitutes.

Vorreiterrolle für Asklepios
Bereits im Jahr 2008/2009 hat die Asklepios Klinik Wandsbek in Hamburg in Zusammenarbeit mit dem Deutschen Kupferinstitut Berufsverband antimikrobielle Kupferwerkstoffe zur Erhöhung der Patientensicherheit eingesetzt. Dabei wurden jeweils über mehrere Monate hinweg im Sommer 2008 und im Winter 2008/2009 zwei Krankenhausstationen mit einigen Dutzend Türgriffen, Türplatten und Lichtschaltern aus speziellen Kupferlegierungen ausgestattet. Die benachbarten Bereiche behielten für den Forschungszweck ihre herkömmlichen Griffe und Schalter aus Aluminium, Edelstahl oder Plastik. Unabhängige Wissenschaftler der Universität Halle-Wittenberg haben regelmäßig Proben genommen und die Anzahl der Keime auf den verschiedenen Kontaktflächen verglichen – mit überzeugendem Erfolg. „Wir sind sehr froh, dass Asklepios diesen Feldversuch damals mit uns zusammen durchgeführt hat, da dadurch eine Initialzündung für das gesamte Projekt erfolgt ist“, so Dr. Anton Klassert. „Mittlerweile haben weltweite Studien und Krankenhausversuche die damaligen Ergebnisse bestätigt bzw. in ihrer Aussage sogar noch übertroffen. Inzwischen konnte unter anderem durch Studien der Medical University of South Carolina auch aufgezeigt werden, dass sich nicht nur die Keimzahlen, sondern auch die Infektionsraten beim Einsatz von massiven antimikrobiellen Kupferlegierungen signifikant verringern und damit die Gefahr nosokomialer Infektionen auf Intensivstationen um bis zu 58 Prozent senken kann,“ so Dr. Klassert.

Antimikrobielle Kupferwerkstoffe wirken nachweislich
Die globalen Studien haben gezeigt, dass Kupferoberflächen nicht nur Antibiotika-resistente Keime inaktivieren, sondern auch viele weitere Erreger; ein Aspekt, den die Asklepios Klinik in Harburg nun durch den Einbau von antimikrobiellen Klinken auf der Intensivstation und in zahlreichen Intensivzimmern nutzt, um die Hygiene weiter zu verbessern. Klassert dazu: „Uns ist dabei wichtig zu betonen, dass der Einbau von antimikrobiellen Kupferprodukten – von denen inzwischen über 100 verschiedene Teile am Markt sind – nicht dazu führen kann und soll, die üblichen Standardhygienemaßnahmen wie Hände waschen oder Desinfektion zu vernachlässigen oder gar nicht mehr durchzuführen. Antimikrobielle Kupferoberflächen sind immer als ergänzende Maßnahme zu der 4-Säulen-Strategie des Robert Koch-Instituts zu betrachten.“ Die im Asklepios Klinikum Harburg eingebauten Kupferklinken der Firma Wilhelm May bestehen aus einer massiven Kupferlegierung, d.h. es handelt sich um keinerlei Beschichtung, sondern um ein Produkt, das vollständig aus einem antimikrobiellem Kupferwerkstoff hergestellt worden ist. Damit ist gewährleistet, dass die keimreduzierende Wirkung auch bei Kratzern oder leichten Beschädigungen erhalten bleibt.

Über das Asklepios Klinikum Harburg
Das Asklepios Klinikum Harburg verfügt aktuell über 774 Betten, beschäftigt 1.500 Mitarbeiter und versorgte 2013 rd. 76.000 Patienten (davon 43.500 ambulant und 32.500 stationär). Der im Sommer 2014 fertiggestellte Neubau (Haus 1) wurde mit einem Aufwand von 52 Millionen Euro realisiert. Das sechsgeschossige Gebäude mit Tiefgarage und neuem, zentralen Eingangsbereich verfügt unter anderem über einen Hubschrauberlandeplatz, eine deutlich vergrößerte Zentrale Notaufnahme, neue Herzkatheterlabore, CT, einen Hybrid-Operationsaal sowie über hochmoderne Intensivstationen mit Platz für 60 Patienten. Die 600 antimikrobiell wirkenden Türgriffe aus Kupfer wurden im Haus 1 im Bereich der Intensivstationen, in den Räumlichkeiten der Stroke Unit sowie in den Isolierzimmern auf verschiedenen Etagen installiert.

Weitere Informationen:
http://www.asklepios.com
http://www.facebook.com/asklepioskliniken
http://www.youtube.com/asklepioskliniken

Quelle: idw

(nach oben)


Hochwasservorsorge für Gebäude, Stadt und Region

Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

In einer neuen Broschüre stellt das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) Konzepte und Instrumente für die Hochwasservorsorge vor. Sie richtet sich sowohl an Hauseigentümer, die bauliche Vorsorge treffen wollen, als auch an Städte und Regionen, die an ganzheitlichen Ansätzen zur Anpassung an den Klimawandel interessiert sind.

Das Heft bündelt Ergebnisse aus Forschungsprojekten und Modellvorhaben des BBSR – vom Objekt bis zur Makroregion. Auf Gebäudeebene steht die bauliche Vorsorge im Fokus: Die Hochwasserschutzfibel und der Hochwasserpass geben Eigentümern Auskunft über Schwachstellen ihrer Häuser und zeigen konkrete Hilfen, um Immobilien robuster gegenüber den Folgen von Überflutungen zu machen. Das Online-Tool ImmoRisk bietet Immobilieneigentümern die Möglichkeit, Risiken von Extremwetter für den Standort ihrer Immobilie zu ermitteln. Künftig soll das Instrument bundesweit geodatenbasiert eine Risikoabschätzung ermöglichen.

Verschiedene Instrumente unterstützen Städte und Gemeinden. Der Stadtklimalotse schafft auf Basis einer Datenbank einen Überblick von Anpassungsmaßnahmen, die Stadtplaner als Baustein für eigene Konzepte nutzen können. Das Werkzeug ist Ergebnis des Forschungsfeldes „Urbane Strategien zum Klimawandel“. Weiterhin werden Möglichkeiten vorgestellt, die Folgen von Starkregen abzufedern. Ein Erfolgsfaktor ist dabei die engere Kooperation zwischen Stadtplanung und Siedlungswasserwirtschaft. „Urbane Gefahrenkarten“ machen transparent, welche Gebiete lokal besonderen Überflutungsrisiken ausgesetzt sind.

Wie auf regionaler Ebene Maßnahmen zur Hochwasservorsorge auch im Siedlungsbestand umgesetzt werden können, zeigen Ergebnisse aus den Modellvorhaben „Raumentwicklungsstrategien zum Klimawandel“. Grenzüberschreitende Projekte aus dem EU-Programm INTERREG werfen zudem ein Schlaglicht auf das Hochwassermanagement entlang der Elbe und ihrer Zuflüsse.

Das Heft „Hochwasservor- und Nachsorge“ ist als Nr. 8/2014 in der Reihe BBSR-Analysen KOMPAKT erschienen. Es ist kostenfrei per E-Mail erhältlich: gabriele.bohm@bbr.bund.de.

PDF-Version:
http://www.bbsr.bund.de/BBSR/DE/Veroeffentlichungen/AnalysenKompakt/2014/DL_08_2…;

Kontakt
Christian Schlag
Stab Direktor und Professor
Tel.: 022899 401-1484
christian.schlag@bbr.bund.de

Dr. Fabian Dosch
Referat I 5 – Verkehr und Umwelt
Tel.: 022899 401-2307
fabian.dosch@bbr.bund.de

***
Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: idw

(nach oben)


Schon ein Bier verschlechtert die Nachtsicht. Augenärzte raten zu gänzlich nüchternen Autofahrten

Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Dass schon geringe Mengen Alkohol den Sehsinn „vernebeln“, belegen Augenärzte jetzt wissenschaftlich: Das in alkoholischen Getränken enthaltene Ethanol stört den natürlichen Tränenfilm des Auges, so eine spanische Studie. Dies verschlechtert das Sehvermögen bei Nacht und erhöht die Licht- und Blendempfindlichkeit. Alkoholische Getränke beeinträchtigen also nicht nur generell das Reaktionsvermögen des Fahrers, sondern wirken auch direkt auf die Augen. Diese Effekte treten schon nach Verzehr geringer Mengen Alkohol auf und schränken die Fahrtüchtigkeit ein. Die DOG rät Autofahrern deshalb, insbesondere vor nächtlichen Fahrten gänzlich auf alkoholische Getränke zu verzichten.

Wie stark Alkohol die Reaktionszeit verlangsamt, zeigen die Zahlen: Bei fünf Prozent aller Verkehrsunfälle mit Personenschaden stand mindestens einer der Beteiligten unter Alkoholeinfluss, meldet das Statistische Bundesamt. Die Hälfte davon ereignet sich am Wochenende in der Zeit von 20 bis 24 Uhr. „Besucher von Diskotheken und Kneipen neigen in ihrer Euphorie dazu, die eigene Fahrtüchtigkeit zu überschätzen und ihren Alkoholkonsum zu verharmlosen“, sagt Professor Dr. med. Christian Ohrloff, Pressesprecher der DOG aus Frankfurt. Dabei belegen neue Studien, dass Alkohol nicht nur Koordination und Urteilsvermögen des Fahrers einschränkt, sondern auch unmittelbar die Fähigkeit, bei Nacht zu sehen.

Experten der Universität Granada testeten Kontrastsehen und Blendempfindlichkeit von 67 Probanden vor und nach dem Verzehr unterschiedlicher Mengen Rotwein. Alle Teilnehmer schnitten nach Alkoholkonsum im Sehtest deutlich schlechter ab als im nüchternen Zustand. Schuld daran sei, so die Autoren der Studie, das im Alkohol enthaltene Ethanol. Es löst die äußere, leicht fettige Schicht des Tränenfilms auf, der das Auge bedeckt. Dadurch verdunsten die wässrigen Bestandteile der Tränenflüssigkeit.

Die Folge ist, dass ein alkoholisierter Fahrer Kontraste schlechter erkennt und empfindlicher auf Licht reagiert. Dieser Effekt zeigt sich verstärkt ab einer Blutalkoholkonzentration von 0,5 Promille. Aber auch Probanden, deren Werte unterhalb der gesetzlichen Höchstgrenze lagen, sahen Kontraste schlechter und nahmen vermehrt Lichtschleier wahr. „Entscheidend ist, dass Alkohol generell unser Reaktionsvermögen beeinträchtigt“, sagt Professor Dr. med. Bernhard Lachenmayr, Vorsitzender der Verkehrskommission der DOG aus München. „Dass das Ethanol darüber hinaus das Sehvermögen einschränkt, stützt nur einmal mehr die Empfehlung, sich alkoholisiert gar nicht erst hinters Steuer zu setzen.“

Denn schon bei geringem Alkoholkonsum und normalen Lichtverhältnissen verschlechtert sich die Sicht für den Feiernden kaum wahrnehmbar. Dies sei besonders gefährlich, so Lachenmayr: „Viele Kneipenbesucher halten sich noch für fahrtüchtig, wenn sie ein bis zwei Gläser Bier getrunken haben.“ Nach den oben beschriebenen Erkenntnissen stehe dies einmal mehr in Frage. „Demzufolge können schon geringe Mengen Alkohol dazu führen, dass der Fahrer Fußgänger und Straßenschilder zu spät erkennt oder durch die Scheinwerfer entgegenkommender Autos geblendet wird.“

Quellen:
Castro J, Pozo AM et al., Retinal-Image Quality and Night Vision Performance after Alcohol Consumption, Journal of Ophthalmology Volume 2014 (2014), DOI:10.1155/2014/704823

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Gierige Menschen lernen schlechter aus ihren Fehlern

Marco Bosch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wissenschaftler der Universität Würzburg konnten einen Zusammenhang zwischen Gier als Persönlichkeitsmerkmal und riskantem Verhalten herstellen. Über die Ergebnisse ihrer Studie berichtet das Fachmagazin Social Neuroscience in seiner aktuellen Ausgabe.

Hochriskante Spekulationen von Mitarbeitern der Finanzdienstleistungsbranche trugen zu einem Teil zum Auftreten der Finanzkrise bei. Im Sommer 2007 weitet sich die US-amerikanische Immobilienkrise zu einer weltweiten Finanzkrise aus, deren Folgen bis heute die Märkte belasten.

Vor diesem Hintergrund haben die Neuro-Wissenschaftler unter Leitung von Johannes Hewig 2010 mit den Arbeiten an einer nun veröffentlichten Studie begonnen. „Aus Sicht der Psychologie ist es natürlich ungemein spannend, sich der Frage zu stellen, inwieweit Gier als Persönlichkeitsmerkmal riskantes Verhalten vorhersagen kann, und wie sich solche Zusammenhänge erklären lassen“, sagt Professor Hewig von der Universität Würzburg.

Entwicklung eines Tests für das Persönlichkeitsmerkmal Gier
„Zuerst musste der Begriff ‚Gier‘ jedoch präzisiert werden“, erklärt Psychologe Patrick Mussel. Dem Team am Lehrstuhl für Psychologie I an der Universität Würzburg gelang es, das Persönlichkeitsmerkmal Gier zu fassen und einen Test zu entwickeln, mit dem man Gier messen kann. Dies funktioniert über einen Fragebogen, bei dem die Probanden Aussagen in verschiedenen Ausprägungen zu- oder nicht zustimmen können.

„Der Test erfasst den Wunsch nach mehr, koste es was es wolle – einschließlich einem exzessiven Streben nach materiellen Gütern“, sagt Mussel und hebt die wesentliche Bedingung hervor: „Eine gierige Person zeichnet sich in unserer Definition durch die Bereitschaft aus, dass ihr Streben nach mehr auf Kosten von anderen geht.“

Zusammenhang von Gier und Risikoverhalten
An der Risikoaufgabe nahmen 20 Studierende der Wirtschaftswissenschaften teil. Im Labor bearbeiteten die Versuchspersonen die so genannte „Balloon-Analogue-Risk-Task.“ Bei dieser Aufgabe müssen die Probanden einen virtuellen Luftballon, der auf einem Bildschirm dargestellt wird, möglichst weit aufpumpen. Je praller er wird, desto größer ist die Chance auf den Gewinn. Platzt der Ballon jedoch, verliert man alles. Der Student mit dem größten Gewinn bekam am Ende der Durchgänge eine reale finanzielle Entlohnung als Preis.

Danach bearbeiteten die Versuchspersonen den Test zur Erfassung von Gier. „Wie erwartet zeigte sich, dass Personen, die besonders gierig waren, den Ballon häufiger aufpumpten als Personen mit niedrigeren Werten auf Gier“, sagt Mussel. Die Risikoneigung konnte also anhand des Persönlichkeitsmerkmals Gier vorhergesagt werden.

Interessanterweise war dieser Effekt besonders ausgeprägt, wenn sich die Personen zuvor mit der Biografie einer gierigen Person beschäftigt hatten. „Hier wurde das Persönlichkeitsmerkmal Gier gewissermaßen aktiviert“, erklärt Mussel.

Gier erschwert das Lernen aus Fehlleistungen
Zusätzlich wurden während der Risikoaufgabe neuronale Prozesse mittels Elektroenzephalogramm (EEG) verfolgt. „Dies ermöglicht die Untersuchung der zugrundeliegenden kognitiven Prozesse und bietet Ansatzpunkte für Erklärungsmodelle für diese Verhaltensweisen“, so Mussel.

Während der Ballon-Aufgabe zeigte sich im EEG zunächst eine typische Reaktion: Etwa 280 Millisekunden nach der Rückmeldung, ob der Ballon geplatzt war oder nicht, zeigte sich eine Komponente im EEG, die als „feedbackbezogene Negativierung“ bezeichnet wird. Sie zeigt an, ob ein Ereignis besser oder schlechter war als erwartet. Diese Komponente wird als Indikator eines wichtigen neuronalen Prozesses interpretiert, der es uns ermöglicht, aus Fehlern zu lernen und unser Verhalten entsprechend anzupassen.

Was die Forscher überraschte: Für Personen mit hohen Werten auf Gier verschwand die charakteristische Reaktion auf den Feedbackstimulus. Gierige Versuchspersonen zeigten nahezu die gleiche Hirnaktivität, unabhängig von Erfolg oder Nicht-Erfolg beim Aufblasen.

Dies könnte bedeuten, dass gierige Menschen Schwierigkeiten haben, aus Fehlern zu lernen und ihr Verhalten anzupassen. Ähnliche Befunde wurden in früheren Studien bereits für Psychopathie berichtet.

Hohe Boni können Gier bei Managern aktivieren
Die Befunde legen nahe, dass riskantes Verhalten in verschiedenen Kontexten durch Gier als Persönlichkeitsmerkmal beeinflusst ist. Dabei ist dieser Effekt besonders stark, wenn Gier zuvor aktiviert wurde. Solche aktivierenden Einflüsse könnten beispielsweise ein hoher Bonus auf finanzielle Erfolge oder auch Aspekte der Unternehmenskultur sein.

Ein möglicher Erklärungsansatz: Das riskante Verhalten gieriger Personen könnte daher kommen, dass sie negative Reize oder Warnsignale aus der Umwelt ignorieren. Dies könnte auch das Auftreten und Platzen von Spekulationsblasen erklären. Sie entstehen dadurch, dass Investoren in einer Zeit steigender Kurse ihre Anteile zu lange halten und Indizien, die auf einen Umschwung hinweisen, ignorieren.

Weitere Untersuchungen geplant
Als nächstes planen die Würzburger Wissenschaftler die Übertragung ihrer Befunde auf andere Zielgruppen, wie beispielsweise Investmentbanker. Darüber hinaus arbeiten die Psychologen an der Frage, aus welchen Facetten sich Gier zusammensetzt und durch welche Faktoren der Einfluss von Gier auf das Verhalten moderiert wird.

Mussel, P., Reiter, A, M. F., Osinsky, R. & Hewig, J. (2014). State- and trait-greed, its impact on risky decision-making and underlying neural mechanisms. Social Neuroscience, 10.
doi: 10.1080/17470919.2014.965340.
Online abrufbar: http://www.tandfonline.com/eprint/KUkMdk3x3m36HQuNzwSm/full

Kontakt

Patrick Mussel, Fakultät für Humanwissenschaften, Lehrstuhl für Psychologie I
Arbeitsgruppe Differentielle Psychologie, Persönlichkeitspsychologie und Psychologische Diagnostik T. +49-931-31-83782, E-Mail: patrick.mussel@uni-wuerzburg.de

Weitere Informationen:
http://www.tandfonline.com/eprint/KUkMdk3x3m36HQuNzwSm/full Link zur Veröffentlichung
http://www.uni-wuerzburg.de Link zur Universität Würzburg

Quelle: idw

(nach oben)


Smartphones: sauberer als gedacht

Jutta Neumann Pressestelle
Hochschule Furtwangen

Smartphones sind weit weniger Bakterienschleudern als befürchtet. Mit einem Alltagstrick bekommt man die Keimbelastung sogar noch besser in den Griff. Ein Forscherteam rund um Prof. Dr. Markus Egert von der Hochschule Furtwangen, Campus Schwenningen, konnte zeigen, dass entgegen anders lautender Horrormeldungen aus dem Internet Smartphone-Touchscreens nur mäßig mit Mikroorganismen belastet sind.

In einer jetzt veröffentlichten Studie bestimmten die Forscher die durchschnittliche Gesamtkeimzahl auf den Touchscreens von Smartphones mit rund einem Keim pro Quadratzentimeter. Dies sind gut 100 Mal weniger Mikroben als man auf der menschlichen Hand oder auch auf dem häuslichen Toilettensitz findet, der gerne als abschreckender Vergleich herangezogen wird.

Allerdings wurden in der Studie auch potentielle Krankheitserreger auf den Touchscreens entdeckt. So wurden z.B., wenn auch in geringen Mengen, Fäkalbakterien wie Escherichia coli nachgewiesen. 50% der sicher identifizierten Arten gehörten zur Risikogruppe 2, das heißt sie waren potentiell pathogen. Zur hygienischen Reinigung empfehlen die Forscher entweder saubere Mikrofasertücher oder – noch besser – alkoholische Brillenputztücher, die die Keimzahl um bis zu 96% reduzieren können. Die Hersteller von Mobilgeräten raten allerdings meist nur zur trockenen Reinigung. Damit lassen sich jedoch lediglich 80% der Keime entfernen, zeigte die Studie.

Aus der Studie hat sich zudem eine wissenschaftliche Zusammenarbeit mit der Zeiss Vision International GmbH aus Aalen zum Thema Reinigung und Hygiene von Oberflächen ergeben. Das Thema Haushaltshygiene und die Mikrobiologie von Gebrauchsgegenständen gehören zu den Hauptarbeitsgebieten von Professor Egert.

DOI: 10.1007/s12223-014-0350-2

Weitere Informationen:
http://link.springer.com/article/10.1007/s12223-014-0350-2 Folia Microbiologica – die Studie (auf Englisch)

Quelle: idw

(nach oben)


Bioabfall hält Einzug in die Gastronomie

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Fauchon, Taillevent und Le Napoleon gehören zu den insgesamt 80 Restaurants, Hotels und Catering Anbietern im Großraum Paris, die ihren Bioabfällen einen ganz neuen Stellenwert einräumen.

Ab 2015 sind Restaurants verpflichtet, ab einem bestimmten Schwellenwert (20 Tonnen pro Jahr) ihre Bioabfälle zu sortieren und zu verwerten. Der französische Berufsverband Synhorcat hat bereits im März 2014 eine erste achtmonatige Versuchsreihe gestartet, an der 80 Restaurants, Hotels und Caterer aus Paris freiwillig teilnehmen. Es handelt sich um kleine Bistrots und Cafés, aber auch um renommierte Restaurants und Feinkostläden wie Fauchon, Taillevent und Le Napoleon.

Die Bioabfälle werden in den dichtbesiedelten Städten täglich in Mini-Müllwagen eingesammelt und zu einer Biogasverarbeitungsplattform südlich von Paris transportiert. Dort werden die Bioabfälle zur Erzeugung von Methangas verwertet. Das so erzeugte Biogas wird hauptsächlich direkt an der Biogasanlage zur dezentralen gekoppelten Strom- und Wärmeerzeugung (Kraft-Wärme-Kopplung) in Blockheizkraftwerken (BHKWs) genutzt; seltener wird das Biogas zu Biomethan aufbereitet. Bei der direkten Nutzung wird das Gasgemisch getrocknet, entschwefelt und dann einem Biogasmotor zugeführt, der einen Generator antreibt. Der so produzierte Strom wird in das Netz eingespeist. Der Rückstand nach der Verarbeitung, der so genannte Gärrest, dient als Dünger für die Landwirtschaft.

Insgesamt 200 Tonnen Abfall sollen durch diese Initiative verwertet werden. Die französische Agentur für Umweltschutz und Energie (ADEME) fördert das Projekt mit € 173 600 Euro. Dieses Experiment ist ein Beweis dafür, dass eine sinnvolle Verwertung von in Städten anfallenden Bioabfällen möglich ist. Die Müllfahrzeuge sind mit einem Messinstrument ausgestattet, sodass jeder Gastronom genau verfolgen und dokumentieren kann, wieviel Abfälle er produziert. Dies fördert möglicherweise ein gesellschaftliches Umdenken und könnte zu einer Reduzierung der Abfallproduktion und Verschwendung führen.

Quelle: Pressemitteilung des französischen Ministeriums für Umwelt, Energie und nachhaltige Entwicklung « Transition énergétique : les restaurateurs valorisent les biodéchets »,
http://www.developpement-durable.gouv.fr/Transition-energetique-les.html

Redakteurin: Daniela Niethammer, daniela.niethammer@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de

Quelle: idw

(nach oben)


Familie und berufliche Mobilität: Welchen Herausforderungen müssen sich Betroffene stellen?

Holger Schleper Geschäftsbereich Kommunikation – Presse- und Informationsstelle
Hochschule Osnabrück

Lisa Hoffmann, Doktorandin im Forschungskolleg „FamiLe – Familiengesundheit im Lebensverlauf“ an der Hochschule Osnabrück, sucht Interviewpartnerinnen und -partner.

Knapp fünf Prozent der Vollzeit erwerbstätigen Personen zwischen 25 und 54 Jahren aus Deutschland, Frankreich, Belgien, der Schweiz, Polen und Spanien sind regelmäßig aus beruflichen Gründen über Nacht nicht zu Hause. Dieses Ergebnis einer wissenschaftlichen Studie stammt bereits aus dem Jahr 2007. Jetzt untersucht eine Doktorandin der Hochschule Osnabrück, welche Konsequenzen sich aus diesen Lebensmodellen für Familien ergeben.

„Berufliche Mobilität wird von Politik und Wirtschaft zunehmend erwartet“, erklärt Lisa Hoffmann. Familien seien hier im wachsenden Maße gefordert. „Ist ein Partner beruflich mobil, stellen sich die Herausforderungen, mit denen Familien im Allgemeinen konfrontiert sind, in verschärfter Form.“ Untersuchungen konnten laut der Soziologin Hoffmann unter anderem nachweisen, dass die berufliche Mobilität Auswirkungen auf die Entscheidung zur Elternschaft haben kann. „Allerdings gilt grundsätzlich, dass wenig über die Bewältigung des Alltags und die damit verbundenen Handlungsstrategien bekannt ist. Auch die Frage, welche Auswirkungen die berufliche Mobilität auf die Familiengesundheit haben kann, ist noch offen.“ Die Ergebnisse von Hoffmanns Arbeit sollen einen Einblick in die Lebenswelt betroffener Familien geben und zur Debatte der Vereinbarkeit von Beruf und Familie beitragen.

Für ihr Forschungsprojekt sucht Hoffmann noch Interviewpartnerinnen und -partner.
Es können alle Familien an der Studie teilnehmen, in denen mindestens ein erwachsener Partner regelmäßig aus beruflichen Gründen über Nacht unterwegs ist und bei denen Kinder mit im Haushalt leben. Wer Interesse an einer Teilnahme oder noch ergänzende Fragen hat, kann sich bei Lisa Hoffmann unter der Adresse hoffmann(at)wi.hs-osnabrueck.de melden.

Hoffmann ist Promovendin im Forschungskolleg „FamiLe – Familiengesundheit im Lebensverlauf“. Das Kolleg ist eine gemeinsame Einrichtung der Hochschule Osnabrück und der Universität Witten/Herdecke und wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Ansprechpartnerin:
Lisa Hoffmann, M.A.
Soziologin
Forschungskolleg FamiLe
Hochschule Osnabrück
E-Mail: hoffmann@wi.hs-osnabrueck.de

Weitere Informationen:
http://www.wiso.hs-osnabrueck.de/famile.html

Quelle: idw

(nach oben)


Weltmännertag 2014 – Urologen appellieren: Männergesundheit beginnt beim Jungen

Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.

Ob Weltmännertag am 3. November, internationaler Männertag am 19. November oder die weltweite Spendenkampagne für Prostatakrebsforschung und Männergesundheit „Movember“: Der Herbst steht ganz im Zeichen des gesundheitspolitisch noch immer stark vernachlässigten starken Geschlechts.

Die Deutsche Gesellschaft für Urologie e.V. (DGU) und der Berufsverband der Deutschen Urologen e.V. (BDU) appellieren an die Männer, ihre Gesundheitskompetenz zu schärfen und vorhandene Gesundheitsangebote besser zu nutzen – und zwar in jeder Altersgruppe. Sie selbst halten dafür diverse Ratgeber sowie ein umfangreiches Angebot medizinischer Informationen für Interessierte und Patienten auf ihrer Website (www.urologenportal.de) vor und setzen sich mit regelmäßigen Laienforen für die öffentliche Aufklärung ein.

Männergesundheit beginnt bereits beim Jungen, betonen Urologen zum Weltmännertag 2014. Praktisch bedeutet das zum Beispiel die frühzeitige Feststellung medizinischer Fehlbildungen, die Einhaltung eines altersgerechten Impfplans, rechtzeitige Aufklärung über Verhütung und sexuell übertragbare Infektionen sowie die Aufklärung über Selbstuntersuchung zur Früherkennung von Hodenkrebs. „Männliche Jugendliche sind eine wichtige Zielgruppe, um die Männergesundheit langfristig zu verbessern“, sagt DGU-Pressesprecherin Prof. Dr. Sabine Kliesch. „Wir wollen die Jungen frühzeitig sensibilisieren und ihr Gesundheitsbewusstsein wecken, sodass der Gang zum Arzt so selbstverständlich wie bei Mädchen und Frauen wird.“ Zu diesem Zweck engagieren sich DGU und BDU derzeit auf zwei Ebenen. „Zum einen sind wir dabei, eine Jungensprechstunde in urologischen Praxen zu etablieren, die den Jungen auch in der Pubertät einen ärztlichen Ansprechpartner bietet und damit eine Lücke im Männerleben schließt“, so BDU-Pressesprecher Dr. Wolfgang Bühmann. Zum anderen kooperieren die Urologen mit der Ärztlichen Gesellschaft zur Gesundheitsförderung e.V. bei der gesundheitlichen Bildung von Jungen in Schulen.

Was Männer im Laufe ihres Lebens zur „Prävention urologischer Erkrankungen“ von Blase, Nieren und Prostata, für Potenz und Fruchtbarkeit tun können, bringt der gleichnamige Ratgeber von DGU und BDU auf den Punkt. Aufklärung über Prostatakrebsfrüherkennung empfehlen Deutschlands Urologen allen Männern ab 45 Jahren. Nicht zuletzt appellieren die Experten für Männergesundheit am diesjährigen Weltmännertag, altersbedingte urologische Erkrankungen des Mannes wie die gutartige Prostatavergrößerung, Testosteronmangel oder die Erektile Dysfunktion im Sinne einer guten Lebensqualität und der Vermeidung von Folgeerkrankungen abklären und behandeln zulassen.

Weitere Informationen und alle Ratgeber der Urologen finden Interessierte jeden Alters – nicht nur an Männertagen – auf www.urologenportal.de

Weitere Informationen
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de

Weitere Informationen:
http://www.urologenportal.de

Quelle: idw

(nach oben)


Internationaler Tag der Flüsse: Schlechte Karten

Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Flüsse durchströmen die meisten unserer großen Städte und übernehmen wichtige Funktionen für den Menschen. Damit sie auch in Zukunft nutzbar bleiben, fordert die EU-Wasserrahmenrichtlinie bis 2015 eine systematische Verbesserung aller europäischen Gewässer. Zum „Internationalen Tag der Flüsse“ am Sonntag, 28. September, erklärt Dr. Christian Wolter, Wissenschaftler am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) in Berlin, warum dies vor allem in stärker besiedelten Gebieten nicht ganz einfach ist. „Der urbane Einfluss lässt andere Verbesserungsmaßnahmen oftmals wirkungslos erscheinen“, sagt Wolter.

Ob plätschernder Bach oder reißender Strom – Flüsse sind Lebensraum für eine Vielzahl von Arten und haben zugleich eine große Bedeutung für den Menschen. Sie dienen der Trinkwasserversorgung, als Wirtschaftswege oder der Freizeitnutzung. Um all diese Funktionen zu sichern, wurde im Jahr 2000 die EU-Wasserrahmenrichtlinie aufgelegt. Seither ist neben der Wasserqualität auch der gute ökologische Zustand aller Gewässer ein verbindliches Entwicklungsziel, das heißt ein relativ naturnaher, nur wenig vom Menschen beeinflusster Gewässerzustand.

Flüsse unter Stress
Aktuell sind über die Hälfte der europäischen Flüsse in moderatem oder sogar schlechtem Zustand. „Faktoren wie Flussbettveränderungen und Kanalisierungen verschlechtern die Lebensbedingungen von Fischen und anderen aquatischen Lebewesen“, erklärt Christian Wolter. Der Verlust von Uferbereichen mit ihrer typischen Vegetation bedeute für viele Tierarten, Schutz- und Lebensraum zu verlieren. Zusätzlicher Stress könne durch steigende Wassertemperaturen entstehen. Zudem hat der Klimawandel ein erhöhtes Hochwasserrisiko zur Folge, während hingegen in anderen Regionen Flüsse aufgrund geringerer Niederschläge zu wenig Wasser führen.

Im Laufe der Jahrhunderte wurden alle größeren Flüsse reguliert und verändert, um beispielsweise dem Hochwasserabfluss oder der Schifffahrt zu dienen. Viele von ihnen werden auch heute noch in gleicher Weise genutzt. Aus diesem Grund sieht die Wasserrahmenrichtlinie Ausnahmen vor: Künstliche und erheblich veränderte Gewässer müssen geringere Umweltanforderungen erfüllen und ein gutes ökologisches „Potenzial“ erreichen. Damit ist zum Beispiel die Artenvielfalt gemeint, die sich einstellt, wenn alle ökologisch wirksamen Maßnahmen angewendet werden, die die vorhandene Nutzungen nicht beeinträchtigen.

Versiegelte Flächen in Gewässernähe behindern verbessernde Eingriffe
Doch wo und in welchem Umfang sollten Verbesserungsmaßnahmen durchgeführt werden, um die Wasserrahmenrichtlinie möglichst effizient umzusetzen? Um diese Frage zu beantworten, untersuchte ein IGB-Forscherteam, welche Einflüsse auf welchen räumlichen Skalen relevant sind.

„Bezogen auf den jeweiligen Flussabschnitt fanden wir dabei heraus, dass für Fische naturnahe Uferzonen besonders wichtig sind“, so Wolter. „Für Wirbellose ist hingegen die Laufform der wichtigste Einflussfaktor, denn sie beeinflusst wiederum die Zusammensetzung der Sedimentstruktur, von der das Vorkommen der Tierchen in erster Linie bestimmt wird.“

Ebenso entscheidend für die „Gewässergesundheit“ sind allerdings Effekte auf Einzugsgebiets-Ebene. Urbanisierung oder Verstädterung, insbesondere die Bebauung und Versiegelung von Flächen, ist dabei die dominierende Einflussgröße: „Schon bei einer urbanen Landnutzung von 16 Prozent im Einzugsgebiet lässt sich ein guter ökologischer Zustand für Wirbellose nicht mehr erreichen – ganz unabhängig von den übrigen Einflussfaktoren“, Wolter weiter. Dieses Ergebnis zeige, wie großräumige Einflüsse den Erfolg lokaler Verbesserungsmaßnahmen beeinträchtigen können, aber auch, wie wichtig es ist, bei der Planung und Umsetzung von Managementmaßnahmen das gesamte Einzugsgebiet zu berücksichtigen.

Studie:
Kail, J. & Wolter, C. (2013) Pressures at larger spatial scales strongly influence the ecological status of heavily modified river water bodies in Germany. Science of the Total Environment 454-455: 40-50.

Kontakt:
Dr. Christian Wolter
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
Müggelseedamm 310
12587 Berlin
Tel. +49 (0)30 64181 633
E-Mail: wolter@igb-berlin.de

Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) gehört zum Forschungsverbund Berlin e.V. (FVB), einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. In ihnen arbeiten mehr als 1.500 Mitarbeiter. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. Entstanden ist der Forschungsverbund 1992 in einer einzigartigen historischen Situation aus der ehemaligen Akademie der Wissenschaften der DDR.

Weitere Informationen:
http://www.igb-berlin.de

Quelle: idw

(nach oben)


Deponiegas kostengünstig aufbereiten

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Aktivkohle zur Gasaufbereitung vor Ort regenerieren
Anstelle von Erdgas kann auch Deponiegas aus Mülldeponien und Kläranlagen in Blockheizkraftwerken verbrannt und energetisch genutzt werden. Um die Turbinen und Motoren nicht vorzeitig zu verschleißen, muss das Gas vorab von unerwünschten Begleitstoffen, z. B. siliziumorganischen Verbindungen, gereinigt werden. Das BINE-Projektinfo „Deponiegas sauber nutzen“ (11/2014) stellt ein Verfahren vor, mit dem das Adsorptionsmittel vor Ort regeneriert wird. Dadurch muss die Aktivkohle seltener ausgetauscht werden. Das Ziel ist, Kosten zu senken und die Gasreinigung wirtschaftlicher zu machen.

Die Adsorption mit Aktivkohle und anschließender Regeneration ist das gebräuchlichste Verfahren zur Gasreinigung. Die Siloxa Engineering AG hat gemeinsam mit Fraunhofer UMSICHT eine Vor-Ort-Regeneration der Aktivkohle durch adsorptive Reinigung entwickelt. In Feldversuchen auf der Deponie Vereinigte Ville in Erftstadt-Liblar bei Köln wurde das Verfahren erprobt. Um zusätzlich die Belastung mit polaren organischen Verbindungen, wie Trimethylsilanol, zu senken, empfehlen die Forscher eine Vorreinigung mit einer Sickerwasserwäsche.

Die Forschungsgruppe entwickelte ein theoretisches Verfahrenskonzept für eine Gasreinigungsanlage mit einem Durchsatz von 1.000 Nm³ pro Stunde: Für dieses Konzept erstellte das Forschungsteam auch eine Betriebskostenanalyse bei einer durchschnittlichen Siliziumbelastung des Deponiegases. Auf dieser Basis berechneten sie bei den spezifischen Betriebskosten einen deutlichen Vorteil des neuen Verfahrens gegenüber einer konventionellen Adsorptionsanlage mit einem Austausch der Aktivkohle. Um das Vor-Ort-Verfahren zur Marktreife zu bringen, müssen weitere Tests unter anwendungsnahen Randbedingungen durchgeführt werden.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 92379-0.

http://www.bine.info

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


GfK-Umfrage: Zwei-Klassen-Medizin in Deutschland?

Constanze Steinhauser PR
Duale Hochschule Baden-Württemberg

Professoren für BWL-Gesundheitsmanagement über Entwicklungen im Gesundheitssystem

Welche Einschätzungen und Erwartungen haben die Bürger in der nahen Zukunft zum Gesundheitssystem? Das war Gegenstand einer repräsentativen GfK-Umfrage des Studiengangs BWL-Gesundheitsmanagement der Dualen Hochschule Baden-Württemberg (DHBW) Mosbach. Die Ergebnisse nutzen die Professoren für ihre Lehre, um den dualen Studierenden die Herausforderungen des Berufsalltags in der Gesundheitsbranche vor Augen zu führen.

Das prägnanteste Ergebnis der Befragung: 67 Prozent der Teilnehmer gaben an, dass sie eine Zwei-Klassen-Medizin zwischen privat und gesetzlich Versicherten befürchten. Bei Haushalten mit drei Kindern oder mehr sind es sogar 71 Prozent. „Diese Einschätzung ist zwar keinesfalls ein Hinweis auf die tatsächliche Existenz einer Zwei-Klassen-Medizin“, so Prof. Dr. Tobias Lutz, der im Studiengang BWL-Gesundheitsmanagement an der DHBW Mosbach lehrt, „aber bedenklich finde ich, dass diese Zahlen wie auch die anderen Umfrageergebnisse belegen, dass der Wandel im Gesundheitssystem die Menschen in allen Lebenssituationen und Versorgungsbereichen verunsichert.“

So sorgt sich ein Drittel der Bevölkerung um die medizinische Versorgung im ländlichen Raum, in Mecklenburg-Vorpommern und Brandenburg sogar mehr als die Hälfte der Befragten. Knapp 30 Prozent sehen die Pflegeversorgung nicht gewährleistet. „Dass dieser Wert so hoch ausfällt, hat uns überrascht. Denn viel weniger Menschen kommen mit dem Bereich Pflege in Berührung als beispielsweise mit ambulanter oder stationärer Versorgung. Das zeigt, wie relevant das Thema ist“, so Lutz. Dass die Menschen sich zu Recht Sorgen um die zukünftige Entwicklung machen, belegen die Zahlen des Statistischen Bundesamts: In den Jahren von 2001 bis 2011 ist die Zahl der Pflegebedürftigen von gut 2 Millionen auf rund 2,5 Millionen gestiegen. Das Amt schätzt, dass es bis 2030 3,4 Millionen Pflegebedürftige in Deutschland gibt – und dass dann rund 150.000 Pflegekräfte fehlen.

Auch die betriebswirtschaftliche Orientierung im Gesundheitssystem beschäftigt die Bürger. 43 Prozent befürchten laut Umfrage, dass ihre Ärzte oder Krankenhäuser unnötige Behandlungen durchführen würden, wenn sie diese gut abrechnen können. Ein knappes Viertel der Befragten glaubt zudem, dass der Fortschritt in der Medizintechnik in Zukunft die finanziellen Mittel des Gesundheitssystems übersteigen werde. Tobias Lutz und seine Kollegen Prof. Dr. Dr. Frank Elste und Prof. Dr. Björn Peters kennen die Entwicklung: „Über 300 Milliarden Euro flossen in Deutschland 2012 in Gesundheitsausgaben. Dieser Betrag hat sich in den letzten 20 Jahren fast verdoppelt. Auch der Anteil am Bruttoinlandsprodukt stieg in dieser Zeit von 9,6 auf 11,3 Prozent“, erklärt Peters.

„Angesichts solcher Zahlen wird klar, warum wir zunehmend stärker betriebs- und volkswirtschaftliche Faktoren berücksichtigen müssen. Wir haben unzählige medizinische Therapiemöglichkeiten, müssen sie jedoch im wirtschaftlich möglichen und medizinisch notwendigen Rahmen einsetzen“, so Frank Elste. „Gewinnorientierung ist keine falsche Entwicklung. Ökonomisierung darf aber nicht zu Fehlentwicklungen führen wie beispielsweise zu ethisch fragwürdigen Entscheidungen angesichts von Fallpauschalen oder zu schlechterer Betreuung aus Personalmangel.“ Der duale Studiengang BWL-Gesundheitsmanagement bereitet darum seit 2004 Studierende darauf vor, in der Gesundheitsbranche zu arbeiten. Auf dem Stundenplan stehen neben klassischen BWL-Kenntnissen Spezialisierungen in den Bereichen Klinikmanagement, Medizincontrolling und Healthcare Marketing, aber auch Gesundheitspolitik und Medizinethik.

Gesamtgesellschaftliche Herausforderung
Die Entwicklungen des Gesundheitssystems seien nur zusammen zu meistern, sind sich die Professoren des Studiengangs BWL-Gesundheitsmanagement sicher. Deswegen gibt es am Campus Bad Mergentheim zwei Vertiefungsrichtungen: Im Bereich Gesundheitseinrichtungen verbringen die dualen Studierenden ihre Praxisphasen in Krankenhäusern oder Pflegeeinrichtungen, bei Krankenkassen oder Verbänden wie dem Roten Kreuz. Im Bereich Healthcare Industry bilden Unternehmen aus der Pharma- oder Medizintechnikbranche die jungen Leute zusammen mit der DHBW Mosbach aus. Ein Ergebnis der Studie freut Frank Elste besonders: „Die Bürger sind bereit, auch selbst einen Beitrag zu leisten, um die Versorgung zu verbessern. Nur 11 Prozent der Befragten würden wegen steigender Zuzahlungen auf medizinische Leistungen verzichten. Das zeigt, dass nicht nur die Branche, sondern alle diese Situation als gesamtgesellschaftliche Herausforderung ansehen.“

Die Befragung wurde von der GfK in Nürnberg unter 2.000 Bundesbürgern ab 14 Jahre im Zeitraum vom 15. August bis 5. September 2014 durchgeführt und ist repräsentativ für die Gesamtbevölkerung.

Weitere Informationen:
http://www.dhbw-mosbach.de/gesundheitsmanagement.html – Informationen zum Studiengang BWL-Gesundheitsmanagement

Quelle: idw

(nach oben)


Städtische Wasserinfrastrukturen nachhaltig (um)gestalten

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Städtische Wasserinfrastrukturen nachhaltig (um)gestalten – Innovative Ansätze und Lösungen für aktuelle Herausforderungen

Terminhinweis: Difu-Seminar, 6. – 7. November 2014 in Berlin

Die Infrastrukturen der Wasserversorgung und Stadtentwässerung sind in jüngerer Zeit verstärkt ins öffentliche Bewusstsein gerückt. Ausschlaggebend hierfür sind Veränderungen wichtiger Rahmenbedingungen. Die Auswirkungen aktueller Bevölkerungsentwicklungen sowie veränderte Niederschläge durch den Klimawandel erfordern mancherorts erhebliche Anpassungen von Netzen und Anlagen. Steigende Preise für Energie und Rohstoffe schlagen sich auf die ohnehin schon in den Schlagzeilen stehenden Wasser- und Abwasserpreise nieder. Und nicht zuletzt stehen Investitionsbedarfe bei der wasserwirtschaftlichen Infrastruktur im Kontrast zu den enger werdenden Finanzierungsspielräumen der öffentlichen Hand. Mit diesem Wandel verändern sich die Anforderungen und Zielsetzungen der Siedlungswasserwirtschaft. Neben dem Gesundheits-, Hochwasser- und Umweltschutz tritt immer stärker die Erwartung eines sparsamen Umgangs mit Energie und Ressourcen in den Vordergrund. Flexible, kostengünstige und robuste Lösungen werden gefordert.

Vor diesem Hintergrund haben in den letzten Jahren intelligente Systemlösungen und Bewirtschaftungskonzepte im Bereich der Siedlungswasserwirtschaft zunehmend an Aufmerksamkeit gewonnen. Der differenzierte Gebrauch von Wasser unterschiedlicher Herkunft und Qualität, die energie- und ressourceneffiziente Entsorgung von Abwasser, die Erschließung der Potenziale des Abwassers für die städtische Energieversorgung sowie die Bewirtschaftung von Regenwasser und die Integration von Regenwassermanagement und Stadt- und Regionalentwicklung stehen dabei im Fokus.

Im Seminar wird ein Überblick über die aktuellen Entwicklungen gegeben. Konzepte des Umbaus und Fallbeispiele innovativer Infrastrukturentwicklung werden vorgestellt:

– Aktuelle Herausforderungen der Siedlungswasserwirtschaft
– Leitbilder zur Zukunft der Siedlungswasserwirtschaft
– Möglichkeiten zur Steigerung der Energie- und Ressourceneffizienz
– Konzepte und Umsetzung energie- und ressourcensparender Infrastruktur
– Integrierte Stadt-, Infrastruktur- und Gebäudeplanung
– Regenwassermanagement

Leitung:
Dr.-Ing. Darla Nickel und Dipl.-Sozialökonom/Dipl.-Volkswirt Jens Libbe, Deutsches Institut für Urbanistik

Programm mit Detailinfos/Konditionen:
http://www.difu.de/veranstaltungen/2014-11-06/staedtische-wasserinfrastrukturen-…

Teilnehmerkreis:
Führungs- und Fachpersonal aus den Bereichen Stadtentwicklung, Bauleitplanung, und Umwelt, Entscheidungsträger aus Unternehmen und Betrieben der Wasserversorgung und Abwasserentsorgung sowie Ratsmitglieder

Veranstalter:
Deutsches Institut für Urbanistik gGmbH (Difu)

Veranstaltungsort:
Deutsches Institut für Urbanistik (Difu)
Zimmerstr. 13-15
10969 Berlin

Ansprechpartnerin/Anmeldung:
Bettina Leute
Tel.: 030/39001-148
Fax.: 030/39001-268
E-Mail: leute@difu.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut – mit einem weiteren Standort in Köln (Bereich Umwelt) – bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

Difu-Website:
http://www.difu.de

Vernetzen Sie sich mit uns über Facebook:
https://www.facebook.com/difu.de

Difu im informationsdienst wissenschaft (idw):
http://www.idw-online.de/de/pressreleases225

***************************************************************

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Prof. Dipl.-Ing. Martin zur Nedden

Weitere Informationen:
http://www.difu.de/veranstaltungen/2014-11-06/staedtische-wasserinfrastrukturen-…

Quelle: idw

(nach oben)


Gehirnjogging am Computer hält nicht, was es verspricht

Nicole Siller Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Die Behauptung, ältere Menschen könnten mit kommerziellen Computerspielen ihre allgemeine geistige Leistungsfähigkeit steigern und der Demenz vorbeugen, ist wissenschaftlich nicht belegt, sagen Wissenschaftler aus Berlin und Stanford. Gemeinsam mit über 70 weltweit führenden Kognitionspsychologen und Neurowissenschaftlern haben sie eine Erklärung veröffentlicht.

Spielend geistig fit. Klingt das nicht verheißungsvoll? Die Werbung lässt uns glauben, dass wir mit bestimmten „Gehirnjogging“-Computerspielen unsere geistige Leistungsfähigkeit steigern und sogar Demenzkrankheiten wie Alzheimer vorbeugen können – und all dies angeblich wissenschaftlich fundiert. Nicht selten ist in der Werbung „von Wissenschaftlern entwickelt“ zu lesen. Doch wie wirksam ist das computerbasierte Gehirnjogging wirklich?

Die bisherige Forschung belegt die Behauptungen der kommerziellen Anbieter nicht, stellen nun über 70 international anerkannte Kognitionspsychologen und Neurowissenschaftler fest. In einer gemeinsamen Erklärung machen sie darauf aufmerksam, dass die Behauptungen der Gehirnjogging-Anbieter wissenschaftlich nicht belegt sind. Ob und wie diese Spiele auf das Gehirn, die geistige Leistungsfähigkeit und die kompetente Bewältigung des Alltags wirken, sei nicht hinreichend erforscht. „Es ist üblich, dass Werbung Produktvorzüge hervorhebt. Oft jedoch hängen die Behauptungen der Spielefirmen nur scheinbar mit der zitierten Forschung zusammen“, sagt Laura Carstensen, Professorin für Psychologie an der Stanford University und Direktorin des Stanford Center on Longevity.

Die Experten, die die gemeinsame Stellungnahme auf Initiative der Stanford University und des Max-Planck-Instituts für Bildungsforschung unterzeichneten, sind sich einig: „Es gibt keine überzeugenden wissenschaftlichen Belege dafür, dass kommerzielle Gehirnjogging-Spiele den alterungsbedingten Abbau der geistigen Leistungsfähigkeit vermindern oder umkehren.“

Auch für Gehirnjogging-Spiele gilt: Übung macht den Meister. Wer viel spielt, steigert seine Leistungen. Die Werbung erweckt aber den Eindruck, dass die Leistungssteigerungen nicht auf die Spiele selbst begrenzt sind. Stattdessen soll einen der Lernerfolg beim Spielen generell schlauer machen, gegen geistigen Abbau schützen und die Kompetenz im Umgang mit Alltagsproblemen steigern. Für dieses Versprechen gibt derzeit es keine überzeugenden wissenschaftlichen Belege.

Allerdings warnen die Forscher auch vor Pessimismus. „Wer körperlich aktiv ist, am sozialen Leben teilnimmt und ein geistig anregendes Leben führt, hat bessere Chancen, geistig gesund zu altern“, betont Ulman Lindenberger, Direktor des Forschungsbereichs Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in Berlin. Gehirn und Verhalten sind bis ins hohe Alter trainierbar. Die Suche nach wirksamen Trainingsprogrammen sei eine wichtige wissenschaftliche und gesellschaftliche Herausforderung.

Kernaussagen der Stellungnahme im Überblick:

• Es ist nicht belegt, dass Gehirnjogging die allgemeine geistige Leistungsfähigkeit steigert.

• Werbung für Gehirnjogging-Spiele, die behauptet, Alzheimer- oder andere Demenzformen verhindern oder heilen zu können, ist wissenschaftlich unbegründet.

• Körperliches Training (aerobes Fitnesstraining) steigert die körperliche Gesundheit und wirkt nachweisbar positiv auf die Durchblutung des Gehirns und auf kognitive Leistungen.

Die gemeinsame Erklärung sowie eine Liste aller Unterzeichner unter: https://www.mpib-berlin.mpg.de/de/presse/2014/10/gehirnjogging-am-computer-haelt…

Hintergrundinformationen
Die Stellungnahme basiert auf einer Initiative von Laura Carstensen, Professorin der Psychologie an der Stanford University und Direktorin des Stanford Center on Longevity, und Ulman Lindenberger, Direktor des Forschungsbereichs Entwicklungspsychologie am Max-Planck-Institut für Bildungsforschung in Berlin. Bereits 2009 haben Laura Carstensen und Ulman Lindenberger eine gemeinsame Stellungnahme zu diesem Thema herausgebracht, die nun weiterentwickelt und von einer großen Zahl von Wissenschaftlerinnen und Wissenschaftlern unterzeichnet wurde.

Weitere Informationen:
https://www.mpib-berlin.mpg.de/de/presse/2014/10/gehirnjogging-am-computer-haelt…

Quelle: idw

(nach oben)


Wasser als zentrales Politikum

Marietta Fuhrmann-Koch Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg

Wasser ist eine lebenswichtige, in vielen Regionen der Welt rare Ressource. Die Geographen Prof. Dr. Hans Gebhardt und Prof. Dr. Marcus Nüsser untersuchen am Beispiel des Vorderen Orients sowie Süd- und Zentralasiens, welches Konfliktpotential Wassermangel in sich trägt. Ihre Forschungsarbeiten an der Universität Heidelberg zeigen: Hinter vermeintlich politischen und religiös begründeten Konflikten stecken oft knappe Wasserressourcen – sei es physischer Wassermangel, auch aufgrund des globalen Klimawandels, oder struktureller Wassermangel, also die durch politische Machtkonstellationen bedingte ungleiche Verteilung von Wasser.

Heidelberger Forscher untersuchen das Konfliktpotential von Wassermangel
Wasser ist eine lebenswichtige, in vielen Regionen der Welt rare Ressource. Die Geographen Prof. Dr. Hans Gebhardt und Prof. Dr. Marcus Nüsser untersuchen am Beispiel des Vorderen Orients sowie Süd- und Zentralasiens, welches Konfliktpotential Wassermangel in sich trägt. Ihre Forschungsarbeiten an der Universität Heidelberg zeigen: Hinter vermeintlich politischen und religiös begründeten Konflikten stecken oft knappe Wasserressourcen – sei es physischer Wassermangel, auch aufgrund des globalen Klimawandels, oder struktureller Wassermangel, also die durch politische Machtkonstellationen bedingte ungleiche Verteilung von Wasser.

„Knappe Wasserressourcen können vor allem dann zum Konflikt führen, wenn große Ströme oder wichtige Grundwasserleiter Grenzen überschreiten“, so Prof. Gebhardt. Solche „transboundary waters“ sind ein weltweit verbreitetes Phänomen: 263 Seen und Flüsse sind grenzüberschreitend, 145 Nationen haben gemeinsam Anteil an Wasserflächen, 13 internationale Wasserressourcen werden von mehr als zwei Nationen genutzt. „Bei transnationalen Strömen sind zumeist die ‚Oberlieger‘ im Vorteil, weil sie die Abflüsse kontrollieren können“, erläutern die Wissenschaftler. Beispiele sind der Euphrat, dessen Wasser in zunehmendem Maße vom „Great Anatolian“-Projekt (GAP) in der Osttürkei genutzt wird – zum Nachteil der Unterlieger Syrien und Irak – sowie die Staudammkaskaden Chinas am oberen Mekong, die die Wassernutzung in den Staaten Laos und Thailand sowie Kambodscha und Vietnam beeinträchtigen.

Eines der ruhenden Gewässer, das an der Universität Heidelberg untersucht wird, ist der unterirdische Disi-Aquifer, der sich auf rund 320 Kilometern Länge vom Süden Jordaniens bis in die Nordregion Saudi-Arabiens erstreckt. Es handelt sich um einen fossilen Wasservorrat, auf den sowohl Agrarunternehmen Jordaniens als auch Saudi-Arabiens zugreifen. Beide Staaten streiten um die Nutzungsrechte des Disi-Aquifers, dessen Vorräte nach internationalen Schätzungen in 30 bis 50 Jahren erschöpft sein werden. Auch den Kaschmir-Konflikt zwischen Indien und Pakistan haben die Forscher unter dem Aspekt knapper Wasserressourcen analysiert. Teil des Konflikts ist ein seit 30 Jahren währender aufwändiger und kostenintensiver Stellungskrieg um den Besitz des Siachen-Gletschers im Norden Kaschmirs. „Die Auseinandersetzungen werden durch geostrategische Erwägungen, nationales Prestigedenken sowie den Wunsch nach Ressourcenzugängen motiviert und sind Erbe der Teilung Britisch-Indiens im Jahr 1947″, erklärt Prof. Nüsser.

An den unterschiedlichen Fallbeispielen zeigt sich, dass die Problemfelder Wassermangel und Wasserkonflikte in Entwicklungs- und Schwellenländern einen integrativen Forschungsansatz erforderlich machen, in dem natur- und gesellschaftswissenschaftliche Methoden kombiniert werden. Daher umfasst das methodische Spektrum der Heidelberger Wissenschaftler nicht nur etablierte empirische Methoden der Sozialforschung, sondern reicht von der satellitengestützten Kartierung bis zur Diskursanalyse.

Hans Gebhardt ist seit dem Jahr 1996 am Geographischen Institut der Universität Heidelberg mit dem Schwerpunkt Anthropogeographie tätig. Zu seinen zentralen Forschungsinteressen gehören die politische Geographie und die Kulturgeographie im Vorderen Orient sowie in Südost- und Ostasien. Prof. Gebhardt betreut als Herausgeber eine Reihe von Standardwerken der Geographie sowie die Geographische Zeitschrift.

Marcus Nüsser forscht und lehrt seit 2006 am Südasien-Institut der Universität Heidelberg. Zu den Forschungsschwerpunkten des Geographen zählen die Mensch-Umwelt- und Hochgebirgs-Forschung, Politische Ökologie sowie Landnutzungssysteme und Ressourcenmanagement in den Ländern Südasiens und des subsaharischen Afrikas. Prof. Nüsser ist Mitherausgeber der Zeitschriften „Mountain Research and Development“ und „Journal of Mountain Science“ sowie Herausgeber der Buchreihe „Advances in Asian Human-Environmental Research“.

Eine ausführlicher Beitrag zu dem Thema „Krieg ums Wasser“ ist in der Ausgabe 4/2014 „Krieg & Frieden“ des Forschungsmagazins „Ruperto Carola“ erschienen:
http://www.uni-heidelberg.de/rupertocarola

Originalpublikationen:
Baghel, R. & Nüsser, M. (2010): Discussing Large Dams in Asia after the World Commission on Dams: Is a Political Ecology Approach the Way Forward? In: Water Alternatives 3 (2): 231-248

Bonn, T. (2013): Wasserpolitik in Jordanien. Das Spannungsfeld zwischen Behörden und Geberorganisationen im jordanischen Wassersektor. Berlin: LIT-Verlag (= Univ. Diss.)

Bonn, T. (2013): On the political sideline? The institutional isolation of donor organizations in Jordanian Hydropolitics. In: Water Policy 15, 728-737 (doi: 10.2166/wp.2013.007)

Gebhardt, Hans (2013): Ressourcenkonflikte und nachhaltige Entwicklung – Perspektiven im 21. Jahrhundert. In: Mitteilungen der Fränkischen Geographischen Gesellschaft, Bd. 59, S. 1-12

Gebhardt, Hans und Eva Ingenfeld (2011): Die Arktis im Fokus geoökonomischer und geopolitischer Interessen. In: Geographische Rundschau, Jg. 63, H. 11, S. 26-33

Nüsser, M. (2014): Technological Hydroscapes in Asia: The Large Dams Debate Reconsidered. In: Nüsser, M. (ed.): Large Dams in Asia: Contested Environments between Technological Hydroscapes and Social Resistance. Dordrecht, Heidelberg, London, New York (= Advances in Asian Human-Environmental Research): 1-14

Nüsser, M. & Baghel, R. (2014): The Emergence of the Cryoscape: Contested Narratives of Himalayan Glacier Dynamics and Climate Change. In B. Schuler (ed.), Environmental and Climate Change in South and Southeast Asia: How are Local Cultures Coping? Leiden, Boston (= Climate and Culture 2): 138-156

Nüsser, M., Schmidt, S. & Dame, J. (2012): Irrigation and Development in the Upper Indus Basin: Characteristics and Recent Changes of a Socio-Hydrological System in Central Ladakh, India. In: Mountain Research and Development 32 (1): 51-61

Kontakt:
Prof. Dr. Hans Gebhardt
Geographisches Institut
Telefon (06221) 54-4572
hans.gebhardt@geog.uni-heidelberg.de

Prof. Dr. Marcus Nüsser
Südasien-Institut (SAI)
Telefon (06221) 54-8922
marcus.nuesser@uni-heidelberg.de

Weitere Informationen:
http://www.uni-heidelberg.de/rupertocarola

Quelle: idw

(nach oben)


Elfmeterabwehr: Die Einstellung des Torwarts macht den Unterschied

Meike Drießen Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

So viele Elfmeter abwehren wie möglich – oder möglichst wenige durchlassen?
DGPs-Kongress an der RUB: Trainer sollte seine Methoden an Torwarttyp anpassen

Torwarttrainer sollten ihre Ansprache der Torhüter an dessen Typ anpassen, damit sie möglichst erfolgreich spielen: Wer vom Typ her eher sicherheitsorientiert ist, spielt besser, wenn sein Ziel ist, so wenige Elfmeter wie möglich durchzulassen. Wer hingegen auf Promotion aus ist und sich beweisen will, spielt besser mit der Ansage, so viele Elfmeter wie möglich abzuwehren.

Drucksituationen überwinden
Hintergedanke der Studie war es, eine Möglichkeit zu untersuchen, mit der Drucksituationen überwunden werden können. Der zentrale Punkt dieses Ansatzes war die Theorie zum Regulativen Fokus von Edward T. Higgins, nach der Personen zwei unterschiedliche Strategien verfolgen, wenn sie Aufgaben angehen: Ihr Fokus liegt entweder auf dem ambitionierten Anspruch etwas zu erreichen (Promotion) oder auf einer wachsamen und pflichtbewussten auf Sicherheit bedachten Herangehensweise (Prävention). Neben dieser Typfrage spielt noch eine Rolle, wie eine Drucksituation wahrgenommen wird – ob eher als Bedrohung oder als Chance sich zu beweisen -, und welchen Charakter die Situation objektiv hat: Da zum Beispiel nur 15 bis 25% der Elfmeter nicht verwandelt werden, ist die Elfmetersituation für den Torhüter eine Möglichkeit, Erwartungen zu übertreffen, also eine Promotionschance.

Torwart-Typen untersucht
Ziel der Studie war es zu untersuchen, ob der Regulative Fokus eines Torhüters einen Einfluss auf die Leistung während eines Elfmeters hat und falls ja, welcher Typ von Vorteil ist. „Außerdem interessierte uns die Kombination von Torwart-Typ, der Wahrnehmung und des inhärenten Charakters einer Situation“, erklärt Maximilian Pelka. Er testete 18 Juniorentorhüter zwischen 16 und 19 Jahren, die bis auf zwei Ausnahmen alle zum Zeitpunkt der Erhebung in der jeweiligen höchsten Spielklasse spielten (U17/U19 Junioren Bundesliga West/ teilnehmende Vereine: TSV Bayer 04 Leverkusen, BV Borussia Dortmund 09, RW Ahlen, SpVgg. Erkenschwick 1916, VfB Hüls). Der chronische Regulative Fokus der Torwarte wurde im Vorfeld per Fragebogen erfasst. Direkt vor dem zehn Schuss umfassenden Elfmeterschießen wurden zehn Torwarte mit einer Promotions- und acht Torwarte mit einer Präventionsinstruktion angeleitet: entweder, „es ist dein Anspruch so viele Elfmeter abzuwehren wie möglich“ (Promotion) oder „es ist deine Pflicht so wenige Elfmeter wie möglich durchzulassen“ (Prävention).

Fokus und Instruktionen müssen übereinstimmen
Die Resultate zeigen, dass Torhüter am erfolgreichsten sind, wenn ihr Fokus und die Instruktionen für die Torwartleistung übereinstimmen. „Die Kombination aus individueller Orientierung und situativen Gegebenheiten könnte daher ein innovativer Faktor in der Leistungsoptimierung sein und Ansätze für die Entwicklung individuell angepasster Instruktionen für verschiedene Situationen liefern“, folgert Pelka. Ralf Fährmann (Torhüter des FC Schalke 04) berichtete zuletzt in einem Interview auf spox.com von seinem Ansatz, Torhüter sollten sich nicht sagen: ‚Ich darf den Ball nicht ins Tor bekommen. Dann speichert sich das Gehirn das nämlich so ab, dass man selbst die Gefahr sieht, den Ball doch ins Tor zu bekommen. Stattdessen muss man sich denken: Ich halte jeden Ball‘. Diese Aussage lässt sich durch die Ergebnisse dieser Studie nur bedingt bestätigen. Falls ein Torhüter über einen eher präventiv-orientierten Ansatz verfügt, könnte er mit der ‚Ich darf den Ball nicht ins Tor bekommen‘-Variante auch erfolgreich sein.

Weitere Informationen
Maximilian Pelka, Sportpsychologie, Fakultät für Sportwissenschaft der Ruhr-Universität, 44780 Bochum, Tel. 0234/32-25978, E-Mail: maximilian.pelka@rub.de

Weitere Informationen:
http://www.dgpskongress.de/frontend/index.php – DGPs-Kongress an der Ruhr-Universität

Quelle: idw

(nach oben)


Energiespeicher aus Kunststoff

Claudia Hilbert Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Batterien aus Kunststoff anstatt aus Metall – das klingt zunächst unglaublich, doch Chemiker der Friedrich-Schiller-Universität Jena forschen genau daran. „Unser Ziel ist es, Energiespeicher zu entwickeln, die vollständig aus organischen Rohstoffen bestehen“, erklärt Dr. Martin Hager. „Denn Batterien auf Basis von Polymeren sind nicht nur nachhaltig und risikoarm, sondern sie lassen sich auch relativ einfach herstellen“, verdeutlicht der Leiter der Forschergruppe „Neue polymere Materialien für effiziente Energiespeicher“.

Verschiedene Prototypen solcher organischen Batterien präsentieren die Jenaer Chemiker vom 21. bis 23. Oktober auf der „Materialica“ in München. Die Materialica ist eine internationale Fachmesse für Werkstoffanwendungen, Oberflächen und Product Engineering. Die Wissenschaftler sind am Gemeinschaftsstand „Forschung für Zukunft“ von Sachsen, Sachsen-Anhalt und Thüringen (Halle B3, Stand 210) zu finden.

Ziel der Jenaer Chemiker ist es, neue Elektrodenmaterialien zu entwickeln, die eine möglichst hohe Kapazität und Zellspannung ermöglichen. Dabei verwenden die Forscher innovative Polymere und stabile Radikale als Aktiveinheiten. Hinzu kommen leitfähige Additive, wie etwa Graphit oder Nanofasern. „Damit sich metallfreie Batterien in Zukunft auf dem Markt durchsetzen, sind unter anderem die Langzeitstabilität und die Ladezeiten der Batterien entscheidend“, erläutert Martin Hager. „In den vergangenen Jahren konnten wir unsere Systeme diesbezüglich stetig verbessern“, so Hager. So sind die organischen Radikalbatterien der Jenaer Forscher bis zu 1.000 Mal wiederaufladbar und die Ladedauer beträgt nur wenige Minuten.

Ein weiterer Vorteil: Die Elektrodenmaterialien lassen sich mittels Tintenstrahldruck ausdrucken. Wie der Tintenstrahldruck von funktionalen Materialien genau funktioniert, das werden die Jenaer Chemiker ebenfalls auf der Materialica in München präsentieren.

Zusätzlich zeigen sie neue polymere Redox-Flow-Batterien, welche organische Polymere als Aktivmaterial im Elektrolyt nutzen. „Durch die Trennung der elektrochemischen Wandlereinheit vom eigentlichen Speichertank kann Leistung und Energieinhalt unabhängig voneinander optimiert und ausgelegt werden“, erläutert Doktorand Tobias Janoschka. Hierdurch können diese Systeme sehr flexibel an die unterschiedlichen Leistungsklassen und die Verfügbarkeit erneuerbarer Energien angepasst werden.

Kontakt:
Dr. Martin Hager
Institut für Organische Chemie und Makromolekulare Chemie der Universität Jena
Humboldtstr. 10, 07743 Jena
Tel.: 03641 / 948227
E-Mail: martin.hager@uni-jena.de

Tobias Janoschka
Institut für Organische Chemie und Makromolekulare Chemie der Universität Jena
Humboldtstr. 10, 07743 Jena
Tel.: 03641 / 948239
E-Mail: tobias.janoschka@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Wie Erfahrungen die Persönlichkeit von Mensch und Tier beeinflussen

Jörg Heeren Pressestelle
Universität Bielefeld

Tagung am Zentrum für interdisziplinäre Forschung der Universität Bielefeld

Der Mensch wird nicht als Persönlichkeit geboren. Das Tier, so scheint es, auch nicht. „Reaktionsnorm“ nennen Biologen das Zusammenspiel von Umweltfaktoren und genetischen Eigenschaften, die im Laufe der Entwicklung eines Individuums bestimmen, wie ein Organismus sich verhält. Das Verhalten verändert sich im Rahmen dieser Reaktionsnorm im Lauf des Lebens. Die dadurch mögliche Flexibilität stellt, da ist sich die Wissenschaft einig, einen wesentlichen Schrittmacher der Evolution dar.

Wie diese Flexibilität bei verschiedenen Tierarten einschließlich des Menschen zu Veränderungen führt und ob es bestimmte Lebensabschnitte gibt, in denen sie besonders wichtig ist, diskutieren Forscher vom 29. September bis zum 1. Oktober auf der internationalen Tagung „Neue Aspekte der Verhaltensentwicklung: lebenslange Anpassung im Verhalten?“ am Zentrum für interdisziplinäre Forschung (ZiF) der Universität Bielefeld.

Jedes Lebewesen macht im Laufe seines Lebens unterschiedliche Erfahrungen, die sich auf sein Verhalten auswirken. „Wir gehen davon aus, dass diese Verhaltensplastizität ein Anpassungsprozess ist, der das Verhalten während der Lebensgeschichte eines Individuums und auch über die Generationsgrenze hinaus beeinflusst“, sagt Fritz Trillmich, Professor für Verhaltensforschung an der Universität Bielefeld. Zusammen mit Kolleginnen und Kollegen aus Münster und Osnabrück hat er einen Kreis von etwa 60 Ökologen, Evolutionsforschern, Neurowissenschaftlern, Verhaltensforschern und Psychologen aus zehn Ländern eingeladen, um die Reaktionen von ganz unterschiedlichen Lebewesen auf ökologische und soziale Faktoren und die Veränderung dieser Reaktionen im Laufe des Lebens dieser Organsimen zu diskutieren. Vögel kommen dabei ebenso in den Blick wie Kaninchen, Makaken und Menschen. „Wir wollen herausarbeiten, welche Regeln der Evolution von Reaktionsnormen zugrunde liegen, welche Stadien es in diesem Prozess zwischen Zeugung und Tod gibt, wie sich die Verhaltensveränderungen auf die Fitness von Lebewesen auswirkt und was im Körper passiert, wenn solche Veränderungen vor sich gehen“, erklärt Trillmich. Damit erweitern die Forscher eine Perspektive, die seit einiger Zeit die Individuen und ihre Entwicklung anstelle statistischer Durchschnittsgrößen in den Blick nimmt.

Weitere Informationen:
http://www.uni-bielefeld.de/ZIF/AG/2014/09-29-Trillmich.html

Quelle: idw

(nach oben)


Brustkrebsangst: Vorbeugend operieren oder nicht?

Dr. med. Svenja Ludwig Pressestelle
Deutsche Krebshilfe e. V.

Online-Umfrage „Entscheidungsfindung bei familiärer Belastung für Brust- und Eierstockkrebs

Welche Gründe bewegen eine Frau, ihre gesunde Brust operativ abnehmen zu lassen? Die vorbeugende Entfernung der Brust als Vorsorgeoption bei erblichem Brustkrebs ist bekannt und wird nicht nur in Medizinerkreisen kontrovers diskutiert.

Die betroffenen Frauen müssen sich über sehr komplexe medizinische Zusammenhänge informieren, um eine solch schwierige Entscheidung treffen zu können.

Aber was geschieht wirklich? Reichen die Beratungen der Fachleute aus, welche Rolle spielen psychische Faktoren oder auch die finanzielle Belastungen? Ob und wie Frauen ausreichend Informationen bekommen, will eine Umfrage klären, die sich auf der Homepage des BRCA Netzwerkes abrufen lässt.

Befragt werden gesunde oder bereits erkrankte Frauen, die eine familiäre Belastung für Brust- und Eierstockkrebs haben, einen Gentest durchführen ließen und sich für oder gegen eine Operation entschieden haben.

Im Rahmen einer wissenschaftlichen Arbeit sollen Parameter entwickelt werden, die künftige Betroffene bei ihrer Entscheidung über eine mögliche, tiefgreifende operative Veränderung ihres Körpers begleiten können.

Eine erbliche Ursache wird für mindestens 25 Prozent der 72.000 Neuerkrankungen an Brustkrebs vermutet. Für eine vorbeugende Mastektomie entscheiden sich aktuell rund 30 Prozent der Frauen mit einer familiären Belastung für Brustkrebs.

Zur Umfrage geht es hier: http://www.brca-netzwerk.de

Das BRCA-Netzwerk – Hilfe bei familiärem Brust- und Eierstockkrebs ist eine bundesweite tätige Selbsthilfeorganisation. Ziel des gemeinnützigen Vereins, der durch die Deutsche Krebshilfe gefördert wird, ist es, Austausch und weitreichende Informationen für Angehörige aus Risikofamilien anzubieten.

Ansprechpartnerin: Andrea Hahne, Vorstandsvorsitzende, Telefon: 0173-2944843

BRCA-Netzwerk – Hilfe bei familiärem Brust- und Eierstockkrebs – e.V.
Thomas-Mann-Str. 40, 53111 Bonn
Tel.: 0228 / 33889-100, Fax: 0228 / 33889-110
info@brca-netzwerk.de
www.brca-netzwerk.de

Weitere Informationen:
http://www.brca-netzwerk.de

Quelle: idw

(nach oben)


Reportage über Flussforschung erhält Deutschen Preis für Wissenschaftsfotografie

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Bremen/Leipzig. UFZ-Fotograf André Künzelmann zählt auch in diesem Jahr wieder zu den Gewinnern des Deutschen Preises für Wissenschaftsfotografie, der jährlich von der Zeitschrift „bild der wissenschaft“ und dem Düsseldorfer Pressebüro Brendel ausgeschrieben wird. Prämiert wurde die Fotoreportage „Joint Danube Survey 3“, die in enger Zusammenarbeit mit UFZ-Wissenschaftlern um den Chemiker Dr. Werner Brack im vergangenen Sommer auf der Donau entstand.

(Die Website zur Pressemitteilung (inkl. Foto) finden Sie unter: http://www.ufz.de/index.php?de=33215)

„Dem Fotografen ist es gelungen, viele Facetten der wissenschaftlichen Arbeit in seiner Reportage festzuhalten: Schlingpflanzen, tote Fische, Plastikeimer und Gummistiefel sind auf seinen Fotos genauso überzeugende Attribute der Forschung wie das hochtechnisierte Labor auf dem Schiff für die Probenanalyse. Die Komposition der Motive macht neugierig, mehr über die Flussexpedition zu erfahren“, lobt die Jury die Reportage von der Donau. „Über diese Anerkennung freue ich mich ganz besonders – zumal diese Fotoreportage eine echte logistische Herausforderung war. Ich hatte effektiv nur zwei Tage, um mir einen Überblick vor Ort zu verschaffen und kannte die Mannschaft vorher nicht. Bei einem straffen Zeitplan der Wissenschaftler, wo jeder Handgriff sitzen muss, Fragen und Wünsche eines „Außenstehenden“ zu berücksichtigen, erfordert großes Verständnis auf beiden Seiten. Als Fotograf steht man dann die ganze Zeit „unter Strom“, um die besten Momente nicht zu verpassen und diese trotz schwierigem Licht festhalten zu können.“, berichtet André Künzelmann über die Expedition auf der Donau, bei der die prämierte Fotoreportage entstand. Der Diplommeteorologe hat sich in den vergangenen zehn Jahren am UFZ auf Wissenschaftsfotografie spezialisiert. Daneben ist er auch als Kameramann und Unterwasserfotograf tätig. Sein Wissen gibt er in Foto-Workshops an Wissenschaftler weiter sowie initiiert Treffen und Ausstellungen der Fotogruppe des UFZ.

Der renommierte Wettbewerb richtet sich an Fotografen, die aktuelle Forschung und Technologie ansprechend und ungewöhnlich ins Bild setzen. Unterstützt wird die Initiative von der Fraunhofer Gesellschaft, der Universität Bremen sowie dem Journalisten-Onlineservice supress-redaktion.de. Er ist mit insgesamt 12.000 Euro dotiert und wurde in diesem Jahr bereits zum neunten Mal von der Zeitschrift bild der wissenschaft und dem Düsseldorfer Pressebüro Brendel vergeben. Aus den rund 100 Einsendungen wählte die Jury unter dem Vorsitz des Fotografen Ronald Frommann insgesamt vier Preisträger in drei verschiedenen Kategorien aus. Die Preisverleihung findet am 22. November 2014 ab 11.00 Uhr im Haus der Wissenschaft in Bremen statt. Dort sind die Bilder auch ausgestellt.

Die alle sechs Jahre stattfindende gemeinsame Donauuntersuchung aller Anrainerstaaten ist eine der größten wissenschaftlichen Flussexpeditionen weltweit. Um den Einfluss von Chemikalien und anderen Stressfaktoren auf die Gewässer-Ökosysteme der Donau zu erfahren, beprobten drei Forschungsschiffe sechs Wochen lang die Donau über 2.300 km von Passau bis zum Donaudelta. An 68 Positionen wurden zahlreiche Proben des Flusswassers, der Sedimente, sowie der Tier- und Pflanzenwelt gesammelt. Viele Proben wurden direkt im Labor der Forschungsschiffe untersucht, andere gingen zur weiteren Analyse an verschiedene Speziallabore in Europa. So wurde eine Bestandsaufnahme der Flora und Fauna des Ökosystems Donau möglich. Die „Joint Danube Survey“ 2013 war gleichzeitig der Startschuss für das große europäische Forschungsprojekt SOLUTIONS, das vom UFZ koordiniert wird. In ihm arbeiten Wissenschaftler aus 13 europäischen Ländern sowie China, Australien und Brasilien zusammen, um zu verstehen, wie sich Chemikalien im Wasser auf Flussökosysteme und die menschliche Gesundheit auswirken.
Tilo Arnhold

„deutscher preis für wissenschaftsfotografie“:
http://fotopreis.tpk6.de/html/preistraeger2014/kuenzelmann.html

Weitere Informationen:
André Künzelmann
Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341- 235-1635
https://www.ufz.de/index.php?de=644
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: 0341-235-1635, -1630
http://www.ufz.de/index.php?de=640

Links:
Preis für ungewöhnliche Darstellung der Waldforschung (Pressemitteilung vom 25. November 2013)
http://www.ufz.de/index.php?de=32217
EU-Projekt SOLUTIONS
http://www.solutions-project.eu/
Titelstory „Patient Fluss“ im UFZ-Newsletter Februar 2014
http://www.solutions-project.eu/wp-content/uploads/2014/03/UFZ-Newsletter-2014-0…
UFZ-Video „Alles fließt: SOLUTIONS + Joint Danube Survey“
http://www.youtube.com/watch?v=tMe8l13nR6Q&list=UUU8LTdpFv0DTZmye02sK_Mg
Beitrag bei 3sat-nano über SOLUTIONS vom 17.06.2014:
http://www.3sat.de/mediathek/?mode=play&obj=40815
Joint Danube Survey
http://www.danubesurvey.org/

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg mehr als 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/

Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 35.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).
http://www.helmholtz.de/

Weitere Informationen:
http://www.ufz.de/index.php?de=33215

Quelle: idw

(nach oben)


Was tun mit dem Huhn? Mangelnde Küchenhygiene kann krank machen

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR-Film informiert Verbraucher über Küchenhygiene

Hygienemängel beim Umgang mit Lebensmitteln sind eine bedeutende Ursache für lebensmittelbedingte Krankheitsausbrüche. Deshalb hat das Bundesinstitut für Risikobewertung (BfR) zu diesem Thema einen zweiminütigen Webfilm unter dem Titel „Was tun mit dem Huhn?“ veröffentlicht. „Daten zu den Erkrankungsfällen zeigen, dass wir auch junge Menschen noch mehr informieren müssen, wie sie mit Lebensmitteln richtig umgehen“, sagt BfR-Präsident Prof. Dr. Dr. Andreas Hensel. „Um diese Zielgruppe zu erreichen, hat das BfR das wichtige Thema Kreuzkontamination, also die Übertragung der Keime von einem meist rohen Lebensmittel auf verzehrfertige Lebensmittel, in einem Videoclip verarbeitet.“

Zum Schutz vor Lebensmittelinfektionen empfiehlt das BfR, rohe Lebensmittel vom Tier vor dem Verzehr gut durchzugaren und somit eine Übertragung vorhandener Krankheitserreger auf verzehrfertige Lebensmittel zu vermeiden. Deshalb sollte ein Kontakt zwischen den rohen und verzehrfertigen Lebensmitteln bei der Lagerung und bei der Zubereitung vermieden werden. Hände und Küchenutensilien, wie Messer und Schneidebretter, sollten sofort nach Kontakt mit rohen Lebensmitteln vom Tier gründlich mit warmem Wasser gewaschen und abgetrocknet werden. Das neue BfR-Video „Was tun mit dem Huhn?“ vermittelt diese Tipps auf unterhaltsame Art und zeigt am Beispiel von frischem Hähnchenfleisch, wie eine Kreuzkontamination entstehen kann. Es ist abrufbar unter http://www.bfr.bund.de.

Campylobacter und Salmonella sind die häufigsten Erreger bakterieller Lebensmittelinfektionen. Eine Übertragung dieser Bakterien kann durch Geflügelfleisch erfolgen, das nicht ausreichend gegart wurde oder vor dem Garen mit anderen Lebensmitteln in Kontakt gekommen ist. In Deutschland waren 2011 insgesamt 31,6 % der Proben von Hähnchenfleisch mit Campylobacter, 6,3 % mit Salmonellen besiedelt.

Weitere Informationen für Verbraucherinnen und Verbraucher zum Schutz vor Lebensmittelinfektionen im Privathaushalt finden sich auf der BfR-Homepage unter

http://www.bfr.bund.de/cm/350/verbrauchertipps_schutz_vor_lebensmittelinfektione…

http://www.bfr.bund.de/cm/343/ausgewaehlte_fragen_und_antworten_zum_hygienischen…

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/de/mediathek.html BfR-Mediathek

Quelle: idw

(nach oben)


Wasserpflanzen – Rohstoff für Biogasanlagen? – Forscher untersuchen Machbarkeit

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Das Helmholtz-Zentrum für Umweltforschung (UFZ), die Hochschule für Wirtschaft und Umwelt Nürtingen-Geislingen und das Deutsche Biomasse-Forschungszentrum (DBFZ) untersuchen in einem jetzt begonnenen Projekt, inwieweit sich Wasserpflanzen aus Binnen-Gewässern als Rohstoff für Biogasanlagen eignen.
Das Bundesministerium für Ernährung und Landwirtschaft (BMEL) fördert das Vorhaben über seinen Projektträger, die Fachagentur Nachwachsende Rohstoffe e.V. (FNR).

Schnellwachsende Wasserpflanzen können zum Problem werden: Weil sie touristische Nutzungen und den Schiffsverkehr einschränken, muss man sie regelmäßig entfernen. Insbesondere einige nicht-heimische Arten sind sehr konkurrenzstark, da unser Ökosystem sie nicht wirkungsvoll regulieren kann. So hat sich die aus Süd- und Nordamerika eingeschleppte Gattung Elodea in den letzten Jahrzehnten in Deutschland rasant vermehrt. Für die Entkrautung geben Kommunen und anderer Träger jedes Jahr viel Geld aus, die Biomasse wird meistens deponiert.

Bislang konzentrierte sich die Forschung auf Ansätze, die Ausbreitung der Wasserpflanzen einzudämmen. Allerdings bilden diese auch sehr viel Biomasse und enthalten interessante Inhaltsstoffe. Wie also, wenn man aus der Not eine Tugend machte und die Pflanzen als Rohstoffquelle nutzte? Mit dieser ganz neuen Herangehensweise verbinden sich potenziell mehrere Vorteile:

– Wasserpflanzen binden während des Wachstums Phosphate. Ihre Entnahme stellt so eine relativ einfache Möglichkeit dar, die Phosphatbelastung in Gewässern zu reduzieren.

– Aktuell entstehen allein durch die Entsorgung der bei der Gewässer-Entkrautung anfallenden Biomasse Kosten von geschätzten rund 20 Mio. Euro. Durch eine Verwertung ließen sich diese Kosten minimieren.

– Wasserpflanzen zählen zum Landschaftspflegematerial und konkurrieren nicht mit der Nahrungsmittelerzeugung.

– In Biogasanlagen würden Wasserpflanzen relativ große Mengen Phosphor und Spurenelemente eintragen. Der Phosphor verbessert den Düngewert der Gärreste, die Spurenelemente wiederum verringern den Bedarf an entsprechenden Präparaten für die Mikrobiologie in der Anlage.

In dem jetzt begonnenen Vorhaben untersuchen die Wissenschaftler unter anderem die Schmalblättrige Wasserpest (Elodea nuttallii) als Rohstoff für die Biogasgewinnung. Bei ersten Gärversuchen erzielte die Wasserpest Biogaserträge zwischen 415 und 520 Norm-Liter pro kg organische Trockensubstanz (LN/kgOTS) bei einem OTS-Gehalt von 6 bis 10 Prozent in der Frischmasse und einem Methangehalt von durchschnittlich 60,5%. (Zum Vergleich: Der Biogasertrag für Maissilage liegt bei 650 LN/kgOTS.) Der geringe Trockenmassegehalt ist eines der Handicaps, für die es Lösungen zu finden gilt. Das Projektteam verfolgt hier den Ansatz, eine Mischsilage aus Elodea und Stroh bzw. Landschaftspflegeheu herzustellen; die gemeinsame Konservierung mit Mais erwies sich hingegen in ersten Vorversuchen als praktikabel, aber unökonomisch. Neben der Entwicklung eines optimalen Silierverfahrens stehen Potenzialanalysen zum bundesweiten Wasserpflanzenaufkommen auf der Forschungsagenda.

Insgesamt will das Forscherteam die Wasserpflanzennutzung als Biogasrohstoff aus ökonomischer, ökologischer und sozialer Sicht bewerten. Die energetische Nutzung steht im Mittelpunkt des Projektes, die Forscher betrachten aber auch alternative Optionen, mit dem invasiven Bewuchs in Flüssen und Seen umzugehen – etwa die stoffliche Nutzung z.B. für Naturkosmetika und Dünger oder die Eindämmung.
Informationen zum Projekt stehen auf fnr.de im Menü Projekte & Förderung unter den Förderkennzeichen 22403013, 22402014 und 22401914 zur Verfügung.

Weitere Informationen:
http://www.fnr.de/projekte-foerderung/projekte/suche/

Quelle: idw

(nach oben)


Informativer Toilettengang

Dr. Susanne Diederich Stabsstelle Kommunikation
Deutsches Primatenzentrum GmbH – Leibniz-Institut für Primatenforschung

Emily liebt Paul, Nazis raus, Gib AIDS keine Chance und schließlich Sanifair – Gute Reise: Informationsaustausch in öffentlichen Toiletten ist weit verbreitet. So auch bei den Weißfuß-Wieselmakis, die anstelle von Schrift Duftmarken nutzen, um sich ihren Artgenossen mitzuteilen. Iris Dröscher und Peter Kappeler vom Deutschen Primatenzentrum haben in ihrer jetzt veröffentlichten Studie festgestellt, dass der auf Latrinenbäumen abgegebene Urin dazu dient, Kontakt zu Familienmitgliedern zu halten und Eindringlinge zu warnen. Latrinen sind für nachtaktive Tiere, die nicht im engen Kontakt zueinander leben, verlässliche Informationsquellen und dienen der sozialen Bindung der Tiere untereinander.

Die Nutzung von Latrinen, also speziellen Orten zur Ausscheidung von Exkrementen, ist im Tierreich durchaus verbreitet. Da bislang jedoch unklar war, warum gerade Primaten dieselben Latrinen immer wieder benutzen, haben die DPZ-Wissenschaftler dieses Phänomen nun bei den Weißfuß-Wieselmakis (Lepilemur leucopus) in Süd-Madagaskar untersucht. Sind sie ein Hinweis an andere, dass dieses Gebiet oder dieser Partner verteidigt wird? Oder zeigen sie an, ob ein Weibchen fruchtbar ist? Dienen sie vielleicht dem Informationsaustausch und der sozialen Bindung innerhalb einer Gruppe? Um diese Fragen zu beantworten, haben die Forscher untersucht, wo genau sich die Latrinen befinden und ob diese zu verschiedenen Jahreszeiten oder von Individuen verschiedenen Alters und Geschlechts unterschiedlich genutzt werden. Dafür haben Iris Dröscher und Peter Kappeler 14 Weißfuß-Wieselmakis mit Radiosendern markiert und ihr Verhalten über den Zeitraum eines Jahres beobachtet. Insgesamt kamen dabei über 1000 Beobachtungsstunden zusammen.

Verbundenheit dank Latrine
Weißfuß-Wieselmakis sind nachtaktive Baumbewohner, die ausschließlich im Süden Madagaskars vorkommen und zu den sogenannten Lemuren gehören. Jede Familie, die aus den Eltern und ihrem Nachwuchs besteht, bewohnt zwar ein eigenes Gebiet, allerdings gehen sich die Familienmitglieder meist aus dem Weg, weder schlafen Wieselmaki-Paare auf denselben Bäumen noch gehen sie gemeinsam auf Futtersuche. Etwas hat die Familie aber gemeinsam: zentral im Territorium gelegene Latrinenbäume, welche die Tiere gezielt immer wieder aufsuchen um dort ihre Notdurft zu verrichten. Iris Dröscher und Peter Kappeler haben herausgefunden, dass die Latrinen dazu dienen, die Vertrautheit und die soziale Bindung zwischen den einzelnen Mitgliedern einer Wieselmaki-Gruppe aufrecht zu erhalten, da diese sonst nur sehr wenig Kontakt zueinander haben. Die Duftsignale werden vor allem über den am Baumstamm befindlichen Urin aufgenommen, während der sich am Boden des Latrinenbereiches akkumulierende Kot nicht wesentlicher Bestandteil des Informationsaustausches ist.

Botschaft: Mein Weibchen wird verteidigt!
Auffällig war, dass männliche Tiere öfter die Latrinen aufsuchten, wenn sie einen Eindringling in ihrem Territorium wahrgenommen hatten. Außerdem setzten Männchen Duftmarken aus ihren spezialisierten Drüsen ausschließlich in Latrinen ab. „Die Latrinen werden also auch verwendet um anzuzeigen, dass hier jemand ist, der seine Partnerin verteidigt“, sagt Iris Dröscher, Doktorandin in der Abteilung Verhaltensökologie und Soziobiologie am Deutschen Primatenzentrum.

Latrinen als verlässliche Informationsquellen
„Über Duftmarken werden eine Vielzahl an Informationen wie die sexuelle und individuelle Identität transportiert und können außerdem dazu dienen, die eigene Präsenz zu signalisieren,“ so Dröscher. „Die Latrinen werden genutzt, um Individuen-spezifische Informationen auszutauschen.“

„Gerade nachtaktive Arten, die unter eingeschränkten Sichtverhältnissen und im losen Kontakt mit ihren Partnern leben, brauchen verlässliche Informationsquellen, um ihr Sozialgefüge aufrecht zu erhalten“, sagt Peter Kappeler, Leiter der Abteilung Verhaltensökologie und Soziobiologie am DPZ und Professor an der Universität Göttingen. „Dieses Informationszentrum haben die Weißfuß-Wieselmakis in den Latrinenbäumen gefunden.“

Link zum Artikel: http://link.springer.com/article/10.1007/s00265-014-1810-z

Originalpublikation
Dröscher I, Kappeler PM (2014): Maintenance of familiarity and social bonding via communal latrine use in a solitary primate (Lepilemur leucopus). Behavioral Ecology and Sociobiology Epub ahead of print. doi:10.1007/s00265-014-1810-z

Kontakt
Iris Dröscher
Tel: +49 551 39-7345
E-Mail: iris.droescher@gmail.com

Dr. Susanne Diederich (Kommunikation)
Tel: +49 551 3851-359
E-Mail: sdiederich@dpz.eu

Weitere Informationen:
http://link.springer.com/article/10.1007/s00265-014-1810-z – Link zur Originalpublikation
http://www.dpz.eu/de/infothek/mediathek/videos.html – Link zum Video „Interne Kommunikation bei Weißfuß-Wieselmakis“

Quelle: idw

(nach oben)


Ein gesunder Lebensstil ist mit einem verminderten Darmkrebs-Risiko verbunden

Dr. Gisela Olias Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Ernährungsforschung Potsdam-Rehbrücke

Potsdam-Rehbrücke – Wer nicht übergewichtig ist, nicht raucht, Alkohol nur in Maßen konsumiert, körperlich aktiv ist und sich gesund ernährt, hat ein um etwa ein Drittel vermindertes Risiko, an Dickdarm- bzw. Mastdarmkrebs zu erkranken. Dies ist das Ergebnis einer großen europäischen Langzeitstudie (EPIC*) mit über 347.000 weiblichen und männlichen Studienteilnehmern im Erwachsenenalter. Das Wissenschaftlerteam unter Führung von Krasimira Aleksandrova und Heiner Boeing vom Deutschen Institut für Ernährungsforschung (DIfE) veröffentlichte nun seine Daten in der Fachzeitschrift BioMed Medicine (Aleksandrova, K. et al., 2014, 12:168).

Darmkrebs** gehört zu den häufigsten Krebsarten. Nach Angaben der International Agency for Research on Cancer erkranken weltweit etwa 746.000 Männer und 614.000 Frauen jährlich an dieser Krankheit, wobei diese Krebsform besonders häufig in Ländern mit westlichem Lebensstil auftritt. Dies legt den Schluss nahe, dass das gehäufte Auftreten dieser Krebsform mit bestimmten Merkmalen der westlichen Lebensart verbunden ist. In der Tat haben in den letzten Jahren verschiedene Studien Lebensstilfaktoren identifiziert, die jeweils für sich allein genommen mit dem Darmkrebs-Risiko in Zusammenhang stehen. Hierzu zählt zum Beispiel auch die Art der Ernährungsweise.

Neu an der aktuellen Studie ist nun, dass sie erstmals die kombinierten Effekte von fünf gesundheitsfördernden Lebensstilmerkmalen auf das Darmkrebsrisiko in einer europäischen Bevölkerungsgruppe untersucht hat. Die Wissenschaftler stuften dabei folgende Merkmale als risikosenkend ein: Nichtraucher zu sein, Alkohol nur in einem moderaten Maß zu trinken, ein normales Körpergewicht zu haben, wobei der Taillenumfang von Frauen kleiner als 80 cm und der von Männern kleiner als 94 cm sein sollte, körperlich aktiv zu sein sowie sich gesund zu ernähren. Im Rahmen der vorliegenden Studie bedeutete dies, sich mit vergleichsweise viel Gemüse, Obst und Vollkornprodukten, reichlich Nüssen und Samen, ausreichend Fisch und Joghurt, aber mit wenig rotem Fleisch und Wurstwaren zu ernähren.

Wie die Untersuchung zeigt, hatten Studienteilnehmer, die zwei der gesundheitsfördernden Merkmale aufwiesen, im Vergleich zu Personen, auf die kein oder nur ein günstiges Lebensstilmerkmal zutraf, ein um 13 Prozent verringertes Risiko, an Darmkrebs zu erkranken. Wiesen die Teilnehmer drei der untersuchten Merkmale auf, sank ihr Erkrankungsrisiko um 21 Prozent, wobei sich bei vier Merkmalen ihr Risiko sogar um 34 Prozent verringerte. Kamen alle fünf Merkmale zusammen, sank das Risiko um 37 Prozent.

„Wie unsere Ergebnisse zeigen, verringert sich das Darmkrebsrisiko umso mehr, je mehr man etwas für seine Gesundheit tut. Unsere Daten haben ergeben, dass durch eine gesunde Lebensführung bis zu 22 Prozent der Darmkrebs-Neuerkrankungen bei Männern bzw. bis zu 11 Prozent der Erkrankungen bei Frauen vermeidbar wären“, sagt Aleksandrova, Erstautorin der Studie. „Das Umsetzen dieses Wissens in gesellschaftlich aktiv unterstützte Präventionsstrategien könnte wesentlich dazu beitragen, ein frühes und häufiges Auftreten dieser Krebsform zu vermeiden und damit viel persönliches Leid zu verhindern“, ergänzt Heiner Boeing, Leiter der Potsdamer EPIC-Studie.

Hintergrundinformation:

Quelle:
Combined Impact of Healthy Lifestyle Factors on Colorectal Cancer: A Large European Cohort Study
Krasimira Aleksandrova, Tobias Pischon, Mazda Jenab, H. Bas Bueno-de-Mesquita, Veronika Fedirko, Teresa Norat, Dora Romaguera, Sven Knüppel, Marie-Christine Boutron-Ruault, Laure Dossus, Laureen Dartois, Rudolf Kaaks, Kuanrong Li, Anne Tjønneland, Kim Overvad, J Ramón Quirós, Genevieve Buckland, María-José Sánchez, Miren Dorronsoro, María-Dolores Chirlaque, Aurelio Barricarte, Kay-Tee Khaw, Nicholas Wareham, Kathryn E Bradbury, Antonia Trichopoulou, Pagona Lagiou, Dimitrios Trichopoulos, Domenico Palli, Vittorio Crogh, Rosario Tumino, Alessio Naccarati, Salvatore Panico, Peter Siersema, Petra H Peeters, Ingrid Ljuslinder, Ingegerd Johansson, Ulrika Ericson, Bodil Ohlsson, Elisabete Weiderpass, Guri Skeie, Kristin Benjaminsen Borch, Sabina Rinaldi, Isabelle Romieu, Joice Kong, Marc Gunter, Heather Ward, Elio Riboli and Heiner Boeing; BMC Medicine 2014, 12:168
http://www.biomedcentral.com/1741-7015/12/168

* EPIC: European Prospective Investigation into Cancer and Nutrition. Die EPIC-Studie ist eine prospektive (vorausschauende) Studie, die Zusammenhänge zwischen Ernährung, Krebs und anderen chronischen Erkrankungen wie Typ-2-Diabetes untersucht. An der EPIC-Studie sind 23 administrative Zentren in zehn europäischen Ländern mit insgesamt 519.000 Studienteilnehmern im Erwachsenenalter beteiligt. Die Potsdamer EPIC-Studie ist mit mehr als 27.000 Teilnehmern ein Teil der EPIC-Studie.

Die aktuellen Studienergebnisse basieren auf den Daten von 347.237 Frauen und Männern im Alter zwischen 25 und 70 Jahren. Während der Nachbeobachtungszeit von 12 Jahren erkrankten 3.759 dieser Teilnehmer an Darmkrebs.

** Bei Darmkrebs (kolorektales Karzinom) handelt es sich um einen bösartigen Tumor des Dickdarms oder des Mastdarms. Er entwickelt sich meist aus Darmpolypen, die sich im Verlauf von wenigen Jahren bösartig verändern. Im Jahre 2010 wurde die Krankheit bei 62.400 Menschen in Deutschland neu diagnostiziert und im Jahr 2012 starben knapp 26.000 daran (Quelle: Robert Koch Institut).

Das DIfE ist Mitglied der Leibniz-Gemeinschaft. Es erforscht die Ursachen ernährungsbedingter Erkrankungen, um neue Strategien für Prävention, Therapie und Ernährungsempfehlungen zu entwickeln. Forschungsschwerpunkte sind dabei Adipositas (Fettsucht), Diabetes, Herz-Kreislauf-Erkrankungen und Krebs. Das DIfE ist zudem ein Partner des 2009 vom BMBF geförderten Deutschen Zentrums für Diabetesforschung e. V. (DZD) http://www.dzd-ev.de. Das DZD ist ein nationaler Verbund, der Experten auf dem Gebiet der Diabetesforschung bündelt und im Sinne der translationalen Forschung Grundlagenforschung, Epidemiologie und klinische Anwendung verzahnt.

Die Leibniz-Gemeinschaft vereint 89 Einrichtungen, die anwendungsbezogene Grundlagenforschung betreiben und wissenschaftliche Infrastruktur bereitstellen. Insgesamt beschäftigen die Leibniz-Einrichtungen rund 17.200 Menschen – darunter 8.200 Wissenschaftlerinnen und Wissenschaftler – bei einem Jahresetat von insgesamt knapp 1,5 Milliarden Euro. Die Leibniz-Gemeinschaft zeichnet sich durch die Vielfalt der in den Einrichtungen bearbeiteten Themen und Disziplinen aus. Die Forschungsmuseen der Leibniz-Gemeinschaft bewahren und erforschen das natürliche und kulturelle Erbe. Darüber hinaus sind sie Schaufenster der Forschung, Orte des Lernens und der Faszination für die Wissenschaft. Näheres unter http://www.leibniz-gemeinschaft.de.

Kontakt:
Dr. Krasimira Aleksandrova
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal
E-Mail: Krasimira.Aleksandrova@dife.de

Prof. Dr. Heiner Boeing
Abteilung Epidemiologie
Deutsches Institut für Ernährungsforschung
Potsdam-Rehbrücke (DIfE)
Arthur-Scheunert-Allee 114-116
14558 Nuthetal
Tel.: +49 (0)33200 88 2711
E-Mail: boeing@dife.de

Weitere Informationen:
http://www.dife.de/forschung/abteilungen/epic-potsdam-studie.php
Hinweise zur Potsdamer EPIC-Studie

Quelle: idw

(nach oben)


Einzigartige Fließwasserlabore nehmen Betrieb auf.

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Magdeburg. Mit einer Serie von bislang einzigartigen mobilen Laboren wollen Wissenschaftler in den kommenden Jahren die Auswirkungen des Klima- und Landnutzungswandels auf die Fließgewässer in Mitteldeutschland untersuchen. Am Montag hat die dazu neu geschaffene Forschungsinfrastruktur MOBICOS offiziell ihren Betrieb aufgenommen. Die Labore sind Teil des TERENO-Netzwerkes zur Erdbeobachtung und werden vom Helmholtz-Zentrum für Umweltforschung (UFZ) an verschiedenen Standorten in Sachsen-Anhalt betrieben.

Finanziert wurde MOBICOS mit rund 3,5 Millionen Euro als Ausbauinvestition der Helmholtz-Gemeinschaft durch das Bundesministerium für Bildung und Forschung (BMBF) sowie die Länder Sachsen-Anhalt und Sachsen.

Wollen Wissenschaftler die Wechselwirkungen zwischen Landnutzung, Klimawandel und dem ökologischen Zustand der Bäche und Flüsse untersuchen, dann stehen sie vor einem Dilemma: Im Freiland sind die Veränderungen zwar gut zu beobachten. Da aber viele Faktoren wirken, lässt sich oft nicht sicher sagen, welcher davon wie stark zur Veränderung beiträgt. Im Labor lassen sich dagegen viele Parameter gezielt beeinflussen. Aber sind die Bedingungen dann noch realistisch? Ein Ausweg könnte ein neuer Ansatz sein: Das Labor wird einfach an das Gewässer verlagert.

Seit 2013 stellen Forscher des UFZ Speziallabore, die in transportablen Containern untergebracht sind, an verschiedenen Standorten in Sachsen-Anhalt auf. Diese MOBICOS (Mobile Aquatic Mesocosms) genannten Fließwasserlabore ermöglichen es nun, dass ökologische Untersuchungen und Experimente naturnah durchgeführt werden können. Sie funktionieren, in dem Wasser aus dem zu untersuchenden Fließgewässer in Versuchsbecken in den Containern geleitet und dort analysiert oder „experimentell“ manipuliert wird. „So ist es zum Beispiel unter realistischeren Bedingungen als im Labor möglich, die Reaktion von Ökosystemen auf neuartige Stressoren wie Mikroschadstoffe zu prüfen oder zu untersuchen, wie sich Veränderungen der Wassertemperatur, des Nährstoffgehalts oder der Schadstoffbelastung auf das Gewässerökosystem auswirken“, erklärt Prof. Markus Weitere vom UFZ in Magdeburg. Die Wissenschaftler wollen zudem Maßnahmen entwickeln, die helfen können, unerwünschte Verbindungen abzubauen und dadurch die natürlichen Funktionen von Fließgewässern und deren Ökosystemleistungen zu stärken. „Wir wollen uns unter anderem das Wachstum von Biofilmen in diesen Gewässern genauer ansehen“, berichtet MOBICOS-Koordinator Dr. Helge Norf. „Die ökologische Funktion von Biofilmen wird immer noch massiv unterschätzt. Dabei spielen Bakterien, Algen und andere Mikroorganismen eine entscheidende Rolle bei den Stoffumsatzprozessen in Fließgewässern.“ Mithilfe der Gewässerlabore rückt auch die Lösung eines anderen Rätsels in Reichweite: Wieso breiten sich invasive Arten wie die Asiatische Körbchenmuschel im Rhein stark aus, in der Elbe aber nicht? Gerade für Arten, die sich im Labor schwer kultivieren lassen, sind die mobilen Labore eine ideale Lösung, um sie naturnah genau unter die Lupe zu nehmen.

Insgesamt sind jetzt sechs der Fließwasserlabore in Betrieb und ermöglichen damit Vergleiche zwischen kleinen, unbelasteten Bächen wie dem Oberlauf der Bode und großen belasteten Flüssen wie der Elbe. Zwei weitere Container sind in Planung.
Da MOBICOS aus kleineren, beweglichen Labormodulen besteht, die sowohl einzeln als auch modular verwenden werden können, sind die Wissenschaftler vergleichsweise flexibel. Dadurch können sowohl die Größe als auch die Bestückung der Mesokosmen je nach wissenschaftlicher Fragestellung optimiert und auch dem verfügbaren Gelände angepasst werden. Im Gegensatz zu festen Installationen können die Container bei Bedarf einfach umziehen. Schließlich verändert sich die Wasserqualität der Flüsse auch im Laufe der Jahre.

„Dieser experimentelle Ansatz ergänzt perfekt unsere Beobachtungsplattform TERENO (TERrestrial ENvironmental Observatories), die größte, langfristig betriebene Infrastruktur zur Umweltbeobachtung in Deutschland. Im Rahmen von TERENO hat die Helmholtz-Gemeinschaft insgesamt vier Observatorien in Deutschland eingerichtet, in denen die Auswirkungen des globalen Wandels auf regionaler Ebene erforscht werden. Das UFZ-Untersuchungsgebiet in Mitteldeutschland reicht dabei vom Hochharz über das Gebirgsvorland bis hinab zu den großen Flüssen wie der Elbe und dem Großraum Halle-Leipzig“, betont Dr. Steffen Zacharias, der TERENO am UFZ koordiniert. Die mobilen Mesokosmen werden auch dabei helfen zu erklären, wieso die Konzentration an Huminstoffen in Talsperren in den letzten Jahren angestiegen ist. Diese gestiegenen Konzentrationen beunruhigen die Wasserversorger. Um den Weg des Kohlenstoffs zu verfolgen, haben die Wissenschaftler im Einzugsgebiet der Rappbodetalsperre im Harz umfangreiche Messtechnik installiert.

Wie auch bei den anderen TERENO-Projekten wird die MOBICOS-Infrastruktur künftig nicht nur den eigenen Forschern zur Verfügung stehen, sondern eine Plattform bilden, die auch von externen Forschergruppen für Experimente genutzt werden kann. Bereits jetzt laufen Kooperationen bzw. gemeinsam betreute studentische Abschlussarbeiten mit verschiedenen Hochschulen, etwa der Hochschule Magdeburg-Stendal, der TU Dresden, der Universität zu Köln, der Universität Koblenz-Landau oder der TU Bergakademie Freiberg.
Tilo Arnhold

Weitere Informationen:
Prof. Dr. Markus Weitere, Dr. Helge Norf
Department Fließgewässerökologie am Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0391-810-9600, -9988
http://www.ufz.de/index.php?de=14086
http://www.ufz.de/index.php?de=20742
und
Dr. Steffen Zacharias
TERENO-Koordinator am Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341- 235-1381
http://www.ufz.de/index.php?de=16348
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: 0341-235-1635, -1630
http://www.ufz.de/index.php?de=640

Weiterführende Links:
Wasserforschung in Containern
http://www.helmholtz.de/gb12/erde_und_umwelt/projekte_aus_der_forschung/wasserfo…
Mobile Aquatische Mesokomen (MOBICOS)
http://www.ufz.de/index.php?de=31865
http://www.ufz.de/index.php?de=21440
http://www.ufz.de/index.php?en=31436
Wasser und Ökologie
http://www.ufz.de/index.php?de=22241
Überraschung inbegriffen (bild der wissenschaft plus / Wasserwissen, S. 26-28)
http://www.wissenschaft.de/documents/12054/42257/Supp_WasserWissen_07-2012.pdf/4…
Nachhaltigkeit im Fluss (UFZ-News, April 2012, S.6):
http://www.ufz.de/export/data/global/33391_UFZ_Newsletter_apr12_WEB_geschuetzt.p…
Wieso steigt die Konzentration an Huminstoffen in den Talsperren? Magdeburger Forscher untersuchen globales Problem für die Trinkwasserversorgung (Pressemitteilung vom 20. März 2013):
http://www.ufz.de/index.php?de=31449

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg mehr als 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/

Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 35.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).
http://www.helmholtz.de/

Weitere Informationen:
http://www.ufz.de/index.php?de=33250

Quelle: idw

(nach oben)


Männer mögen fröhliche Frauen

Dr. Ellen Katz Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Tübingen

Studie zum geschlechtsspezifischen Lesen von Körpersprache aktuell in Cerebral Cortex veröffentlicht.

Unsere Körperbewegungen sagen oft mehr über uns aus, als wir wahrhaben wollen. So ist es nicht nur schwieriger, bei non-verbaler Kommunikation zu täuschen, es kann sogar zuverlässig auf den emotionalen Zustand geschlossen werden.
Eine Forschergruppe um Prof. Dr. Marina Pavlova von der Radiologischen Universitätsklinik Tübingen ging Geschlechtsunterschieden bei der Wahrnehmung von Körpersprache auf den Grund und fand, dass es dabei auf die Emotion ankommt.

Körpersprache ist in unserem Alltag von größter Bedeutung, sei es bei non-verbaler Kommunikation oder sozialer Wahrnehmung. Obwohl nach gängiger Auffassung Frauen beim Verstehen non-verbaler Signale den Männern überlegen sein sollen, sind Unterschiede zwischen den Geschlechtern kaum erforscht. Dabei besteht unter anderem eine klare medizinische Relevanz. Die Mehrzahl neurologischer Entwicklungsstörungen sowie psychiatrischer und psychosomatischer Erkrankungen, bei denen auch die non-verbale Wahrnehmung und Kommunikation beeinträchtigt sind (wie Autismus, ADHS, Schizophrenie, Depression, Angst- und Essstörungen), betrifft die Geschlechter in unterschiedlichem Ausmaß und Verhältnis. Ohne die zugrunde liegenden neurobiologischen Geschlechtsunterschiede zu verstehen, ist aber eine personalisierte Medizin undenkbar.

Unter Federführung von Prof. Dr. Marina Pavlova, Abteilung für Biomedizinische Magnetresonanz am Universitätsklinikum Tübingen, die seit Jahren international Pionierarbeit auf dem Gebiet der Wahrnehmung von Körpersprache und sozialer Kognition leistet, wurden Geschlechtsunterschiede nun differenziert erforscht.
In einer ersten Untersuchung sollten gesunde Versuchsteilnehmer erkennen, ob eine an der Tür klopfende Person fröhlich, neutral oder wütend gestimmt war. In der zweiten Studie wurden Emotionen gehender Menschen beurteilt. In beiden Fällen waren Männer beim Erkennen fröhlicher Körpersprache besser als Frauen, Frauen wiederum bei wütenden Bewegungen. Insbesondere konnte gezeigt werden, dass Männer fröhlich gehende Frauen am besten erkennen.

Mit Hilfe eines bildgebenden Verfahrens (Magnetenzephalographie, MEG) konnte bei Frauen eine frühere und höhere Aktivität über dem rechten Temporallappen nachgewiesen werden, einer Gehirnregion, in der die neuronalen Netzwerke für Bewegungswahrnehmung und Erkennen emotionaler Körpersprache überlappen. Bei Männern wird eine spätere Gehirnaktivität über dem Frontalhirn aufgezeichnet, dort, wo sozial relevante Entscheidungen getroffen werden. Es scheint, dass die Gehirne beider Geschlechter sich unterschiedlicher spezifischer Strategien zum Lesen von Körpersprache bedienen.

Trotz neurobiologischer Unterschiede kann das beobachtete Verhalten beider Geschlechter ähnlich sein. Die unterschiedliche Gehirnaktivität kann sogar als Anpassungsstrategie gesehen werden. Um eine angepasste soziale Reaktion zu zeigen, könnten Männer eher auf Entscheidungsebene zurückgreifen, während bei Frauen reine visuelle Wahrnehmungsprozesse im Vordergrund stehen könnten. Dennoch können solche Mechanismen oder deren Ausfall der geschlechtsunterschiedlichen Prädisposition für bestimmte neuropsychiatrische Erkrankungen zugrunde liegen.

Die weit verbreitete Annahme, dass Frauen generell non-verbale Signale besser verstehen, konnte also nicht bestätigt werden. Geschlechtsunterschiede beim Verstehen von Körpersprache gibt es aber durchaus, und zwar abhängig von der Art der Emotion: Männer erkennen besser fröhliche, Frauen wütende Körpersignale.

Außerhalb der Medizin und Neurowissenschaften sind diese Ergebnisse auch für unser Alltagsleben von großer Bedeutung: scheinbar mögen Männer einfach fröhliche Frauen.

Originalpublikationen
Pavlova MA, Sokolov AN, Bidet-Ildei C. (2014). Sex differences in the neuromagnetic response to biological motion. CEREBRAL CORTEX advanced online access. doi: 10.1093/cercor/bhu175. (IF 8.3)

Krüger S, Sokolov AN, Enck P, Krägeloh-Mann I, Pavlova MA. (2013). Emotion through locomotion: gender impact. PLoS ONE, 8(11): e81716. doi: 10.1371/journal.pone.0081716. (IF 3.5)

Sokolov AA, Krüger S, Enck P, Krägeloh-Mann I, Pavlova MA. (2011). Gender affects body language reading. FRONTIERS PSYCHOLOGY 2:16 doi:10.3389/fpsyg.2011.00016. (IF 2.8)

Quelle: idw

(nach oben)


Infrastruktur und Energiemanagement: Geschwisterpaar der Wasserwirtschaft

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Prof. Jens Tränckner von der Uni Rostock plädiert für neue Ansätze bei der Niederschlagsentwässerung, insbesondere in den Innenstädten. Viele freie Flächen würden bebaut und die abzuführende Niederschlagsmenge nehme ständig zu. Rostock bietet da bereits mit integralen Entwässerungskonzepten Lösungen für die Zukunft an. Auf der Rostocker Abwassertagung am 14. November werden diese Probleme erörtert.

Die Wasserwirtschaft steht vor neuen Herausforderungen. Regional und weltweit. Der Rostocker Wissenschaftler Professor Jens Tränckner fordert: „Die kommunalen Entwässerungssysteme müssen intelligent weiterentwickelt werden“. Im Osten Deutschlands sei die Siedlungswasserwirtschaft nach der Wende erfolgreich aufgebaut und modernisiert worden. „Nach fast 25 Jahren steht aber nun eine Re-Investitionswelle an“, sagt der 46-jährige Inhaber des Lehrstuhls für Wasserwirtschaft der Universität Rostock (Stiftungsprofessur der Eurawasser Nord GmbH). Insbesondere die Maschinentechnik wie Gebläse, Pumpen, Rührwerke müssen erneuert werden.

Parallel sei der demografische Wandel, also die schrumpfende Bevölkerung, zu bedenken. Gerade im ländlichen Raum sei die Infrastruktur für Abwasser nicht mehr ausgelastet. Das hat einerseits betriebliche Konsequenzen, sprich das Wasser befindet sich länger im Kanalnetz, was zu lästigem Geruch, aber auch zur Korrosion der unterirdischen Technik führt. Das größere Problem sieht Prof. Tränckner mit hohen Fixkosten für die Betreiber der Wasserwirtschaft.

„Infrastruktur und Energiemanagement sind deshalb ein Geschwisterpaar der Wasserwirtschaft“, sagt Prof. Tränckner. Dieser Gedanke ist auch das Motto der diesjährigen Rostocker Abwassertagung, die im November stattfindet. „ Aufgrund der Langlebigkeit der überwiegend leitungsgebundenen Infrastruktur zur Wasserversorgung und zum Abwassermanagement müssen mögliche Lösungskonzepte auch für die künftigen Probleme frühzeitig entwickelt und umgesetzt werden“.

Im Klartext heiße das: neue Investitionen müssten so geplant werden, dass sich für die nächsten 25 Jahre sowohl die Energie-als auch Infrastrukturkosten im vertretbaren Rahmen halten. Dabei könne die Wasserwirtschaft auch einen Beitrag zur Energiewende leisten, ist Prof. Träckner überzeugt. Einerseits seien Kläranlagen die größten kommunalen Energieverbraucher, andererseits werde in Kläranlagen durch Faulung der anfallenden Klärschlämme Strom produziert, der gegenwärtig von den Abwasserentsorgern zur Reduzierung ihres eigenen Verbrauches genutzt wird. „Dieser Anteil lässt sich sowohl durch neue verfahrenstechnische Konzepte der Abwasserreinigung aber auch durch Annahme von Biomasse oder energiehaltigen Reststoffen (Co-Substrate) deutlich erhöhen, ist Tränckner überzeugt.

Das vorhandene Potenzial und wie man dieses im Stromverbund nutzen kann, auch darüber werden sich die Experten auf der Abwassertagung austauschen. Prof. Tränckner sieht einen weiteren Aspekt, der Lösungen verlangt. Infrastrukturplanung der Wasserwirtschaft und Stadtplanung müssen enger miteinander verzahnt werden. Es werde immer mehr Infrastruktur für immer weniger Menschen errichtet. „Das wird auf lange Sicht teuer“, sagt der Professor. Er plädiert für neue Ansätze in der Niederschlagsentwässerung, insbesondere in den Innenstädten. Viele freie Flächen würden bebaut und die abzuführende Niederschlagsmenge nehme ständig zu. Rostock bietet da bereits mit integralen Entwässerungskonzepten Lösungen für die Zukunft an, welche ebenfalls auf der Tagung vorgestellt werden. Text: Wolfgang Thiel

Universität Rostock
Agrar- und Umweltwissenschaftliche Fakultät
Prof. Dr. Jens Tränckner
Tel: 0381 498 3640
Mail: jens.traenckner@uni-rostock.de
https://abwassertagung.auf.uni-rostock.de/

Quelle: idw

(nach oben)


Förderung der Arbeitsfähigkeit von Arbeitnehmern

Dr. Maren Wagner Pressestelle
Bergische Universität Wuppertal

Netzwerk an der Bergischen Universität lädt zur Konferenz nach Berlin

Der Anteil älterer Arbeitnehmerinnen und Arbeitnehmer wird infolge des demografischen Wandels immer größer. Die Arbeits- und Beschäftigungsfähigkeit – vor allem von älteren Beschäftigten – zu erhalten und zu fördern, ist eine große Herausforderung für Unternehmen und Politik. Aktuelle Erkenntnisse zur Förderung der Arbeitsfähigkeit stand im Mittelpunkt einer Tagung von rund 100 Vertretern aus Wissenschaft und Praxis in Berlin am 20. und 21. Oktober. Veranstalter ist das deutsche WAI-Netzwerk an der Bergischen Universität Wuppertal.

Seit 2003 können Betriebe in Deutschland mit Hilfe des sogenannten „Work Ability Index“ (WAI) die aktuelle und künftige Arbeitsfähigkeit von älter werdenden Beschäftigten erfassen und bewerten. Damals wurde auf Initiative der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin das nationale WAI-Netzwerk an der Bergischen Universität gegründet.
„Der WAI-Fragebogen zur Messung der Arbeitsfähigkeit wird in Deutschland zurzeit in immer mehr Unternehmen im Gesundheits- und Demografiemanagement eingesetzt“, sagt Laura Mathiaszyk vom WAI-Netzwerk. Auf der dritten WAI-Konferenz in Berlin werden jetzt an zwei Tagen aktuelle Erkenntnisse zur Förderung der Arbeitsfähigkeit von Beschäftigten vorgestellt und zwischen Wissenschaftlern und Praktikern diskutiert. Die 100 Teilnehmerplätze waren bereits vor Anmeldeschluss ausgebucht.
Das WAI-Netzwerk an der Bergischen Universität Wuppertal wird vom Bundesministerium für Arbeit und Soziales (BMAS) im Rahmen der Initiative Neue Qualität der Arbeit unter dem Motto „Zukunft sichern, Arbeit gestalten“ finanziell gefördert. Es hat derzeit rund 1.600 Mitglieder aus Unternehmen, Beratung und Wissenschaft.

Kontakt:
Laura Mathiaszyk
Bergische Universität Wuppertal, Institut für Sicherheitstechnik
WAI-Netzwerk
Telefon 0202/439-3636
E-Mail wai@uni-wuppertal.de

Weitere Informationen:
http://www.arbeitsfaehigkeit.uni-wuppertal.de

Quelle: idw

(nach oben)


Mehrheit der Ärzte befürwortet flächendeckende Einführung von Telemedizin

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Die Mehrheit der im Rahmen eines Projekts in Kaiserslautern befragten Ärzte ist für eine flächendeckende Einführung von Telemedizin zur Betreuung von Patienten mit Herzinsuffizienz oder Herzrhythmusstörungen in ihrem Arbeitsumfeld. Sie erwarten davon unter anderem eine Optimierung der Versorgung und eine Erhöhung der Therapietreue. Eine gemeinsame elektronische Patientenakte wird von den Medizinern als weniger wichtig eingeschätzt. Das sind einige Ergebnisse einer Befragung des Fraunhofer-Instituts für Software-Engineering, der Deutschen Stiftung für chronisch Kranke und des Westpfalz-Klinikums Kaiserslautern, die heute auf der Herbsttagung der Deutschen Gesellschaft für Kardiologie (DGK) in Düsseldorf präsentiert wurde.

Fokus auf schnellere und effizientere Versorgung
Telemedizinische Versorgungsangeboten ermöglichen es, „der Zunahme an chronischen Erkrankungen und den strukturellen Veränderungen der medizinischen Angebotssituation, zum Beispiel die abnehmende Verfügbarkeit fachärztlicher Expertise im ländlichen Raum zu begegnen. Das gilt insbesondere für Herz-Kreislauf-Erkrankungen“, so Studienautorin Silke Steinbach auf der DGK-Tagung. „Als regionaler Lösungsansatz unterstützt das Modellprojet E.He.R. die Schaffung einer qualitativ hoch wertigen und effizienten Versorgung mittels telemedizinischer Betreuung von Patienten mit Herzinsuffizienz oder Herzrhythmusstörungen.“
Weil die Akzeptanz durch alle Beteiligten eine Voraussetzung für die nachhaltige Implementierung eines neuen Versorgungskonzeptes sei, so die Expertin, wurde im Rahmen der Projektevaluation die Einschätzung von Ärzten in der Region Westpfalz mittels Fragebögen, in Einzelinterviews und in Workshops eingeholt.
„In Rahmen der Anforderungs- und Bedarfsanalyse legten die befragten Ärzte den Fokus auf eine Verbesserung der schnellen und effizienten Patientenversorgung“, so die Expertin. „Durch Telemedizin sollen Abläufe standardisiert und optimiert werden, um Patienten optimal zu versorgen und eine Entlastung der Ärzte herbeizuführen. Als weniger wichtig wurde eine gemeinsame IT-Infrastruktur und eine gemeinsame elektronische Patientenakte gesehen.“ Einen entscheidenden Vorteil sehen die Mediziner laut Befragung in der Erhöhung der Therapietreue von Herzinsuffizienz-Patienten durch die regelmäßige Übermittlung von Vitalparametern im Rahmen der telemedizinischen Begleitung. Generell erwarten die Mediziner ein geschärftes Bewusstsein der Patienten für ihre medizinische Situation und einen selbständigeren Umgang mit der Erkrankung.
„Zusammenfassend steht die Mehrzahl der befragten Ärzte, nämlich 58,3 Prozent, einer flächendeckenden Einführung von Telemedizin in ihrem Arbeitsumfeld positiv gegenüber. Nur eine Minderheit von 12,5 Prozent spricht sich gegen Telemedizin aus“, so die Studienautorin. Allerdings wollen die Mediziner die Telemedizin-Leistungen auch entsprechend abgegolten sehen: 56,5 Prozent der befragten Ärzte verlangen eine Regelvergütung dafür, 39,1 Prozent sehen eine Vergütung im Rahmen von Disease Management Programmen und 30,4 Prozent als Angebot der Integrierten Versorgung (IV) als Optionen.

Quelle: DGK Abstract Steinbach et al., Telemedizin als Element der flächendeckenden Versorgung für Patienten mit chronischer Herzinsuffizienz – Anforderungen und Bedarf aus ärztlicher Sicht. Projektergebnisse E.He.R.Clin Res Cardiol 103, Suppl 2, Oktober 2014 – Beitrag P407

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B&K Kommunikation, Roland Bettschart, Dr. Birgit Kofler, Berlin/Wien, Tel.: 030 700159676; +43 1 31943780; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8800 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org/presse
http://www.ht2014.dgk.org

Quelle: idw

(nach oben)


Erdgas-Boom kann den Klimawandel nicht verlangsamen

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Der Erdgas-Boom durch den Einsatz von Technologien wie Fracking wird voraussichtlich nicht zu einer Verringerung der Treibhausgas-Emissionen führen. Die Verbrennung von Erdgas erzeugt im Vergleich zu Kohle zwar nur etwa die Hälfte der CO2-Emissionen pro Energieeinheit. Aber wenn Erdgas reichlich verfügbar und somit billig wird, hat dies letztlich auch einen höheren Energieverbrauch zur Folge. Die schmutzige Kohle würde durch Gas nur zum Teil ersetzt, wie eine jetzt in der Fachzeitschrift Nature erscheinende Studie zeigt.

Die Erhöhung des globalen Gasangebots löst auf den Märkten also Anpassungsdynamiken aus, die den Vorteil vergleichsweise niedrigerer Emissionen wieder zunichte machen würden, wie ein internationaler Vergleich von Computersimulationen erstmals zeigt.

„Unsere Untersuchung macht klar, dass reichlich Erdgas allein uns nicht vor dem Klimawandel retten wird“, sagt der Leitautor Hawon McJeon vom Pacific Northwest National Laboratory (PNNL) des US-Energieministeriums. Vor allem in den USA haben neue technische Möglichkeiten wie das Verpressen von Flüssigkeit in Schiefergestein, um es unterirdisch aufzubrechen und Erdgas freizusetzen – auch Fracking genannt – zu einem Boom bei der Erdgasförderung geführt. „Der globale Einsatz neuer Produktionstechnologien könnte die weltweite Erdgasproduktion bis zum Jahr 2050 verdoppeln oder verdreifachen“, sagt McJeon.

„Die Hoffnung erweist sich als irrig“ – Markteffekte dominieren
Dies könnte bis zur Mitte des Jahrhunderts zu bis zu zehn Prozent höheren CO2-Emissionen führen, statt den Kohlendioxid-Ausstoß insgesamt zu senken. „Das zusätzliche Angebot von Gas lässt dessen Anteil an Energie-Mix steigen, aber hierdurch wird nur eine sehr begrenzte Menge Kohle ersetzt – und es könnten auch emissionsarme erneuerbare Energien und Kernenergie ersetzt werden“, sagt Co-Autor Nico Bauer vom Potsdam-Institut für Klimafolgenforschung. „Leider erweist sich die Hoffnung als irrig, dass Erdgas wegen seiner technischen Überlegenheit im Vergleich zur Kohle absehbar zu einer Verringerung der Erderwärmung beitragen kann. Das stark erhöhte Angebot von Erdgas führt zu einem Preisverfall und einer Ausweitung der gesamten Energie-Versorgung.“ Darüber hinaus verursacht eine erhöhte Gasproduktion auch einen höheren Ausstoß des starken Treibhausgases Methan, das aus Bohrungslecks und Rohrleitungen entweichen kann.

Bei den verfügbaren Gasmengen gibt es viele Unsicherheiten – die Abschätzung der weltweiten Vorkommen wurde in den letzten zehn Jahren angepasst, aber die wirtschaftlichen Auswirkungen im globalen Energiesektor sind bislang nicht umfassend erforscht worden. Fünf Forschungsgruppen aus Deutschland, den USA, Österreich, Italien und Australien haben deshalb nun berechnet, wie die Welt im Jahr 2050 mit und ohne Erdgas-Boom aussehen könnte. Sie verwendeten fünf verschiedene Simulationsmodelle, die nicht nur Produktion und Verbrauch von Energie erfassen, sondern ein breites Spektrum von Wirtschaftssektoren sowie das Klimasystem enthalten.

Technische Fortschritte können Klimapolitik nicht ersetzen
„Als wir bei unserem Modell kaum Veränderungen bei den Treibhausgasemissionen bemerkten, dachten wir zuerst, wir hätten einen Fehler gemacht, weil wir mit einer erheblichen Emissionsverminderung gerechnet hatten“, sagt der leitende Wissenschafter James ‚Jae‘ Edmonds vom Joint Global Change Research Institute der PNNL. „Aber als alle fünf Modellierteams uns davon berichteten, dass sie ebenfalls kaum Unterschiede hinsichtlich des Klimawandels erkennen konnten, wussten wir, dass wir da etwas Neuem auf der Spur waren.“

Die Folgen sind weit reichend. „Die Ergebnisse zeigen, dass eine wirksame Stabilisierung des Klimas nur durch eine Bepreisung von Emissionen erreicht werden kann – und das erfordert internationale politische Zusammenarbeit und verbindliche Vereinbarungen“, erklärt Ottmar Edenhofer, Chefökonom des PIK. „Technologische Fortschritte können die Kosten der Klimapolitik reduzieren – aber sie können die Klimapolitik nicht ersetzen.“

Artikel: McJeon, H., Edmonds, J., Bauer, N., Clarke, L., Fisher, B., Flannery, B.P., Hilaire, J., Krey, V., Marangoni, G., Mi, R., Riahi, K., Rogner, H., Tavoni, M. (2014): Limited impact on decadal-scale climate change from increased use of natural gas. Nature (advance online publication) [DOI:10.1038/nature13837]

Weblink zum Artikel, sobald er veröffentlich ist: http://dx.doi.org/10.1038/nature13837

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima

Quelle: idw

(nach oben)


EARTO-Preis für Fraunhofer

Fraunhofer-Forscher haben eine Software entwickelt, die Firmen vor Datenklau und -missbrauch schützt. Dafür bekommen sie in diesem Jahr einen von drei Innovations-Preisen der European Association for Research and Technology Organisations EARTO. Der Verband wählte außerdem Frank Treppe, Fraunhofer-Hauptabteilungsleiter für Unternehmensstrategie und Internationales, zum Vizepräsidenten. Zusammen mit der EARTO-Präsidentin Maria Khorsand vertritt er künftig 350 Einrichtungen für angewandte Forschung in Europa.

Das digitale Zeitalter hat Risiken und Nebenwirkungen. Mit der Flut von Daten wächst auch die Gefahr von deren Missbrauch. Nicht nur Privatleute, auch Unternehmen sind verunsichert. »Ein Häkchen unter den allgemeinen Geschäftsbedingungen ist heute kaum noch ausreichend, denn Informationen können kopiert und weitergegeben werden«, erklärt Professor Dieter Rombach, Leiter des Fraunhofer-Instituts für Experimentelles Software Engineering IESE bei der Preisverleihung. »Auch Verschlüsseln reicht heutzutage oft nicht mehr aus, wenn in Geschäftsprozessen umfangreiche Daten ausgetauscht werden müssen. Im Zeitalter von Big Data sind neue Wege gefragt.«

Mit IND²UCE – die Abkürzung steht für Integrated Distributed Data Usage Control Enforcement – haben Fraunhofer-Forscher zusammen mit drei Partnern aus Industrie und Wirtschaft eine Technologie entwickelt, die künftig sensible Informationen vor Missbrauch schützt. »Wir verlassen uns nicht mehr rein auf klassische Zugriffskontrollen und Verschlüsselungen, sondern sichern die Daten zusätzlich noch selbst ab«, sagt Christian Jung, der das Team IND²UCE leitet. Der Trick: Alle Daten werden mithilfe kleiner zusätzlicher Informationspakete in Form von Datennutzungsregeln bestückt. In diesen Paketen steht, was jetzt oder in der Zukunft erlaubt ist und was nicht. Der Besitzer kann damit präzise definieren, welche Datei wie oft gelesen, kopiert oder weitergeleiten werden darf, ob sie mit dem Smartphone geöffnet werden kann und wenn ja, ob dies nur auf dem Firmengelände oder auch auf öffentlichen Plätzen möglich sein soll.

Verschiedene Prototypen dieser neuen Sicherheitslösung sind mittlerweile verfügbar. Einer der drei Partner plant, diese in den nächsten Jahren in seine Software zu integrieren und auf den Markt zu bringen.

Gemeinsam Netzwerke schaffen – Frank Treppe neuer Vizepräsident der EARTO
Zusammen mit der EARTO-Präsidentin Maria Khorsand vertritt Frank Treppe als neuer Vizepräsident künftig die angewandte Forschung in Europa. »Die EARTO steht für 350 europaweite Forschungsorganisationen der angewandten Forschung und bietet damit herausragende Möglichkeiten zur Vernetzung. Außerdem eröffnet die Organisation die Chance, den europäischen Forschungsraum aktiv mitzugestalten, da die EARTO die Interessen der Mitglieder gegenüber der europäischen Kommission vertritt«, so Treppe.
Der EARTO-Innovations-Preis

Forschung kann unser Leben verändern – zum Positiven. Herausragende Beispiele für angewandte Forschung ehrt die EARTO seit 2009 jährlich mit drei Preisen. Eine unabhängige Jury wählt Projekte aus, die das Potenzial haben, einen gesellschaftlichen oder wirtschaftlichen Wandel zu initiieren. Fraunhofer erhält die Auszeichnung bereits zum dritten Mal.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Umweltqualität und Innovation Hand in Hand: Die Nominierungen für den Bundespreis Ecodesign 2014

Preis des Bundesumweltministeriums und Umweltbundesamtes wird zum dritten Mal vergeben
Gemeinsame Pressemitteilung von Umweltbundesamt und Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit

Die Jury aus Design- und Umweltexperten hat es sich nicht leicht gemacht. Engagierte Diskussionen haben die Beurteilung von ökologischen und gestalterischen Kriterien begleitet. Insgesamt 29 Produkte, Dienstleistungen und Konzepte haben die Jury überzeugt und sind für den Bundespreis Ecodesign 2014 nominiert. Am 14. November werden die Gewinner bei der Preisverleihung im Bundesumweltministerium in Berlin bekannt gegeben.

Die Wettbewerbsbeiträge in den vier Kategorien Produkt, Service, Konzept und Nachwuchs wurden der interdisziplinär besetzten Jury in einer großflächigen Ausstellung im ehemaligen Flughafen Tempelhof am 6. Oktober in Berlin präsentiert. Mit dabei waren ökologische Färbetechniken, nachhaltige Logistikkonzepte und neu gedachte Alltagsgegenstände.

Die parlamentarische Staatssekretärin im Bundesumweltministerium, Rita Schwarzelühr-Sutter, hebt hervor: „Der Bundespreis Ecodesign hat auch in diesem Jahr wieder viele hervorragende Einreichungen bekommen. Insbesondere das Zusammenwirken von hoher Umweltqualität, Funktionalität, Innovation und attraktiver Gestaltung hat mich beeindruckt.“

Auch der Vizepräsident des Umweltbundesamtes, Thomas Holzmann, betont: „ Die Vielfalt der Einreichungen zeigt, dass es auf ganz unterschiedliche Weise gelingen kann, gutes Design und Umweltfreundlichkeit in einem Produkt zu vereinen. Die Zahl und Bandbreite der Beiträge ist beeindruckend.“ Alle Nominierten sind ab sofort in einer Online-Ausstellung auf der Internetseite unter folgendem Link zu sehen: www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html. Auch Hintergrundinformationen zum Ecodesign sowie die Kriterien-Matrix, die als Bewertungsgrundlage diente, sind dort zu finden.

Die Preisträger und Nominierten aus dem Vorjahr sind noch vom 24. bis 26. Oktober in einer Wanderausstellung beim Designers‘ Open in Leipzig zu sehen. www.bundespreis-ecodesign.de/de/ausstellung

Bundesumweltministerium und Umweltbundesamt loben den Bundespreis Ecodesign seit 2012 jährlich in Zusammenarbeit mit dem Internationalen Design Zentrum Berlin aus. Ein Projektbeirat unterstützt das Vorhaben. Der Preis zeichnet innovative Waren, Dienstleistungen und Konzepte aus, die aus Umwelt- und Designsicht überzeugen.

Nominierte
Informationen über die für den Bundespreis Ecodesign 2014 nominierten Projekte finden Sie hier: www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html

Jury
Werner Aisslinger (Designer mit Schwerpunkt auf Produktdesign und Architektur)
Dr. Kirsten Brodde (Journalistin und Autorin)
Dr. Thomas Holzmann (Vizepräsident des Umweltbundesamtes)
Prof. Günter Horntrich (Professor für Design und Ökologie an der KISD)
Theresa Keilhacker (Architektin mit Schwerpunkt auf nachhaltigem Planen und Bauen)
Dr. Dietlinde Quack (Wissenschaftliche Mitarbeiterin am Öko-Institut, Forschungsschwerpunkt: Nachhaltiger Konsum und Produkte)
Rita Schwarzelühr-Sutter (Parlamentarische Staatssekretärin im Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit)
Prof. Dr. h.c. Erik Spiekermann (Kommunikationsdesigner, Typograf, Schriftgestalter und Autor)

Projektbeirat
Victoria Ringleb, Allianz deutscher Designer (AGD)
Anne Farken, BMW Group Designworks USA
Prof. Matthias Held und Sabine Lenk, Deutsche Gesellschaft für Designtheorie und -forschung (DGTF)
Lutz Dietzold, Rat für Formgebung
Prof. Susanne Schwarz-Raacke (Produktdesign), Prof. Heike Selmer (Modedesign) und Prof. Dr. Zane Berzina (Textil- und Flächendesign), Kunsthochschule Berlin-Weißensee (KHB)
Karin-Simone Fuhs und Dorothea Hess, ecosign/Akademie für Gestaltung
Dr. Stephan Kabasci und Hendrik Roch, Fraunhofer-Institut UMSICHT
Stephan Rabl, Handelsverband Deutschland (HDE)
Dr. Dominik Klepper, Markenverband
Johanna Kardel, Verbraucherzentrale Bundesverband (vzbv)

Entwicklung und Durchführung
Internationales Design Zentrum Berlin e. V. (IDZ)
www.idz.de

Die nominierten Projekte für den Bundespreis Ecodesign 2014
http://www.bundespreis-ecodesign.de/de/wettbewerb/2014/nominierte.html
Übersicht über die Preisträger und Nominierten aus dem Vorjahr
http://www.bundespreis-ecodesign.de/de/ausstellung
Informationen über das Internationale Design Zentrum Berlin
http://www.idz.de/

Quelle: Umweltbundesamt

(nach oben)


Unterschiedliche Faktoren beeinflussen Strompreise

BDEW zur heutigen Bekanntgabe der EEG-Umlage 2015:

In vielen Regionen steigende Netzentgelte absehbar / Von Vertriebsunternehmen beinflussbarer Strompreisanteil bei nur noch rund 25 Prozent

Berlin, 15. Oktober 2014 – „Dass die EEG-Umlage geringfügig sinkt, ist erfreulich. Der damit verbundene Entlastungseffekt für die Verbraucher ist jedoch leider nur gering. Aus der künftigen Höhe der EEG-Umlage allein lässt sich zudem keine generelle Prognose über die kurzfristige Preisentwicklung ableiten. Zahlreiche weitere Faktoren beeinflussen den Strompreis. In vielen Regionen muss beispielsweise mit weiter steigenden Netzentgelten gerechnet werden“, sagte Hildegard Müller, Vorsitzende der BDEW-Hauptgeschäftsführung heute anlässlich der Bekanntgabe der EEG-Umlage 2015. Die Umlage sinkt im kommenden Jahr erstmals geringfügig von 6,24 Cent pro Kilowattstunde Strom auf 6,17 Cent/kWh – ein Rückgang um gerade einmal 1,1 Prozent. Allerdings stehe die künftige Höhe weiterer staatlicher Umlagen wie beispielsweise der Umlage für abschaltbare Lasten noch nicht fest.

Neben den gesunkenen Beschaffungskosten und den weiterhin sehr hohen staatlichen Belastungen sind die Netzentgelte der dritte wichtige Bestandteil des Strompreises. Diese werden von den staatlichen Regulierungsbehörden insbesondere mit Blick auf Kosteneffizienz geprüft und genehmigt. In vielen Regionen dürften die Netzentgelte im kommenden Jahr aufgrund des erforderlichen Aus- und Umbaus von Verteil- und Übertragungsnetzen weiter steigen, so der BDEW. In den nächsten zehn Jahren sind wegen des Zubaus von dezentralen Photovoltaik- und Windenergieanlagen Investitionen von rund 25 Milliarden Euro allein in die Verteilnetze notwendig. Es müssen bestehende Stromleitungen verstärkt, neue Stromleitungen verlegt sowie Trafostationen und andere technische Einrichtungen installiert werden.

„Der deutliche Strompreis-Anstieg der letzten Jahre geht in der Hauptsache auf höhere Steuern, Abgaben und Umlagen zurück. Gerade die politisch Verantwortlichen sollten zu ihren Entscheidungen stehen, diese in der Öffentlichkeit erläutern und die Verantwortung für die Folgen nicht einfach auf die Energieversorger abwälzen“, betonte Müller. Seit 1998 ist der Staatsanteil am Endkundenpreis nach BDEW-Angaben drastisch gestiegen und liegt mittlerweile bei über 52 Prozent. Im Jahr 2015 werden sich die Belastungen für Stromkunden durch die EEG-Umlage auf etwa 21,8 Milliarden Euro summieren. Der von den Vertriebs-Unternehmen selbst beeinflussbare Anteil am Haushaltsstrompreis (Strombeschaffung, Vertrieb) ist dagegen auf nur noch rund 25 Prozent gesunken.

„Das EEG muss mit Blick auf das Ziel der Marktintegration der Erneuerbaren Energien weiterentwickelt werden, um die Kosteneffizienz bei der Förderung Erneuerbarer Energien weiter zu erhöhen. Die Politik hat mit der EEG-Novelle in diesem Jahr wichtige Weichen gestellt. Jetzt geht es um weitere konsequente Schritte auf diesem Weg. Der BDEW hat deshalb vor Kurzem als erster Akteur konkrete Vorschläge für ein Auktionsdesign für Photovoltaik-Freiflächen-Kraftwerke vorgelegt, das das Erreichen der Ausbauziele im Bereich der Erneuerbaren Energien, eine kosteneffiziente Förderung und eine größtmögliche Akteurs-Vielfalt gleichermaßen gewährleistet“, so Müller. „Parallel müssen wir uns Gedanken um ein die Energiewende flankierendes Marktdesign machen, das Investitionen in konventionelle Kapazitäten ermöglicht. Das aktuelle Investitionsumfeld ist hierzu nicht mehr geeignet und auch ein Grund für die zunehmenden Stilllegungsanträge der deutschen Kraftwerksbetreiber. Diese Entwicklungen haben das Potential für eine Gefährdung der Versorgungssicherheit, weil die Erneuerbaren Energien alleine wegen ihrer hohen Dargebotsabhängigkeit nicht in der Lage sind, die Stromversorgung zu jedem Zeitpunkt sicherzustellen. Wir brauchen daher dringend politische Entscheidungen zur Vorbereitung eines Dezentralen Leistungsmarktes.“

Anlagen und Materialien
Geplante Veröffentlichungstermine von staatlichen Strompreisbestandteilen (PDF):
http://www.bdew.de/internet.nsf/id/1B39B55BDB1A2B56C1257D7200320100/$file/141015%20BDEW%20zur%20Bekanntgabe%20der%20EEG-Umlage%202015%20Anlage.pdf

Quelle: bdew.de

(nach oben)


Volkszählung unter der Erde – Erste Regenwurm-Bestandsaufnahme in Deutschland

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Die Wissenschaftlerin Dr. Ricarda Lehmitz vom Senckenberg Forschungsinstitut hat erstmals eine Inventur aller Regenwurmarten Deutschlands durchgeführt. Hierfür bearbeiteten sie und ihre Kollegen 16.000 Datensätze. Insgesamt gibt es 46 verschiedene Regenwurmarten in der Bundesrepublik, aber nur eine Art kann als endemisch (ausschließlich in Deutschland vorkommend) bezeichnet werden. Die Artenvielfalt der Wenigborster nimmt außerdem von Norden nach Süden zu. Die „Regenwurm-Checkliste“ ist kürzlich im Fachjournal „Zootaxa“ erschienen.

Sie fressen sich durch die Erde, leben in engen Röhren und Gängen und tragen erheblich zur Bodenqualität bei: Unter einem Quadratmeter Wiese können – je nach Bodenart – zwischen 100 und 400 Regenwürmer leben.
Doch Wurm ist nicht gleich Wurm – am Senckenberg Forschungsinstitut in Görlitz wurde nun erstmals eine komplette Auflistung aller Regenwurmarten in Deutschland vorgenommen. „Es gibt 46 Arten von Regenwürmern bei uns“, erzählt Dr. Ricarda Lehmitz, Leiterin der Sektion Oribatida am Senckenberg Museum für Naturkunde Görlitz und Leitautorin der Studie. Sie hat gemeinsam mit Wurmexperten aus Deutschland 16.000 Datensätze ausgewertet, um die „Regenwurm-Checkliste“ zu erstellen.

„Ein Datensatz steht für einen Regenwurmfund an einem bestimmten Ort, zu einer bestimmten Zeit“, erklärt Lehmitz und ergänzt: „Die Daten stammen aus wissenschaftlichen Veröffentlichungen, Sammlungen, Diplom- und Doktorarbeiten, aber auch von Privatpersonen aus den letzten 100 Jahren.“ Profitiert haben die Bodenzoologen dabei von der Online-Datenbank „Edaphobase“ ¬- ein öffentliches, bodenzoologisches Informationssystem mit knapp 500.000 Datensätzen bodenlebender Tiere.

Unter den 46 Arten der gegliederten Würmer befindet sich nur eine echte endemische Art: „Nur Lumbricus badensis, der ‚Badische Riesenregenwurm‘ kann als endemisch bezeichnet werden – ihn gibt es ausschließlich in Deutschland“, erläutert die Görlitzer Wissenschaftlerin. Der bis zu 60 Zentimeter lange Wurm hat sich im südlichen Schwarzwald eine ökologische Nische geschaffen. „Wir nehmen an, dass sich andere Regenwürmer in den relativ sauren Böden nicht wohl fühlen“, fügt Lehmitz hinzu.

Zu einer der häufigsten Arten gehört Lumbricus terrestris, der Gemeine Regenwurm oder Tauwurm, „diese Art finden wir in allen Teilen Deutschlands“, vervollständigt Lehmitz.
41 Prozent der Würmer „wandern“, das heißt sie haben sich nach der letzten Eiszeit in Deutschland ausgebreitet oder alte Besiedlungsgebiete wieder eingenommen. „Vier dieser 19 Arten haben wir nur in menschennahen Umgebungen, wie in Komposthaufen gefunden. Diese Arten werden häufig mit Erde oder Blumenzubehör weltweit durch den Menschen verbreitet“, erzählt die Senckenbergerin. Die restlichen 27 Arten bleiben in der Regel „ortstreu“.

Und noch ein weiteres spannendes Detail haben die Wissenschaftler herausgefunden: Die Artenvielfalt der Regenwürmer nimmt von Norden nach Süden zu. Dieser Trend entspricht auch der europäischen Verteilung von Regenwurmarten. Grund hierfür ist die letzte Kaltzeit, welche vor etwa 115.000 Jahren begann und vor 11.700 Jahren endete. Lehmitz hierzu: „Als die Gletscher sich zurückgezogen haben, konnten sich die Würmer vom Süden ausgehend wieder ausbreiten. In Deutschland gibt es 14 Arten, die nur in den südlichen Bundesländern vorkommen.“

Die Görlitzer Bodenzoologin will aber nicht ausschließen, dass sich in einigen Gebieten Deutschlands weitere Arten finden lassen: „Besonders im Alpenraum und in speziellen Lebensräumen wie an Flussufern gibt es noch Nachholbedarf bei der Regenwurminventur.“ Und auch neue genetische Untersuchungen bringen nicht selten verborgene Arten ans Licht. Sogar der wohl am gründlichsten erforschte Lumbricus terrestris wurde 2010 aufgrund einer DNA-Analyse in zwei – morphologisch nicht unterscheidbare – Arten unterteilt.

„Die Bestandsaufnahme der Regenwurm-Arten ist eine wichtige Basis für unsere weitere Arbeit. Als nächstes werden wir eine Gefährdungseinschätzung der Würmer in einer „Rote Liste“ veröffentlichen“, gibt Lehmitz einen Ausblick auf ihre Forschung.

Kontakt
Dr. Ricarda Lehmitz
Senckenberg Museum für Naturkunde Görlitz
Sektion Oribatida
Tel. 03581-4760-5570
ricarda.lehmitz@senckenberg.de

Judith Jördens
Pressestelle
Senckenberg Gesellschaft für Naturforschung
Tel. 069- 7542 1434
pressestelle@senckenberg.de

Publikation
LEHMITZ, RICARDA et al. Checklist of earthworms (Oligochaeta: Lumbricidae) from Germany. Zootaxa, [S.l.], v. 3866, n. 2, p. 221-245, sep. 2014. ISSN 1175-5334. doi:http://dx.doi.org/10.11646/zootaxa.3866.2.3.

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten undnachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Diese integrative „Geobiodiversitätsforschung“ sowie die Vermittlung von Forschung und Wissenschaft sind die Aufgaben Senckenbergs. Drei Naturmuseen in Frankfurt, Görlitz und Dresden zeigen die Vielfalt des Lebens und die Entwicklung der Erde über Jahrmillionen. Die Senckenberg Gesellschaft für Naturforschung ist ein Mitglied der Leibniz-Gemeinschaft. Das Senckenberg Naturmuseum in Frankfurt am Main wird von der Stadt Frankfurt am Main sowie vielen weiteren Partnern gefördert. Mehr Informationen unter www.senckenberg.de.

Weitere Informationen:
http://www.senckenberg.de/root/index.php?page_id=5206&year=0&kid=2&i… PM Regenwürmer

Quelle: idw

(nach oben)


Hitze, Überflutungen, Stürme: Welche regionalen Folgen hat der Klimawandel für Deutschland?

Jan-Martin Wiarda Kommunikation und Medien
Hermann von Helmholtz-Gemeinschaft Deutscher Forschungszentren

Helmholtz-Forscher geben Antworten auf internationaler Konferenz

Global mag sich die Erwärmung in den vergangenen Jahren verlangsamt haben, in einigen Bereichen der Erde hält der Erwärmungstrend jedoch unvermindert an. Seit 1997 ist die Wassertemperatur im Nordatlantik um ein Grad gestiegen, bestätigen Helmholtz-Forscher während einer internationalen Konferenz von Klimaforschern in Berlin. „Dadurch schmilzt das Meereis der Arktis zunehmend ab – mit unübersehbaren Folgen für das Klima auch in Europa“, sagt Peter Lemke vom Alfred-Wegener-Institut, dem Helmholtz-Zentrum für Polar- und Meeresforschung.

Seit Montag treffen sich im Berliner Umweltforum mehr als 300 Wissenschaftler aus aller Welt, um über die regionalen Auswirkungen globaler Klimaveränderungen in Deutschland, Europa und der Welt zu diskutieren. Die Tagung wird vom 2009 gegründeten Helmholtz-Verbund Regionale Klimaänderung (REKLIM) organisiert. REKLIM will mithilfe neuer Forschungsergebnisse ein besseres Verständnis der regionalen Veränderungen und damit auch verlässlichere Prognosen ermöglichen.

Fest steht nach fünf Projektjahren: Es gibt in Deutschland weniger Regen im Sommer – dafür aber umso mehr im Spätwinter. „Für die Natur, aber auch für uns Menschen ist das fatal“, sagt Hans Peter Schmid vom Karlsruher Institut für Technologie. „Im Frühling steigt die Hochwassergefahr, und im Sommer drohen Dürren.“ 2013 etwa war in der Bundesrepublik ein Jahr mit einer Serie von rekordverdächtigen Extremereignissen: Überflutung, Stürme und Hagel haben es zum bislang teuersten Versicherungsjahr werden lassen. Ein neu entwickelter Hagelindex zeigt eine deutliche Zunahme dieser Extremniederschläge seit den 70er Jahren. „Die gute Nachricht ist, dass in Sachen Hagel unseren Projektionen zufolge bis zum Jahr 2050 mit nur noch einer geringen Verschlechterung zu rechnen ist“, sagt Michael Kunz, ebenfalls vom Karlsruher Institut für Technologie.

Erstaunlich ist, wie stark die Öffentlichkeit in ihrer Einschätzung möglicher Klimagefahren schwankt. So zeigt eine jährlich durchgeführte Umfrage in Hamburg, dass im Jahr 2008 die Sorgen und Ängste vor extremen Wetterlagen besonders groß waren – direkt nach dem verheerenden Sturmtief Tilo. Nach einem zwischenzeitlichen Rückgang wuchsen die Sorgen 2014 erneut auf den Stand von 2008 – diesmal in Folge des Orkantiefs Xaver. „Langfristige Ängste werden offenbar auch durch kurzfristige Erfahrungen geprägt“, sagt Beate Ratter vom Helmholtz-Zentrum Geesthacht.

Insgesamt sind neun Forschungszentren der Helmholtz-Gemeinschaft an REKLIM beteiligt. Weitere Erkenntnisse und Ergebnisse der regionalen Klimaforschung aus insgesamt acht Themenbereichen von Prozessen in den Polargebieten, über Klimaanpassungsstrategien und extreme Wetterereignisse bis hin zum Küstenschutz, werden auf der dreitägigen Klimakonferenz in Berlin von den Forschern vorgestellt und gemeinsam erörtert. Weiterführende Informationen finden Sie auf der Webseite www.reklim.de.

Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 37.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894).

Weitere Informationen:
http://www.helmholtz.de
http://www.helmholtz.de/socialmedia
http://www.reklim-conference-2014.de

Quelle: idw

(nach oben)


DGPM warnt vor Überbelastung am Arbeitsplatz: Männer sind öfter gestresst als Frauen

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Berlin – Männer leiden häufiger unter Arbeitsstress als Frauen. Das schließen Experten aus Studienergebnissen, wie denen der SHARELIFE-Studie, die belegen, dass der Beruf bei Männern zeitintensiver ist und einen höheren Stellenwert einnimmt. Dadurch können gerade psychische Belastungen gehäuft auftreten. Die Deutsche Gesellschaft für Psychosomatische Medizin und Ärztliche Psychotherapie (DGPM) fordert mehr entsprechende Präventionsprogramme speziell für Männer.

Seit Jahren verzeichnen Krankenkassen vermehrt Krankheitstage aufgrund psychischer Erkrankungen. Immer häufiger betreffen Belastungsstörungen, Depressionen und Neurosen Männer: Im aktuellen Gesundheitsreport 2013 verzeichnete der BKK-Dachverband mit rund fünf Prozent bei Männern einen mehr als doppelt so starken Zuwachs als bei Frauen. Einen Grund finden Experten darin, dass die Vollerwerbsquote in Deutschland bei Männern mit rund 91 Prozent immer noch deutlich höher ist, als bei Frauen, wo sie etwa 54 Prozent beträgt. Hinzu kommt: „Männer verbringen durchschnittlich mehr Jahre im Beruf, das konnte die SHARELIFE-Studie eindrucksvoll nachweisen“, sagt Medizinsoziologe Prof. em. Dr. Johannes Siegrist von der Heinrich-Heine Universität Düsseldorf. Die Studie erfasste Berufsverläufe von vielen tausenden Teilnehmern in 13 europäischen Ländern. „Männer identifizieren sich stärker über ihre Arbeit als Frauen und fühlen sich von guten oder schlechten beruflichen Erlebnissen stärker betroffen“, so Siegrist.

Überbelastung am Arbeitsplatz kann beispielsweise entstehen, wenn der Arbeitnehmer dauerhaft unter hohem Leistungsdruck steht und dafür keine angemessene „Belohnung“ in Form von Gehalt, Aufstiegsmöglichkeiten oder sozialer Anerkennung erhält. Wenn dieses Ungleichgewicht zu lange andauert, drohen Burnout und Depression. In den letzten Jahren galten vor allem Frauen als stressgefährdet. „Dies leiteten Psychologen daraus ab, dass Frauen sich doppelt so oft wegen einer Depression in Behandlung befinden wie Männer und öfter über Stress klagen“, meint Professor Dr. med. Harald Gündel, Mediensprecher der DGPM und Ärztlicher Direktor der Universitätsklinik für Psychosomatische Medizin und Psychotherapie in Ulm. „Aktuellere Studien haben aber bereits gezeigt, dass Männer genauso häufig an Depression leiden wie Frauen“, meint der Experte. Dennoch bleiben Stresssymptome gerade bei Männern lange unerkannt. Ganz anders als Frauen sehen Männer Überbelastung als Herausforderung, der sie standhalten müssen. „Das klaglose Ertragen von Härte und psychischem Druck ist ein Hauptmerkmal der klassischen Männerrolle. Nicht zuletzt deswegen ist es uns wichtig, dass sich die Psychosomatik auch den Männern und ihren Bedürfnissen zuwendet“, so Professor Dr. med. Matthias Franz, Präsident des Männerkongresses und Professor für Psychosomatische Medizin und Psychotherapie an der Heinrich-Heine-Universität. Dauerstress macht auf die Dauer auch Männer krank. Das äußert sich in destruktivem Verhalten wie Reizbarkeit und Alkoholmissbrauch. „Wir brauchen dringend Therapieangebote und Präventionsmaßnahmen, die die spezifischen seelischen Bedürfnisse von Männern berücksichtigen“, fordert der Experte.

Über dieses und weitere Probleme der Männerrolle sprechen Experten vom 19. bis 20. September auf dem Männerkongress der Heinrich-Heine Universität in Düsseldorf. Unter dem Motto „Angstbeißer, Trauerkloß, Zappelphilipp – Seelische Gesundheit bei Männern und Jungen“ referieren Fachleute zum den Themen psychische Belastung, männliche Gewalt und Psychotherapie für Männer.

Quellen:
BKK-Gesundheitsreport 2013:
http://www.bkk-dachverband.de/images/bkk/gesundheitsreport/doppel.php

Jahresbericht Arbeitsmarkt:
http://statistik.arbeitsagentur.de/Statistikdaten/Detail/201212/ama/heft-arbeits…
Männergesundheitsbericht 2013:
http://www.maennergesundheitsbericht.de/startseite.html
Wahrendorf M, Siegrist J. Working conditions in mid-life and participation in voluntary work after labour market exit. In: The Individual and the Welfare State. Berlin 2011.****

Weitere Informationen:
http://www.dgpm.de
http://www.maennerkongress2014.de

Quelle: idw

(nach oben)


Enorme Fortschritte in der Ozeanversauerungsforschung

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Neuer Bericht fasst aktuellen Stand des Wissens zusammen

Noch nie zuvor erforschten so viele Wissenschaftler wie sich der sinkende pH-Wert des Meerwassers auf Tiere und Pflanzen im Ozean auswirkt. Ihre Ergebnisse haben die Experten jetzt für den zweiten Ozeanversauerungsbericht der Biodiversitäts-Konvention (CBD – Convention on Biological Diversity) zusammengetragen, der heute auf der zwölften CBD-Konferenz der Vertragsstaaten vorgestellt wird. Ein wichtiger Fokus liegt dabei auf jenen Folgen, die sich auch auf uns Menschen auswirken. Mit dieser Zusammenfassung will die CBD die Problematik saurer werdender Meere auf die Tagesordnung der internationalen Politik bringen. Zu den Autoren des neuen Berichts gehören auch Wissenschaftler des Alfred-Wegener-Instituts, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI).

„Die vergangenen fünf Jahre waren sicherlich die ausschlaggebenden für die Ozeanversauerungsforschung“, sagt Dr. Felix Mark, Biologe am AWI und einer der Autoren des aktuellen CBD-Berichts zur Ozeanversauerung (zum vollständigen Interview mit Dr. Felix Mark). Seit dem Jahr 2009 – als der erste CBD-Bericht zur Ozeanversauerung erschien – haben Experten aus aller Welt mehr als 1000 neue Studien dazu veröffentlicht, wie sich der sinkende pH-Wert des Meerwassers auf die Tiere und Pflanzen im Ozean auswirkt.

Zu ihren wichtigsten Erkenntnissen gehört sicherlich, dass saureres Wasser nicht nur die Kalkschalen und -skelette von Muscheln und Korallen angreift, sondern sich ebenso auf höher entwickelte Meeresbewohner wie Fische auswirken kann. Aber auch, dass jede Art ganz unterschiedlich auf saureres Wasser reagiert und einige sogar davon profitieren – wie beispielsweise Seegräser, die das zusätzliche Kohlendioxid zur Photosynthese nutzen.

Auf Grundlage dieses neuen Wissens hat sich über die vergangenen Jahre der Fokus der Forschung immer wieder erweitert und somit auch das Verständnis dafür wie weitreichend die Folgen saurerer Meere sind: „Wir beginnen zu verstehen, wie einzelne Arten unter dem Einfluss von Ozeanversauerung interagieren; welche Folgen es hat, wenn eine Art aus dem Nahrungsnetz verschwindet und ob sich Tiere über mehrere Generationen anpassen können“, erzählt Dr. Felix Mark.

Wichtig war auch der Ansatz, die Ozeanversauerung nicht als ein Einzelphänomen zu betrachten, das die Lebensbedingungen der Weltmeere im Alleingang verändert. Der sinkende pH-Wert gesellt sich zu anderen Umweltfaktoren wie der steigenden Wassertemperatur, dem sinkenden Sauerstoffgehalt sowie der Verschmutzung und Überdüngung der Meere. Forscher berücksichtigen dies in Labor- und Feldversuchen, in dem sie zum Beispiel das Wasser in Aquarien gleichzeitig erwärmen und Kohlendioxid hinzufügen.

AWI-Wissenschaftler haben dabei einen wichtigen Beitrag geleistet. So erforscht die Arbeitsgruppe um Dr. Felix Mark wie sich die Ozeanversauerung und -erwärmung auf Fische in den Polargebieten auswirkt. „Wir haben beispielsweise herausgefunden, dass der Polardorsch, der eine Schlüsselart für das arktische Ökosystem ist, empfindlich darauf reagiert, wenn der Arktische Ozean immer saurer und gleichzeitig wärmer wird. Der Fisch wächst dann vermutlich nicht mehr so gut“, erklärt der Biologe.
Weniger empfindlich dagegen ist eine der wichtigsten Futterarten des Polardorsches, die so genannten Ruderfußkrebse, wie AWI-Wissenschaftlerin und Co-Autorin Dr. Barbara Niehoff herausgefunden hat. „Selbst bei extrem hohen Kohlendioxid-Konzentrationen, die weit über dem heutigen Wert liegen, weisen die Tiere keine nennenswerten Reaktionen auf“, erzählt die Biologin. (Mehr über die Widerstandsfähigkeit von Ruderfußkrebsen lesen Sie hier.)

Diese Fülle an neuen Ergebnissen haben Wissenschaftler aus zwölf Ländern jetzt für den neuen CBD-Bericht zur Ozeanversauerung zusammengefasst. Meeresbewohner, die gar nicht, nur in sehr geringem Maße oder sogar positiv auf die Ozeanversauerung reagieren, sind darin allerdings nur Randfiguren. Wie schon vor fünf Jahren widmet sich der Bericht vor allem Arten, die sich nur schwer an das saurere Wasser anpassen können – insbesondere Korallen.

Da Korallenriffe nicht nur zu den artenreichsten Ökosystemen zählen, sondern auch über 400 Millionen Menschen mit Nahrung versorgen und sie vor Sturmfluten schützen, gehören sie zu den am intensivsten erforschten Lebensräumen in der Ozeanversauerungsforschung – und zu den politisch und wirtschaftlich wohl interessantesten. Denn Wissenschaftler schätzen, dass allein die Auswirkung der Ozeanversauerung auf Korallen und Muscheln zu Folgekosten von einer Billion US Dollar führen könnten.

Trotz des enormen Wissenssprungs im Vergleich zum vorhergehenden CBD-Bericht bleiben wichtige Fragen allerdings noch offen: Beispielsweise, ob sich empfindliche Bewohner wie Korallen noch schnell genug an die neuen Lebensbedingungen anpassen können. Oder wie das Ökosystem Ozean als Ganzes auf die Versauerung reagiert.

„Momentan sind wir dabei, die einzelnen, verfügbaren Ergebnisse so aufzubereiten, dass sie in Ökosystem-Modelle eingesetzt werden können“, erzählt Dr. Felix Mark. So erhoffen sich die Wissenschaftler, genauer vorhersagen zu können wie das Leben im Meer in Zukunft aussehen könnte, wie sich Nahrungsnetze verschieben und welche Arten unter Umständen für immer verschwinden könnten.

Der aktuelle CBD-Bericht, so das Ziel der Konvention, soll die Ozeanversauerung und ihre Folgen verstärkt auf die Agenda der internationalen Politik setzen. Doch auch hier hat sich in den vergangenen fünf Jahren einiges getan: So hat beispielsweise der Weltklimarat die Problematik versauernder Ozeane im fünften Weltklimabericht erstmals umfassend behandelt. Ein Schritt in die richtige Richtung, meint auch Biologe Dr. Felix Mark:„Das hat sicherlich dazu beigetragen, dass die Ozeanversauerung in der Politik als Tatsache anerkannt wird, vor allem als Tatsache, die zum größten Teil von uns Menschen verursacht wird.“

Folgen Sie dem Alfred-Wegener-Institut auf Twitter und Facebook. So erhalten Sie alle aktuellen Nachrichten sowie Informationen zu kleinen Alltagsgeschichten aus dem Institutsleben.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: idw

(nach oben)


Gesunde Ernährung: Bienen nutzen Heilstoffe des Honigs als Medikament

Ute Olbertz Pressestelle
Martin-Luther-Universität Halle-Wittenberg

Weltweit gibt das Bienensterben Anlass zu großer Sorge. Auch Darmkrankheiten tragen in erheblichem Maße zum Sterben ganzer Bienenvölker bei. Bienen sind jedoch in der Lage, sich selbst vor Infektionen schützen, indem sie die natürlichen Heilstoffe des Honigs nutzen. Im Gegensatz zu gesunden Tieren bevorzugen kranke Bienen die Honige, die besonders wirksam gegen Infektionen des Darms sind. Zu diesem Schluss kommen Wissenschaftler vom Institut für Biologie der Martin-Luther-Universität Halle-Wittenberg in ihren aktuellen Untersuchungen. Die wegweisenden Ergebnisse sind jetzt im Fachmagazin „Behavioral Ecology and Sociobiology“ erschienen.

In einem Bienenstock leben viele Tausend Bienen auf engem Raum bei über 30 Grad Celsius und hoher Luftfeuchtigkeit zusammen. Es herrschen ideale Bedingungen für die Ausbreitung von Infektionskrankheiten. Die Infektion wehren Bienen zum einen mit Hilfe ihres Immunsystems ab. Zum anderen enthält der von ihnen produzierte Honig natürliche Inhaltsstoffe, die gegen Bakterien, Pilze oder Viren wirken. Diese können den Bienen helfen, ihre Krankheiten zu kurieren.

Die Wissenschaftler um Dr. Silvio Erler und Prof. Dr. Robin Moritz von der Universität Halle untersuchten gemeinsam mit Forschern der Universität Cluj-Napoca (Rumänien), ob Honig von den Bienen nicht nur als Nahrungsmittel, sondern auch als Heilmittel zur Behandlung von Bienenkrankheiten genutzt wird. „Wir haben untersucht, ob Bienen entsprechend ihres Gesundheitszustands bei der Wahl des Honigs neben dem Nährwert, auch den Heilwert berücksichtigen“, so Erler.

Im Labor infizierten die Forscher Bienen mit dem Darmpilz Nosema ceranae und verglichen dann, wie gesunde und kranke Bienen zwischen verschiedenen Honigen wählten. „Wir beobachteten, dass infizierte Bienen keinen Unterschied zwischen Linden- und Robinienhonig machten. Während Honigtauhonig von ihnen kaum gewählt wurde, hatten sie jedoch eine große Vorliebe für Sonnenblumenhonig, die mit zunehmender Infektion der Bienen sogar anstieg“, sagt Erler.

Anschließend untersuchten die Wissenschaftler die Wirksamkeit der Honige auf die Darminfektion. Und tatsächlich: „Die Bienen wiesen wesentlich geringere Sporenmengen im Darm auf, wenn sie sich ausschließlich von Sonnenblumenhonig ernährt hatten. Bienen, die Honigtauhonig konsumiert hatten, zeigten hingegen einen stärkeren Befall.“ Auch im Labortest zeigte der Sonnenblumenhonig eine bessere Wirkung als der Honigtauhonig.

„Honig ist also nicht nur gesund für den Menschen, sondern auch für die Bienen selbst, die im Krankheitsfall nicht den Honig wählen, der besser schmeckt, sondern den, der besser hilft“, so Erler.

Der Artikel „Pathogen-associated self-medication behavior in the honeybee Apis mellifera“ ist online abrufbar: http://link.springer.com/article/10.1007%2Fs00265-014-1786-8 (DOI: 10.1007/s00265-014-1786-8).

In der Print-Ausgabe der Fachzeitschrift „Behavioral Ecology and Sociobiology“ erscheint der Artikel im November 2014.

Ansprechpartner:
Dr. Silvio Erler
Institut für Biologie – Zoologie der MLU
Telefon: +49 (0) 345 55 263 05
E-Mail: silvio.erler@zoologie.uni-halle.de

Quelle: idw

(nach oben)


Der Ostseeschnäpel vor dem Comeback

Norbert K. Borowy Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Nutzierbiologie (FBN)

Dummerstorfer Nachwuchsforscher legen erste grundlegende molekularbiologische Analyse des Edelfisches vor

Die Nachwuchsforschergruppe „Fischgenetik“ am Leibniz-Institut für Nutztierbiologie hat im Rahmen des Projektes „Biotechnologische Analysen zum Nachweis der Eignung des Ostseeschnäpels für eine nachhaltige regionale Aquakultur“ unter Leitung von Dr. Alexander Rebl erstmals eine kompakte molekularbiologische Analyse des Ostseeschnäpels, auch Steinlachs oder Große Maräne genannt, vorgelegt.

„Der Fisch ist hervorragend für die heimische Aquakultur geeignet. Einem Comeback des schmackhaften und gesunden Edelfisches steht nichts im Wege“, sagte Dr. Alexander Rebl. In den zwanziger Jahren des vorigen Jahrhunderts gehörte der Ostseeschnäpel zu den beliebtesten Fischen der gehobenen Gastronomie, insbesondere in Frankreich. Das Landwirtschaftsministerium MV hat das Projekt mit 650.000 Euro gefördert.

Das Dummerstorfer Forschungsinstitut wurde in enger Kooperation mit der Landesforschungsanstalt für Landwirtschaft und Fischerei MV in Rostock (LFA) beauftragt, die genetischen, molekularbiologischen und immunologischen Parameter des Ostseeschnäpels zu untersuchen. Bislang lagen dazu kaum Erkenntnisse vor. „Wie reagieren die Fische auf Stress, unterschiedliche Besatzdichte in den Gewässern, was hält sie vital und gesund und welche erblichen Grundlagen wirken sich auf die Zucht aus? Das sind nur einige von vielen Aspekten für eine erfolgreiche und vor allem wirtschaftliche Aquakultur“, so der Biologe. Das Ziel ist ein stabiler und reproduzierbarer Produktionszyklus für die Schnäpelaufzucht.

Fast von der Bildfläche verschwunden
Der Ostseeschnäpel stand durch die Verschmutzung der Randgebiete der Ostsee, wie Oderhaff und Boddengewässer, in den 70er und 80er Jahren kurz vor dem Aussterben und konnte sich durch von Bund und Land geförderte Nachzuchtprogramme erst in den letzten Jahren wieder etwas erholen. Der früher in der Vorpommerschen Boddenküste üppig vorhandene Ostseeschnäpel ist jedoch trotz wiederholter Auswilderungen stark gefährdet, da viele der natürlichen Laichgebiete nicht mehr existieren. Ein glücklicher Umstand kommt dem schmackhaften Ostseefisch jedoch zugute. Er kann auch im Süßwasser leben und gezüchtet werden.

Die Landesforschungsanstalt Mecklenburg-Vorpommern beschäftigt sich seit einiger Zeit erfolgreich mit der technologischen Entwicklung der ersten Aquakulturanlage des Ostseeschnäpels in den Aufzuchtteichen in Friedrichsruhe/Frauenmark im Landkreis Ludwigslust-Parchim. Die Ostseeschnäpelzucht der dortigen BiMES – Binnenfischerei GmbH aus Leezen ist die Grundlage für die wissenschaftlichen Untersuchungen (bimes.de). Alle Versuche zu Haltungsbedingungen von Zuchtschnäpeln finden in der Versuchsstation Born der LFA statt, während die molekularbiologischen Analysen in den Laboren des FBN erfolgen. Weitere Standorte für das vom Land MV geförderte Aufzuchtprogramm für bis zu 1,5 Mio. Schnäpel befinden sich in Boek und Hohen Wangelin im Landkreis Mecklenburgische Seenplatte.

„Letzten Endes dienen die Ergebnisse beider Projekte der Etablierung standortgerechter Schnäpelzuchtlinien, die sich durch genetisch manifestierte Vorteile in produktionsrelevanten Merkmalen gegenüber Vergleichslinien auszeichnen sollen. Das ist die Voraussetzung für die wirtschaftlich ertragreiche Erzeugung hochwertiger Fischprodukte in M-V“, unterstrich Rebl. Darüber hinaus werden zur Stärkung der natürlichen Population an der südlichen Ostsee vor Usedom weiterhin Schnäpel für die Auswilderung gezüchtet.

„Sensibler“ als die Regenbogenforelle
Für die ersten Testreihen wurden noch Wildfische verwendet. Die aktuellen Experimente werden an Zuchtfischen unter standardisierten Bedingungen durchgeführt. Molekulargenetische Vergleiche mit regional frei lebenden Schnäpeln sollen aber auch künftig vorgenommen werden. „Damit können wir genetische Veränderungen der Aquakulturfische zum Wildfisch charakterisieren und Zuchtfortschritte besser einschätzen“, erläuterte der Wissenschaftler.

Es gibt bisher nur wenige aktuelle wissenschaftliche Untersuchungen zur Biologie, Reproduktion, Aufzucht und Haltung des Ostseeschnäpels. Auch zum Einfluss äußerer Stressfaktoren wie Räuber, Klima und Krankheiten, die wichtige Produktionsmerkmale der Fische negativ beeinträchtigen können, gibt es kaum Analysen. Während die Landesforschungsanstalt sehr praxisnah Parameter wie das Verlustgeschehen oder Tiergröße und Schlachtgewicht erfasst und in Beziehung zu Störgrößen setzt, konzentrieren sich die wissenschaftlichen Studien am FBN vor allem auf molekularbiologische Prozesse in den Zellen der Schnäpel, die eine Minimierung von Größe und Schlachtgewicht hervorrufen könnten. Darüber hinaus geht es um wirksame Mittel, um Keime abzuwehren und das Immunsystem der Tiere zu stärken, die Entwicklung von Impfstoffen und einfache Geschlechtertests für die Speisefischproduktion.

Ein wichtiger Schwerpunkt liegt in der Entschlüsselung der Erbinformation des Schnäpels als Basis für tiefergehende Untersuchungen. Ausgehend von den Daten der Stressversuche werden beispielsweise Gene gesucht, welche bei erhöhter Haltungsdichte besonders stark aktiviert werden. Diese sogenannten „Markergene“ könnten letztendlich die Grundlage für ein schnelles Testsystem sein, das anzeigt, wie es um das Wohlbefinden von Zuchtfischen steht, ob möglicherweise Krankheiten oder zu hohe Besatzungsdichten vorliegen.

„Das Projekt läuft noch ein weiteres Jahr. Bisher zeigen unsere molekularbiologischen Untersuchungen und die Beobachtungen der LFA, dass Schnäpel zwar hervorragend zur Aquakultur geeignet sind, aber noch empfindlicher auf sich ändernde Umweltbedingungen reagieren als die bereits gut erforschten Regenbogenforellen. Obwohl beide Arten zur Familie der Lachsfische gehören, müssen die Umstände der Haltung entsprechend angepasst werden, um optimale Produktionserfolge zu erzielen“, zog der Projektleiter ein erstes Fazit.

Nachwuchsgruppen forschen zu Spitzenthemen
Die eigenständig arbeitenden und forschenden Nachwuchsgruppen am FBN sind besonders für junge Wissenschaftler sehr attraktiv. Die erste Nachwuchsgruppe der Abteilung „Fischgenomik“ startete vor fünf Jahren mit Untersuchungen zu „Mechanismen der Krankheitsabwehr bei Aquakulturfischen“. Zur Nachwuchsgruppe von Dr. Alexander Rebl (35), die später auch das Schnäpel-Projekt initiierte, gehörten Dr. Simone Altmann, Dr. Judith Köbis und die Biologin Mareen Nipkow und Franziska Kuntke. Betreut wurde die Gruppe von PD Dr. Tom Goldammer als Mentor.

Den Leitern der bisher acht exzellent ausgestatteten Nachwuchsgruppen (NG) am FBN werden weitere junge Wissenschaftler sowie zusätzliche Gelder für Sachmittel zur Verfügung gestellt und eine langfristige Perspektive am Institut ermöglicht. Aktuell gibt es fünf neue Arbeitsgruppen zu international bedeutsamen Spitzenthemen am FBN, die alle von jungen Forscherinnen geleitet werden (NG Genomische Datenanalyse, Dr. Dörte Wittenburg, NG Affektives Verhalten, Dr. Sandra Düpjan, NG Pathogen- und Zelltyp-spezifische Immunabwehr beim Wiederkäuer, Dr. Juliane Günther, NG Phänotypisierung des Tierwohls, Dr. Silke Trißl, NG Zellulärer Lipidmetabolismus, Dr. Beate Hiller).

Die Leibniz-Gemeinschaft verbindet 86 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen, u. a. in Form der Wissenschaftscampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 16.500 Personen, darunter 7.700 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,4 Milliarden Euro.

Mareen Nipkow aus der Forschernachwuchsgruppe „Fischgenetik“ analysiert am LightCycler das Ausmaß der Genaktivierung nach veränderten Haltungsbedingungen in der künstlichen Aufzucht.

Der Ostseeschnäpel, der seinen Namen seinem dunklen „Schnabel“ verdankt, wird in der Zucht bis zu 70 cm lang und 5 kg schwer. Das Fleisch ist sehr mager, fest und äußerst geschmackvoll. Man kann ihn braten oder räuchern, grillen oder dünsten. Schon jetzt steht der Edelfisch aus MV wieder in vielen Restaurants – auch im Ausland – auf der Menükarte. Rund 1.000 Tonnen Fisch werden jährlich in den zehn Betrieben der Aquakultur und Teichwirtschaft in MV produziert, vor allem Forellen, Welse und Lachse.

Landesforschungsanstalt für Landwirtschaft und Fischerei MV in Rostock (LFA) http://www.lfamv.de

Leibniz-Institut für Nutztierbiologie (FBN)
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
Institut für Genombiologie
Leiter: Prof. Klaus Wimmers
Projektleiter Ostseeschnäpel: Dr. Alexander Rebl
E rebl@fbn-dummerstorf.de
T +49 38208-68 721

Wissenschaftsorganisation Dr. Norbert K. Borowy
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
T +49 38208-68 605
E borowy@fbn-dummerstorf.de
http://www.fbn-dummerstorf.de

Quelle: idw

(nach oben)


Abi und Studium schlecht für die Augen. Kurzsichtigkeit wächst mit dem Bildungsgrad

Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Wer länger lernt, braucht eine stärkere Brille – zu dieser Schlussfolgerung kommt eine Studie der Universitätsmedizin Mainz. Ein hoher Bildungsgrad und viele Schuljahre gehen mit häufigerer und stärkerer Kurzsichtigkeit einher, so berichten Wissenschaftler in der Fachzeitschrift „Ophthalmology“. Mögliche Ursachen seien Lesen, der Blick auf den Computer und ein Mangel an Tageslicht. Die Deutsche Ophthalmologische Gesellschaft (DOG) rät Schülern und Studenten deshalb zu Lernpausen für die Augen und regelmäßigem Aufenthalt im Freien.

Die Mainzer Forscher untersuchten im Rahmen der Gutenberg-Gesundheitsstudie die Sehstärke von 4658 Menschen im Alter von 35 bis 74 Jahren. Dabei erwiesen sich mehr als die Hälfte der Hochschulabsolventen als kurzsichtig, während bei den Probanden ohne höhere Schulbildung nur jeder Vierte von der Sehschwäche betroffen war. „Ursache dafür ist vermutlich die Naharbeit, die den Alltag von Studierenden bestimmt“, sagt der Direktor der Mainzer Augenklinik und Initiator der Gutenberg-Studie, Professor Dr. med. Norbert Pfeiffer. „Laut aktueller Studienlage, tragen stundenlanges Lesen, Fernsehen und Arbeiten am Computer zur Verschlechterung des Sehvermögens bei.“

Die Anzahl der Kurzsichtigen erhöhte sich im Lauf der letzten Jahrzehnte erheblich: In allen Industrienationen weltweit ist mindestens ein Drittel der Bevölkerung kurzsichtig, in manchen Großstädten Asiens sogar fast 90 Prozent. Die Gründe für diesen Anstieg sind noch nicht eindeutig geklärt. „Studien haben jedoch gezeigt, dass Umweltfaktoren wie Bildung, Beruf und Freizeitgestaltung eine entscheidende Rolle spielen“, sagt Professor Dr. med. Christian Ohrloff, Pressesprecher der DOG aus Frankfurt.

Dass Kurzsichtigkeit – fachsprachlich auch Myopie genannt – überwiegend erblich und damit angeboren ist, bestätigen auch die aktuellen Ergebnisse nicht: „Die rapide Zunahme der Myopie, vor allem in Asien, lässt sich nicht mit genetischen Faktoren erklären“, sagt Privatdozent Dr. med. Alireza Mirshahi, der die Untersuchung in Mainz geleitet hat. „Wir haben 45 verschiedene genetische Faktoren getestet, aber im Vergleich zum Bildungsstand hatten sie einen viel geringeren Einfluss.“ Vieles spreche dafür, dass Umwelteinflüsse die Entstehung der Kurzsichtigkeit befördern.

Die Ursache für die Fehlsichtigkeit liegt in einem zu langen Augapfel: Die einfallenden Lichtstrahlen bilden ihren Brennpunkt nicht auf der Netzhaut, sondern davor. Dadurch erscheinen ferne Gegenstände verschwommen. Aber nicht nur das Sehen wird für die Betroffenen zum Problem. Schon mäßige Kurzsichtigkeit von -1 bis -3 Dioptrien verdoppelt das Risiko für Folgeerkrankungen wie Netzhautablösung, Grünen oder Grauen Star.

Alle Versuche, das Fortschreiten der Kurzsichtigkeit mit Brillen oder Medikamenten zu heilen oder aufzuhalten, zeigen bislang keinen Erfolg. Aus aktuellen Studien geht jedoch hervor, dass Schüler, die viel Zeit im Freien verbringen, seltener von Kurzsichtigkeit betroffen sind, als Stubenhocker. „Helles Tageslicht scheint sich regulierend auf das Wachstum der Augen auszuwirken“, meint Professor Christian Ohrloff. Auch die Autoren der Mainzer Studie empfehlen Frischluft zur Vorsorge: Da Schüler und Studierende einem höheren Risiko ausgesetzt sind, kurzsichtig zu werden, sei es sicherlich sinnvoll, dass sie dem vorbeugen, indem sie mehr Zeit im Freien verbringen.

Quellen:
Mirshahi A. et al. (2014), Myopia and Level of Education: Results from the Gutenberg Health Study, Ophthalmology,
DOI:10.1016/j.ophtha.2014.04.017

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6500 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.

http://www.dog.org

Quelle: idw

(nach oben)


Rheumatologen empfehlen neue Diät und Therapieoptionen bei Gicht

Kathrin Gießelmann Kongress-Pressestelle
Deutsche Gesellschaft für Rheumatologie e.V.

Berlin – Die Anzahl der an Gicht Erkrankten hat in den letzten Jahren deutlich zugenommen. Vor allem Männer in wohlhabenden Ländern sind von der Störung des Harnsäurestoffwechsels betroffen. Gicht tritt zudem immer häufiger zusammen mit Herz- oder Nierenerkrankungen, Bluthochdruck, Diabetes Typ 2 oder Übergewicht auf. Diese Begleiterkrankungen gilt es bei der Therapie zu beachten. Welche neuen Medikamente und veränderten Ernährungs-Empfehlungen die beste Wirkung bei Gicht erzielen, erklären Experten auf der Pressekonferenz am 10. September 2014 in Berlin im Vorfeld des 42. Kongresses der Deutschen Gesellschaft für Rheumatologie (DGRh).

Bei Gicht lagern sich aufgrund eines erhöhten Harnsäurespiegels Harnsäurekristalle in Gelenken und anderen Geweben ab, die extrem schmerzhafte Entzündungen verursachen. Die Ursachen liegen meist in einer falschen Ernährung oder sind genetisch bedingt. Um die Beschwerden dieser Patienten zu lindern, seien ein gesunder Lebensstil sowie die Vermeidung von Übergewicht unverzichtbar, so Dr. med. Rieke H.E. Alten, Chefärztin an der Schlosspark Klinik Berlin. „Die Diätempfehlungen haben sich allerdings in den letzten Jahren geändert und auch neue Therapieoptionen sollten stärker in der Praxis bedacht werden“, so die Rheumatologin.
Auf der DGRh-Pressekonferenz erklärt die Berliner Expertin, inwieweit Menschen mit Gicht und bestimmten Nebenerkrankungen rotes Fleisch, Krustentiere und Säfte meiden sollten und beantwortet die Fragen: Müssen Betroffene vollständig auf Alkohol verzichten? Muss purinreiche pflanzliche Kost wie etwa Spinat und Hülsenfrüchte neu bewertet werden? Ist eine strikte Senkung des Harnsäurespiegels unumgänglich?
Über die neuen Diät-Empfehlungen und aktuelle wissenschaftliche Forschungen diskutieren die Experten der DGRh am 10. September 2014 von 10 bis 11 Uhr auf einer Pressekonferenz in Berlin im Tagungszentrum im Haus der Bundespressekonferenz.

Das Presseteam der DGRh steht jederzeit als Ansprechpartner für Fragen und Wünsche nach Informationsmaterial und Gesprächspartnern zur Verfügung. Bitte akkreditieren Sie sich mit dem angehängten Formular.

Weitere Informationen:
http://dgrh-kongress.de/presse-konferenzen.html

Quelle: idw

(nach oben)


Thermische Verwertung von Grünschnitt

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

Mit der „Entwicklung eines innovativen Feuerungsverfahrens zur thermischen Verwertung von inhomogenen biogenen Reststoffen“ befasst sich ein Forschungsprojekt an der Technischen Hochschule Mittelhessen. Kooperationspartner sind die Bersenbrücker Unternehmen Energiegewinnung Nawaros und Hülsman Edelstahl. Projektleiter am Institut für Thermodynamik, Energieverfahrenstechnik und Systemanalyse ist Prof. Reinhold Altensen. Für das Forschungsvorhaben erhält die THM Bundesmittel in Höhe von 170.000 Euro.

Unter Grünschnitt versteht man Pflanzenreste, die zum Beispiel beim Mähen von Rasenflächen oder beim Schnitt von Bäumen und Sträuchern anfallen. Diese Biomasse – in Deutschland mehr als zwei Millionen Tonnen jährlich – wird heute in der Regel zu Kompost verarbeitet. Verfahren zur thermischen Verwertung in kleinen oder mittelgroßen dezentralen Heizwerken gibt es nicht. Aktuelle Feuerungsanlagen mit einer thermischen Leistung von weniger als drei Megawatt benötigen genau konfektionierte Brennstoffe wie Holzhackschnitzel oder -pellets. Grünschnitt dagegen ist inhomogen und hat einen hohen Wasser- und Mineraliengehalt. Seine Zusammensetzung schwankt im Jahresverlauf.

Die Projektpartner wollen ein Verfahren entwickeln, „durch das aus dem Reststoff Grünschnitt ein Biobrennstoff wird“, so Altensen. Dazu gehört die Aufbereitung des Ausgangsmaterials: Der Feuchtegehalt muss ebenso wie der mineralische Anteil gesenkt werden. Gewünscht ist ebenso eine Fraktionierung in stückig-feuchtes und staubig-trockenes Material. Ein Staubaufgabebehälter und ein Transportwalzensystem für stückiges Material müssen entwickelt werden. Über eine ebenfalls neu zu entwickelnde Fördertechnik werden die beiden Fraktionen in der gewünschten Zusammensetzung kontinuierlich zur Kesselfeuerung transportiert.

Wesentlicher Bestandteil des Forschungsprojekts ist eine Gesamtbilanz des neuen Verfahrens. Darin wollen die Forscher nicht nur den unmittelbaren Prozess der Wärmeerzeugung untersuchen, sondern zum Beispiel auch die Transportwege für das Ausgangsmaterial, den Energieeinsatz bei der Trocknung oder die Frage, ob die anfallende Asche noch als Dünger genutzt werden kann.

Für die neue Anlage sieht Altensen gute Vermarktungschancen. Die Zahl der Gemeinden und Genossenschaften steige, die nach Unabhängigkeit von großen Energieversorgern streben und auf dezentrale Nahwärmenetze setzen. Der Rohstoff Grünschnitt falle lokal an und sei im Vergleich zu anderen organischen Festbrennstoffen wie Holzhackschnitzeln oder Pellets deutlich billiger.

Das Projekt hat eine Laufzeit von zwei Jahren. Es wird im Rahmen des Zentralen Innovationsprogramms Mittelstand gefördert. Damit unterstützt das Bundeswirtschaftsministerium Kooperationsvorhaben zur Entwicklung neuer Produkte und Verfahren, bei denen kleine und mittelständische Unternehmen mit Forschungseinrichtungen zusammenarbeiten.

Weitere Informationen:
http://www.thm.de/thesa

Quelle: idw

(nach oben)


Malaria-Medikamente aus Abfall – Erfolg durch Zusammenarbeit von Chemikern und Ingenieuren

Carsten Wette Stabsstelle für Presse und Kommunikation
Freie Universität Berlin

Die derzeit besten Medikamente gegen Malaria können jetzt direkt aus dem Pflanzenabfall der bisherigen Produktion in einem Schritt hergestellt werden. Einem Team von Prof. Dr. Peter H. Seeberger, Direktor am Max-Planck-Institut für Kolloid- und Grenzflächenforschung in Potsdam und Professor an der Freien Universität Berlin, gelang es in Zusammenarbeit mit Prof. Dr. Andreas Seidel-Morgenstern und Kollegen des Max-Planck-Institutes für Dynamik komplexer technischer Systeme, sämtliche Verfahrensschritte zur Produktion der Medikamente, inklusive der Aufreinigung, erstmals kontinuierlich durchzuführen.

Mit der neuen Methode kann jetzt die komplette Medikamentenherstellung direkt im Durchflussreaktor an einem einzigen Ort stattfinden. Die dabei erreichte Reinheit der Medikamente erfüllt die Anforderungen der Zulassungsbehörden. Einen photochemischen Durchfluss-Reaktor zur Produktion von Artemisinin hatten die Wissenschaftler in Berlin bereits vor zwei Jahren entwickelt.

Damals war es dem Team von Prof. Dr. Peter H. Seeberger, den Pflanzeninhaltsstoff Artemisinin des Einjährigen Beifußes (Artemisia annua) nach dessen Extraktion chemisch auch aus dem Abfall der Extraktion herzustellen. Artemisinin ist der Ausgangsstoff für die Malariamedikamente Artemether, Artesunat, Artemol und Dihydroartemisinin. Die jüngsten Erfolge der Berliner, Potsdamer und Magdeburger Chemiker und Ingenieure wurden ausschließlich durch Zuwendungen der Max-Planck-Gesellschaft ermöglicht und gelangen ohne weitere staatliche oder private Unterstützung.

Die Umwandlung des Ausgangsstoffs Artemisinin in Medikamente wurde bisher in pharmazeutischen Unternehmen in der Schweiz, China, und Indien betrieben. Der Anbau und die Extraktion aus der Pflanze Artemisia annua erfolgt dagegen vor allem in China, Vietnam, Madagaskar und Kenia.

„Damit besteht jetzt die Möglichkeit einen weiteren Schritt der Wertschöpfungskette in die Schwellenländer zu verlegen, in denen bisher nur die Pflanze angebaut und extrahiert wird“, sagte Dr. Kerry Gilmore, Gruppenleiter des „Flow Chemistry Teams“ von Peter Seeberger. Noch wichtiger sei es, dass damit die Lieferkette verkürzt werden könne und die Entwicklungsländer die Möglichkeit erhielten, selbst ein dringend benötigtes Medikament herzustellen.

Peter Seeberger betonte: „Unser Ansatz ist die beste Lösung, um die Kosten der Produktion von Malaria-Medikamenten zu senken. Weil wir alle Wertstoffe der Pflanze ausnutzen, ist unser Verfahren deutlich billiger; dadurch gelingt es uns, reinste Medikamente zu produzieren. Wir können einerseits das von den Extrakteuren gewonnene Artemisinin in den Schwellenländern direkt in Medikamente umwandeln und andererseits zusätzlich aus dem Abfall Medikamente herstellen.“ Auf diese Weise würden etwa doppelt so viele Medikamente aus der vergleichbar großen Pflanzenmasse produziert, hob Seeberger hervor. „Wir stärken dadurch die Erwerbsgrundlage der Bauern in den Entwicklungsländern.“

Kommerzielles Interesse an der Technologie ist nach Einschätzung der Wissenschaftler weltweit vorhanden. Peter Seeberger erklärte: „Wir verhandeln zurzeit mit verschiedenen Interessenten über eine Industrieanlage in einem Schwellenland, die bis zu 20 Tonnen Wirkstoff herstellen soll. Unser Ziel ist es, den Preis der Malaria-Medikamente zu senken, egal ob mit oder ohne staatliche oder private Fördermittel.“

Bisher liegen die Kosten der Medikamenten-Produktion höher als der in Afrika erzielbare Verkaufspreis. Den Unterschied tragen Hilfsorganisationen und Stiftungen wie die Weltgesundheitsorganisation oder die Clinton Foundation. Die Medikamente werden in einem letzten Schritt mit einem weiteren bekannten Wirkstoff zu sogenannten Artemisinin-Kombinationstherapien mit dem Ziel vereint, die Resistenzbildung gegen die Artemisininderivate zu verringern.

Weitere Informationen
– Prof. Peter Seeberger, Max-Planck-Institut für Kolloid- und Grenzflächenforschung und Freie Universität Berlin, Telefon: 030 / 838-59300; E-Mail: Peter.seeberger@mpikg.mpg.de

– Dr. Kerry Gilmore, Max-Planck-Institut für Kolloid- und Grenzflächenforschung, Telefon: 0176 / 85933125, E-Mail: Kerry.Gilmore@mpikg.mpg.de

– Prof. Andreas Seidel-Morgenstern, Max-Planck-Institut für Dynamik komplexer technischer Systeme, Sandtorstrasse 1, 39106 Magdeburg, Telefon: 0391-6110-401, E-Mail: seidel-morgenstern@mpi-magdeburg.mpg.de

Quelle: idw

(nach oben)


Neue Fahrzeugantriebe entwickeln

Automotoren, sei es mit Benzin, Diesel oder Strom betrieben, verpuffen viel Energie. Forscher arbeiten daran, diese Verschwendung einzudämmen. Moderne Prüfeinrichtungen helfen ihnen dabei, den gesamten Entwicklungsprozess der Motoren zu optimieren. Im Labor haben sie den Wirkungsgrad bereits um bis zu 10 Prozent erhöht.

An einem neuen Heißgasprüfstand testen die Forscher Restwärmenutzungssysteme und Turbolader. Ihr Ziel ist es, effizientere Antriebskonzepte für Pkw und Lkw zu entwickeln.

Lkw, Pkw und Motorräder sind Energieverschwender: Über 60 Prozent der in ihren Motoren durch den Kraftstoff erzeugten Energie gehen über das Abgas und das Kühlwasser verloren. Der größte Teil davon verpufft einfach als Wärme in die Umgebung. »Unter unseren Motorhauben wird Benzin, Diesel oder Strom verschwendet und über die Abgasanlage unnötig CO2 in die Luft gepumpt«, sagt Dr. Hans-Peter Kollmeier vom Fraunhofer-Institut für Chemische Technologie ICT in Karlsruhe. In der Projektgruppe »Neue Antriebssysteme« geht er den Ursachen für diese Verschwendung auf den Grund. Zusammen mit anderen Forschern entwickelt er effiziente Antriebskonzepte für Fahrzeuge. Im Labor haben sie es bereits geschafft, den Wirkungsgrad von Pkw-Motoren um fünf und den von Nutzfahrzeugantrieben um bis zu zehn Prozent zu steigern.

Seit diesem Sommer stehen den Wissenschaftlern neue Prüfanlagen zur Verfügung. »Wir können am Standort Karlsruhe den gesamten Prozess der Antriebsentwicklung abbilden: von der Konstruktion, über die Simulation bis zum Versuch«, so Kollmeier. Ziel der Forscher ist es, die eingesetzten Technologien des Antriebsstranges so zu optimieren, dass die Kraftstoffersparnis optimal ist. Dafür muss man wissen, wie die einzelnen Komponenten in der Realität miteinander interagieren. »Mit den neuen Prüfmöglichkeiten sind wir diesem Ziel einen großen Schritt näher gekommen. Wir haben dadurch die Möglichkeit, den Antriebsstrang ganzheitlich zu testen und unsere Simulationen zu validieren«, so Kollmeier.

Herzstück der neuen Testinfrastruktur ist ein Motoren- und ein Heißgasprüfstand. Dort werden Motoren und deren Komponenten mechanisch und thermodynamisch analysiert. Ein Computer steuert die Anlagen und simuliert realistische Anwendungsszenarien. Zum Beispiel kann der Rechner virtuell hybride Antriebe (z.B. Elektromotoren) oder Systeme, die Restwärme nutzen, dazuschalten. Die Wissenschaftler analysieren, wie sich der Fahrzeugantrieb hinsichtlich Kraftstoffverbrauch und CO2-Emissionen verhält. Hierzu simuliert Kollmeiers Team Fahrzeugtyp, Fahrstrecke oder Fahrweise entsprechend. Sind genug Daten gesammelt, bauen die Forscher Prototypen und ersetzen dann peu à peu die Simulationsmodelle durch reale Bauteile in der Prüfeinrichtung. Schritt für Schritt nähern sie sich so dem optimalen Antriebsstrang. Immer wichtiger werden dabei besonders leichte Werkstoffe.

Wenn es darum geht, Automotoren effizienter zu machen, kommt schnell der Begriff »Downsizing« ins Spiel. Er steht ganz allgemein dafür, den Hubraum des Motors zu verringern, ohne dass dies seine Leistungsfähigkeit reduziert. Durch die verringerte Reibleistung und den verbesserten thermodynamischen Prozess können dadurch Kraftstoffverbrauch und CO2-Emissionen reduziert werden. In der Regel kommen in Downsizing-Konzepten Turbolader zum Einsatz, die in den Ansaug- und Abgastrakt integriert werden. Diese schneckenförmigen, bei Pkw etwa 15 Zentimeter großen, Bauteile saugen Luft an und drücken diese in den Verbrennungsmotor hinein. So wird dem Motor mehr Frischluft zugeführt, wodurch pro Volumeneinheit eine größere Menge Kraftstoff verbrannt werden kann. Aufgrund des dadurch erzielten höheren Zylinderdrucks wird dann für den gleichen Hubraum eine höhere Motorleistung erzielt. Angetrieben wird der Turbolader von den Abgasen des Fahrzeugs. Am Heißgasprüfstand testen die Wissenschaftler ihre Turbolader. In dieser Anlage wird durch einen Erdgasbrenner ein bestimmter Abgasmassenstrom generiert, der dem eines Verbrennungsmotors entspricht. Der Brenner lässt sich sehr exakt einstellen, um zu analysieren, wie sich kleinste Veränderungen der Randbedingungen auf den Turbolader auswirken.

»Der Turbolader ist der klassische Ansatz, den Wirkungsgrad von Motoren zu verbessern. Man nutzt einen Teil der Energie, der über die Abgase verpufft. Aber ihm sind Grenzen gesetzt. Dampfkreisprozesse können hier beispielsweise weiterhelfen«, sagt Kollmeiers Kollege Dr. Sascha Merkel. Hierbei wird ein flüssiges Arbeitsmedium (z.B. Wasser oder Ethanol) durch die Restwärme erhitzt. Es verdampft und treibt eine kleine Turbine an, die wiederum mechanische Energie erzeugt. Der Zugewinn lässt sich dann entweder direkt auf die Kurbelwelle übertragen oder durch einen Generator in elektrische Energie umwandeln, um diese dann in den Stromkreislauf einzuspeisen – z.B. in Bordnetze von Pkw. Am Heißgasprüfstand untersuchen die Forscher, wie sich einzelne Komponenten der Minikraftwerke bei unterschiedlichen Rahmenbedingungen verhalten.

Die Wissenschaftler sind eng mit anderen Antriebsexperten aus Forschungsinstituten und den Entwicklungsbereichen der Automobilhersteller vernetzt. »Selbstverständlich ist speziell der Kontakt zur Fahrzeugindustrie sehr groß. Die Entwicklung der Antriebskonzepte läuft in enger Abstimmung mit den Motorenherstellern. Die direkte Anwendung der Forschungsergebnisse in der Praxis steht im Vordergrund«, so Kollmeier.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Große Akzeptanz der Energiewende

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Interdisziplinäres Forschungsprojekt will Transformation des Energiesystems erleichtern

Unter der Leitung des Fraunhofer-Instituts für Solare Energiesysteme ISE untersucht ein interdisziplinärer Verbund, wie die Transformation zu einem erneuerbaren Energiesystem für die Menschen erleichtert werden kann. Partner sind das Fraunhofer-Institut für System- und Innovationsforschung ISI, das Zentrum für Interdisziplinäre Risiko- und Innovations-forschung ZIRIUS der Universität Stuttgart und das Institut für Politikwissenschaft der Westfälischen Wilhelms-Universität Münster. Stadtwerke und andere Praxispartner ergänzen das Team.

Das Projekt »KomMA-P | Akzeptanz der Energiewende stärken« wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert, erste Ergebnisse zeigen eine weiterhin große Akzeptanz der Energiewende bei der Bevölkerung.

»Ingenieure, Politikwissenschaftler, Psychologen und Praxisakteure wollen die gesellschaftlichen Einflüsse auf die Akzeptanz der Energiewende untersuchen, die bei der bisherigen Optimierung der technisch-ökonomischen Rahmenbedingungen kaum Beachtung finden«, sagt Sebastian Gölz, Diplom-Psychologe am Fraunhofer ISE und Leiter des Projekts. »Wissenschaftliche Szenarien zeigen, dass die Energiewende notwendig und machbar ist. Das Projekt KomMA-P untersucht, wie die gesellschaftlichen Aspekte in ein optimiertes Gesamtszenario eingebunden werden könnten.«

In einem ersten Schritt gewannen die Forschungspartner zunächst einen Eindruck von den Einstellungen verschiedener Fokusgruppen zur Energiewende. Die Mehrheit der insgesamt 50 Teilnehmerinnen und Teilnehmer betrachtete die Energiewende als notwendig und akzeptiert auch einen gewissen Kostenaufwand. Überraschend deutlich war ein Misstrauen gegen »die da oben« spürbar, während die Stadtwerke und andere regionale Akteure eher Vertrauen genießen. Besonders kritisch werden empfundene Ungerechtigkeiten, z. B. bei der Verteilung von Nutzen und Kosten der Energiewende oder das Zustandekommen von Bauentscheidungen, beurteilt.

Um die Einbindung der Stadtwerke bei der Transformation des Energiesystems zu stärken, laufen bereits Pilotprojekte mit den Stadtwerken Wunsiedel. Eine öffentliche Visualisierung des Energieflusses in der Gemeinde und der Einsatz einer Energiebox – ein Minikraftwerk für die Strom- und Wärmeerzeugung mehrerer Haushalte – sind vorgesehen. Die Stadtwerke Münster und Dortmund planen Befragungen. Allen Aktivitäten gemeinsam ist die Frage, wie Bürgerinnen und Bürger jenseits der Geldanlage an der Energiewende beteiligt und zu deren Gelingen beitragen könnten.

Aktuell entwickeln die Partner ein Zusammenhangsmodell, das die verschiedenen Einflüsse auf die Akzeptanz bei der Bevölkerung aufzeigt, und werden auf Basis des Modells eine repräsentative Befragung durchführen. Die Ergebnisse gehen in der letzten Projektphase in Vorschläge ein, wie die technisch-ökonomischen Transformationspfade für bessere gesellschaftliche Akzeptanz optimiert werden können. Die nächste Vollversammlung der Projektpartner ist im Oktober 2014, weitere Praxispartner sind willkommen.

Weitere Informationen:
http://www.ise.fraunhofer.de
http://www.energiewende-akzeptanz.de

Anhang
Große Akzeptanz der Energiewende – Interdisziplinäres Forschungsprojekt will Transformation des Energiesystems erleichtern
http://idw-online.de/de/attachment38071

Quelle: idw

(nach oben)


UDE: Macht Essen süchtig?

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Wenig Bewegung und viel Essen: das lässt Viele immer dicker werden bis hin zur Fettsucht – vor allem in den Industrieländern, in denen fettes, kohlenhydratreiches Essen leicht verfügbar ist und stark beworben wird. Sind vielleicht Nahrungsbestandteile für die ausufernde Ess-Sucht verantwortlich, fragte sich ein internationales Team aus Ernährungswissenschaftlern, Verhaltensbiologen sowie Kinder- und Jugendpsychiatern unter dem Dach des EU-Projekts NeuroFAST. Beteiligt waren auch Forscher der Universität Duisburg-Essen (UDE) an der Klinik für Kinder- und Jugendpsychiatrie am LVR Klinikum unter der Leitung von Prof. Dr. Johannes Hebebrand.

Fetttriefende, übersüßte oder stark gesalzte Nahrungsmittel ebnen den Weg in die Ess-Sucht, ähnlich wie Spielautomaten eine Spielsucht begünstigen. Die Reize sind allgegenwärtig bis hin zu Snack- oder Softdrink-Automaten, die es selbst in oder an Schulen gibt. Projektmitarbeiter Dr. Özgür Albayrak betont jedoch: „Es gibt keinen einzelnen, gut identifizierbaren Süchtigmacher in der Nahrung, etwa Zucker und Fett. Deshalb ist krankhaftes Essen auch nicht mit der Alkohol- oder Nikotinsucht zu vergleichen. Entscheidend ist aus unserer Sicht das Essverhalten.“

Psychologische Faktoren, die die Nahrungsaufnahme steuern, sind nach Meinung der Forscher maßgeblich dafür verantwortlich, wenn das Essen zur Sucht wird. Prof. Hebebrand: „Bislang fehlen allerdings wissenschaftlich fundierte psychiatrische Kriterien, mit der sich diese verhaltensbezogene Sucht charakterisieren lässt. Wenn wir genauer verstehen würden, wie industriell gefertigte Nahrungsmittel, psychologische Faktoren und psychiatrische Begleiterkrankungen zur Suchtausbildung führen, könnten wir betroffenen Menschen noch gezielter helfen“.

Die UDE-Wissenschaftler kooperierten in dem Projekt mehrere Jahre lang mit Kollegen an den Universitäten Edinburgh, Aberdeen, Göteborg, Utrecht und Santiago de Compostela. Untersucht wurden die Zusammenhänge zwischen Stress, Sucht und Essverhalten. Das Essener Team befasste sich vor allem mit den Wechselwirkungen zwischen Ernährung und Psyche. Veröffentlicht wurden ihre Schlussfolgerungen in der Fachzeitschrift Neuroscience & Biobehavioral Reviews.

Weitere Informationen:
Dr. Özgür Albayrak, Tel. 0201/8707-488, Oezguer.Albayrak@lvr.de

Redaktion:
Beate H. Kostka, Tel. 0203/379-2430

Weitere Informationen:

http://www.sciencedirect.com/science/article/pii/S0149763414002140

Quelle: idw

(nach oben)


„In Vino Veritas“-Studie: Kein verringertes Atherosklerose-Risiko bei regelmäßigem Weinkonsum

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona

Regelmäßiger, moderater Konsum von Rot- oder Weißwein führt nach sechs und zwölf Monaten zu keiner Verbesserung des Atherosklerose-Risikos. Das ist das Ergebnis einer tschechischen Studie, die jetzt beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. „In dieser prospektiven, randomisierten Studie fanden wir keinen klinisch signifikanten Einfluss von moderatem Rot- oder Weißweinkonsum auf Parameter wie Lipidwerte, C-reaktives Protein, Nüchtern-Glukose, andere Marker für das Arteriosklerose-Risiko oder Leberwerte“, fassen die Studienautoren zusammen. „Wir konnten auch die Hypothese nicht bestätigen, die sich vorwiegend aus retrospektiven Studien ableitet, dass Weinkonsum den HDL-Spiegel erhöhen würde.“

Seiten den 1990er Jahren waren immer wieder Untersuchungen vorgelegt worden, die auf einen Herz-protektiven Effekt von moderatem Weinkonsum hinwiesen. Forscher der Universitäten Olmütz und Prag sind jetzt in einer prospektiven, multizentrischen, randomisierten Studie den Effekten von Weiß- und Rotweinkonsum auf Atherosklerose-Risikofaktoren nachgegangen. 146 Studienteilnehmer mit leichtem bis mittlerem Atherosklerose-Risiko tranken ein Jahr lang regelmäßig Pinot Noir oder Chardonnay-Pinot – Frauen täglich 0,2 Liter, Männer 0,3 Liter, fünfmal in der Woche. Primärer Endpunkt waren die Werte des „günstigen“ HDL-Cholesterin, sekundärer Endpunkt andere Arteriosklerose-Marker wie LDL-Cholesterin, C-reaktives Protein und Messgrößen für oxidativen Stress. Bei keinem der Marker ergaben sich signifikante Änderungen nach sechs oder zwölf Monaten.

„Die Ergebnisse dieser neuen Weinstudie scheinen doch im Gegensatz zum bisherigen Trend zu stehen. Das wird sicher nicht die letzte Untersuchung zu diesem kontroversen Thema sein“, kommentierte Prof. Dr. Eckart Fleck, Pressesprecher der Deutschen Gesellschaft für Kardiologie (DGK).

Quelle: ESC Abstract 1027 – Taborsky et al: In Vino Veritas (IVV) Study: Randomized trial comparing long-term effects of red and white wines on markers of atherosclerosis and oxidative stress

Kontakt:
Pressesprecher der DGK
Prof. Dr. Eckart Fleck
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B & K Kommunikationsberatung, Dr. Birgit Kofler: Mobil: 0043 676 6368930;
Büro Berlin: 030 700159676, kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.escardio.org

Quelle: idw

(nach oben)


Dritter wissenschaftlicher Männerkongress ging zu Ende

Dr. Victoria Meinschäfer Stabsstelle Kommunikation
Heinrich-Heine-Universität Düsseldorf

Über 200 Teilnehmer konnten die Veranstalter beim dritten wissenschaftlichen Männerkongress begrüßen, der am 19. und 20 September an der Heinrich-Heine-Universität in Düsseldorf stattfand. Unter dem Motto „Angstbeißer, Trauerkloß, Zappelphilipp – Seelische Gesundheit bei Männern und Jungen“ beschäftigten sich die Teilnehmerinnen und Teilnehmer zwei Tage lang mit Rollenstereotypen und kulturell vermittelten Rollenbildern, die Männern und Jungen den Zugang zu den eigenen Gefühlen und Bedürfnissen erschweren.

Im Mittelpunkt der Tagung standen deshalb neben der psychischen Belastung bei Jungen und Männern und dem Themenblock „Gewalt“ auch die Möglichkeiten, die Psychotherapien und Prävention darstellen können. „Die männliche Identitätsentwicklung ist aus psychoanalytischer, entwicklungspsychologischer und psychohistorischer Sicht strukturell komplex und konflikthaft;“ erklärte der Initiator des Männerkongresses, der Psychoanalytiker Prof. Dr. Matthias Franz, „Hieraus resultiert eine Anfälligkeit für identitätsstabilisierende Verhaltensmuster und Rollenstereotype, die häufig dysfunktionale und schwer gesundheits-schädigende Auswirkungen nach sich ziehen. Mit dem Kongress wollen wir das in das Blickfeld der Öffentlichkeit rücken“.

Zum Abschluss verabschiedeten die Teilnehmer elf Thesen mit For-derungen auch an die Politik:
– Männer brauchen zur Prävention der Folgen von Arbeitsstress mehr niedrigschwellige Hilfsangebote wie Stresspräventionsgruppen oder die psychosomatische Sprechstunde im Betrieb.
– Wichtig ist eine Priorisierung von Maßnahmen der Stressprä-vention bei Beschäftigtengruppen mit überdurchschnittlich hoher psychosozialer Arbeitsbelastung.
– Im schambesetzten Feld männlicher Sexualstörungen sollte mehr Aufklärung – auch bei Ärzten – darüber erfolgen, dass oft unerkannte seelische Konflikte eine Rolle spielen.
– Zwei wesentliche Gründe für die Unterdiagnostizierung von Depression bei Männern sind die Angst vor Stigmatisierung bei den Betroffenen und ein geschlechterbezogener Verzer-rungseffekt in der Depressionsdiagnostik zugunsten weiblicher Symptome. Depressivität kann sich bei Männern jedoch auch unter der Tarnkappe von Aggressivität, Suchtmittelmiss-brauch, Hyperaktivität oder Risikoverhalten manifestieren.
– Die Gewaltbereitschaft von Jugendlichen stellt häufig eine schwer zu bewältigende soziale und therapeutische Herausforderung dar. Zu den Ursachen zählen neben sozialen und kulturellen Faktoren vor allem traumatische Erfahrungen, die zu Gewaltbereitschaft in der Adoleszenz führen.
– Wünschenswert ist ein gendersensibler Umgang mit dem Thema partnerschaftlicher Gewalt und Gewalt innerhalb unserer Gesellschaft, der nicht weiter einseitige Täter-Opfer-Zuschreibungen (mit den Männern als Tätern) vornimmt.
– Notwendig ist die gendergerechte Diagnostik des AD(H)S. Jungen sind anders als Mädchen. Diesbezüglich müssen die Leitlinien überarbeitet werden.
– Der eher für Jungen typische Drang zu motorischer Bewegung und Expansivität sollte in Kindergarten und Schule nicht unreflektiert mit Aggression gleichgesetzt werden.
– Die Bedeutung von Bewegung für die gesunde Entwicklung im Kindesalter, besonders bei Jungen, muss mehr bei der Diagnostik und ihrer Beurteilung fokussiert werden.
– Bei der allmählichen Integration der Expansivität in mehr ruhige Verhaltensweisen sollten Jungen und männliche Jugendli-che weder durch eine zunehmend schnelle Verordnung von Medikamenten (Ritalin) noch durch einen vernachlässigenden Rückzug in Computerwelten allein gelassen werden. Vor allem Väter und männliche Ansprechpartner in Schule und Beruf sollten zeitlich und emotional gut verfügbar sein.
– Frühzeitig angebotene bindungsorientierte Elterntrainings wie „wir2″ können eine präventive Wirkung entfalten.
– Gerade bei AD(H)S sollte statt ideologischer Vereinfachung die Komplexität des Themas reflektiert werden. Beschleunigte Jungen (z.B. mit AD(H)S) und verlangsamte Mütter (z.B. mit Depressionen oder schweren Traumatisierungen) verweisen auf einen transgenerativen Zusammenhang.

Für weitere Informationen:
www.maennerkongress2014.de

Quelle: idw

(nach oben)


Kakao-Inhaltsstoffe reduzieren das Herz-Kreislaufrisiko

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona

Regelmäßiger Konsum von Kakao-Flavonolen hat einen positiven Effekt auf die Gefäßfunktion und reduziert das Risiko für eine Herz-Kreislauf-Erkrankung deutlich. Zu diesem Ergebnis kommt eine Studie des Universitätsklinikums Düsseldorf, die auf dem Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. Die aktuellen Daten würden das präventive Potenzial der Pflanzeninhaltsstoffe für die Gefäße belegen, so Studienautor Dr. Roberto Sansone.

An der Placebo-kotrollierten Studie nahmen insgesamt 100 Personen zwischen 35 und 60 Jahren teil, die keine Anzeichen einer vaskulären Erkrankung zeigten. Die Teilnehmer der Studiengruppe konsumierten zweimal täglich ein Getränk mit 450 Milligramm Kakaoflavonolen, die Kontrollgruppe ein Flavonol-freies Getränk. Erhoben wurden die flussvermittelte Vasodilatation, eine Messgröße für die Gefäßfunktion, sowie Blutfettwerte, Blutdruck und Pulswellengeschwindigkeit, ein Indikator für die Elastizität der Arterien. Nach einem Monat verbesserte sich bei den Flavonol-Konsumenten die Gefäßfunktion, die Blutdruck- und LDL-Cholesterinwerte sanken und das HDL-Cholesterin stieg an. Das Ensemble dieser Effekte reduzierte das mittels Framingham-Score ermittelte kardiovaskuläre Risiko erheblich: So ging das Risiko für eine koronare Herzerkrankung um 32 Prozent zurück, jenes für einen Herzinfarkt um 22 Prozent. Das Risiko, an einer koronaren Herzerkrankung zu sterben, sank um 34 Prozent, und das Sterblichkeitsrisiko aufgrund einer kardiovaskulären Erkrankung sogar um 43 Prozent.

Quelle: ESC Abstract P3198 – Schmidt et al: Severe adverse effects of nocturnal aircraft noise on endothelian function in patients with or being at risk for cardiovascular disease

Kontakt:
Pressesprecher der DGK
Prof. Dr. Eckart Fleck
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B & K Kommunikationsberatung, Dr. Birgit Kofler: Mobil: 0043 676 6368930;
Büro Berlin: 030 700159676, kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Quelle: idw

(nach oben)


Deutsche Wälder speichern mehr Kohlenstoff als vor 20 Jahren

Dr. Michael Welling Presse- und Öffentlichkeitsarbeit
Johann Heinrich von Thünen-Institut, Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei

Ohne seine Wälder würde Deutschland deutlich mehr zum Klimawandel beitragen, als es derzeit der Fall ist. Das geht aus Erhebungen des Thünen-Instituts hervor, die im aktuellen, vom Umweltbundesamt herausgegebenen nationalen Inventarbericht enthalten sind. Mit einer jährlichen Senkenleistung von rund 52 Mio. Tonnen CO2-Äquivalenten sind die deutschen Wälder ein erheblicher Kohlenstoffspeicher.

Ohne seine Wälder würde Deutschland deutlich mehr zum Klimawandel beitragen, als es derzeit der Fall ist. Das geht aus Erhebungen des Thünen-Instituts hervor, die im aktuellen, vom Umweltbundesamt herausgegebenen nationalen Inventarbericht enthalten sind. Mit einer jährlichen Senkenleistung von rund 52 Mio. Tonnen CO2-Äquivalenten sind die deutschen Wälder ein erheblicher Kohlenstoffspeicher.

Das Thünen-Institut für Waldökosysteme liefert Daten, mit denen sich die Speicherfunktion des Waldes in Deutschland berechnen lässt. Eine wichtige Grundlage dafür sind bundesweite Inventuren, die am Institut koordiniert und ausgewertet werden: die Bundeswaldinventur und die Bodenzustandserhebung Wald. Die Daten fließen in die Inventare zur nationalen Treibhausgas-Emission ein, die Deutschland als Vertragsstaat der UN-Klimarahmenkonvention und Unterzeichner des Kyoto-Protokolls regelmäßig erstellen muss.

Bäume nehmen Kohlendioxid (CO2) aus der Atmosphäre auf und verwandeln es letztlich in Biomasse. Neben den Bäumen ist auch der Waldboden ein kohlenstoffreiches Substrat. Die Berechnungen des Thünen-Instituts zeigen, dass die deutschen Wälder in ihrer oberirdischen Biomasse eine Kohlenstoffmenge von rund 993 Mio. Tonnen bevorraten, hinzu kommen 156 Mio. Tonnen in unterirdischer Biomasse, vor allem den Wurzeln, und 20 Mio. Tonnen im Totholz. In der Humusauflage und den oberen 30 cm des Mineralbodens sind noch einmal 850 Mio. Tonnen Kohlenstoff festgelegt. Aktuell speichern die Wälder damit rund 300 Mio. Tonnen mehr als noch 1990.

Natürlich wird durch den Einschlag und Abtransport von Holz auch wieder Kohlenstoff aus dem Wald entfernt. Doch der Saldo ist positiv – der Wald legt mehr Kohlenstoff fest, als er durch Holzernte und andere Faktoren verliert. Damit dient er in der Klimabetrachtung als Senke: Mit rund 52 Mio. Tonnen CO2-Äquivalenten schlägt sie im Mittel der letzten Jahre zu Buche. Die Erhebungen zeigen, dass der Wald seit Beginn der Treibhausgas-Berichterstattung 1990 immer eine Kohlenstoffsenke gewesen ist.

Bei umfassender Betrachtung ist die Senkenleistung sogar noch erheblich höher. Denn anders als bei einjährigen Kulturpflanzen wie Weizen oder Mais speichert Holz den Kohlenstoff auch längerfristig. Bei stofflicher Nutzung, zum Beispiel beim Hausbau oder in der Möbelfertigung, bleibt der Kohlenstoff teils über Jahrzehnte festgelegt. Bei energetischer Nutzung ersetzt Holz fossile Energieträger, was in der CO2-Bilanz ebenfalls positiv zu Buche schlägt. Nach ersten Berechnungen des Thünen-Instituts konnten von 2005 bis 2009 durch die stoffliche Verwendung von Holz jährlich rund 57 Mio. Tonnen und durch die energetische Nutzung 30 Mio. Tonnen CO2-Äquivalente substituiert werden. Der Klimaschutzbeitrag des Forst- und Holzsektors bei der Einsparung von Treibhausgasen ist also noch größer als bislang in der Berichterstattung angegeben.

Nähere Infos:
Nationaler Inventarbericht zum Deutschen Treibhausgasinventar 1990 – 2012; Kap. 7.2, ab Seite 524 (http://www.umweltbundesamt.de/sites/default/files/medien/378/publikationen/climate-change_24_2014_nationaler_inventarbericht_0.pdf)
„Kyoto und der Wald“: Artikel im Thünen-Magazin „Wissenschaft erleben“ (2014/1) (http://literatur.ti.bund.de/digbib_extern/dn053695.pdf)

Weitere Informationen:

http://www.umweltbundesamt.de/sites/default/files/medien/378/publikationen/clima… – Nationaler Inventarbericht zum Deutschen Treibhausgasinventar 1990 – 2012 (Kap. 7.2, ab Seite 524)
http://literatur.ti.bund.de/digbib_extern/dn053695.pdf – „Kyoto und der Wald“: Artikel im Thünen-Magazin „Wissenschaft erleben“ (2014/1)

Quelle: idw

(nach oben)


Ethanolfeuerstellen – die unterschätzte Gefahr

Britta Widmann Kommunikation
Fraunhofer-Gesellschaft

Ethanolkamine werden immer beliebter. Dabei sind sie nicht nur brandgefährlich – in der Vergangenheit ist es wiederholt zu schweren Unfällen mit den Deko-Feuerstellen gekommen. Die Geräte verunreinigen auch die Luft in Räumen. Dies belegt eine neue Fraunhofer-Studie. Ebenfalls auf dem Prüfstand sind Holzkaminöfen.

Am Vormittag den Kamin im Baumarkt kaufen und am Abend bereits die heimelige Atmosphäre des Deko-Feuers genießen. Die Anbieter von Ethanolfeuerstellen werben mit dem leichten und schnellen Aufbau der dekorativen Öfen ohne Schornstein. Doch beim Betrieb der Feuerstellen ist Vorsicht geboten. Denn Ethanol ist ein Brennstoff, der zusammen mit Luft ein explosionsfähiges Gemisch bildet. Läuft Ethanol beim Befüllen der Brennkammern aus und entzündet sich, steht schnell der ganze Raum in Flammen.

Darüber hinaus bergen die Deko-Objekte ein weiteres Gefährdungspotenzial: Glaubt man den Herstellern, sondern die Geräte keine schädlichen Verbrennungsrückstände in die Raumluft ab. Eine Studie des Fraunhofer-Instituts für Holzforschung, Wilhelm-Klauditz-Institut WKI in Braunschweig belegt das Gegenteil. »Die Öfen besitzen keinerlei geführte Abluft, daher werden alle Verbrennungsprodukte direkt an die Umgebung abgegeben. Das sind beispielsweise sehr feine Verbrennungspartikel und gasförmige Verbindungen wie Formaldehyd und Benzol. Daten über die Auswirkung von Ethanolöfen auf die Luftqualität im Innenraum gibt es bislang kaum«, sagt Dr. Michael Wensing, Chemiker am WKI. Der Forscher und seine Kollegen haben die Höhe und Art der freigesetzten Emissionen untersucht. Ebenfalls auf dem Prüfstand der Wissenschaftler waren Holzkaminöfen.

Tests in der Prüfkammer
Die Ethanolfeuerstellen wurden in einer 48-m3-Prüfkammer aus Edelstahl getestet. Dabei haben die Forscher die DIN 4734-1 berücksichtigt, die technische Mindeststandards für Ethanolkamine definiert, und die Prüfkammer entsprechend den Herstellerangaben gelüftet. Das Team von Dr. Wensing untersuchte vier Öfen und insgesamt acht flüssige und gelförmige Brennstoffe. »Rein theoretisch verbrennt Ethanol oder Bioethanol beim Verbrennungsprozess vollständig zu Kohlendioxid (CO2) und Wasser. In der Praxis sieht das anders aus. Wie die Verbrennung im Einzelfall abläuft, hängt von der Qualität des Brennstoffs und anderen Faktoren ab – etwa von der Art des Brennstoffs oder der Verbrennungstemperatur. Das Ethanol verbrennt in der Regel nicht vollständig. Vielmehr entstehen neben CO2 giftige Verbrennungsgase wie das Atemgift Kohlenmonoxid, organische Verbindungen wie die krebserregende Substanz Benzol, aber auch die Reizgase Stickstoffdioxid und Formaldehyd sowie ultrafeine Verbrennungspartikel«, sagt Wensing. In den meisten Fällen konnten die Wissenschaftler hohe Schadstoffkonzentrationen messen, Richtwerte wurden häufig überschritten. Beispielsweise überstiegen alle Geräte den Innenluftrichtwert von 0,35 mg/m³ für Stickstoffdioxid, in einem Fall mit 2,7 mg/m³ sogar erheblich. Bei Formaldehyd wurde der Richtwert von 0,1 ppm (parts per million) ebenfalls nicht eingehalten. Bei 0,45 ppm lag hier der höchste gemessene Wert. Ein Ofen erzielte beim freigesetzten Kohlendioxid eine Spitzenkonzentration von circa 6000 ppm – und lag damit deutlich über dem hygienisch unbedenklichen Wert von 1000 ppm. Entscheidend ist dabei auch der Brennstoffverbrauch. Dies bedeutet: Je mehr Ethanol in einer bestimmten Zeit verbrennt, desto mehr Schadstoffe werden freigesetzt. Ebenfalls abgegeben wurden ultrafeine Verbrennungspartikel, deren Durchmesser 10.000-mal kleiner ist als die Dicke eines menschlichen Haares und die tief in die Lunge eindringen können. »Deko-Öfen mit Ethanolfeuerung sind eine Quelle für gesundheitsgefährdende Verunreinigungen der Innenraumluft. Um eine gesundheitlich unbedenkliche Luftqualität zu gewährleisten, raten wir dazu, auf den Einsatz dieser Geräte im Innenraum von Wohnungen zu verzichten. Sie sollten nur in großen und sehr gut gelüfteten Räumen betrieben werden«, resümiert Wensing.

Ein anderes Bild ergab sich bei den Tests der Holzkaminöfen, die als zusätzliche Heizung immer populärer werden. In Deutschland unterliegen die Emissionen dieser Heizquellen in die Außenluft strengen gesetzlichen Regelungen. Die Belastungen bewohnter Innenräume – etwa durch undichte Ofentüren – wurden bisher vernachlässigt. Daher haben die Forscher vom WKI sieben Öfen vor Ort in Wohnungen unter realen Bedingungen untersucht. Im Fokus standen auch hier flüchtige organische Verbindungen, Fein- und Ultrafeinpartikel sowie Verbrennungsprodukte wie Kohlendioxid, Kohlenmonoxid, Formaldehyd und Stickstoffdioxid. Das Ergebnis: Solange die Ofentür geschlossen ist, beeinflussen die Öfen die Luftqualität im Innenraum nur geringfügig. Lediglich beim Nachlegen von Feuerholz und beim Anzünden gelangen Emissionen in die Raumluft. Dann konnten die Forscher einen kurzfristigen Anstieg der Konzentrationen messen. »Im geschlossenen Betrieb werden Substanzen nicht in nennenswerter Höhe freigesetzt. Beispielsweise sind die Werte für Formaldehyd unbedenklich«, sagt Wensing. Einzige Ausnahme: Bei einem der Öfen haben die Forscher sehr hohe Konzentrationen von 72 Mikrogramm/m3 von Benzol festgestellt. Den Anstieg führen sie jedoch auf den Gebrauch des paraffinhaltigen Anzünders zurück. Zum Vergleich: Beim Anzünden dieses Ofens mit Papier lag der Wert nur bei 8 Mikrogramm/m3. »Solange die Ofentür und der Aschekasten gut abgedichtet sind, ist nicht mit gesundheitlichen Beeinträchtigungen zu rechnen. Die Lüftungsklappen sollten so eingestellt sein, dass der Ofen gut zieht und auf paraffinhaltige Anzünder sollte man verzichten«, so Wensing.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2014/September/ethanolfeu…

Quelle: idw

(nach oben)


Bakterien sollen Biokraftstoff produzieren

Sandra Sieraad Pressestelle
Universität Bielefeld

Studierende der Universität Bielefeld nehmen am iGEM-Wettbewerb teil

Zehn Bielefelder Master-Studierende konstruieren ein Bakterium, das überschüssigen Strom aus regenerativen Energien sowie Kohlenstoffdioxid (CO2) nutzt, um einen Biokraftstoff zu produzieren. Aktuelle Probleme dienen ihnen dabei als Ansporn für ihr Projekt: Fehlende Infrastruktur für die Speicherung und den Transport regenerativer Energien, steigende CO2-Emissionen, drohende Rohstoffknappheit. Dafür entwickeln die Studierenden Lösungsansätze und nehmen damit am diesjährigen iGEM-Wettbewerb teil. iGEM steht für „international Genetically Engineered Machine“ – die „international Genetically Engineered Machine competition“ ist ein internationaler, studentischer Wettbewerb im Bereich der synthetischen Biologie, der seit 2004 in Boston, USA, ausgetragen wird.

Im April dieses Jahres hat das Bielefelder iGEM-Team mit der Arbeit begonnen – Ende Oktober wird es nach Boston fliegen, um seine Ergebnisse im Wettbewerb zu präsentieren. Team-Mitglied Simon Riedl erklärt, wie die Studierenden auf die Idee für das diesjährige Projekt gekommen sind: „Strom aus regenerativen Energien lässt sich bislang weder effizient speichern noch transportieren. Das bedeutet, dass beispielsweise bis zu 17 Prozent des durch Windenergie erzeugten Stroms nicht in das Stromnetz eingespeist werden. Diesen überschüssigen Strom wollen wir nutzen, um damit die von uns konstruierten Bakterien wachsen zu lassen.“

Am Ende des Prozesses soll ein Biokraftstoff stehen
Die Bakterien befinden sich in einer reversen mikrobiellen Brennstoffzelle (rMFC), in der die Energie des Stroms auf die Bakterien übertragen und von diesen weiter genutzt wird. Um das Ziel – einen Biokraftstoff herzustellen – zu erreichen, ist es wichtig, dass die Bakterien wachsen beziehungsweise sich vermehren, da gilt: Je mehr Bakterien man hat, desto mehr Biokraftstoff lässt sich produzieren. Vom Wachstum der Bakterien, hin zur Produktion des Biokraftstoffs ist aber noch ein Zwischenschritt notwendig. Deshalb arbeiten die Studierenden daran, die Bakterien zu befähigen, CO2 zu fixieren. Dafür bringen sie einen Stoffwechselweg in die von ihnen konstruierten Escherichia coli-Bakterien ein. Dieser ist in Pflanzen während der Photosynthese aktiv und bindet den Kohlenstoff aus dem CO2. Der fixierte Kohlenstoff soll im Bakterium dann als Grundlage für die Herstellung wirtschaftlich relevanter Produkte, beispielsweise eines Biokraftstoffs, dienen. Positiver Nebeneffekt des Vorgangs ist, dass auf diese Weise CO2 aus der Luft entfernt und von den Bakterien gebunden wird – CO2 ist jene chemische Verbindung, die als eine Ursache für die Klimaerwärmung gilt.

„Alle fossilen Energieträger – also zum Beispiel Kohle, Gas oder Erdöl – sind in ihrem Vorkommen begrenzt“, erklärt Sebastian Blunk, einer der beteiligten Studierenden. „Deshalb haben wir es uns zum Ziel gesetzt, einen Biokraftstoff zu produzieren, um die Abhängigkeit von fossilen Brennstoffen zu verringern.“ Das Bielefelder Team hat sich für die Herstellung des Biokraftstoffs Isobutanol entschieden, der beispielsweise als Treibstoff für Autos genutzt werden könnte. Im Gegensatz zu dem gebräuchlichen Ethanol-Kraftstoff ist die Energiedichte von Isobutanol höher. Das heißt, man benötigt theoretisch von diesem Kraftstoff eine geringere Menge, um ein Fahrzeug zu betreiben. Um Isobutanol herzustellen, nutzen die Studierenden einen synthetischen Stoffwechselweg, der in der Natur in dieser Form nicht existiert: Dafür kombinieren sie Gene unterschiedlicher Organismen und bringen diese in das von ihnen konstruierte Bakterium ein, welches mithilfe des fixierten Kohlenstoffs schließlich den Biokraftstoff produziert.

Erste Erfolge können die Studierenden bereits vermelden: So ist es ihnen gelungen, Gene für die Isobutanolproduktion zu isolieren und zu kombinieren. Außerdem ist eine erste Konstruktion der entworfenen Brennstoffzelle abgeschlossen, sodass das Team mit Testläufen starten kann. Im Wettbewerb in Boston will es dann das fertige Bakterium vorstellen, welches mittels Strom wachsen, CO2 fixieren und Isobutanol produzieren kann.

Außerhalb des Labors
Neben der Arbeit im Labor gehört es zu den Aufgaben des Wettbewerbs, dass die Studierenden ihr Projekt in der Öffentlichkeit zu präsentieren. So haben die Studierenden beispielsweise einen Biologie-Leistungskurs der Friedrich-von-Bodelschwingh-Schule bei molekularbiologischen Versuchen betreut und die diesjährige CeBiTec-Schülerakademie am Centrum für Biotechnologie der Universität Bielefeld mitgestaltet. Beim NRW-Tag in Bielefeld bot das Team an einem Stand unterschiedliche Experimente für Kinder an und erklärte Besuchern anhand von Postern die synthetische Biologie und ihr iGEM-Projekt.

Auch die Sponsorensuche muss das Team als Teil des Wettbewerbs meistern: Materialien, Teilnahmegebühren, Reisekosten sowie Unterkünfte schlagen mit über 30.000 Euro zu Buche. Für ihr Projekt konnten die Studierenden, die aus den Studiengängen Molekulare Biotechnologie, Genombasierte Systembiologie, Bioinformatik und Genomforschung sowie Naturwissenschaftliche Informatik kommen, bereits einige Sponsoren gewinnen. Unter anderem hat sich das Team erfolgreich auf eine Ausschreibung von „Synenergene“ beworben. Synenergene ist ein europäisches Projekt mit dem Ziel, Forschung und Innovation in der synthetischen Biologie zu fördern. Dabei ist die Förderung nicht nur finanzieller Art, sondern das iGEM-Team wird auch bei der Entwicklung von Anwendungsszenarien sowie der Abschätzung von gesellschaftlichen Auswirkungen ihres Projekts unterstützt. Von Seiten der Universität Bielefeld erhalten die Studierenden Hilfestellung von Wissenschaftlern der Fakultät für Biologie und der Technischen Fakultät. Professor Dr. Jörn Kalinowski vom CeBiTec (Centrum für Biotechnologie) steht dem Team als Betreuer zur Seite.

Weltweite Konkurrenz
Der iGEM-Wettbewerb feiert in diesem Jahr sein zehnjähriges Jubiläum. Deshalb gibt es diesmal keine kontinentalen Vorentscheide, sondern alle Teams dürfen ihre Projekte direkt im Finale in Boston präsentieren. Anfangs ein Kursangebot des Massachusetts Institute of Technology (MIT), steigen die Teilnehmerzahlen seit 2004 stetig an – von fünf Teams im ersten Jahr auf über 240 diesjährig. Insgesamt treten in diesem Jahr rund 2.500 Teilnehmer aus 32 Ländern an. „iGEM ist international der bedeutendste studentische Wettbewerb der synthetischen Biologie. Die Nachwuchs-Wissenschaftler haben hier die Möglichkeit, sich mit Studierenden der weltweit bedeutendsten Universitäten zu messen und so wichtige Impulse für ihre Ausbildung und die berufliche Karriere zu erwerben“, fasst Professor Kalinowski zusammen. Die Universität Bielefeld ist bereits im fünften Jahr in Folge dabei und hat sich von 2010 bis 2013 erfolgreich für das Finale in Boston qualifizieren können. Im letzten Jahr wurde das Bielefelder Team sogar Europa- und Vizeweltmeister.

Kontakt:
Annika Fust, Universität Bielefeld
iGEM-Team Bielefeld-CeBiTec
Telefon: 0521 106-12285 oder 0152-23017418
E-Mail: annika.fust@uni-bielefeld.de

Weitere Informationen:

http://www.igem-bielefeld.de
http://2014.igem.org/Team:Bielefeld-CeBiTec

Quelle: idw

(nach oben)


Übergewicht in der Schwangerschaft ist gefährlich fürs Herz

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Pressemitteilung der Deutschen Gesellschaft für Kardiologie zum Europäischen Kardiologiekongress (ESC) in Barcelona

Barcelona/Düsseldorf, 3. September 2014 – Starkes Übergewicht während einer Schwangerschaft erhöht das Risiko für kardiovaskuläre Erkrankungen und die Herzsterblichkeit im späteren Lebensverlauf betroffener Frauen. Das zeigt eine schottische Studie, die beim Kongress der Europäischen Gesellschaft für Kardiologie (ESC) in Barcelona präsentiert wurde. Die Einsicht könnte Bedeutung für künftige Präventionsstrategien haben, so die Studienautoren: „Die Schwangerschaft ist ein Schlüsselmoment, zu diesem Zeitpunkt sind viele Frauen bereit, mehr für ihre Gesundheit zu tun. Das könnte eine Gelegenheit für gezielte Interventionen zur Reduktion des Übergewichts sein“, so ihr Fazit.

Das Forscherteam der Universitäten Aberdeen und Edinburgh hatten die Gesundheitsdaten von Frauen ausgewertet, die zwischen 1950 und 1976 ihr erstes Kind geboren haben. Es zeigte sich, dass die Gesamtmortalität in der Gruppe der Frauen, die bei der ersten pränatalen Untersuchung einen BMI von 30 oder mehr aufwiesen, gegenüber der Gruppe mit normalem BMI deutlich erhöht war, auch nach statistischer Adjustierung von Faktoren wie Alter, sozioökonomischer Status; Zigarettenkonsum, Schwangerschaftsdauer zum Zeitpunkt der Gewichtsmessung etc. Außerdem wiesen die in der Schwangerschaft stark übergewichtigen Frauen im späteren Lebensverlauf ein deutlich erhöhtes Risiko für kardiovaskuläre Ereignisse oder Hospitalisierung aufgrund von Herzerkrankungen auf.

Quelle: ESC Abstract 3930 – Lee et al: Maternal obesity during pregnancy and premature cardiovascular mortality in later life

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa. Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org
http://www.dgk.org/presse
http://www.escardio.org

Quelle: idw

(nach oben)


Forschung zum Arbeitszeitmodell „Arbeitszeitfreiheit“

Tanja Eisenach Dezernat Kommunikation
Otto-Friedrich-Universität Bamberg

Bamberger BWL-Professorin Maike Andresen forscht zu wenig bekanntem Arbeitszeitmodell

Individuelle Arbeitszeiten, keine Anwesenheitspflicht oder persönliche Arbeitszeitstrukturen: Flexible Arbeitszeitgestaltung soll Unternehmen ermöglichen, ihre Wettbewerbsfähigkeit zu erhalten. Einige Formen wie Arbeitszeitkonten oder Teilzeitarbeit werden bereits vielfach angewandt. BWL-Professorin Maike Andresen forscht zu einem Modell, das bislang in Deutschland wenig bekannt ist: die Arbeitszeitfreiheit.

Die Arbeitszeitfreiheit ist ein seltenes Phänomen, das in Deutschland aufgrund arbeitsrechtlicher Bestimmungen bisher wenig ausgeübt und daher auch wenig erforscht wird. Das sogenannte „results-only work environment“ (ROWE) – Modell, in Deutschland unter dem Namen „Arbeitszeitfreiheit“ bekannt, überlässt den Arbeitnehmern eines Unternehmens komplette Gestaltungsfreiheit in Bezug auf Arbeitsdauer und -zeitpunkt.

Ob der Mitarbeiter seine Arbeit im Büro, zu Hause oder anderswo erledigt, wie viele Stunden er an welchen Tagen arbeitet und wann seine Arbeitszeit beginnt beziehungsweise endet, entscheidet er selbst. „Hauptsache, die Ergebnisse stimmen“, so Prof. Dr. Maike Andresen vom Lehrstuhl für Betriebswirtschaftslehre, insbesondere Personalmanagement an der Universität Bamberg.

Bereits in ihrer Habilitationsschrift „Das (Un-)Glück der Arbeitszeitfreiheit“ aus dem Jahr 2009 beschäftigte sie sich mit den Auswirkungen dieses Modells auf Unternehmen und Arbeitnehmer. Seither hat sie das Thema der kompletten Arbeitszeitflexibilisierung nicht locker gelassen. In ihrem am 30. September 2014 erscheinenden Grundlagenwerk zur Personalmanagement-Praxis „Assessing Added Value“ wirft Andresen einen umfassenden Blick auf die Arbeitszeitfreiheit, stellt Vor- und Nachteile dar und gibt Empfehlungen, wie das Modell verbessert werden kann. Ihre Kernthese: Eine Weiterentwicklung und Umsetzung des Modells lohnt sich, denn gegenüber anderen Formen der Arbeitszeitflexibilisierung bietet es entscheidenden Mehrwert.

Weitere Informationen:
http://www.uni-bamberg.de/kommunikation/news/artikel/arbeitszeitfreiheit

Quelle: idw

(nach oben)


„Trink einen Schluck“, sagt das Pflaster

Blandina Mangelkramer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

FAU-Wissenschaftler forschen an Sensorpflaster, das den Wasserhaushalt überwacht

Den ganzen Tag im Meeting, zwischendrin kurz ein Brötchen gegessen, und abends erst ein Schluck Wasser. Wer so lebt riskiert Leistungsabfall oder eine Überhitzung des Körpers. Dehydrierung, also Austrocknung, kann aber auch zu schlimmeren Krankheiten wie Nierenversagen führen. Trotz dieser immensen Bedeutung existiert zurzeit noch kein zuverlässiges Verfahren, um den Wasserhaushalt zu überwachen. In dem Verbundforschungsprojekt „Sensoren für eine verbesserte Lebensqualität“ unter der Beteiligung der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) wollen Wissenschaftler ein System entwickeln, das rechtzeitig vor einer Dehydrierung warnt: ein Sensorpflaster, das die gemessenen Werte an ein Armband oder ein Smartphone weiterleitet. Das Projekt wird vom Bundesministerium für Bildung und Forschung (BMBF) mit rund 7,5 Millionen Euro gefördert: Stefan Müller, Parlamentarischer Staatssekretär im BMBF, überreichte jetzt den Erlanger Wissenschaftlern den Förderbescheid im Erlanger Schloss.

Wasser ist für den Menschen von essentieller Bedeutung: Er benötigt die Flüssigkeit beispielsweise zum Transport der Nährstoffe im Körper oder für die Beseitigung von Giftstoffen. Jeden Tag verliert der Körper jedoch Wasser über Haut und Atmung. Regelmäßiges Trinken ist daher lebensnotwendig. Wird der Körper nicht ausreichend mit Wasser versorgt, drohen Leistungsminderung, Verwirrtheitszustände, Schwindel und Kreislaufversagen, aber auch Herzerkrankungen, Nierenversagen, Diabetes oder Magengeschwüre. Des Weiteren gehört die Dehydrierung, die Austrocknung des Körpers, zu den häufigsten Todesursachen demenzkranker Menschen.

Ein zuverlässiges und zugleich einfaches Verfahren, um den Flüssigkeitshaushalt zu überwachen, gibt es dennoch nicht. Dem wollen Prof. Dr. Dr. Robert Weigel, Inhaber des Lehrstuhls für Technische Elektronik der FAU, und seine Mitarbeiter zusammen mit Unternehmen Abhilfe schaffen. Sie entwickeln ein Sensorsystem, welches den Nutzer rechtzeitig vor einer Dehydrierung warnt, sodass nötige Gegenmaßnahmen eingeleitet werden können.

Ein Pflaster, das vor Austrocknung warnt
Das System besteht aus einem Sensorpflaster, welches die gemessenen Werte an ein Smartphone oder direkt an ein dazugehöriges Armband sendet. Der Nutzer wird drei Möglichkeiten haben, sich über den Wasserhaushalt zu informieren: per App auf dem Smartphone, per Farbkodierung am Armband oder per Weiterleitung der Werte ins Internet, wo Trainer oder Pfleger die Werte abrufen können.

Die Farbkodierung am Armband stellt dabei die einfachste und direkteste Möglichkeit der Datenübertagung dar: Ein Ampelsystem erlaubt es älteren Menschen oder Sportlern den Wasserhaushalt zu kontrollieren. Wechselt die Farbe von grün auf gelb, weiß der Nutzer, dass es Zeit ist, etwas zu trinken. Vergisst er dies oder nimmt es nicht wahr, kann ein akustisches Signal oder eine Vibration ihn zusätzlich darauf hinweisen, sollte der Zustand kritischer werden.

Das Sensorpflaster basiert auf Hochfrequenz-Sensorik und innovativen Integrationstechnologien. „Für die komfortable Nutzung am Körper und eine permanente Überwachung des Wasserhaushalts müssen wir ein System erforschen, das Funktionen der Sensorik, Kommunikation, Datensicherheit, Energiespeicherung, Datenauswertung sowie optimierter Anzeige und Benutzerfreundlichkeit auf kleinstem Raum integriert“, beschreibt Projektleiter Dr. Dietmar Kissinger das komplexe Forschungsvorhaben. Da ist vielfältiges Know-how von Nöten. Daher kooperiert der FAU-Lehrstuhl mit Partnern aus der Wirtschaft und dem Gesundheitssektor: Neben dem Halbleiterhersteller Infineon Technologies, der die Sensor-Chiptechnologie zur Verfügung stellt, arbeiten die Senetics Healthcare Group, Medisana, Wearable Technologies, die Diakonie München Moosach, das Klinikum Region Hannover sowie ORTEMA an der Entwicklung und Umsetzung des Sensorpflasters mit.

Für den Beruf und zur Patientenüberwachung
Die Anwendungsgebiete des Sensorpflasters sind zahlreich. Im medizinischen Bereich könnte es Senioren helfen, ihren Wasserhaushalt im Auge zu behalten, bei Demenzkranken und bettlägerigen Patienten ermöglicht es den Pflegern bzw. der Familie den Zustand zu überwachen. „Dadurch erleichtert es die Arbeit des Pflegepersonals für Patienten – und senkt so die Pflegekosten“, sagt Professor Weigel. Die Arbeit von Feuerwehrmännern könnte das Pflaster sicherer machen: Bei Einsätzen warnt es frühzeitig vor Dehydrierung und hilft so, Orientierungslosigkeit oder gar Bewusstlosigkeit durch zu wenig Flüssigkeit im Körper zu vermeiden. Aber auch im Alltag könnte das Pflaster eingesetzt werden: von Sportlern beispielsweise, die ihre Trainingseinheiten überwachen oder von Arbeitnehmern, die ihre geistige Leistungsfähigkeit steigern wollen. „Das Sensorpflaster gibt vor allem älteren Menschen Lebensqualität zurück und leistet generell einen wichtigen Beitrag zur medizinischen Betreuung“, erklärt Professor Weigel.

Weitere Informationen:
Prof. Dr. Dr. Robert Weigel
Tel.: 09131/85-27200
robert.weigel@fau.de

Quelle: idw

(nach oben)


Wie Kunden sich gegenseitig beim Einkaufen beeinflussen

Ingrid Rieck Presse- und Kommunikationsstelle
Universität Rostock

Rostocker Forscher: soziale Präsens von Fremden spielt große Rolle
Der Kunde soll sich im Supermarkt wohlfühlen und möglichst lange verweilen. Daher ist die Temperatur im Raum wichtig, aber auch Farbe und Geruch spielen eine große Rolle. Das ist bekannt. Nicht bekannt ist hingegen, welchen Einfluss fremde Menschen auf das eigene Kaufverhalten zwischen den Regalen im Supermarkt haben. Dieses Phänomen hat der junge Forscher Michael Luck vom Institut für Marketing und Dienstleistungsforschung der Universität Rostock akribisch unter die Lupe genommen. Er hat unter anderem Leute beim Einkaufen begleitet und sie anschließend zu ihrem Einkaufsverhalten befragt.

Es ist nicht nur die Werbung mit ihren unbewussten Wirkungs-Mechanismen, die das Kaufverhalten steuert. „Der persönliche Raum spielt eine große Rolle“, hat der 30-jährige Wissenschaftler herausgefunden. Was das heißt? „Man möchte anderen Personen nicht zu nahe kommen und andere sollen einem im Umkehrschluss auch nicht zu nahe kommen“, beobachtete Luck. Das Resultat: Kunden vermeiden es, Produkte anzuschauen, wenn es gerade andere tun. Wird man vielleicht negativ bewertet, wenn man sich zu jemandem in eine Regalreihe stellt? Luck schließt das nicht aus. „Ist beispielsweise am Regal ein anderer, wo man sich gerade selbst informieren möchte, empfindet man negative Gefühle“, fand der Forscher heraus. Seine Erkenntnis: „Die soziale Präsens von Fremden beim Einkaufen im Supermarkt spielt eine große Rolle“. Andere im Markt seien okay, sie sollten aber nicht in der unmittelbaren Nähe sein. Es gibt für Zufriedenheit eine optimale Anzahl von Kunden im Supermarkt. Sind zu wenig Leute da, hat man das Gefühl, das etwas nicht stimmt, vielleicht die Preise zu hoch oder die Qualität schlecht sind. Sind zu viele im Geschäft, fühlt man sich eher belästigt, empfindet Stress und fühlt sich nicht gut, weicht möglicherweise auf einen anderen Supermarkt aus. Der Schluss des Rostocker Wissenschaftlers: „Das Optimum schafft ein positives Gefühl, wenn eine ausreichende Distanz eingehalten wird. Kommen hingegen andere zu nah, vermeiden die meisten Kunden es, sich umzusehen.

Am Institut für Marketing und Dienstleistungsforschung in Rostock werden gegenwärtig Ideen entwickelt, was man machen kann, damit Kunden sich wohl fühlen und ein optimales Einkaufserlebnis empfinden. „Wir analysieren das Phänomen des Einflusses anderer Kunden tiefgründig und forschen nach Erklärungsansätzen.“

Seit geraumer Zeit musste das Management sich eingestehen, dass die Anwesenheit anderer Personen eine wesentliche Rolle beim Einkaufsverhalten spielt. Dieses Phänomen zu erklären und Schlüsse zu ziehen, da sind jetzt die Forscher gefragt. Text: Wolfgang Thiel

Universität Rostock
Michael Luck
Wirtschafts- und Sozialwissenschaftliche Fakultät
Institut für Marketing und
Dienstleistungsforschung
Tel: 0381 498 4372
Mail: michael.luck@uni-rostock.de

Quelle: idw

(nach oben)


Zwillingspaare für Internetstudie gesucht

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Wissenschaftler der Universitäten Bonn und des Saarlandes untersuchen, wie das Internetverhalten von genetischen und persönlichen Faktoren sowie Umwelteinflüssen abhängt. Zwillingspaare zwischen 18 und 50 Jahren können sich für eine Teilnahme an der Online-Umfrage unter twingame-study@uni-saarland.de melden.

Der Internetkonsum spielt eine immer größere Rolle im Alltag. Während einige Menschen jeden Tag mehrere Stunden im Netz surfen, kommen andere problemlos eine Woche lang ohne Internet aus. Auch für Online-Computerspiele sind nicht alle gleich empfänglich. Mit dem Projekt „TwinGame“ wollen die Psychologen der Universität Bonn mit Wissenschaftlern der Universität des Saarlandes nun herausfinden, ob das Verhalten im Netz und der Gebrauch von Online-Computerspielen von genetischen Faktoren sowie Umwelteinflüssen beeinflusst wird und welche Rolle Persönlichkeitsmerkmale und Gewohnheiten spielen.

In der Studie werden mittels Fragebogen unter anderem Häufigkeit, Dauer und Art des Internetkonsums und des Computerspielverhaltens erfasst. Außerdem machen die Versuchsteilnehmer Angaben zu ihrer Freizeitgestaltung und anderen Lebensgewohnheiten, ihrer Zufriedenheit sowie zu weiteren Persönlichkeitsmerkmalen, wie beispielsweise Empathie und Wertvorstellungen.

Für die Studie gesucht werden gleichgeschlechtliche ein- und zweieiige Zwillingspaare zwischen 18 und 50 Jahren. Eine Teilnahme ist nur möglich, wenn beide Zwillinge bereit sind, den Fragebogen auszufüllen. Die Bearbeitung erfolgt online und dauert rund eine Stunde. Hierfür gibt es pro Person eine Aufwandsentschädigung von zehn Euro. Interessenten melden sich mit dem Stichwort „Uni“ unter Angabe des Alters und der Namen der Zwillinge per E-Mail twingame-study@uni-saarland.de.

Bitte leiten Sie die Informationen zur Studie auch an andere Zwillinge weiter!

Weitere Informationen:
http://www.uni-saarland.de/lehrstuhl/diffpsy/forschung/twingame.html Informationen zur Studie

Quelle: idw

(nach oben)


Innovationen querfeldein: Wenn Biokohle den Acker fruchtbar macht

Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.

Im bundesweiten Innovationswettbewerb „Ausgezeichnete Orte im Land der Ideen“ 2014 ist das Projekt „Optimierte Biokohle aus agrarischen Reststoffen“ heute als einer von 100 Preisträgern geehrt worden. Zum Thema „Innovationen querfeldein – Ländliche Räume neu gedacht“ liefert das Projekt in der Kategorie Wissenschaft Antworten auf die Frage, welche Bedeutung Biokohle zukünftig für Landwirtschaft und Klima haben kann, z. B. um als nachhaltiger Bodenhilfsstoff an ertragsschwachen Standorten bessere Ernten zu ermöglichen.

Ausgezeichnet wurde das ATB für seine zukunftsweisende Forschung zu optimierter Biokohle aus agrarischen Reststoffen. Die Idee: Wenn aus Mais oder Getreidestroh Biogas produziert wird, bleiben Gärreste übrig. Aus ihnen wird Biokohle hergestellt, die dem Boden wichtigen Kohlenstoff zuführt. Das chemische Element ist zudem fest im Dünger gebunden und kann auf diese Weise nicht in Form von Treibhausgasen in die Atmosphäre entweichen – ein Plus für das Klima. Seit 2009 beforschen Wissenschaftler am Potsdamer Leibniz-Institut für Agrartechnik das Thema Biokohle – von der Karbonisierung von agrarischen Reststoffen über die Charakterisierung und Pflanzenwirkung von Biokohle bis hin zur Bewertung ihres ökonomischen und ökologischen Potenzials.

Die Initiative „Deutschland – Land der Ideen“ und die Deutsche Bank zeichnen im Rahmen des Wettbewerbs gemeinsam Ideen und Projekte aus, die einen positiven Beitrag zur Gestaltung der ländlichen Räume und Regionen liefern und sie fit für die Zukunft machen. Rayk Heidamke, Leiter Firmenkunden Brandenburg der Deutschen Bank, überreichte den ATB-Biokohleforschern Dr. Jan Mumme, Dr. Andreas-Meyer-Aurich und Dr. Jürgen Kern die Auszeichnung als „Ausgezeichneter Ort“ und betonte: „Das Leibniz-Institut für Agrartechnik lässt uns einen Blick in die Zukunft der Landwirtschaft werfen: Ihr Projekt verbindet Wirtschaftlichkeit und Nachhaltigkeit. Sie geben dadurch nicht nur der Agrarwirtschaft innovative Impulse, sondern den ländlichen Regionen insgesamt. Es gilt, die Herausforderungen anzunehmen – und das eben querfeldein. Treffender hätte ein Jahresthema die Transformationskraft des ländlichen Raums gar nicht einfangen können.“

„Ein ‚Ausgezeichneter Ort im Land der Ideen‘ zu sein, erfüllt mich mit Freude und auch mit Stolz – zuvorderst auf die Leistungen unserer Wissenschaftlerinnen und Wissenschaftler“, kommentierte Prof. Dr. Reiner Brunsch, wissenschaftlicher Direktor des ATB, die Auszeichnung. „Mit der Forschung zu Biokohle ist es uns gelungen, wissenschaftliche Exzellenz und gesellschaftliche Relevanz zu verbinden – und damit den Leitgedanken unseres Namenspatrons Leibniz mit Leben zu füllen: Grundlagenforschung mit praktischer Anwendung zu verknüpfen.“

Das ATB erhält die Auszeichnung bereits zum zweiten Mal: 2009 wurde das Institut für seine innovativen Konzepte und Produktideen für die Nutzung nachwachsender Rohstoffe ausgezeichnet.
„Der Einfallsreichtum und die Leidenschaft der Menschen, mit denen sie Zukunft in unserem und für unser Land gestalten, verdienen eine Bühne, auf der sie wahrgenommen werden. Die ‚Ausgezeichneten Orte‘ bilden ein einmaliges Netzwerk an Innovationen aus Deutschland“, begründete Rayk Heidamke das langjährige Engagement der Deutschen Bank im Wettbewerb. Aus 1.000 Bewerbungen wählte die Expertenjury aus Wissenschaftlern, Wirtschaftsmanagern, Journalisten und Politikern gemeinsam mit einem sechsköpfigen Fachbeirat das Leibniz-Institut für Agrartechnik Potsdam-Bornim mit seinem Projekt „Optimierte Biokohle aus agrarischen Reststoffen“ als Preisträger aus.

Kontakt:
Helene Foltan
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Tel.: 0331 5699-820; hfoltan@atb-potsdam.de
http://www.atb-potsdam.de

Deutschland – Land der Ideen
Pierre Dombrowski
Tel.: 030/206459-180; dombrowski@land-der-ideen.de
http://www.ausgezeichnete-orte.de
http://www.facebook.com/deutschland.landderideen
http://www.twitter.com/Land_der_Ideen

Deutsche Bank
Sandra Haake-Sonntag
Tel.: 069/910-42925; sandra.haake-sonntag@db.com
http://www.deutsche-bank.de/ideen
http://www.facebook.com/DeutscheBank
http://www.twitter.com/DeutscheBank

Detaillierte Informationen zum Thema ländliche Regionen in Form von Interviews, Multimediareportagen und aktuellen Studien erhalten Sie auf dem Themenportal http://www.innovationen-querfeldein.de.

Die Forschung des Leibniz-Instituts für Agrartechnik Potsdam-Bornim e.V. (ATB) zielt auf die ressourceneffiziente Nutzung biologischer Systeme zur Erzeugung von Lebensmitteln, Rohstoffen und Energie in Anpassung an Anforderungen von Klimaschutz und Klimawandel. Zu diesem Zweck entwickelt das ATB verfahrenstechnische Grundlagen für eine nachhaltige Landbewirtschaftung und stellt innovative technische Lösungen für Landwirtschaft und Industrie bereit. Eine Querschnittsaufgabe ist die Analyse und Bewertung des Technikeinsatzes entlang der Wertschöpfungskette. Die im Rahmen von Bioraffinerie- und Kaskadennutzungskonzepten entwickelten Technologien sind ein Beitrag zur Schaffung einer biobasierten Stoff- und Energiewirtschaft.

Quelle: idw

(nach oben)


Bluthochdruck: Gesunder Lebensstil allein reicht nicht immer aus

Maximilian Broglie Geschäftsstelle
Deutsche Hochdruckliga

Heidelberg – Gesund zu leben ist die beste Therapie gegen Bluthochdruck, so lautet der Rat vieler Mediziner. Doch Experten der Deutschen Hochdruckliga e.V. DHL® Deutsche Gesellschaft für Hypertonie und Prävention warnen vor voreiligen Schlüssen: Normalgewicht, ausgewogene Ernährung und regelmäßige Bewegung seien zwar ein Grundpfeiler der Behandlung von Bluthochdruck. Lebensstiländerungen allein ersetzen die Einnahme von blutdrucksenkenden Medikamenten aber nicht immer. Messen Betroffene wiederholt und längerfristig Blutdruckwerte von über 140 zu 90 Millimeter auf der Quecksilbersäule (mmHg), drohen Organschäden.

Mit fettarmer Ernährung, täglichen Spaziergängen und höchstens einem Glas Bier am Tag bekommen viele Menschen mit Bluthochdruck ihre Werte in den Griff. „Bei mäßiger Hypertonie von bis zu 159 zu 99 sollten Ärzte zunächst immer eine Umstellung der Lebensgewohnheiten empfehlen“, erläutert Professor Dr. med. Martin Hausberg, Vorstandsvorsitzender der Deutschen Hochdruckliga e.V. DHL® aus Karlsruhe. Dazu gehören eine ausgewogene, salzarme Ernährung, Sport und das Ziel, Risiken so gering wie möglich zu halten: Übergewicht, Rauchen und Alkohol. Doch das reicht nicht immer aus. „Wenn die Werte trotz intensiver Bemühungen des Patienten auch nach mehreren Monaten nicht sinken, ist eine Behandlung mit Blutdruck-Medikamenten notwendig“, so Professor Hausberg, „und maßgeblich für seine Gesundheit“.

Dasselbe gelte, wenn der Blutdruck die 159/99 mmHg überschreitet oder wenn ein erhöhtes Risiko durch andere Erkrankungen der Nieren, des Herzkreislaufsystems oder Diabetes melltius besteht. „In diesen Fällen wäre es nahezu verantwortungslos, keine Medikamente zu verschreiben“, betont der Experte. Denn je länger der hohe Blutdruck anhält, desto größer die Gefahr, dass er das gesamte Gefäßsystem und Organe wie Herz, Hirn oder Nieren schädigt.
Wie wichtig Aufklärung ist, zeigen die Zahlen: Jeder zweite Deutsche ist übergewichtig, jeder vierte raucht – das treibt den Blutdruck in die Höhe. Dennoch weiß nur jeder zweite Betroffene von seinem Bluthochdruck. Das bedeutet aber für viele nicht, etwas dagegen zu unternehmen: Nur die Hälfte lassen sich auf eine Behandlung ein. „Viele verdrängen das Problem Bluthochdruck, da es anfangs keine spürbaren Beschwerden verursacht“, sagt Experte Hausberg.

Ältere Menschen empfinden leicht erhöhte Werte zudem oft nicht als gefährdend. Lebensalter plus 100 – nach dieser veralteten Faustregel zur Bestimmung der Höchstwerte richten sich immer noch zu viele Patienten und auch Ärzte. Danach wäre für einen 60-Jährigen ein Blutdruck von bis zu 160 mmHg noch akzeptabel. „Diese Regel führt in die Irre“, warnt Professor Hausberg, „Langzeitstudien zeigen eindeutig, dass ein Wert über 140 mmHg auf längere Zeit in jedem Alter gesundheitsgefährdend ist und das Risiko für einen Herzinfarkt oder Schlaganfall signifikant erhöht.“ Ein gesunder Lebensstil bliebe zwar der erste Schritt, dagegen vorzugehen. Denn auch Medikamente könnten ungesunde Gewohnheiten nicht kompensieren. Doch wenn das nicht wirke, müssten Ärzte blutdrucksenkende Mittel verordnen.

Quelle: 2013 ESH/ESC Guidelines for the management of arterial hypertension, European Heart Journal doi:10.1093/eurheartj/eht151

Terminhinweis:
Pressekonferenz der Deutschen Hochdruckliga e.V. DHL®
Deutsche Gesellschaft für Hypertonie und Prävention
anlässlich des 40-jährigen Bestehens
Diagnostik und Therapie des Bluthochdrucks: eine Erfolgsgeschichte
Termin: Montag, 15. September 2014, 12.00 bis 13.00 Uhr
Ort: Dependance der DHL®, Oranienburger Straße 22, 10117 Berlin

Weitere Informationen:
http://www.hochdruckliga.de

Quelle: idw

(nach oben)


Fahrtauglichkeit im Alter – darf Oma noch Autofahren?

Nina Meckel Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Jeden Tag gegen zwölf Uhr mittags setzt Maria Herweg ihren alten BMW rückwärts aus der Garage – schön vorsichtig versteht sich. Günther Herweg nimmt dann auf dem Beifahrersitz Platz und das Ehepaar fährt gemeinsam zum Essen. Jeden Tag? „Am Wochenende nicht, da bleiben wir zu Hause. Am Wochenende sind die ganzen Alten unterwegs“, sagt Herweg und grinst dabei. Ist das arrogant? Diskriminierend? Nein, das ist ironisch: Maria Herweg ist nämlich selbst nicht weniger als 79 Jahre alt.

79 Jahre – ist das nicht zu alt für regelmäßiges Autofahren? Sollte die rüstige Rentnerin ihren Führerschein nicht lieber abgeben und mittags auf den Bus oder den Pizza-Service umsteigen? Hochbetagte können nicht mehr jede Situation im Straßenverkehr lösen und stellen ein erhebliches Risiko dar, lautet die landläufige Meinung. Und viele Senioren geben freiwillig ihren Führerschein ab. Das Gegenteil ist jedoch der Fall, wie jetzt Altersmediziner herausgefunden haben: Das Alter bringt die Fähigkeit mit sich, sicher Auto zu fahren.

Autofahrer bis 75 Jahre sind keine Risikogruppe. Im Gegenteil.
Der Blick in die deutsche Verkehrs-Unfallstatistik zeigt: Senioren bis 75 Jahre sind keine Risikogruppe. Im Gegenteil. „Die älteren Fahrer haben viel Erfahrung. Sie können Gefahrensituationen richtig einschätzen und sie sind auch keine Raser“, erläutert Sven Rademacher vom Deutschen Verkehrssicherheitsrat in Bonn. Außerdem seien sie vorausschauend. „Bei Schneetreiben oder Nebel lassen sie das Auto auch einmal stehen. Sie wissen: Sicherheit geht vor.“
So sieht es auch Prof. Dr. Desmond O’Neill vom Trinity College in Dublin. Auf dem Jahreskongress der Deutschen Gesellschaft für Geriatrie (DGG) und der Deutschen Gesellschaft für Gerontologie und Geriatrie (DGGG) in Halle an der Saale berichtet er über seine Untersuchungen zur Fahrtauglichkeit Älterer. Sein Fazit: „Das Alter bringt die Fähigkeit mit sich, sicher Auto zu fahren.“ Der irische Professor betont, wie wichtig die Mobilität für viele Ältere ist, ermögliche sie ihnen doch, am sozialen Leben teilzuhaben.

Aber was ist mit den Fahrern über 75 Jahre? Für sie zeigt die Statistik steigende Unfallzahlen. Diese Gruppe ist nicht klein: Laut dem DVR besitzen fast zwei Millionen Deutsche zwischen 75 und 84 Jahren ein Auto. „Trotzdem ist das Alter an sich kein Risikofaktor. Sicherheit im Straßenverkehr ist keine Frage des Lebensalters sondern der Gesundheit“, erläutert Rademacher vom DVR. Gesundheitliche Einschränkungen kämen bei dem einen früher, beim anderen erst sehr viel später. Seine Empfehlung: Autofahrer sollten frühzeitig beginnen, ihren Gesundheitszustand regelmäßig überprüfen zu lassen. Ärzte und Verkehrsexperten empfehlen diese Untersuchungen schon ab 40 Jahren.

Regelmäßiger Gesundheitscheck für Autofahrer ist wichtig.
Auch die ehemaligen Skirennläufer Rosi Mittermaier und Christian Neureuther machen sich für sichere Mobilität stark: Im Rahmen der „Aktion Schulterblick“ des DVR setzen sie sich dafür ein, dass sich Verkehrsteilnehmer regelmäßig einem freiwilligen Gesundheitscheck unterziehen. Hierbei überprüfen Ärzte die Fahrfitness der Interessierten. „Mit dem Autofahren ist es wie im Sport: Wenn man älter wird, ist man oftmals nicht mehr so gut in Form wie in jungen Jahren“, sagt Rosi Mittermaier. „So manchen plagen erste Zipperlein. Ein ärztlicher Gesundheitscheck zeigt die eigenen Grenzen auf und hilft, Gefahren realistisch einzuschätzen. Dadurch kann etwa deutlich werden, dass die Brillenstärke mal wieder angepasst werden muss, oder ein Hörgerät beim Fahren einen großen Sicherheitsgewinn bringen würde“, so die ehemalige Profisportlerin.

„Gesundheitschecks sind ein wichtiger Beitrag zur Sicherheit im Straßenverkehr“, weiß auch der Präsident der Deutschen Gesellschaft für Geriatrie (DGG), Prof. Dr. Ralf-Joachim Schulz aus Köln. Überprüft werden sollten neben der Sehkraft das Gehör, die Beweglichkeit, die Aufmerksamkeit und die Reaktionsgeschwindigkeit des Fahrzeugführers sowie die Funktion von Herz, Leber und Nervensystem, weiß der Experte für Altersmedizin.

Sprechen Sie mit Ihrem Arzt über Ihre Fahrtüchtigkeit!
Laut einer repräsentativen Forsa-Umfrage, die der DVR in Auftrag gegeben hat, wären zwei Drittel der Auto fahrenden Senioren bereit, das Fahrzeug stehen zu lassen, sofern ihr Arzt dazu rät. Doch hier zeigt sich eine Lücke: Obwohl sich die meisten Senioren regelmäßig beim Arzt durchchecken lassen, sprechen nur wenige mit ihrem Arzt über den Einfluss der Gesundheit auf die Fahrtüchtigkeit. „Dabei ist das besonders wichtig. Fragen Sie nach“, fordert Schulz alle Autofahrer auf. Dies gelte nicht nur für hochbetagte Senioren.

Der Präsident der Fachgesellschaft nennt einen weiteren wichtigen Punkt: Medikamente! Laut einer repräsentativen Bevölkerungsumfrage nehmen rund zwei Drittel aller Autofahrer ab 65 Jahren regelmäßig Medikamente ein. Bei den Über-75-Jährigen sind es sogar 77 Prozent. Sicherheit geht dabei für die meisten befragten Autofahrer vor: 78 Prozent würden ihren Wagen stehen lassen, wenn sie merken, dass Arzneimittel ihre Fahrtüchtigkeit einschränken.
Aber um das zu beurteilen, reicht der Blick in den Beipackzettel nicht aus. Denn oft ist die Kombination verschiedener Arzneimittel die Ursache für Einschränkungen, die sich im Straßenverkehr fatal auswirken können wie zum Beispiel Schwindel, Konzentrationsschwächen, verminderte Reaktionsgeschwindigkeit oder verschwommenes Sehen. „Sprechen Sie daher mit Ihrem Arzt über ALLE Arzneimittel, die sie einnehmen, auch über die freiverkäuflichen“, empfiehlt Schulz. Nur dann sei sichergestellt, dass sie die Fahrtüchtigkeit nicht einschränken.

Maria Herweg kann deshalb trotz ihrer 79 Lebensjahre die Diskussion über ihre Fahrtauglichkeit gelassen sehen. Ihr Arzt hat ihr grünes Licht für ihre täglichen Fahrten in dem alten BMW gegeben. Und sie fährt seit 50 Jahren unfallfrei. Gelernt ist eben gelernt.

Mehr zum Thema erfahren Sie auch beim Jahreskongress der DGG und DGGG:

• Gängige Ansichten und Testverfahren, mit denen die Fahrtüchtigkeit älterer Menschen untersucht wird, wird Prof. Desmond O’Neill MD im Rahmen des Jahreskongresses der Deutschen Gesellschaft für Geriatrie (DGG) und der Deutschen Gesellschaft für Gerontologie und Geriatrie (DGGG) in Halle (Saale) (24. bis 27. September 2014) hinterfragen. Zu seiner englischsprachigen Keynote-Lecture „Driving and older people: a major theme for gerontologists and geriatricians“ am Donnerstag, 25.09.2014, 14:30-15:15 Uhr, laden wir alle Vertreter der Presse herzlich ein.
http://www.gerontologie-geriatrie-kongress.org/programm/keynotes/desmond-oneill….

• In dem Symposium „Fahreignung grenzenlos“ am Donnerstag, 25.09.2014, 08:00-09:30 Uhr wird die Verpflichtung zur Prüfung der Fahreignung anhand beispielhafter Modelle aus der Schweiz und Dänemark vorgestellt.
http://www.gerontologie-geriatrie-kongress.org/programm/donnerstag/symposium-s23…

• Ergänzend wird der Verkehrspädagoge und Dozent für Verkehrsrecht Tomas Ciura in seinem Workshop „Fahreignung im Alter“ am Donnerstag, 25.09.2014, 15:30-19:00 Uhr Basiswissen rund um das Thema Fahreignung sowie rechtliche Grundlagen vermitteln. Der Workshop findet im Rahmen der DGG-Fortbildungsakademie parallel zum Kongress statt und ist mit 5 CME-Punkten zertifiziert.
http://www.gerontologie-geriatrie-kongress.org/programm/dgg-akademie-fortbildung…

• Die Interdisziplinäre Veranstaltung „Fahreignung im höheren Lebensalter“ am Freitag, 26.09.2014, 08:00-09:30 Uhr beleuchtet das Thema aus psychologischer und neurologischer Sicht.
http://www.gerontologie-geriatrie-kongress.org/programm/interdisziplinaere-veran…

Weitere Informationen:
http://www.dggeriatrie.de/presse/837-pm-fahrtauglichkeit-im-alter-darf-opa-noch-…

Quelle: idw

(nach oben


Mainzer Fluglärmstudie beweist: Nachtfluglärm verursacht deutliche Gefäßschäden bei Herz-Patienten

Dr. Renée Dillinger-Reiter Stabsstelle Kommunikation und Presse
Universitätsmedizin der Johannes Gutenberg-Universität Mainz

Mainzer Wissenschaftler publizieren Forschungsergebnisse der FluG-Risiko-Studie in der Zeitschrift „Clinical Research in Cardiology“

Eine neue Studie der II. Medizinischen Klinik und Poliklinik der Universitätsmedizin Mainz belegt: Fluglärm führt bei Patienten mit einer koronaren Herzerkrankung (KHK) bzw. einem hohen Risiko für eine KHK zu einem deutlichen Gefäßschaden, erhöhtem Blutdruck und zu einer verminderten Schlafqualität. All dies sind Befunde, die die gesundheitsgefährdende Wirkung von Fluglärm weiter belegen. Die in der Zeitschrift „Clinical Research in Cardiology“ veröffentlichte Studie wurde heute an der Universitätsmedizin Mainz vorgestellt.

„Wir wissen, dass Fluglärm Bluthochdruck, Herzinfarkte und auch Schlaganfälle auslösen kann“, so Univ.-Prof. Dr. Thomas Münzel, Direktor der II. Medizinischen Klinik und Poliklinik, Vorstandsmitglied der Stiftung Mainzer Herz und Leiter der Studie. „Die Ergebnisse unserer Studie waren so ausgeprägt, dass die Studie schon nach 60 Patienten abgebrochen wurde, obwohl eine Probandenzahl von 100 eingeplant war.“ Nach Einschätzung von Professor Münzel sind die Ergebnisse der Studie ein weiterer Mosaikstein, um die Entstehung von schwerwiegenden Herz-Kreislauf-Erkrankungen als Folge von Fluglärm erklären zu können.

Im Rahmen der Studie wurden 60 Patienten mit einer koronaren Herzerkrankung oder einem erhöhten Risiko für eine Herzerkrankung während des Schlafs mit simuliertem Nachtfluglärm beschallt. Das Durchschnittsalter der Probanden lag bei 61,8 Jahren. „In einem Feldversuch wurden die Patienten zu Hause einer Lärmbelastung ausgesetzt, bei der in einer Versuchsnacht insgesamt 60 Nachtflüge mit einem mittleren Schallpegel von 46 dBA simuliert wurden. Zur Kontrolle hatten wir auch ein lärmfreies Nacht-Szenario“, erklärt Dr. Frank Schmidt aus der II. Medizinischen Klinik und Poliklinik, der die Studie durchgeführt hat.

Die Wissenschaftler stellten fest, dass Nachtfluglärm bei den Patienten die Gefäßfunktion, die mit hochauflösenden Ultraschallgeräten gemessen wurde, deutlich verschlechterte.

„Die Verschlechterung der Gefäßfunktion war so ausgeprägt, dass nach einer Zwischenanalyse von 60 Patienten die Studie vorzeitig beendet wurde“, berichtet Dr. Schmidt. „In unserer ersten Studie konnten wir bereits belegen, dass Nachtfluglärm bei gesunden Probanden die Gefäße schädigt. Gemessen wurde dabei die Erweiterungsfähigkeit der Arterien – im Fachjargon Endothelfunktion -, die unter Nachtfluglärm deutlich abnahm. In unserer aktuellen Studie zeigte sich, dass dieser Effekt bei Patienten mit einer koronaren Herzerkrankung (KHK) noch deutlich stärker ausgeprägt war“, ergänzt Dr. Schmidt.

„Bemerkenswert ist, dass der Lärm die Gefäße schädigte, obwohl die Patienten ihre Herzkreislaufmedikamente einnahmen, die die Gefäßfunktion vor Schäden schützen“, betont Professor Münzel. „Weiterhin verschlechterte sich die Gefäßfunktion unabhängig davon, ob sich die Patienten über den Lärm geärgert haben oder nicht. Auch die Lärmempfindlichkeit der Patienten spielte keine Rolle. Die Verschlechterung der Gefäßfunktion hat bei Patienten mit einer KHK prognostische Bedeutung, da diese mit einem erhöhten Auftreten von Tod durch Herzinfarkt und Schlaganfall verbunden ist“, ergänzt Professor Münzel. „Nächtlicher Fluglärm muss damit als wichtiger, neuer Risikofaktor für Herz-Kreislauf-Erkrankungen bewertet werden. Wir Ärzte können Bluthochdruck, erhöhtes Cholesterin und Diabetes effektiv behandeln. Patienten können mit dem Rauchen aufhören. Lärm ist somit der einzige Herzkreislauf-Risikofaktor, den nur die Politik nachhaltig beeinflussen kann“, so Münzel.

„Die eindrücklichen Ergebnisse der Studie sind insbesondere vor dem aktuellen Hintergrund – der Erteilung der Baugenehmigung für den dritten Terminal am Frankfurter Flughafen – bedeutsam; zeigen sie doch einmal mehr, dass Fluglärm ein Risikofaktor für Herz-Kreislauf-Erkrankungen ist“, kommentiert Prof. Dr. Babette Simon, Vorstandsvorsitzende und Medizinischer Vorstand der Universitätsmedizin Mainz. „Deshalb fordern wir mit Nachdruck eine deutliche Entlastung des Geländes der Universitätsmedizin und der umliegenden Kliniken in Mainz vom Fluglärm und dass dazu alle Optionen des aktiven Schallschutzes zum Einsatz kommen. Alternativlos nach meinem Dafürhalten ist daher ein runder Tisch, um zu einer schnellen und nachhaltigen Lösung zu kommen.“

Die Studie wurde von der II. Medizinischen Klinik und Poliklinik der Universitätsmedizin Mainz mit Unterstützung der Stiftung Mainzer Herz und der Robert Müller Stiftung durchgeführt.

Die Originalarbeit mit den Forschungsergebnissen ist abrufbar unter:
http://link.springer.com/journal/392

Weiterführende Informationen zu den Probanden und zur Durchführung der Studie finden Sie unter: https://www.youtube.com/channel/UCdRqJEmZIvB0KdD9qTJ6PAA.

Kontakt:
Andrea Mänz-Grasmück und Teresa Peter, Stiftung Mainzer Herz,
c/o Büro Univ.-Prof. Dr. med. T. Münzel,
II. Medizinische Klinik und Poliklinik, Universitätsmedizin Mainz,
Langenbeckstr. 1, 55131 Mainz
Tel. 06131 17 5737 und 06131 17 8215,
Fax 06131 17 5660, E-Mail: info@herzstiftung-mainzer-herz.de

Über die Universitätsmedizin der Johannes Gutenberg-Universität Mainz
Die Universitätsmedizin der Johannes Gutenberg-Universität Mainz ist die einzige medizinische Einrichtung der Supramaximalversorgung in Rheinland-Pfalz und ein international anerkannter Wissenschaftsstandort. Sie umfasst mehr als 60 Kliniken, Institute und Abteilungen, die fächerübergreifend zusammenarbeiten. Hochspezialisierte Patientenversorgung, Forschung und Lehre bilden in der Universitätsmedizin Mainz eine untrennbare Einheit. Rund 3.500 Studierende der Medizin und Zahnmedizin werden in Mainz ausgebildet. Mit rund 7.500 Mitarbeiterinnen und Mitarbeitern ist die Universitätsmedizin zudem einer der größten Arbeitgeber der Region und ein wichtiger Wachstums- und Innovationsmotor. Weitere Informationen im Internet unter www.unimedizin-mainz.de

Über die Stiftung Mainzer Herz
Die im Jahr 2007 gegründete Stiftung hat den Zweck Forschung und Lehre zu fördern sowie die Patientenversorgung an der II. Medizinischen Klinik kontinuierlich zu verbessern. Das beginnt bereits bei der Prävention, also der Vorsorge und der Vorbeugung von Herz-Kreislauf-Erkrankungen, und endet bei der optimalen Versorgung von Patienten, die einen akuten Herzinfarkt erlitten haben. Ein neuer Förderschwerpunkt der Stiftung im Forschungsbereich sind die Auswirkungen von Lärm („Fluglärm“) auf die Gesundheit mit besonderem Fokus auf Herz-Kreislauf-Erkrankungen.
Weitere Informationen zur Stiftung und zu Fördermöglichkeiten unter:
http://www.herzstiftung-mainzer-herz.de/

Quelle: idw

(nach oben)


TU Berlin: Kälte aus (Ab)wärme

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Gemeinsame Medieninformation der Technischen Universität Berlin und des Vivantes Klinikum Spandau

Am Vivantes Klinikum Spandau geht eine neuartige Anlage zur Kraft-Wärme-Kälte-Kopplung an den Start. Entwickelt wurde diese von einem Forschungsverbund unter Leitung der TU Berlin.

Neue Wege bei der Kälteversorgung geht das Vivantes Klinikum Spandau: Dessen Blockheizkraftwerk (Kraft-Wärme-Kopplung) ist jetzt mit dem neuen Typ einer Absorptionskälteanlage und einer so genannten trockenen Rückkühlung gekoppelt worden. Dadurch lässt sich im Sommer neben dem erzeugten Strom auch die (Ab)Wärme nutzen, um beispielsweise OP-Bereiche und Intensivstationen zu kühlen. So kann die Auslastung und Effizienz der vorhandenen Kraft-Wärme-Kopplungs-Anlage erhöht werden. Ziel von Vivantes ist es, Energie effizienter zu nutzen und langfristig Energiekosten zu sparen.

Um in der umweltfreundlichen Kälteversorgung neue Maßstäbe zu setzen, ist eine breite Initiative aus mehreren Forschungseinrichtungen angetreten – unter Leitung der TU Berlin gemeinsam mit dem Energieeffizienzverband für die Wärme- und Kälteversorgung (AGFW) und dem Bundesverband Technische Gebäudeausrüstung e.V. (BTGA) mit einer Förderung durch das Bundesministerium für Wirtschaft und Energie (BMWi).
In Deutschland werden aktuell rund 15 Prozent des elektrischen Stroms zur Kühlung eingesetzt. Und Fachleute gehen davon aus, dass bis 2030 die Ausrüstung mit Klimaanlagen um 50 Prozent zunehmen wird. Vor diesem Hintergrund ist das Potenzial ebenso wie die Notwendigkeit gegeben, Wärme aus Kraft-Wärme-Kopplung, aber auch aus anderen Quellen, wie zum Beispiel aus Produktionsprozessen oder der Solarenergie, zur Kälteerzeugung zu nutzen und damit den Bedarf an elektrischem Strom zur Kälteerzeugung nicht ungebremst wachsen zu lassen. Der wesentliche Vorteil der Kraft-Wärme-Kopplung gegenüber der getrennten Erzeugung von Strom (Kraft) und Wärme ist die deutlich höhere Ausnutzung des Primärenergieträgers. Jedoch liegt dieser ressourcenschonende und Emissionen reduzierende Vorteil der Kraft-Wärme-Kopplung im Sommer brach, da zu wenig Wärme gebraucht wird. Es sei denn, man kann die Abwärme zur Kühlung von zum Beispiel Rechenzentren, Büroräumen, Krankenhäusern oder bei der Lebensmittelherstellung nutzen. Hierfür kommen Absorptionskälteanlagen zum Einsatz.

Ein Wissenschaftsverbund vom Fachgebiet Maschinen- und Energieanlagentechnik der TU Berlin, der Vattenfall Wärme AG und dem Bayerischen Zentrum für angewandte Energieforschung (ZAE Bayern) haben in einem durch das damalige Bundesministerium für Wirtschaft und Technologie (BMWi) einen neuen und deutlich effizienteren Typ von Absorptionskälteanlagen entwickelt, mit denen die Wärme das ganze Jahr über genutzt werden kann. Die Ziele der Bundesregierung zur Effizienzsteigerung und CO2-Minimierung im Strom- und Energiemarkt werden somit gleichzeitig auf zwei Wegen erreicht. Einerseits kann der Anteil von KWK-Strom am nationalen Strommix als Nebeneffekt der Wärmenutzung signifikant erhöht werden, zum anderen wird der Stromverbrauch im Sommer verringert.
Zusammen mit den Kooperationspartnern der TU Berlin werden diese Anlagen nun in umfangreichen Feldtests zur Marktreife vorangebracht und der Öffentlichkeit vorgestellt. In den kommenden Monaten wird bundesweit bei insgesamt weiteren 14 Stadtwerken und privatwirtschaftlichen Partnern die optimierte Absorptionskälteanlagentechnik getestet.

Weitere Informationen erteilen Ihnen gern: Prof. Dr.-Ing. Felix Ziegler, TU Berlin, Fachgebiet Maschinen- und Energieanlagentechnik, Tel.: 030/314-25624, E-Mail: felix.ziegler@tu-berlin.de, Dipl.-Ing. Stefan Petersen, Projektleitung FAkS am Fachgebiet Maschinen- und Energieanlagentechnik, Tel.: 030/314-29231, E-Mail: stefan.petersen@tu-berlin.de
Dipl.-Ing. Winfried Löwe, Projektleitung Ressort FacilityManagement/Bau, Vivantes, Tel. 030/130-115113, E-Mail: Winfried.loewe@vivantes.de

Quelle: idw

(nach oben)


Menschen mit Arthrose bewegen sich zu wenig. Experten raten zu moderatem Sport

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Berlin – Fast jeder dritte 45- bis 67-Jährige in Deutschland ist an Arthrose erkrankt. Bei den über 65-Jährigen trifft es bereits jeden Zweiten. Betroffene haben meist zu Beginn große Schmerzen, vor allem wenn sie sich bewegen. Sie sind verunsichert, welche Belastung sie ihren Gelenken noch zumuten können und bewegen sich daher immer seltener. Dabei lindert regelmäßige Bewegung die Krankheitszeichen der Arthrose und verlangsamt ihr Fortschreiten. Welche Risiken dennoch beachtet werden müssen und wie Betroffene ihre Gelenke beim Sport schützen, erklären Experten auf einer Pressekonferenz des Deutschen Kongresses für Orthopädie und Unfallchirurgie (DKOU) am 29. Oktober 2014 in Berlin.

Arthrose gehört zu den häufigsten Erkrankungen im Alter. Aber auch immer mehr junge Menschen leiden an Gelenkverschleiß: Ein Unfall, eine angeborene Fehlstellung, Übergewicht, Gelenkentzündungen und Stoffwechselerkrankungen können die Ursachen sein. Betrifft die Arthrose große Gelenke wie Knie, Hüfte, Wirbelsäule und Sprunggelenk, ist das Bewegungsverhalten der Betroffenen häufig stark eingeschränkt. „Meist hindern Schmerzen die Patienten, sich regelmäßig zu bewegen“, erklärt Professor Dr. phil. Klaus Bös, ehemaliger Leiter des Instituts für Sportwissenschaften am Karlsruher Institut für Technologie. „Doch dadurch geraten sie in einen Teufelskreis: Schont sich der Arthrose-Patient, wird weniger Gelenkflüssigkeit produziert und die Knorpel werden rau und spröde, was wiederum zu mehr Verschleiß und Schmerzen führt.“

Bewegung gilt jedoch als zentraler Bestandteil der Arthrose-Therapie. Bös empfiehlt daher ein moderates Training, idealerweise täglich 30 bis 40 Minuten, aber mindestens zweimal die Woche. Es sollte auf drei Prinzipien beruhen: ein sanftes Training, ein gutes Körpergefühl, das zwischen Gelenk- und Bewegungsschmerzen unterscheiden kann, und ein gutes Wechselspiel zwischen Belastung und Anpassung. Walking, Dehn- und Kräftigungsübungen sind bei schmerzenden Gelenken besonders empfehlenswert.

Welche Sportarten für Arthrose-Patienten geeignet sind und welche besser vermieden werden, haben die Experten in einer Checkliste zusammengefasst:

Empfehlenswert:
• Schwimmen
• Gehen (Nordic Walking)
• Skilanglauf
• Jogging
• Aerobic
• Radfahren

Nicht oder nur sehr eingeschränkt empfehlenswert:
• Tennis
• Squash
• Volleyball
• Ski alpin
• Fußball
• Handball

Hierüber und wie Sportverletzungen vermieden werden können oder was Betroffene beim Training beachten sollten, erklären die Experten auf einer Pressekonferenz am 29. Oktober 2014 anlässlich des DKOU in Berlin.

Terminhinweis:
Pressekonferenz auf dem DKOU
Arthrose erfolgreich vorbeugen und behandeln: Sport, Physio, Tabletten, oder OP – was wie wann?
Termin: Mittwoch, 29.10.2014, 11.00 bis 12.00 Uhr
Ort: Pressezentrum, Raum 411, Messe Süd Berlin

Weitere Informationen:
http://www.dkou.de

Quelle: idw

(nach oben)


Trendwende für die Konjunktur? IMK: Rezessionsgefahr stark gestiegen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Erstmals seit Dezember 2012 ist das Risiko, dass die deutsche Wirtschaft in eine Rezession gerät, stark gestiegen. Das signalisiert der Konjunkturindikator des Instituts für Makroökonomie und Konjunkturforschung (IMK) in der Hans-Böckler-Stiftung. Für den Zeitraum von August bis Oktober 2014 weist das IMK-Frühwarninstrument eine mittlere Rezessionswahrscheinlichkeit von 25,2 Prozent aus. Im Juli waren es lediglich 7,5 Prozent. Damit liegt die Rezessionswahrscheinlichkeit nach dem Ampelsystem des Indikators zwar noch im „grünen Bereich“ (geringes Risiko unter 30 Prozent), hat aber spürbar zugenommen.

„Der deutliche Sprung mahnt zur Wachsamkeit“, warnt IMK-Forscherin Dr. Sabine Stephan. „Er könnte ein Anhaltspunkt dafür sein, dass die seit Dezember 2012 währende Phase sehr geringer Rezessionswahrscheinlichkeiten zu Ende ist, und die deutsche Wirtschaft nunmehr in ein unruhiges Fahrwasser mit deutlich erhöhter Unsicherheit gerät.“

Die aktuelle Vorhersage beruht auf dem Datenstand von Anfang August. Das IMK nutzt bei seinem Indikator die Industrieproduktion als Referenzwert für eine Rezession, weil diese rascher auf einen Nachfrageeinbruch reagiert als das Bruttoinlandsprodukt. In die Gleichungen des Indikators fließen zahlreiche Daten aus der Real- und der Finanzwirtschaft ein. Darüber hinaus berücksichtigt das Instrument Stimmungsindikatoren.

Für eine mögliche Trendwende spreche, dass in diesem Monat nicht nur von den Finanzmärkten und von Stimmungsindikatoren negative Signale kommen, erläutert Stephan. Auch realwirtschaftliche Größen wiesen bereits deutliche Schwächetendenzen auf: Das aktuelle Ergebnis des IMK Konjunkturindikators sei maßgeblich geprägt von einem starken Rückgang der Auftragseingänge aus dem In- und Ausland. „Hinzu kommt, dass nicht nur die aktuelle Lage von den Unternehmen schlechter beurteilt wird, sondern dass sich auch die Erwartungen weiter eintrübten.“

Die günstigen Konjunkturaussichten, die das IMK noch in seiner jüngsten Konjunkturprognose vermittelt hat, zieht es inzwischen in Zweifel. Insbesondere die Zeichen für einen fortgesetzten Aufschwung im kommenden Jahr stehen schlecht: „Vor dem Hintergrund dieser Belastungen ist eine kräftige Binnennachfrage, die durch entsprechende Lohnsteigerungen gestützt wird, der beste Schutz gegen eine drohende Rezession.“

Der IMK Konjunkturindikator wird monatlich aktualisiert.

Kontakt in der Hans-Böckler-Stiftung
Dr. Sabine Stephan
IMK, Expertin für Zeitreihenanalyse
Tel.: 0211-7778-335
E-Mail: Sabine-Stephan@boeckler.de

Weitere Informationen:
http://www.boeckler.de/imk_38710.htm – zum Konkunkturindikator

Quelle: idw

(nach oben)


Zu salzig, zu süß, zu fett: EU-Projekt zu ungesunden Geschmacksstoffen in Nahrungsmitteln

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

15 Partner aus 12 Ländern bei EU-Vergleichsstudie SALUX / Auf der Spur von gesundheitsschädlichem Salz, Zucker und Fett

Der Kaffee gut gesüßt, das Essen reichlich gesalzen, die Pommes in der Fritteuse zubereitet: Heutzutage enthalten fast alle verarbeiteten Lebensmittel mehr Zucker, Salz oder Fett als gesundheitlich geboten. Die Menschen mögen es so. Die von der EU geförderte Vergleichsstudie SALUX verglich die Situation in 12 EU-Ländern miteinander: Alle nehmen zu viel Geschmacksstoffe zu sich. „Auf lange Sicht ist das gesundheitsschädlich“, so die Studienbeteiligten der Universität Hohenheim, Prof. Dr. Walter Vetter und Prof. Dr. Lutz Graeve. Das Problem: Ein deutliches Reduzieren der Geschmacksstoffe nehmen die Menschen nicht an – und eine Änderung der Rezeptur kostet Geld. Dies würde vor allem kleine und mittelständische Nahrungsmittelhersteller in Bedrängnis bringen. Weitere Informationen unter www.salux-project.eu/de

Wie süß mögen wir eigentlich unseren Joghurt? In einer Versuchsreihe gingen Schweizer Forscher von Agroscope dieser Frage nach. Die Ausgangslage: Fast alle Probanden gaben an, dass ihnen Joghurt im Allgemeinen zu süß sei.

Daraufhin ließen die Wissenschaftler die Probanden Joghurts mit verschiedenem Zuckergehalt auf ihren Geschmack hin testen. Das überraschende Ergebnis: Der leckerste Joghurt war der mit der höchsten Menge an Zucker – aber viel zu süß. Diese Studie zeigt, dass eine Reduzierung von Salz, Zucker oder Fetten oft eine komplexe Reformulierung der Lebensmittel erfordert.

Maximal 6 Gramm Salz am Tag
„Heutzutage ist in fast allen Nahrungsmitteln Salz, Zucker oder Fett enthalten“, sagt Prof. Dr. Walter Vetter, Leiter des Fachgebiets Lebensmittelchemie an der Universität Hohenheim. „Obwohl die Deutschen beispielsweise beim Salzkonsum in der EU mit am besten abschneiden – also mit am wenigsten Salz zu sich nehmen – ist es nach den Empfehlungen der Weltgesundheitsorganisation (WHO) immer noch zu viel“, so das Resultat der Recherchen des Lebensmittelchemikers.

Laut WHO solle ein Erwachsener nicht mehr als 6 Gramm Salz am Tag zu sich nehmen. Die Realität sehe jedoch anders aus, weiß auch Prof. Dr. Lutz Graeve, Leiter des Fachgebiets Biochemie der Ernährung an der Universität Hohenheim. „Durchschnittlich nimmt ein erwachsener Mann in Deutschland 8,4 Gramm Salz zu sich, eine erwachsene Frau durchschnittlich 6,1 Gramm.“

Der Konsum ist in den EU Ländern durchaus unterschiedlich. Vor allem in Südosteuropa liegt der tägliche Salzkonsum bei bis zu 14 Gramm. Interessanterweise liegt der Salzkonsum der Männer in praktisch allen Ländern über dem der Frauen. Solche Unterschiede in den einzelnen Ländern machen eine einheitliche Regulierung schwierig.

Nahrungsmittelkonzerne gegen staatliche Regulierung
Den Großkonzernen im Nahrungsmittelbereich ist dieser Überkonsum schon lange bekannt. Sie suchen bereits nach alternativen Methoden, erklärt die Hohenheimer Studentin Julia Meyer, die ebenfalls an dem Projekt beteiligt war.

Insbesondere die mittelständischen Betriebe haben Angst vor einer gesetzlichen Regulierung, da eine Umstellung der Rezeptur oftmals mit hohen Kosten verbunden ist. Zudem ist nicht gewährleistet, dass das neue Produkt von der Kundschaft akzeptiert wird, wie das obige Beispiel Joghurt zeigte.

Eine Lösung wäre, dass die EU Richtlinien erlässt, die erlaubte Mengen von Salz, Zucker oder ungesunden Fetten in bestimmten Nahrungsmitteln vorgeben. Dem stehen aber die Vielfalt an unterschiedlichen Ernährungsvorlieben der Europäer und die Interessen der Industrieverbände im Wege.

Reformulierung der Nahrungsmittel durch Aufklären und Umgewöhnen unterstützen
„Eine Aufklärung gerade über die gesundheitlichen Gefahren von zu viel Zucker, Salz und Fetten sollte bereits im Kindergarten stattfinden“, so die Hohenheimer Forscher. „Viele Krankheiten wie Übergewicht und Diabetes lassen sich auf einen Überkonsum dieser Stoffe zurückführen.“

Das Problem: Auf ein zu schnelles und zu deutliches Reduzieren reagierten die Geschmacksnerven negativ und signalisierten dem Körper, dass das Produkt nicht schmecke. Prof. Dr. Graeve: „Darum ist eine stetige Gewöhnung, eine sogenannte sensorische Adaption, an weniger Geschmacksstoffe ein wichtiger Schritt bei der Reformulierung der Nahrungsmittel. Eine Verbesserung der Gesundheit wäre die Folge. Das wiederum würde Kosten einsparen.“

Die Lösung: Ein schrittweises Reduzieren von Salz, Zucker und ungesunden Fetten soll verhindern, dass die Menschen bewusst etwas vom Geschmack einbüßen müssen. „Ziel ist aber nicht nur, die Menschen nach und nach an weniger Geschmacksstoffe zu gewöhnen, sondern auch die Nahrungsmittel nicht mit anderen neuen Zusatzstoffen zu versehen“, betonen die Hohenheimer Forscher.

Internetplattform soll Mittelständer bei Reformulierung unterstützen
Über 3 Jahre sammelten die Studienteilnehmer aus 12 EU-Staaten Daten, um Salz, Zucker und unerwünschte Fette in den Lebensmitteln zu reduzieren und stellen die Ergebnisse nun auf einer Internetplattform der Öffentlichkeit und den Unternehmen zur Verfügung. So sollen vor allem kleine und mittelständische Unternehmen motiviert werden Reformulierungen ihrer Produkte durchzuführen.

Außerdem können ihnen die Daten helfen, die dabei anfallenden Kosten realistisch abzuschätzen. Auf der Onlineplattform, dem sogenannten Clearing House, sind in allen Landessprachen Vorschläge zur Reformulierung seitens der Wissenschaft und Industrie gebündelt.

Hintergrund: EU-Projekt SALUX
SALUX ist ein europäisches Netzwerk für die Beobachtung und Analyse von Rezepturumstellungen verarbeiteter Lebensmittel. Vorrangig zielt es auf eine Reduktion von Zucker, Salz, gesättigten Fettsäuren und Transfettsäuren ab und fördert eine gesündere Lebensweise im Allgemeinen, um so in weiterer Folge häufige ernährungsbedingte Krankheiten zu verringern.

Eine starke Einbindung betroffener Interessengruppen, wie zum Beispiel Verbände der Nahrungsmittelindustrie, Klein- und Mittelbetriebe (KMU), Verbraucherverbände, Behörden sowie non-governmental organisations (NGOs) auf nationaler Ebene, sollen hierbei helfen, einen positiven Einfluss auf die Ernährung der Europäischen Konsumenten zu erzielen.

Das EU-Projekt SALUX zu Salzen, Zucker und Fetten ist eine internationale Kooperation aus 12 Nationen: Italien, Finnland, Litauen, Bulgarien, Deutschland, Rumänien, Großbritannien, Frankreich, Slowenien, Österreich, Ungarn und Spanien.

Prof. Dr. Lutz Graeve, Leiter des Fachgebiets Biochemie der Ernährung, Universität Hohenheim
Tel.: 0711/459- 24195, E-Mail: graeve@uni-hohenheim.de

Text: C. Schmid / Töpfer

Weitere Informationen:

http://www.salux-project.eu/de „Homepage SALUX“

Quelle: idw

(nach oben)


Asiatische Firmen sichern sich Vormacht bei Energiespeichern

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Die Zahl der Patentanmeldungen für elektrochemische Energiespeicher-Technologien ist in den vergangenen Jahren stark gestiegen. Die mit großem Abstand meisten Schutzrechte beantragten die Entwickler für Lithium-Batterien. Dies zeigt eine Studie der Technischen Universität München (TUM). Sie bietet erstmals eine differenzierte Analyse, welche Energiespeicher-Technologien Chancen haben, sich in der Energiewende durchzusetzen. Ökonomisch ins Hintertreffen geraten in diesem Bereich europäische und amerikanische Firmen: Asiatische Unternehmen melden weit mehr Patente an.

Wind weht nicht immer, die Sonne scheint nicht ständig. Wenn künftig ein Großteil des Stroms mit erneuerbaren Energien produziert wird, muss Energie zu ertragreichen Zeiten gespeichert werden, um diese Schwankungen auszugleichen. Die bestehenden Speicherkapazitäten werden jedoch bei weitem nicht ausreichen. Wissenschaft und Wirtschaft arbeiten deshalb an neuen und verbesserten Technologien. Ein bedeutender Schwerpunkt liegt dabei auf Batteriesystemen, die bislang noch zu teuer oder zu wenig ausgereift sind, um in großem Stil eingesetzt zu werden. Dabei konkurrieren mehrere elektrochemische Technologien darum, zum Standard zu werden.

An welchen Technologien derzeit am intensivsten gearbeitet wird und welche in naher Zukunft auf den Markt kommen können, ist für alle Akteure des Energiesektors aus Wirtschaft, Politik und Wissenschaft strategisch wichtig zu wissen. Da Unternehmen ihre Entwicklungsarbeit naturgemäß nicht offenlegen, haben Wirtschaftswissenschaftler der TUM – als Teil eines interdisziplinären Großprojekts zu Batteriespeichern – die weltweiten Patentanmeldungen der Jahre 1991 bis 2011 für elektrochemische Energiespeicher analysiert. (Die Anmeldungen ermöglichen einen aktuelleren Blick auf die Entwicklung als die schon erteilten Schutzrechte.)

Die Studie zeigt, dass die jährliche Zahl neuer Patentfamilien, also Gruppen von Patentanmeldungen und Patenten für ähnliche oder gleiche Erfindungen (z. B. Anträge in verschiedenen Staaten), von 2006 bis 2011 um 110 Prozent gestiegen ist. Wurden 2006 noch Schutzrechte für rund 2800 Entwicklungen angemeldet, waren es 2011 bereits 5900 Anträge. „Angesichts dieser Investitionen können wir davon ausgehen, dass neue elektrochemische Energiespeicher-Techniken in naher Zukunft marktreif und kostengünstiger als bestehende Produkte sein werden“, sagt Simon C. Müller, Physiker und Ökonom am Lehrstuhl für Strategie und Organisation.

Große Dynamik im Lithium-Segment
Die mit großem Abstand meisten Patente meldeten die Entwickler für Lithium-Batterien an, 4900 neue Patentfamilien gab es im Jahr 2011. Damit zeigt die Kurve der Anmeldezahlen in diesem Segment seit 2008 steil nach oben – nach einem einmaligen Rückgang im Jahr 2007. Zuvor mussten mehrere Anbieter Produkte wegen Sicherheitsmängeln zurückrufen. „Die Skepsis, dass man Lithium-Batterien nicht sicher genug gestalten kann, ist offenbar verflogen“, sagt Müller. Zudem werden die neuen Patentanmeldungen häufiger als bei anderen Technologien in nachfolgenden Patentanmeldungen zitiert – ein Qualitätsmerkmal, das zeigt, dass sie eine Rolle bei der Weiterentwicklung der Technologie spielen.

Auf Rang zwei der Patentanmeldungen folgen Blei-Batterien mit lediglich rund 580 neuen Patentfamilien im Jahr 2011. Eine bemerkenswerte Zunahme auf allerdings niedrigem Niveau stellten die Forscher für die jüngste Zeit bei Redox-Flow-Batterien fest, bei denen die energiespeichernden chemischen Verbindungen in gelöster Form eingesetzt werden: Von 2009 bis 2011 hat sich die Zahl der Anträge von 90 auf 200 mehr als verdoppelt. Die Zahl neuer Patentfamilien für Alkali-Batterien ging zuletzt auf 240 leicht zurück, Natrium-Schwefel-Technologien spielten mit 20 Anträgen eine gleichbleibend geringe Rolle.

„Im Lithium-Segment gibt es also eine große Dynamik“, sagt Simon C. Müller. „Es ist durchaus möglich, dass wir schon bald an einem Punkt ankommen, an dem ein sich selbst verstärkender Effekt entsteht: Sobald die technisch-ökonomischen Daten gut genug sind, wird noch mehr in Forschung und Entwicklung investiert, was zu einem weiteren Vorsprung führt.“ Dies gelte umso mehr, als Lithium-Batterien auch in Elektroautos eingesetzt werden, also sowohl aus der Energie- als auch der Fahrzeugbranche nachgefragt werden können.

Asiatische Entwickler melden fast vier mal so viele Patente an wie europäische
Im Geschäft sein werden dann wohl hauptsächlich asiatische Unternehmen, zeigt die Analyse. 2011 konnten asiatischen Entwicklern 2100 Anmeldungen für Patentfamilien bei elektrochemischen Energiespeichern zugeordnet werden, europäischen 530, amerikanischen lediglich 410. Die Asiaten konnten die Zahl der jährlichen Patentanmeldungen damit seit 2001 trotz einer hohen Ausgangszahl um 220 Prozent steigern, die Europäer um 260 Prozent, die Amerikaner um 70 Prozent.

Auch wenn man die Qualität der Portfolios berücksichtigt, nehmen asiatische Unternehmen eine enorme Vormachtstellung ein. Die Forscher erstellten einen Index, der neben den quantitativen Daten auch die Zitierungen der Patentanmeldungen einbezieht. Bei den Lithium-Batterien kommen demnach acht japanische und ein koreanisches Unternehmen unter die Top 10, angeführt von Fuji. Lediglich eine amerikanische Firma taucht hier auf. Mit dem Centre National de la Recherche Scientifique (CNRS) folgt die erfolgreichste europäische Institution erst auf Rang 25.

„Diese Ergebnisse werfen spannende Fragen in der Forschungspolitik und im Entwicklungsmanagement auf. Es wäre beispielsweise interessant zu untersuchen, welche Strategien zur Technologieführerschaft in diesem Bereich geführt haben und was europäische Mitbewerber davon lernen können“, sagt Prof. Isabell M. Welpe, Inhaberin des Lehrstuhls für Strategie und Organisation.

Projekt EEBatt:
Die Studie ist Teil des Projekts „Dezentrale stationäre Batteriespeicher zur effizienten Nutzung erneuerbarer Energien und Unterstützung der Netzstabilität (EEBatt)“. 14 Lehrstühle aus verschiedenen Fächern der TUM forschen gemeinsam mit dem Bayerischen Zentrum für Angewandte Energieforschung (ZAE) und der VARTA Storage GmbH. Das Projekt wird gefördert vom Bayerischen Staatsministerium für Wirtschaft und Medien, Energie und Technologie.

Publikation:
Mueller, SC, Sandner, PG, and Welpe, IM (2014). Monitoring innovation in electrochemical energy storage technologies: a patent-based approach. Applied Energy, DOI: 10.1016/j.apenergy.2014.06.082
http://dx.doi.org/10.1016/j.apenergy.2014.06.082

Kontakt:
Simon C. Müller, M.Sc.
Technische Universität München
Lehrstuhl für Strategie und Organisation (Prof. Isabell M. Welpe)
Tel.: +49 89 289 24829
simon.mueller@tum.de

Weitere Informationen:

http://www.eebatt.tum.de

Quelle: idw

(nach oben)


Austausch übers Essen bringt neue Genuss-Kultur im Internet hervor

Gerhild Sieber Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Sprachwissenschaftler der Saar-Uni erforschen eine neue Genuss-Kultur im Internet: Das Essen bringt über Landesgrenzen hinweg eine „Genuss-Community“ zusammen, die sich schnell über mehr austauscht, als nur über das Kochen. Dabei wenden sich typischerweise Nicht-Experten an Nicht-Experten. Das Essen nimmt dabei eine kulturelle Brückenfunktion ein. Das sind erste Ergebnisse des Forscher-Teams von Stefan Diemer, Professor für Englische Sprachwissenschaft, das untersucht, wie der Austausch über Essen auch den Austausch der Kulturen fördert. Hierzu analysieren die Forscher englischsprachige „Food“-Blogs und Gespräche von Probanden aus verschiedenen Ländern mit Englisch als Zweitsprache.

Bei der internationalen Konferenz „Food and Culture in Translation“ in Bologna erhielten zwei Nachwuchswissenschaftlerinnen aus Diemers Team für ihre Forschung den „CuiZine Award“ des gleichnamigen kanadischen Food-Magazins.

Engländer kochen schlecht, Franzosen gut, Deutsche essen Sauerkraut. „Auf solche Klischees stoßen wir bei unserer Forschung zuhauf. Es gibt in Europa tatsächlich auf diesem Gebiet Vorurteile, die wie einzementiert sind“, sagt Stefan Diemer. Der Professor für Englische Sprachwissenschaft erstellt gemeinsam mit bulgarischen, spanischen und italienischen Forschern im EU-Projekt „CASE“ ein „Textkorpus“, also eine Sammlung der international gesprochenen englischen Sprache, die Grundlage für weitere Forschung sein soll. In diesem Rahmen beleuchten die Linguisten auch den Austausch über das Essen im Internet.

Hierzu nehmen sie zum einen englischsprachige Koch-Blogs unter die Lupe. „Solche Blogs kennzeichnen sich dadurch, dass sie zum Treffpunkt von Gleichgesinnten werden – wenn man so will, einer Art Genuss-Community. Hier tauschen sich Experten, aber vor allem auch Nicht-Experten aus, die Rezepte rangieren von innovativ bis alt-erprobt und es wird viel Persönliches diskutiert“, resümiert Diemer. „Da meist keine Profis am Werk sind, ist typisch, dass auch wenige Vorkenntnisse vorausgesetzt werden. So kommt es, dass auch viel Selbstverständliches erklärt wird.“ Zum anderen untersuchen die Sprachwissenschaftler Gespräche, die Probanden aus Deutschland, Bulgarien, Italien und Spanien in englischer Sprache übers Internet führen. Diese Gespräche werden vertextet und analysiert. „Hierbei erforschen wir unter anderem, wie die Leute mit Verständigungsproblemen umgehen. Einem Italiener zum Beispiel das Spaghetti-Eis zu erklären, ist eine echte Herausforderung“, sagt Diemer. „Interessant ist auch, wie bei der Unterhaltung etwa ein Thema gewechselt wird. Hier nimmt das Lachen eine wichtige Rolle ein. Linguistisch ist nachweisbar, dass vor einem Themenwechsel meist ausgiebig und etwas nervös gelacht wird.“

Das Projekt CASE wird mit 30.000 Euro Drittmitteln gefördert.
Bei der von der Universität Bologna veranstalteten ersten internationalen Konferenz „Food and Culture in Translation“ erhielten die Nachwuchs-Wissenschaftlerinnen Marie-Louise Brunner und Selina Schmidt aus Diemers Team im Juni den erstmals vergebenen „CuiZine Award“ des gleichnamigen kanadischen Food-Magazins: Ausgezeichnet wurden sie für den Vortrag „Besser als die Realität? Wenn es online ums Essen geht.“ Das Preiskomitee würdigte mit der Verleihung „die wissenschaftliche Stärke und Originalität der Ergebnisse und die Qualität der Präsentation sowie das bemerkenswerte weitergehende Forschungspotenzial“.

Mehr zum CASE-Projekt:
http://www.uni-saarland.de/lehrstuhl/engling/case.html
http://prezi.com/rfnsbllcgzur/case/

Kontakt: Stefan Diemer Tel.: 0681 302-3309, -3009
E-Mail: s.diemer@mx.uni-saarland.de

Quelle: idw

(nach oben)


Was uns Lebensjahre raubt

Dr. Stefanie Seltmann Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Wer auf Alkohol und Zigaretten verzichtet, dazu nur wenig rotes Fleisch und Wurst isst und auf ein normales Gewicht achtet, lebt bis zu 17 Jahre länger. Dies errechneten Wissenschaftler im Deutschen Krebsforschungszentrum auf der Basis der Daten der Heidelberger EPIC-Teilnehmer. Die meiste Lebenszeit kostet es, zu rauchen. Männern raubt der Glimmstängel im Schnitt neun, Frauen sieben Lebensjahre.

Eigentlich weiß es jeder: Gesund ist es nicht, sein Dasein als schwergewichtige „Couch Potatoe“ mit Bier und Zigaretten vor dem Fernseher zu verbringen. Wie groß die schädlichen Effekte tatsächlich sind, die ein solch ungesunder Lebensstil mit sich bringt, haben Wissenschaftler aus dem Deutschen Krebsforschungszentrum (DKFZ) nun präzise ermittelt.

Die DKFZ-Epidemiologen um Prof. Rudolf Kaaks errechneten, wie viele Jahre jedes einzelne Risikoverhalten von der durchschnittlichen Lebenserwartung eines heute Vierzigjährigen raubt. Außerdem ermittelten sie die Auswirkungen der kombinierten Risiken.

Das günstigste Risikoprofil und damit die größte Lebenserwartung hatten demnach Nichtraucher (und Nichtraucherinnen) mit einem Body Mass Index* zwischen 22,5 und 24,9, die wenig Alkohol tranken, körperlich aktiv waren und wenig rotes Fleisch, dafür aber viel Obst und Gemüse aßen: Diese Menschen dürfen sich im Alter von 40 auf 47,5 (Männer) bzw. sogar 48,7 weitere Lebensjahre (Frauen) freuen.

Betrachteten die Wissenschaftler die verschiedenen riskanten Lebensstilfaktoren jeweils einzeln, so schlägt das Rauchen am stärksten zu Buche: Raucht ein Mann über zehn Zigaretten pro Tag, so verliert er ganze 9,4 Jahre an Lebenserwartung, eine Frau 7,3 Jahre. Auch ein moderater Konsum von weniger als zehn Zigaretten pro Tag reduziert die Lebenserwartung bei beiden Geschlechtern immer noch um etwa fünf Jahre.

Weitere Lebensstilfaktoren, die zu einem deutlichen Verlust an zu erwartenden Lebensjahren führen, sind: Adipositas* (3,1/3,2 Jahre), starker Alkoholkonsum** (3,1 Jahr, nur Männer) bzw. hoher Verzehr an rotem Fleisch (2,4 Jahre Frauen, 1,4 Jahre Männer). Aber auch ein Body Mass Index* unter 22,5 kg/m2 verringert die Lebenszeit (3,5 Jahre Männer, 2,1 Jahre Frauen). Ein Mangel an körperlicher Aktivität machte sich nicht durch einen signifikanten Verlust an Lebenserwartung bemerkbar.

Bei vielen Menschen bleibt es jedoch nicht bei einer einzigen ungesunden Angewohnheit. Um das zu berücksichtigen, errechneten die Forscher um Rudolf Kaaks auch, welche Effekte eine Kombination dieser riskanten Lebensstilfaktoren mit sich bringt: Demzufolge büßt ein adipöser starker Raucher, der viel trinkt und viel rotes Fleisch verzehrt, gegenüber dem Mitmenschen mit günstigstem Risikoprofil bis zu 17 Jahre an Lebenserwartung ein. Bei einer Frau wären es 13,9 Jahre.

Für ihre aktuelle Untersuchung stand den DKFZ-Epidemiologen ein wahrer Datenschatz zur Verfügung: Das DKFZ ist beteiligt an EPIC, der gesamteuropäischen Studie zum Zusammenhang von Ernährung, Lebensstilfaktoren und Krebs. Seit nun 20 Jahren werden die Lebensstilfaktoren von über einer halben Million Europäer sorgfältig dokumentiert. Allein das EPIC-Zentrum im DKFZ betreut 25.540 Studienteilnehmer aus dem Raum Heidelberg. Deren Daten flossen in die neue Erhebung ein. Die EPIC-Daten sind von hoher Qualität, da die Teilnehmer im Verlaufe der Studie mehrfach zu ihrem Lebensstil befragt worden sind.

„Oft werden wissenschaftliche Hinweise auf einen gesunden Lebensstil als „erhobener Zeigefinger“ empfunden“, sagt Rudolf Kaaks, Leiter von EPIC Heidelberg. „Deswegen ist es wichtig, dass wir ganz klar beziffern, was jeder einzelne an Lebenszeit gewinnen kann, wenn er frühzeitig auf ungesunde Angewohnheiten verzichtet.“

*Body Mass Index, BMI: ein Richtwert zur Beurteilung des Körpergewichts in Bezug zur Körpergröße. Berechnung: Körpergewicht [kg] dividiert durch Körpergröße [m2].
Ein Wert zwischen 18,5 und 25 wird als Normalgewicht bezeichnet. Fettleibigkeit oder Adipositas beginnt mit einem BMI von 30.

**mehr als vier Drinks/Tag

Kuanrong Li, Anika Hüsing und Rudolf Kaaks: Lifestyle risk factors and residual life expectancy at age 40: a German cohort study. BMC Medicine 2014, http://www.biomedcentral.com/1741-7015/12/59

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 3.000 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Methoden, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, Angehörige und interessierte Bürger über die Volkskrankheit Krebs auf. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Im Deutschen Konsortium für Translationale Krebsforschung (DKTK), einem der sechs Deutschen Zentren für Gesundheitsforschung, unterhält das DKFZ Translationszentren an sieben universitären Partnerstandorten. Die Verbindung von exzellenter Hochschulmedizin mit der hochkarätigen Forschung eines Helmholtz-Zentrums ist ein wichtiger Beitrag, um die Chancen von Krebspatienten zu verbessern. Das DKFZ wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren.

www.dkfz.de

Quelle: idw

(nach oben)


Mikroplastik in süddeutschen Flüssen und Seen

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Weltweit haben Forschungsarbeiten gezeigt, dass Ökosysteme im Meer oder an den Stränden teilweise erheblich durch kleine Kunststoffpartikel verunreinigt sind. An der Universität Bayreuth befasst sich Prof. Dr. Christian Laforsch schon seit längerem mit dieser Problematik. Neue Forschungsprojekte in Kooperation mit den Umweltministerien Bayerns und Baden-Württembergs sollen klären helfen, wie stark Flüsse und Seen in Süddeutschland durch Mikroplastik kontaminiert sind und welche Risiken sich daraus ergeben.

Weltweit haben Forschungsarbeiten gezeigt, dass Ökosysteme im Meer oder an den Stränden teilweise erheblich durch Kunststoffpartikel verunreinigt sind. Diese sind kleiner als fünf Millimeter und werden daher auch als Mikroplastik bezeichnet. An der Universität Bayreuth befasst sich Prof. Dr. Christian Laforsch, der hier einen Lehrstuhl für Tierökologie innehat, schon seit längerem mit dem Problem, wie stark Flüsse und Seen durch Mikroplastik kontaminiert sind und welche Risiken sich daraus ergeben. Plastikteile, die vorwiegend von Konsumgütern und Verpackungen stammen, können direkt oder über unsachgemäße Entsorgung in Oberflächengewässer gelangen und von hier aus in die Nahrungsketten transportiert werden. Eine Fallstudie am Gardasee führte 2013 zu alarmierenden Ergebnissen. Denn in einigen Uferbereichen wurden schwer abbaubare Kunststoffe entdeckt, die von sich aus hochgiftig sind oder die giftige organische Schadstoffe absorbieren können.

Ein neues Forschungsprojekt zu Flüssen und Seen in Baden-Württemberg
Vor kurzem startete in Lauffen am Neckar ein neues Forschungsvorhaben. Es geht dabei um die Frage, in welchem Umfang und mit welchen ökologischen Konsequenzen Flüsse und Seen in Baden-Württemberg mit Mikroplastik belastet sind. Die Untersuchungen werden von der LUBW Landesanstalt für Umwelt, Messungen und Naturschutz koordiniert und von Prof. Laforsch wissenschaftlich betreut. Der baden-württembergische Landesminister für Klima, Umwelt und Energiewirtschaft, Franz Untersteller, eröffnete das Projekt mit einer gemeinsamen Fahrt auf dem Messschiff „Max Honsell“ der LUBW, das bei den Untersuchungen zum Einsatz kommen wird. Dabei ließ er für eine erste symbolische Probenahme im Neckar ein Netz ins Wasser. Dieses so genannte ‚Manta Trawl‘ wurde speziell dafür entwickelt, Mikroplastikteilchen und weitere Schmutzpartikel an Wasseroberflächen entnehmen zu können.

In den kommenden Monaten werden an Rhein und Neckar systematische Probenahmen folgen – und zwar an rund 20 Stellen, die sich durch die Zusammensetzung ihrer Abwässer und die Größe ihrer Einzugsgebiete deutlich voneinander unterscheiden. Für 2015 wird mit der Veröffentlichung der ersten Ergebnisse gerechnet.

Enge Forschungskooperation mit dem Bayerischen Umweltministerium
Bereits im Frühjahr 2014 ging ein gemeinsames Projekt von Prof. Laforsch mit dem Bayerischen Umweltministerium an den Start. In den nächsten Jahren werden Flüsse und Seen in Bayern sowie deren Sedimente daraufhin untersucht, inwieweit sie mit Mikroplastik kontaminiert sind. Dabei soll insbesondere auch geklärt werden, in welchem Umfang Kunststoffpartikel von den im Wasser lebenden Tieren aufgenommen werden und welche Risiken für den Menschen bestehen, falls Partikel in die Nahrungskette gelangen. Das Bayerische Staatsministerium für Umwelt und Verbraucherschutz hat diese Forschungsarbeiten in Auftrag gegeben und fördert sie mit insgesamt rund 600.000 Euro.

Im Juli 2014 fand am Bayerischen Landesamt für Umwelt in Augsburg ein Statuskolloquium statt, das der Bayerische Staatsminister für Umwelt und Verbraucherschutz, Dr. Marcel Huber, eröffnete. Mitglieder von Bundes- und Landesbehörden sowie Wissenschaftlerinnen und Wissenschaftler informierten sich dabei über den aktuellen Forschungsstand zum Thema ‚Mikroplastik in der Umwelt‘. Am Schluss der Veranstaltung wurde von den Teilnehmerinnen und Teilnehmern ein Memorandum beschlossen, in dem es unter anderem heißt: „Das Wissen über mögliche Risiken durch Mikroplastik für die Umwelt ist wichtig, reicht derzeit allerdings nicht aus. Es müssen Lösungen gefunden werden, mögliche Risiken zu minimieren ohne dabei – ggf. unnötigerweise – auf den Nutzen von Kunststoffen für die Wirtschaft und die menschliche Gesellschaft zu verzichten. Neben der genauen Kenntnis über die Eintrags- und Verbreitungspfade müssen Konzepte entwickelt werden, um die Einträge in die Umwelt und insbesondere in die Gewässer zu minimieren.“

Eine globale Problematik
Die Kunststoffteile, die bei Untersuchungen bislang gefunden wurden, stammen vorwiegend von Konsumgütern und Verpackungen. Sie sind direkt oder über unsachgemäße Entsorgung in Oberflächengewässer geraten, wo sie verrotten und zu Mikroplastik werden. „Wir vermuten, dass die Kontamination in Gewässern nahe städtischer Zentren und Industriegebiete noch stärker sein könnte“, erklärt Prof. Laforsch und fährt fort: „Bisher beschäftigen sich nur wenige Studien mit Mikroplastikpartikeln in Binnengewässern. Darum gibt es noch sehr viele offene Fragen, die insbesondere die Quellen des Plastikmülls, die in Flüsse und Seen gelangten Kunststoffmengen, deren Abbau sowie die Folgen für Tiere und Ökosysteme betreffen. Diese Studien untersuchten die Donau in Österreich, die Seine in Frankreich, den Genfer See in der Schweiz und die Großen Seen in Kanada. Überall wurde Mikroplastik gefunden. Dies lässt eine globale Problematik von Mikroplastik in Binnengewässern vermuten.“

Ansprechpartner:
Prof. Dr. Christian Laforsch
Lehrstuhl für Tierökologie I
Universität Bayreuth
Universitätsstraße 30
95447 Bayreuth
Telefon: +49 (0) 921 / 55-2650
E-Mail: christian.laforsch@uni-bayreuth.de

Weitere Informationen:
Stellungnahme des Bayerischen Staatsministers für Umwelt und Verbraucherschutz,
Dr. Marcel Huber:
http://www.youtube.com/watch?v=k__TW0CHEQc&feature=youtu.be

Memorandum „Mikroplastik in der Umwelt“ – Zentrale Aussagen des Statuskolloquiums (Juli 2014) im Bayerischen Landesamt für Umwelt:
http://www.lfu.bayern.de/analytik_stoffe/mikroplastik/doc/memorandum_mikroplastik.pdf

Quelle: idw

(nach oben)


Junge Arbeitslose sind auch später häufiger ohne Job

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Personen, die in jungen Jahren besonders stark von Arbeitslosigkeit betroffen sind, werden auch im späteren Erwerbsverlauf häufiger arbeitslos. Dies geht aus einer am Donnerstag veröffentlichten Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor.

Immerhin die Hälfte der Einsteiger ins Erwerbsleben sind in den ersten acht Jahren gar nicht oder höchstens einen halben Monat arbeitslos. Wer so ins Erwerbsleben startet, ist in den 16 Jahren danach ebenfalls meist gar nicht oder nur einmal von Arbeitslosigkeit betroffen. Die Arbeitslosigkeitsdauer dieser Gruppe addiert sich in den 16 Jahren auf durchschnittlich weniger als vier Monate.

Zehn Prozent der Einsteiger ins Erwerbsleben sind hingegen alleine in den ersten acht Erwerbsjahren schon mehr als 20 Monate arbeitslos. Diese Gruppe ist dann in den folgenden 16 Jahren im Durchschnitt fast viermal und dabei insgesamt mehr als 30 Monate ohne Arbeit.

Die IAB-Studie zeigt, dass sich die Arbeitslosigkeit über das gesamte Erwerbsleben hinweg sehr ungleich auf die Bevölkerung verteilt. Im Erwerbsverlauf konzentriert sich die Arbeitslosigkeit dabei zunehmend auf weniger Personen: Während 45 Prozent in den ersten acht Jahren keinen einzigen Tag arbeitslos sind, sind es in den darauffolgenden 16 Jahren sogar 55 Prozent.

Die IAB-Forscher erklären, dass Arbeitslosigkeit in jungen Jahren auch kausal zu späterer Arbeitslosigkeit führe. Der Zusammenhang zwischen Jugendarbeitslosigkeit und späterer Arbeitslosigkeit beschränke sich also nicht darauf, dass manche Jugendliche bestimmte Eigenschaften aufweisen, die über das gesamte Erwerbsleben hinweg zu häufigeren und längeren Arbeitslosigkeitsepisoden führen wie schlechte Abschlussnoten, gesundheitliche Probleme oder mangelnde Motivation. Die Forscher verweisen auf eine weitere Studie, in der sie festgestellt haben, dass ein Tag Arbeitslosigkeit in den ersten acht Jahren im Schnitt bis zu zwei weitere Tage Arbeitslosigkeit in den folgenden 16 Jahren bewirkt. Es müsse also arbeitsmarktpolitisch weiter hohe Priorität haben, Jugendarbeitslosigkeit gar nicht erst entstehen zu lassen.

Aus methodischen Gründen beschränkt sich die Studie auf westdeutsche Männer, die zwischen 1978 und 1980 eine betriebliche Berufsausbildung im dualen Ausbildungssystem abschlossen, dabei zwischen 15 und 26 Jahren alt waren und zu diesem Zeitpunkt kein Abitur hatten.

Weitere Informationen:
http://doku.iab.de/kurzber/2014/kb1614.pdf

Quelle: idw

(nach oben)


Babyboomer kommen in die Jahre: Urologen erwarten 20 Prozent mehr Patienten und raten zu Prävention

Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.

Mit 1.357.304 Neugeborenen ist das Jahr 1964 – wohl auf unabsehbare Zeiten – als Geburtenrekordjahr in die deutschen Geschichtsbücher eingegangen. In diesem Jahr feiern die Babyboomer ihren 50. Geburtstag und werden im Laufe der nächsten Dekade wesentlich dazu beitragen, dass der medizinische Versorgungsbedarf, allen Fachgebieten voran in der Urologie am stärksten, steigen wird.

„Wir erwarten rund 20 Prozent mehr Patienten in der Urologie und wollen deshalb erneut den Blick auf die Bedeutung der Prävention urologischer Erkrankungen lenken“, sagt der Präsident der Deutschen Gesellschaft für Urologie e.V. (DGU), Prof. Dr. Jan Fichtner, der den 66. DGU-Kongress vom 1. bis 4. Oktober 2014 in Düsseldorf unter das Motto „Demografischen Wandel gestalten“ gestellt hat.

Da Urologinnen und Urologen zu einem großen Teil altersassoziierte Erkrankungen behandeln, wird in dem Fachgebiet eine allein demographisch bedingte Steigerung des Versorgungsbedarfs bis 2025 von rund 20 Prozent prognostiziert. Gleichzeitig sinkt die Zahl der insgesamt vorhandenen Arztstunden weiter. „Prävention und Eigenverantwortung bekommen vor diesem Hintergrund eine wachsende Bedeutung, denn unser Lebensstil hat auch Folgen für Blase und Nieren, für die Prostata und die Potenz“, sagt Prof. Fichtner. Entsprechende Aufklärung betreiben die DGU und der Berufsverband der Deutschen Urologen e.V. (BDU) bereits seit 2011 mit ihrem „Ratgeber zur Prävention urologischer Erkrankungen“. „In vielen Fällen können wir urologischen Erkrankungen vorbeugen. Bei anderen ist es wichtig, sie frühzeitig zu behandeln, um Begleiterkrankungen zu vermeiden oder zu lindern“, so DGU-Pressesprecherin Prof. Dr. Sabine Kliesch.

Vor allem sind es Steinbildungen, die gutartige Prostatavergrößerung, die Harninkontinenz, aber auch die erektile Dysfunktion und die Begleiterscheinungen des Testosteronmangels, die jenseits der 50 gehäuft auftreten. Das Prostatakarzinom, Nieren- und Harnblasenkrebs gelten als Tumore des Alters. Bei der Entstehung von Harnsteinleiden etwa sind vielfach Übergewicht und die Art der Ernährung ursächlich. Fast Food und zuckerhaltige Getränke begünstigen die Steinbildung während körperliche Bewegung und ausreichendes Trinken der Prophylaxe dienen. Nahezu jeder zweite Mann unter den Babyboomern dürfte bereits unter einer Prostatavergrößerung leiden, die sich mit Problemen beim Wasserlassen bemerkbar macht. „Man kann es nicht verhindern, dass die Prostata etwa ab dem 45. Lebensjahr zu wachsen beginnt und ab einer bestimmten Größe die Harnröhre verengt“, sagt BDU-Pressesprecher Dr. Wolfgang Bühmann. „Doch es ist wichtig, behandlungsbedürftige Symptome – medikamentös oder operativ – zu therapieren, um in der Folge Schädigungen der Harnblase, der Nieren und Prostataentzündungen zu vermeiden sowie Lebensqualität zu erhalten.“ Abnehmende Potenz ist gleichfalls eine normale Alterserscheinung, die aber durch Übergewicht und Tabakkonsum forciert wird. In 70 Prozent der Fälle hat die erektile Dysfunktion organische Ursachen. „Die Ursachen sollten abgeklärt werden, denn eine Potenzschwäche kann der erste Hinweis auf eine Gefäß- oder Herz-Kreislauf-Erkrankung und damit Vorbote von Herzinfarkt oder Schlaganfall sein“, rät Professor Kliesch. Beckenbodentraining etwa beugt in sehr vielen Fällen der weiblichen Harninkontinenz erfolgreich vor. Rauchstopp gilt vor allem für die Tumoren der Blase und der Nieren als wichtigste Präventionsmaßnahme. Der „Ratgeber zur Prävention urologischer Erkrankungen“ von DGU und BDU enthält ausführliche fachspezifische Informationen.

Neben den Grundregeln der Prävention (Verzicht auf Tabak- und Drogenkonsum, ausgewogene Ernährung und Vermeidung von Übergewicht, maßvoller Alkoholgenuss, ausreichende Bewegung, moderate Sonnenbestrahlung sowie Wahrnehmung von Schutzimpfungen und Früherkennungsuntersuchungen) legt BDU-Pressesprecher Dr. Bühmann dem Babyboomer-Jahrgang einen Satz des Neurobiologen Prof. Dr. Martin Korte aus Braunschweig ans Herz: „Unser Leben im Alter wird in den mittleren Jahren entschieden.“ Während 60-Jährige, die mit regelmäßigem Sport anfingen, vergangene Versäumnisse kaum mehr ausgleichen könnten, seien 50-Jährige nach einiger Zeit statistisch so gut gegen Beschwerden des Alters gewappnet, als hätten sie ihr Leben lang Sport getrieben.

Weitere Informationen:
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de

Weitere Informationen:
http://www.dgu-kongress.de
http://www.urologenportal.de

Quelle: idw

(nach oben)


Starke Bauchmuskeln schützen Fußballer beim Kopfballstoß

Friederike Meyer zu Tittingdorf Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Kopfbälle werden beim Fußballspiel vor allem durch eine Bewegung des Rumpfes durchgeführt, während die Halsmuskeln die Halswirbelsäule schützen sollten. Der Aufprall kann bei geübten Fußballspielern nämlich ein Mehrfaches der Erdbeschleunigung betragen. Wie Sportwissenschaftler der Universität des Saarlandes jetzt herausgefunden haben, ändern schwache Bauchmuskeln die Bewegung beim Kopfball und aktivieren die Halsmuskeln auf fehlerhafte Weise. Um Amateurfußballer vor Verletzungen zu schützen, empfehlen die Forscher auch für den Breitensport ein intensives Training der Bauch- und Rückenmuskulatur.

Was zu einem guten Kopfballstoß dazugehört, lernen Amateure schon im Jugendfußball. Mit hoher Kunstfertigkeit versuchen sie wie die Fußballprofis den Eckstoß ins gegnerische Tor zu köpfen. Wenn im Laufe des Spiels die Muskeln des Rumpfes ermüden, wird aber nicht nur der Kopfball unpräziser. „Um den Ball zu köpfen, setzt der ermüdete Sportler andere Muskeln ein als der fitte“, sagt Oliver Ludwig, Lehrbeauftragter am Sportwissenschaftlichen Institut der Universität des Saarlandes. Gemeinsam mit einem Team aus Humanbiologen, Orthopäden und Sportwissenschaftlern untersuchte Ludwig die Aktivität der Muskeln, die im Schulter- und Halsbereich die Halswirbelsäule stabilisieren. Mit auf der Haut aufgeklebten Elektroden konnten die Forscher messen, wie sich diese Muskeln anspannen, wenn der Fußballer den Ball köpft. „Die Muskeln umgreifen die Wirbelsäule wie ein Korsett und schützen sie vor Überlastung. Normalerweise stabilisieren sie den Kopf im Moment des Aufpralls. Die eigentliche Kopfballbewegung geschieht aus dem Rumpf heraus“, erläutert der Sportwissenschaftler. Die entscheidende Frage war, was geschieht, wenn im Laufe eines anstrengenden Spiels die Bauch- und Rückenmuskeln ermüden.

In einer Versuchsreihe an der Universität des Saarlandes absolvierten Probanden nach einer ersten Kopfballserie ein Übungsprogramm, das ganz gezielt nur die unteren Bauch- und Rückenmuskeln ermüdete. Danach wurden erneut Kopfballstöße durchgeführt. „Beim Vergleich dieser Versuche vor und nach der Ermüdung stellten wir Interessantes fest. Waren die Bauch- und Rückenmuskeln erschöpft, konnte der Körper des Athleten keine ausreichende Spannung mehr aufbauen, um den Rumpf zum Ball hin zu beschleunigen“, erklärt Ludwig. Ersatzweise wurden dann die Halsmuskeln aktiv und bewegten den Kopf gezielt zum Ball hin. „Aus Sicht der Orthopäden ist dies ein ungünstiger Zustand. Wird nämlich der Kopf aktiv bewegt, dann können Hals- und Nackenmuskeln nicht mehr die Halswirbelsäule stabilisieren“, erklärt der Saarbrücker Forscher. Ermüden die Rumpfmuskeln, müssen also die Hals- und Nackenmuskeln ihre Schutzfunktion aufgeben und bei der Bewegung zum Ball hin „mithelfen“.

Die Forscher des Sportwissenschaftlichen Instituts schließen aus den Ergebnissen dieser Studie, dass die Bauch- und Rückenmuskeln stark und ausdauernd genug sein müssen, um beim Köpfen die Gefahr einer Überlastung zu senken. „Wir empfehlen daher auch den Fußballtrainern im Amateurbereich, dass sie die Rumpfmuskulatur in das wöchentliche Fußballtraining stärker einbeziehen“, sagt Oliver Ludwig.

Fragen beantwortet:
Dr. rer. nat. Oliver Ludwig, Dipl.-Biologe
Sportwissenschaftliches Institut der Universität des Saarlandes
Tel. 0170-4961170
Mail: oliver.ludwig1@uni-saarland.de

Weitere Informationen:
http://www.swi-uni-saarland.de

Quelle: idw

(nach oben)


Senckenberg sucht Hobbyfotografen – Digitaler Fotoführer für afrikanische Pflanzen im Netz

Judith Jördens Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Botaniker des Senckenberg Forschungsinstitutes in Frankfurt haben einen Online-Fotoführer für afrikanische Pflanzen ins Leben gerufen. Derzeit befinden sich in der Datenbank über 25.000 Bilder von etwa 3.200 Pflanzenarten. Die Wissenschaftler rufen Bürger auf, sich zu beteiligen und die Datenbank mit weiteren Fotos zu füllen.

Wer schon einmal Urlaub in Afrika gemacht hat oder auch den Kontinent nur aus den Medien kennt, weiß um dessen exotische und vielfältige Pflanzenwelt. Dort gibt es Leberwurstbäume mit langen, gräulich gefärbten Früchten, Zuckerbüsche mit tellergroßen Blütenständen und den für Kosmetik genutzten Schibutterbaum.

„Bestimmungsliteratur ist in Afrika aber leider Mangelware. Illustrierte Feldführer gibt es bis auf wenige Ausnahmen nur für das südliche Afrika. Digitale Quellen dagegen sind weltweit verfügbar, auch in Afrika“, sagt Dr. Stefan Dressler von der Abteilung Botanik und molekulare Evolutionsforschung am Senckenberg Forschungsinstitut in Frankfurt.

Der Frankfurter Botaniker hat deswegen gemeinsam mit seinen Kollegen Dr. Marco Schmidt und Prof. Dr. Georg Zizka einen Online-Fotoführer für afrikanische Pflanzen entwickelt.
„African Plants – A Photo Guide“ erlaubt die Suche nach wissenschaftlichen sowie Volksnamen, „aber auch nach 18 verschiedenen Merkmalen wie Blütenfarbe, Form der Früchte oder Anordnung der Blätter“, erklärt Dr. Schmidt.

So kann die Datenbank nicht nur von Wissenschaftlern, sondern auch von Laien genutzt werden: Sieht ein Afrika-Reisender beispielsweise einen Baum mit roten Blüten, beerenartigen Früchten und länglichen Blättern, kann er diese Merkmale in dem Fotoführer abfragen und weiß nun, dass es sich hierbei vermutlich um ein Granatapfelgewächs handelt.
„Die Nutzer unseres Nachschlagewerks können dann noch anhand der in der Datenbank vorhandenen Bilder ihr Ergebnis überprüfen“, erklärt Dressler. Außerdem erhalten sie Links zu weiteren Informationen über die jeweiligen Arten.

Die Datenbank wächst kontinuierlich – dennoch sind die Wissenschaftler auf die Beteiligung von interessierten Bürgern, Afrika-Urlaubern und Hobbyfotografen angewiesen. „Die Anzahl von Pflanzenarten in Afrika wird auf etwa 40.000 bis 60.000 Arten geschätzt“, erläutert Schmidt und fügt hinzu: „Die westafrikanische Flora ist mit einer Erfassung von rund 30 Prozent gut in der Datenbank abgedeckt. Insgesamt sind aber bisher nur etwa 5 bis 8 Prozent aller Arten abgebildet und besonders die Pflanzenwelt Nordafrikas ist stark unterrepräsentiert.“

Die Frankfurter Wissenschaftler nehmen deswegen gerne illustrative Pflanzenfotos aus Afrika an, um sie dann – nach wissenschaftlicher Prüfung – in das Online-Verzeichnis einzustellen. Insbesondere die Pflanzenwelt des östlichen Afrikas wird bereits sehr erfolgreich durch engagierte Amateurbotaniker dokumentiert.

„Die Bürgerbeteiligung an wissenschaftlichen Projekten – auch Citizen Science genannt – hat in der Botanischen Abteilung Senckenbergs Tradition. Die sogenannten Laien sind uns auch schon bei der Erfassung von Pflanzen im Projekt ‚Flora Frankfurt‘ oder in unserer wissenschaftlichen Pflanzensammlung, dem Herbarium Senckenbergianum eine große Hilfe“, resümiert Abteilungsleiter Zizka.

Den Online-Fotoführer findet man unter www.africanplants.senckenberg.de, Fotos von afrikanischen Pflanzen können an westafricanplants@senckenberg.de geschickt werden.

Kontakt
Prof. Dr. Georg Zizka
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1166
georg.zizka@senckenberg.de

Dr. Stefan Dressler
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1135
stefan.dressler@senckenberg.de

Dr. Marco Schmidt
Abteilung Botanik und molekulare Evolutionsforschung
Tel. 069 97075-1615
marco.schmidt@senckenberg.de

Die Natur mit ihrer unendlichen Vielfalt an Lebensformen zu erforschen und zu verstehen, um sie als Lebensgrundlage für zukünftige Generationen erhalten und nachhaltig nutzen zu können – dafür arbeitet die Senckenberg Gesellschaft für Naturforschung seit nunmehr fast 200 Jahren. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblicke in vergangene und gegenwärtige Veränderungen der Natur, ihrer Ursachen und Wirkungen, vermittelt. Mehr Informationen unter www.senckenberg.de.

Quelle: idw

(nach oben)


Neue Wege der Phosphornutzung: Leibniz-WissenschaftsCampus Rostock gegründet

Christoph Herbort-von Loeper M.A. Pressestelle Berlin
Leibniz-Gemeinschaft

Phosphor ist ein lebenswichtiger Mineralstoff. Als Düngemittel in der Landwirtschaft eingesetzt, kann er durch keinen anderen Stoff ersetzt werden. Doch die weltweiten Phosphorvorräte gehen zur Neige. Im Hinblick auf die wachsende Weltbevölkerung drohen weitreichende Konsequenzen. Zudem hat die ineffiziente Nutzung von Phosphor erhebliche Umweltbelastungen zur Folge: Gelangen beispielsweise über landwirtschaftliche Abwässer große Mengen ungenutzten Phosphors in die Stoffkreisläufe von Ökosystemen, kann dies zu Überdüngung führen, die das ganze System aus dem Gleichgewicht bringt. Der neu gegründete Leibniz-WissenschaftsCampus Rostock stellt sich diesen Herausforderungen.

In Warnemünde haben am Mittwoch das Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz, das Ministerium für Bildung, Wissenschaft und Kultur, die Universität Rostock, die Leibniz-Gemeinschaft und fünf Leibniz-Institute den „Leibniz-WissenschaftsCampus Rostock: Phosphorforschung“ gegründet und eine entsprechende Kooperationsvereinbarung unterzeichnet. Ziel der interdisziplinären Zusammenarbeit ist die Erforschung des immer knapper werdenden Rohstoffs Phosphor.

„Ohne Phosphor kann die Landwirtschaft nicht funktionieren, denn Phosphor ist ein wichtiger Stoff, ohne den das Wachstum der Pflanzen nicht möglich wäre. Insgesamt verwendet die Düngemittelindustrie 82 Prozent der weltweit abgebauten Phosphate“, erläuterte Landwirtschafts- und Umweltminister Dr. Till Backhaus. „Im Hinblick auf die wachsende Weltbevölkerung, die hohe globale Nachfrage nach Nahrungs- und Futtermitteln sowie den Rückgang der weltweiten Phosphorvorräte drohen weitreichende Konsequenzen für die Land- und Ernährungswirtschaft und somit für alle Verbraucherinnen und Verbraucher. Ich hoffe, dass uns die Wissenschaftlerinnen und Wissenschaftler Wege aufzeigen, wie wir mit knapper werdenden Phosphor-Ressourcen umgehen müssen und was es für neue Wege gibt, Phosphor zu recyceln oder effizienter zu nutzen“, so Backhaus.

Matthias Kleiner, Präsident der Leibniz-Gemeinschaft, sagte in seinem Grußwort: „Der Leibniz-WissenschaftsCampus Rostock hat schon vor seiner offiziellen Gründung heute gewaltig an Fahrt aufgenommen: Es ist ihm gelungen, den „International Phosphorus Workshop“ im Jahr 2016 zum ersten Mal nach Deutschland einzuladen. Das unterstreicht schon jetzt seine international hohe Sichtbarkeit.“

„Der Leibniz-WissenschaftsCampus schafft eine Plattform, auf der nicht nur Forscherinnen und Forscher unterschiedlicher Fachrichtungen an komplexen Fragestellungen arbeiten, sondern wo die wissenschaftliche Ausbildung durch diese enge Zusammenarbeit eine neue Qualität erhält“, hob Ulrich Bathmann, Direktor des Leibniz-Instituts für Ostseeforschung, hervor.

„Mit dem WissenschaftsCampus wird die interdisziplinäre Zusammenarbeit gelebt. Der WissenschaftsCampus ist eine Auszeichnung für die Forschungslandschaft in Mecklenburg-Vorpommern“, lobte Bildungs- und Wissenschaftsminister Mathias Brodkorb.

Das Ministerium für Landwirtschaft, Umwelt und Verbraucherschutz leistet in den Jahren 2014 und 2015 eine Anschubfinanzierung von jährlich 85.000 Euro. Für die Jahre 2016 und 2017 wird ein Betrag in ähnlicher Höhe in Aussicht gestellt. Das Ministerium für Bildung, Wissenschaft und Kultur stellt vom Jahr 2018 an und bis zum Abschluss des Leibniz-WissenschaftsCampus einen Betrag in Höhe von 80.000 Euro in Aussicht. Eine Förderung ist höchstens bis zum Jahr 2020 vorgesehen. Die Leibniz-Gemeinschaft fördert den WissenschaftsCampus als besondere strategische Maßnahme mit einer Anschubfinanzierung von 150.000 Euro aus ihrem Impulsfonds.

Der WissenschaftsCampus führt die Expertise von fünf Leibniz-Instituten und der Universität Rostock zusammen und gewährleistet so die Berücksichtigung der verschiedensten Aspekte von Phosphor und seinen vielfältigen chemischen Verbindungen. Neben Grundlagen- und Anwendungsforschung soll durch Entwicklung und Transfer von Technologien ein Beitrag zur Wirtschaftsentwicklung geleistet werden.

Folgende Leibniz-Institute sind am WissenschaftsCampus beteiligt: das Leibniz-Institut für Katalyse (LIKAT), das Leibniz-Institut für Nutztierbiologie (FBN), das Leibniz-Institut für Ostseeforschung Warnemünde (IOW), das Leibniz-Institut für Pflanzengenetik und Kulturpflanzenforschung (IPK) und das Leibniz-Institut für Plasmaforschung und Technologie (INP).

Weitere Informationen:
http://www.wissenschaftscampus-rostock.de

Kontakt:
Dr. Franziska Schmacka
Leibniz-Institut für Ostseeforschung Warnemünde (IOW)
Tel.: 0381 / 5197 – 3471
info@wissenschaftscampus-rostock.de

Das Kooperationsmodell „Leibniz-WissenschaftsCampus“
Der WissenschaftsCampus ist ein Modell der regionalen Zusammenarbeit zwischen Leibniz-Einrichtungen und Hochschulen. Als gleichberechtigte Partner bearbeiten diese eine klar umrissene wissenschaftliche Fragestellung von gemeinsamem Interesse und ergänzen sich dabei mit ihren Kompetenzen und unterschiedlichen Perspektiven. Die regionale Nähe, eine gemeinsame Strategie und interdisziplinäre Forschungsansätze bezogen auf Themen, Projekte und Methoden sind die Stärken der Leibniz-WissenschaftsCampi. Sie bieten ideale Voraussetzungen, um gesellschaftlich relevante Fragestellungen zu bearbeiten, ganze Forschungsbereiche weiter zu entwickeln und das wissenschaftliche Umfeld am Standort für die Thematik zu stärken. Die regionale Forschungslandschaft erlangt dadurch Profil und internationale Sichtbarkeit.

Sechs Leibniz-WissenschaftsCampi haben sich seit 2009 etabliert:
• Leibniz-WissenschaftsCampus Tübingen: Bildung in Informationsumwelten
• Leibniz-WissenschaftsCampus Mainz: Byzanz zwischen Orient und Okzident
• Leibniz-WissenschaftsCampus Halle: Pflanzenbasierte Bioökonomie
• Leibniz-WissenschaftsCampus Mannheim: Mannheim Centre for Competition and Innovation (MaCCI)
• Leibniz-WissenschaftsCampus MannheimTax: Steuerpolitik der Zukunft
• Leibniz-WissenschaftsCampus Rostock: Phosphorforschung

Weitere Informationen zu den Leibniz-WissenschaftsCampi:
http://www.leibniz-gemeinschaft.de/forschung/hochschulkooperationen/leibniz-wissenschaftscampi

Die Leibniz-Gemeinschaft
Die Leibniz-Gemeinschaft verbindet 89 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an. Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen u.a. in Form der Leibniz-WissenschaftsCampi , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.500 Personen, darunter 8.800 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.

Weitere Informationen:
http://www.leibniz-gemeinschaft.de

Quelle: idw

(nach oben)


Angst und Ärger verleiten Autofahrer zum Rasen

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Studie zum Einfluss von Emotionen auf das Fahrverhalten
Lüneburg. Nach einer Schrecksekunde – etwa einem Beinahe-Unfall – verhalten sich Autofahrer oft nicht etwa vorsichtiger. Im Gegenteil: Viele drücken auf den Kilometern danach erst recht auf die Tube. Zu diesem Ergebnis kommen Forscher der Leuphana Universität Lüneburg in einer aktuellen Studie. An der Untersuchung nahmen insgesamt 79 Probanden teil. Sie mussten in einem Fahrsimulator einen Testparcours bewältigen und im Anschluss ihre Emotionen zu Protokoll geben. Dabei wurden sie mit verschiedenen typischen Verkehrssituationen konfrontiert.

In einem Fall mussten sie beispielsweise plötzlich auf die Bremse steigen, um einen Auffahrunfall zu verhindern. Sie fuhren daraufhin zwar kurzfristig langsamer. Auf den Kilometern danach beschleunigten sie aber wieder und überschritten dabei sogar oft das Tempolimit. Außerdem fuhren sie insgesamt unberechenbarer; sie lenkten zum Beispiel abrupter.

„Angst verändert das Fahrverhalten messbar zum Negativen“, resümiert Dr. Ernst Roidl. Er hat die Studie zusammen mit Professor Dr. Rainer Höger von der Leuphana Universität Lüneburg konzipiert und durchgeführt. „Und zwar nicht nur kurzfristig – der Effekt wirkt für einige Kilometer nach.“

Wir drücken also erst recht auf die Tube, wenn uns kurz zuvor der Schrecken in die Glieder gefahren ist. Dieses Ergebnis wirkt auf den ersten Blick paradox. „Angst vermindert unsere Risikobereitschaft, und dennoch verhalten wir uns riskanter“, sagt Roidl. „Wir vermuten, dass viele Menschen nach einem Schrecken einfach unaufmerksamer fahren: Sie bleiben mit dem Gedanken bei der Gefahrensituation und reagieren nicht mehr adäquat auf das, was im Moment auf der Straße passiert.“

Ärger ist ein schlechter Beifahrer
Auch Ärger verleitet dazu, zu schnell zu fahren. Wenn die Studienteilnehmer einige Zeit hinter einem Sonntagsfahrer herschleichen mussten, traten sie danach umso heftiger aufs Gaspedal. Sie fuhren zudem deutlich riskanter als normalerweise. Dieser Effekt hielt ebenfalls einige Minuten an. „Wenn wir uns ärgern, neigen wir zudem dazu, uns selbst zu überschätzen“, warnt Roidl. „Ärger schärft den Focus; wir denken, wir hätten alles im Griff. Wir sind daher eher bereit, Risiken einzugehen.“

Professor Höger erforscht seit einigen Jahren den Einfluss von Gefühlen auf das Fahrverhalten. Der Arbeitspsychologe sucht unter anderem nach technischen Methoden, mit denen sich die emotionale Verfassung des Fahrers messen lässt. Denkbar sind etwa Sensoren im Lenkrad, die die Schweißentwicklung der Hände oder ihre Muskelspannung registrieren. Das Auto könnte dann entsprechende Warnmeldungen ausspucken, um dem Fahrer seine Anspannung bewusst zu machen.

Momentan ist das eher Sache des Beifahrers. Doch Roidl warnt vor Beruhigungsversuchen nach dem Motto „Hey, entspann dich doch einfach.“ Denn die könnten einigen Studien zufolge den Ärger sogar noch verstärken. Besser wirke es möglicherweise, wenn der Fahrer einfach einmal kurz auf die Hupe haue, um sich abzureagieren. „Langfristig kann das aber natürlich keine Lösungsstrategie sein“, betont der Wissenschaftler.

Stattdessen solle man versuchen, sich in den Auslöser des Ärgers hineinzuversetzen: Warum trödelt der Fahrer vor mir wohl so? Macht es ihm zusätzlich Angst, wenn ich so dicht auffahre? Wie würde ich reagieren, wenn hinter mir jemand mit der Lichthupe drängelt? „Das ist sicher eines der besten Mittel gegen Ärger im Straßenverkehr“, sagt Roidl: „Empathie!“

Ernst Roidl, Berit Frehse, Rainer Höger: Emotional states of drivers and the impact on speed, acceleration and traffic violations-A simulator study; Accident Analysis and Prevention 70 (2014) 282-292; DOI: 10.1016/j.aap.2014.04.010

Kontakt:
Dr. Ernst Roidl
Institut für Experimentelle Wirtschaftspsychologie
Leuphana Universität Lüneburg
Telefon: 0176/2105555
E-Mail: roidl@leuphana.de

Prof. Dr. Rainer Höger
Institut für Experimentelle Wirtschaftspsychologie
Leuphana Universität Lüneburg
Telefon: 04131/677-7712
E-Mail: hoeger@uni.leuphana.de

Quelle: idw

(nach oben)


Große Hitze begünstigt die Steinbildung: Urologen warnen vor der Sommerkrankheit Harnsteine

Bettina-Cathrin Wahlers Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.

Mit steigenden Temperaturen nimmt Sommer für Sommer die Zahl der Harnsteinerkrankungen drastisch zu: Hitze, verstärktes Schwitzen und unzureichendes Trinken begünstigen die Nierensteinbildung. Die Deutsche Gesellschaft für Urologie e.V. (DGU) und der Berufsverband der Deutschen Urologen e.V. (BDU) raten in der aktuellen Hitzeperiode deshalb, an heißen Sommertagen auf eine deutlich erhöhte Trinkmenge zu achten.

Das gelte besonders für Patienten mit Harnsteinen in der Vorgeschichte, denn das Risiko, einen weiteren Stein zu entwickeln, verdoppelt sich mit jedem Steinereignis.
Nierensteine zählen in Deutschland zu den großen Volkskrankheiten. Fast jeder 20. Bundesbürger – Männer häufiger als Frauen – ist einmal oder mehrfach im Leben betroffen. Vor allem zunehmendes Übergewicht in der Bevölkerung lässt die Tendenz steigen. Die Steine machen, solange sie in der Niere sind, keine Beschwerden und bleiben oft unentdeckt. Verlassen sie jedoch die Niere und gelangen in den Harnleiter, verursachen sie eine äußerst schmerzhafte Kolik.

Jetzt in den Sommermonaten ist das Risiko, Harnsteine zu entwickeln, besonders groß. „An heißen Tag geht von der aufgenommenen Flüssigkeitsmenge ein großer Anteil über Atmung und Schwitzen verloren“, sagt Prof. Dr. Thomas Knoll, Vorsitzender des DGU-Arbeitskreises Harnsteine. Das hat zur Folge, dass die Urinmenge geringer wird, weil die Flüssigkeit abgezogen wird. „Große Hitze, intensives Schwitzen und eine verminderte Trinkmenge färben den Urin im Extremfall bierbraun. Dann sind die löslichen Salze, die von den Nieren ausgeschieden werden, im Urin in höherer Konzentration vorhanden. Dies begünstigt die Bildung von Nierensteinen, die entstehen, wenn Stoffe auskristallisieren, die üblicherweise im Harn gelöst werden“, so der Chefarzt der Urologischen Klinik Sindelfingen.
Er empfiehlt an heißen Sommertagen eine deutlich erhöhte Trinkmenge und auf die hellgelbe Färbung des Urins zu achten. Herzgesunde sollten schon bei normalen Temperaturen und durchschnittlicher körperlicher Aktivität circa zwei Liter Flüssigkeit über den Tag verteilt trinken. Richtwert für die richtige Trinkmenge sollte die Urinfärbung, aber auch die Urinmenge sein. Im besten Fall ist der Urin wasserklar. „Es ist schwierig, die optimale Urinmenge festzulegen. Bei fünf Mal täglichem Wasserlassen mit jeweils 400 ml Urinmenge ergibt sich als durchschnittlicher Richtwert eine 24-Stunden-Ausscheidung von etwa 2000 ml“, sagt Prof. Knoll. Bei großer Hitze und/oder „schweißtreibender“ körperlicher Belastung muss die Trinkmenge deutlich höher als zwei Liter betragen. Von Vorteil ist es, häufig kleine Flüssigkeitsmengen zu trinken. „Mindestens 100 ml Flüssigkeit sollte dem Körper pro Stunde zugeführt werden, um Nierensteinen effektiv vorzubeugen.“

Deutsches Leitungswasser und ungesüßte Tees seien dafür genauso geeignet wie teure Mineralwasser mit klangvollem Namen oder Harntees, betont BDU-Pressesprecher Dr. Wolfgang Bühmann. Verzichten sollte man grundsätzlich auf gezuckerte Limonaden, da sie das Risiko für die Entstehung von Nierensteinen erhöhen. „Neben ausreichender Flüssigkeitszufuhr dienen Bewegung, ein normales Körpergewicht und eine ausgewogene Ernährung der Prävention von Harnsteinerkrankungen“, so Dr. Bühmann weiter. So kann sich eine Purin-arme Ernährung, mit einem geringen Anteil an Fleisch, Wurst, Innereien und Hülsenfrüchten, sowie das Vermeiden von Lebensmitteln mit hohem Oxalat-Gehalt wie Spinat, Rhabarber und Mangold, günstig auswirken.

Weitere Informationen:
DGU/BDU-Pressestelle
Bettina-C. Wahlers
Sabine M. Glimm
Stremelkamp 17
21149 Hamburg
Tel.: 040 – 79 14 05 60
Mobil: 0170 – 48 27 28 7
E-Mail: redaktion@bettina-wahlers.de
Internet: www.urologenportal.de
www.dgu-kongress.de

Weitere Informationen:
http://www.urologenportal.de/fileadmin/MDB/PDF/Harnsteine.pdf
http://www.urologenportal.de

Quelle: idw

(nach oben)


Regenwürmer im Einsatz gegen Hochwasser

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Hydrologen der Universität Jena ergründen den Einfluss von Pflanzenbewuchs und Regenwurmdichte auf den Wasserhaushalt des Bodens

Die Bilder haben die meisten wohl noch im Kopf: Im Sommer 2013 standen weite Teile Mitteldeutschlands unter Wasser. Heftige Niederschläge hatten binnen weniger Stunden Bäche und Flüsse in reißende Ströme verwandelt. Die Wassermassen überfluteten Städte, rissen Bäume und Autos mit sich fort, unterspülten Straßen. „Solche Extremereignisse machen deutlich, welch wichtige Rolle der Wasserkreislauf in unserem Leben spielt“, sagt Juniorprofessorin Dr. Anke Hildebrandt von der Friedrich-Schiller-Universität Jena. „Eine der wichtigsten Umschlagplätze ist dabei der Boden.“ Denn der Boden ist das wichtigste Auffangbecken für Niederschlagswasser und stelle so die Verbindung zum Grundwasser her, erklärt die Juniorprofessorin für Ökologische Modellierung.

Wie die natürliche Infiltration – so wird die Aufnahme von Niederschlägen in den Boden bezeichnet – beeinflusst wird, das haben Prof. Hildebrandt und ihr Team jetzt detailliert untersucht: Dr. Christine Fischer konnte gemeinsam mit Kollegen der Universität Jena und des Max-Planck-Instituts für Biogeowissenschaft nachweisen, dass die Wasseraufnahmefähigkeit des Bodens entscheidend vom Pflanzenbewuchs sowie dem Vorkommen von Regenwürmern geprägt ist. Seine Ergebnisse hat das Forscherteam in der Fachzeitschrift „PLOSOne“ veröffentlicht (DOI: 10.1371/journal.pone.0098987).

Ausschlaggebend für die Aufnahmekapazität des Bodens ist seine Porenstruktur. „Vor allem Poren mit einem Durchmesser größer als etwa ein Zehntel Millimeter, auch als Makroporen bezeichnet, sind für den Abfluss des Niederschlagswassers wichtig“, sagt Anke Hildebrandt. Dass bestimmte biologische Faktoren bei der Entstehung solcher Poren eine wichtige Rolle spielen, ist eine zentrale Erkenntnis der vorliegenden Arbeit, so die Hydrologin. So fanden die Jenaer Forscher heraus, dass sich das Vorkommen von Gräsern negativ auf die Entstehung großer Poren auswirkt, während das Vorhandensein von Leguminosen wie Klee oder Lupinen deren Entstehung begünstigt.

„Für diesen Effekt sind zum einen direkt die Pflanzenwurzeln verantwortlich“, erläutert Christine Fischer. So bilden Leguminosen in der Regel dicke Pfahlwurzeln aus, die zur Bildung von Makroporen beitragen können. „Gräser haben dagegen sehr feine, verzweigte Wurzeln, die vorhandene Poren eher verschließen und so das Eindringen von Niederschlagswasser verhindern.“ Vor allem spielen die Pflanzenarten aber im Zusammenhang mit Regenwürmern eine große Rolle: Diese begünstigen durch ihre Aktivitäten im Boden ebenfalls die Porenbildung. Allerdings scheinen sie sich bevorzugt dort aufzuhalten, wo es auch Leguminosen gibt, was den Effekt auf die Wasseraufnahme zusätzlich verstärkt.

Für ihre Untersuchungen haben die Wissenschaftler das „Jena-Experiment“ der Friedrich-Schiller-Universität genutzt. Auf dem ca. zehn Hektar großen Gelände in der Saaleaue wachsen in mehreren Hundert Versuchsparzellen künstlich zusammengestellte Graslandschaften: von der Monokultur mit nur jeweils einer Pflanzenart bis hin zur Wiese aus 60 verschiedenen Gräsern, Kräutern und Leguminosen. Damit ist das „Jena-Experiment“, als eines der weltweit größten Biodiversitätsexperimente und das am längsten bestehende in ganz Europa, einmalig.

Original-Publikation:
Fischer C et al. How do earthworms, soil texture and plant composition affect infiltration along an experimental plant diversity gradient in grassland? PLOS One 2014, DOI: 10.1371/journal.pone.0098987

Kontakt:
Jun.-Prof. Dr. Anke Hildebrandt, Dr. Christine Fischer
Institut für Geowissenschaften der Friedrich-Schiller-Universität Jena
Burgweg 11, 07749 Jena
Tel.: 03641 / 948651
E-Mail: hildebrandt.a@uni-jena.de, fischer.christine@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Besseres Recht für mehr Umweltschutz in der Landwirtschaft

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Dessau/Leipzig. Deutschland braucht kein eigenes Agrarumweltgesetz, aber eine bessere Abstimmung des Umwelt-, Agrar- und Förderrechts, um die Umwelt vor negativen Auswirkungen der Landwirtschaft wirksamer zu schützen. Entscheidend ist, dass die bestehenden Instrumente und Regelungen effektiverer und vollzugstauglicher gestaltet werden, so das Fazit einer Studie des Helmholtz-Zentrums für Umweltforschung (UFZ) in Zusammenarbeit mit der Johann Wolfgang Goethe-Universität Frankfurt/M., die im Auftrag des Umweltbundesamtes entstanden ist.

Ziel der Studie war es, herauszufinden, wie die nationale Gesetzgebung verbessert werden könnte, um die gesellschaftlichen Umweltziele zu erreichen. Dazu untersuchten die Wissenschaftler in den letzten zwei Jahren, wie sich die Entwicklung zu einer nachhaltigen, umwelt- und klimagerechten Landwirtschaft stärker als bisher durch das Umwelt- und Agrarrecht steuern lässt. Auf dem Prüfstand standen dabei unter anderem das Ordnungs- und Planungsrecht, wobei auch der Vollzug sowie die Umweltanforderungen des Beihilferechts und das Instrument der Beratung tiefer analysiert wurden.

Trend zur Intensivierung hält an
Um die ökologisch relevanten Trends aufzeigen zu können, wertete das Frankfurter Institut für ländliche Strukturforschung (IfLS) die Entwicklung der Landwirtschaft in Deutschland seit 1950 anhand statistischer Daten aus. Eine zunehmende Spezialisierung und Steigerung der Produktion sind dabei die wesentlichen Trends. Trotz der Intensivierung sind der Anteil der Landwirtschaft an der Bruttowertschöpfung unter 1 Prozent und der Anteil an den Beschäftigten auf 1,6 Prozent gesunken. Knapp 300.000 Betriebe gibt es noch, die zusammen 16,7 Millionen Hektar landwirtschaftliche Nutzfläche bewirtschaften, also rund die Hälfte der Gesamtfläche Deutschlands.

Umweltziele nicht erreicht
Aufgrund der großen Fläche spielt die Landwirtschaft eine starke Rolle, wenn es darum geht, Bodenfruchtbarkeit zu erhalten, Wasserressourcen zu schützen, Treibhausgase und andere Emissionen zu reduzieren sowie Tier- und Pflanzenarten zu erhalten. Während im Gewässerschutzrecht und im Luftreinhalterecht die europäischen und nationalen Umweltqualitätsziele relativ hoch gesteckt sind, fehlt es dagegen im Natur- und Bodenschutzrecht an ausreichend konkreten Zielen, konstatieren die Autoren der Studie. „Keines der Umweltziele ist gegenwärtig in Deutschland vollständig bzw. flächendeckend erreicht. Amtliche Statistiken und ausgewertete Studien zeigen dabei, dass gerade im Bereich der Landwirtschaft die größten Defizite bestehen“, fasst der Umweltjurist Dr. Stefan Möckel vom UFZ zusammen. Als Grund dafür sehen die Wissenschaftler, dass es vor allem bei der Durchsetzung der gesetzlichen Ziele Probleme gibt, da die Landwirtschaft oft – im Gegensatz zu anderen Wirtschaftsbereichen – in den Genuss von Sonderregelungen und Ausnahmen kommt. Dazu kommen die Schwierigkeiten bei der Kontrolle aufgrund fehlender Informationen, unzureichender Handlungsbefugnisse oder lähmender Rechtsunsicherheiten, mit denen die Behörden zu kämpfen haben. So konnten beispielsweise die vielen Schutzvorschriften den Umbruch von Dauergrünland zu Acker nicht stoppen oder die Belastung von Gewässern durch Nährstoffe, Pestizide und Tierarzneimittel von den umliegenden Feldern nicht reduzieren. Der Einsatz von Pestiziden hat sogar nicht ab, sondern weiter zugenommen.

Kein eigenes Agrarumweltrecht nötig
Für mehr Umweltschutz in der Landwirtschaft bedarf es keiner neuen Gesetze. Es genügen eine bessere Abstimmung des bestehenden Umwelt-, Agrar- und Beihilferechts, konkretere Anforderungen im Einzelnen sowie ausreichende Vollzugsinstrumente für die Behörden. „Ein eigenständiges Agrarumweltrecht empfiehlt sich nicht, da die Nachteile eines zu erlassenden Agrarumweltgesetzes deutlich größer als dessen Vorteile erscheinen“, sagt Prof. Wolfgang Köck vom UFZ. Vielmehr kommt es auf die Regelungsdetails an. Die Wissenschaftler erwarten dabei, dass mittelfristig dem Ordnungs- und Planungsrecht in Zeiten hoher Staatsschulden und steigender Agrarpreise eine entscheidende Bedeutung zukommen wird. Denn das Ordnungsrecht ist besonders gut geeignet, um ohne die Milliarden Euro an Agrarsubventionen flächendeckend allgemeinverbindliche Mindestanforderungen aufzustellen und die Verursacher an den Umweltkosten zu beteiligen. Planungsrechtliche Instrumente erlauben dabei eine räumliche Steuerung und Vollzugsinstrumente die Konkretisierung im Einzelfall. Diese Kombination besteht für landwirtschaftliche Anlagen (z.B. Tierhaltungs- oder Biogasanlagen) schon weitgehend. Bei der landwirtschaftlichen Bodenbewirtschaftung hat die Agrarpolitik hingegen seit Jahren bisher vor allem auf lenkende Beihilfen gesetzt.

Verbesserungspotenziale nutzen
Um das Agrar- und Umweltrecht für die ökologischen Herausforderungen fit zu machen, sind v.a. die unbestimmten Rechtsbegriffe und allgemeinen Grundsätze der guten fachlichen Praxis mit ökologisch anspruchsvollen quantitativen oder qualitativen Anforderungen zu untersetzen und diese dynamisch entsprechend dem aktuellen Stand der Technik fortzuschreiben. Hierbei bieten die wachsenden Fähigkeiten der Präzisionslandwirtschaft wie zum Beispiel der Einsatz von GPS neue Steuerungsmöglichkeiten.
Eine größere Baustelle stellt das Planungsrecht dar, da gegenwärtig kein verbindliches Planungsinstrument existiert, mit dem sich Art und Umfang der landwirtschaftlichen Bodennutzungen standortbezogen steuern lassen. „In Anbetracht der Flächenintensität der Landwirtschaft, die in ländlichen Regionen schnell mehr als 80 Prozent der Gemeindefläche betrifft, und der Heterogenität der Standorte ist diese Landnutzung eigentlich prädestiniert für eine planerische Feinsteuerung“, betont Dr. Stefan Möckel. Die Forscher empfehlen daher in ihrer Studie, den interessierten Kommunen durch eine Erweiterung der Landschaftsplanung bzw. Bauleitplanung zumindest die rechtliche Möglichkeit einzuräumen, damit die Bürger nicht nur ihr bauliches sondern auch landschaftliches Umfeld mit gestalten können.

Vollzugsinstrumente nicht vernachlässigen
Oft unterschätzt werden in der politischen Diskussion um die Agrarpolitik die rechtlichen Vollzugsinstrumente – wie Kontroll- und Anordnungsbefugnisse, Anzeige- und Dokumentationspflichten, Genehmigungserfordernisse oder Ordnungswidrigkeits- und Straftatbestände. „Ohne sie sind den Behörden in einem Rechtsstaat die Hände gebunden“, sagt Prof. Wolfgang Köck. Dies gilt für die behördliche Informationsbeschaffung wie für das Einschreiten bei drohenden oder festgestellten Verstößen gleichermaßen – unabhängig davon, ob das Ordnungs- und Planungsrecht oder das Beihilferecht die ökologischen Anforderungen stellt. Denn nur mit ihnen lassen sich die gesetzlichen Anforderungen im Einzelfall durchsetzen. In der Studie wird daher für eine systematische Ergänzung fehlender Vollzugsinstrumente im Agrarbereich plädiert.

Fazit
Ein Instrument allein kann die Umweltprobleme der Landwirtschaft nicht lösen. „Vielmehr bedarf es eines abgestimmten Instrumentenverbundes aus Ordnungs- und Planungsrecht, Beihilfen, Abgaben/Steuern, Zertifizierungssystemen, Beratung und Weiterbildung. Die verschiedenen Instrumente sollten so kombiniert werden, dass ihre Vorteile genutzt und ihre Nachteile ausgeglichen werden, um eine möglichst effektive Umweltpolitik zu erreichen und die Landwirtschaft an den Umweltkosten zu beteiligen, die sie hervorruft“, unterstreicht Dr. Stefan Möckel vom UFZ. Aus seiner Sicht bietet insbesondere die Kombination aus ordnungsrechtlichen Mindestanforderungen, standortbezogenen Anforderungen in Plänen sowie einzelfallbezogenen Vollzugsinstrumenten bedeutende Potentiale, um den ökologischen Herausforderungen gerecht zu werden.
Insgesamt macht die Studie 22 konkrete Vorschläge, wie der Gesetzgeber die Situation verbessern könnte. Sinnvoll wären zum Beispiel einheitliche Standards für alle Dünge- und Pflanzenschutzmittel, eine Vereinheitlichung des Schutzes von Dauergrünland, der Abbau von Begünstigungen im Wasserrecht oder die Anhebung der Anforderungen zum Schutz der Atmosphäre.
Tilo Arnhold

Publikation:
Stefan Möckel, Wolfgang Köck, Cordula Rutz und Jörg Schramek (2014): Rechtliche und andere Instrumente für vermehrten Umweltschutz in der Landwirtschaft. UBA-Texte 42/2014, 598 S., ISSN 1862-4804.
http://www.umweltbundesamt.de/publikationen/rechtliche-andere-instrumente-fuer-v…
Die Untersuchungen wurden gefördert vom Umweltforschungsplan des Bundesministeriums für Umwelt, Naturschutz und Reaktorsicherheit.

Weitere Informationen:
Helmholtz-Zentrum für Umweltforschung (UFZ)
Dr. Stefan Möckel
Telefon: +49-(0)341-235-1693
http://www.ufz.de/index.php?de=12908
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: +49-(0)341-235-1635, -1630
http://www.ufz.de/index.php?de=640

Weiterführende Links:
Agrarumweltrecht – Rechtliche und andere Instrumente für vermehrten Umweltschutz in der Landwirtschaft (UBA-Forschungsvorhaben 2011-2013):
http://www.ufz.de/index.php?de=31591
Rechtsvergleichende Studie zu Instrumenten eines nachhaltigen Landmanagements (CLAIM)
http://www.ufz.de/index.php?de=31749

Weitere Informationen:
http://www.ufz.de/index.php?de=33049

Quelle: idw

(nach oben)


Neues Quizspiel erzielt 22.000 Downloads in vier Wochen

Evelyn Meyer-Kube Presse/Public Relations
Ostfalia Hochschule für angewandte Wissenschaften

„Buddyquiz“ heißt das neue Echtzeit-Multiplayer-Quizspiel aus der IT-Küche des Unternehmens mobfish in Wolfenbüttel. „Erst seit vier Wochen auf dem Markt, schlägt unsere neue, kostenfreie App Buddyquiz mit zweiundzwanzigtausend Downloads bei den Nutzern richtig ein“, berichten die Entwickler und Absolventen der Ostfalia Hochschule Jonathan Bergen und Tobias Sell.

Bereits vor dreieinhalb Jahren feierten sie Erfolge mit ihrer ersten App „Wer Wird Reich“, die in den USA 2011 mit dem Best App Ever Award“ in der Kategorie „Denkspiele“ (Trivia Games) ausgezeichnet wurde. Damals legten sie bereits während ihres Informatikstudiums an der Ostfalia Hochschule mit der Entwicklung dieses Quizspiels den Grundstein für ihre Existenzgründung. Begleitet und unternehmerorientiert geschult wurden die Jungunternehmer vom Entrepreneurship Center der Ostfalia und von der Wirtschaftsförderung der Stadt Wolfenbüttel finanziell unterstützt. Inzwischen ist aus dem Start up als GbR eine GmbH geworden. „Wir haben uns und unsere Unternehmung weiterentwickelt, haben neue Büroräume Am Exer in Wolfenbüttel angemietet, Personal eingestellt und unsere Kontakte in die USA zur Ostfalia-Partnerhochschule University of Wisconsin Parkside (UWP) in Kenosha intensiviert.

„Bei unserer ersten App hatten wir die Unterstützung der amerikanischen Studierenden in Form von Übersetzungsarbeiten“, erklärt Tobias Sell. Die internationale Zusammenarbeit ist mobfish wichtig, denn alle profitieren. Im Frühjahr dieses Jahres initiierten die beiden Entwickler zwei neue Projekte und nutzen im Rahmen der „Internationalen Sommer Universität (ISU)“ die Kompetenzen der Informatikstudierenden an der Ostfalia sowie an der UWP für unabhängige Studien. Zum einen handelte es sich dabei um die Entwicklung eines Prototyps der App „Buddyquiz“ und zum anderen um die Weiterentwicklung der App „Wer Wird Reich“ in der Anwendung für Windows 8. Seit sechs Jahren besteht die Kooperation der Fakultät Informatik der Ostfalia und dem Department of Computer Science der UWP in Kenosha (Partnerstadt von Wolfenbüttel). Im Vordergrund steht dabei der regelmäßige Dozenten- und Studentenaustausch. So arbeitete im Frühjahr 2014 eine Gruppe von Ostfalia-Studenten am UWP mit dortigen Studenten an „Buddyquiz“ und umgekehrt im Mai dieses Jahres an der Ostfalia – immer in Verbindung mit den Entwicklern der App in Wolfenbüttel.“

Seit etwa vier Wochen ist „Buddyquiz“ auf dem Markt und erfreut sich zunehmender Beliebtheit. Das Besondere daran ist, bis zu acht Spieler können gleichzeitig gegeneinander spielen, und zwar in Echtzeit. „Das bringt jede Menge Spaß“, sagt Tobias Sell, „und der Erfolg der App lässt uns die Schwierigkeiten der Implementierung eines Echtzeit-Multiplayer-Quizspiels und die Hürden, die es zu überwinden gab, vergessen. Letztendlich haben wir es geschafft und unser Dank geht dabei an alle Beteiligten“.

Quelle: idw

(nach oben)


Student entwickelt Biogas-Anlage aus Plastiktonne

Anette Schober-Knitz Referat für Presse- und Öffentlichkeitsarbeit
HBC Hochschule Biberach

Jan Schellinger ist der erste Absolvent der Hochschule Biberach, der für seinen Studienabschluss ein interdisziplinäres Projekt der Studiengänge Energiesysteme (jetzt Energie-Ingenieurwesen) und Industrielle Biotechnologie bearbeitet hat. Ganz verkürzt dargestellt hat er eine Anlage entwickelt, die es beispielsweise Menschen in Entwicklungshilfeländern ermöglicht, in einem großen Plastikbehälter Biogas zu erzeugen, um es für die eigene Energieversorgung zu nutzen.

Das klingt einfach, war jedoch für Jan Schellinger „im Detail ganz schön schwierig“. Fast ein Jahr hat er sich mit dem Thema, der Vorbereitung und Umsetzung beschäftigt – viel länger als allgemein üblich.
Belohnt wurde sein außerordentliches Engagement mit einem besonders erfolgreichen Studienabschluss Bachelor of Engineering sowie jeder Menge Know-how in einem für ihn bislang fremden Fachgebiet: der Biotechnologie. „Meine Kenntnisse in Biologie und Chemie beschränkten sich auf die aus der Schulzeit, so Schellinger. Am Ende seines Projektes konnte er sich dagegen an Gesprächen seiner Studienkollegen aus dem Studiengang Industrielle Biotechnologie durchaus beteiligen: „Diskussionen über multiresistente Bakterien? – Aber gerne!“
Was genau also hat Jan Schellinger zum Abschluss seines Studiums gemacht? Für ein Entwicklungshilfeprojekt der Steyler Mission in Bolivien wollte der 25-Jährige aus dem Landkreis Sigmaringen eine Biomasse-Anlage für den Hausgebrauch entwickeln und bauen. Dafür reiste er in den Dschungel im Osten des Landes, verschaffte sich vor Ort einen Überblick über die Situation und Lebensgewohnheiten auf dem Land, das zu den ärmsten Regionen Südamerikas gehört. Nach ersten Versuchen, die jedoch nicht das gewünschte Ergebnis erzielten, entschloss sich Jan Schellinger, der Problematik umfassender und in wissenschaftlicher Tiefe zu widmen. Schellinger machte auf eigene Faust weiter und suchte sich an der Hochschule Biberach die notwendige Unterstützung, die er neben seinem betreuenden Professor, Dr.-Ing. Alexander Floß, in Professorin Dr. Heike Frühwirth fand.
Die Verfahrenstechnikerin ist Studiendekanin des noch jungen Studienganges Industrielle Biotechnologie. Auch dieser Studiengang beschäftigt sich mit der Erzeugung von Energie und Wertstoffen. Dr. Frühwirth beispielsweise hat einen Schwerpunkt ihrer Lehr- und Forschungstätigkeit auf Algenbiotechnologie gesetzt. In innovativen Algen-Produktionssystemen werden Pigmente und hochwertige Omega-3- Fettsäuren erzeugt. Mikroalgen aber seien auch Allrounder, die ausgezeichnet in Abwasser wachsen und dieses „ganz nebenbei“ aufreinigen, so die Expertin.
Eine Schnittmenge zwischen dem energietechnischen und dem verfahrenstechnischen Bereich der Biotechnologie war also gefunden. Als angehender Ingenieur für Energiesysteme hieß das für Schellinger: Mikrobiologie, Fermentationstechnik, Labortechnik pauken! Von nun an begleitete er die Biotechnologie-Studenten von Prof. Frühwirth zu einer Fachmesse für Labortechnik, wälzte Biologie- und Chemiebücher und studierte die Skripte seiner Kommilitonen für Bioprocessing und Fermentation. Im Labor der Industriellen Biotechnologie baute er seinen Versuchsstand um eine blaue Chemie-Tonne herum auf, verbaute darin Messtechnik und startete seine dreiwöchige Versuchsreihe, in er seine Biogasanlage mit Dung, Gras und Speiseresten befüllte.
Als Ergebnis konnte er bei seinem Abschlusskolloquium vor den betreuenden Professoren Heike Frühwirth und Alexander Floß sowie Kommilitonen beider Fachrichtungen darstellen, wie seine Anlage funktioniert – und wie viel Biogas sie bei gegebener Befüllung erzeugt. Unerlässlich, so Schellinger, sei ein Rührwerk für die stehende Anlage. Der junge Ingenieur sieht einige Verbesserungsmöglichkeiten bei der technischen Ausführung wie bei der Substratwahl. Unterm Strich aber kann Schellinger belegen, dass „eine Biogasanlage ein lohnendes und fortschrittliches Entwicklungsprojekt darstellt“.
Für Dr. Heike Frühwirth war es „großartig zu sehen, wie Studierende verschiedener Studiengänge über den Tellerrand gucken und auf direktem Weg von einander profitieren.“ Und ihr Kollege Dr. Floß sieht „großes Potenzial für weitere gemeinsame Projekte in Lehre und Forschung, an denen die Studierenden beider Studiengänge beteiligt werden können“.
Und wie geht es nun weiter? Jan Schellinger hat seinen Bachelor-Abschluss in der Tasche, sein Projekt ist damit abgeschlossen. Seinem Kolloquium haben auch Mitglieder von Ingenieure ohne Grenzen zugehört – und das mit Interesse. Vielleicht wird seine Idee, nun mit konkreten Ergebnissen hinterlegt, ja doch noch in einem Entwicklungshilfeland aufgegriffen. Schellinger selbst will sein Wissen weiter vertiefen, ob im Entwicklungsbereich, der Energietechnik oder vielleicht sogar der Biotechnologie, ist noch nicht entscheiden. „Ich bin auf jeden Fall gespannt, was als nächstes auf mich zukommt“, sagt er.
Für die Hochschule sieht der 25-Jährige vielfältige Möglichkeiten für die auf den ersten Blick völlig unterschiedlichen Disziplinen Energie-Ingenieurwesen und Industrielle Biotechnologie. Sein eigener Ausflug in die Biotechnologie hat ihm Kompetenzen eingebracht und vor allem neue Freundschaften: „Der Studiengang Industrielle Biotechnologie ist wie eine kleine Familie. In die bin ich aufgenommen worden“.

Weitere Informationen:
http://www.hochschule-biberach.de

Quelle: idw

(nach oben)


Winterschlaf fällt aus: Höhepunkt der Zecken-Welle 2014 bereits vorbei – Aktivität lässt nach

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

In den ersten sieben Monaten 2014 sind in Baden-Württemberg 34 Menschen an der durch Zecken übertragenen Infektion FSME erkrankt. In Bayern waren es 54 Kranke. „In beiden Bundesländern ist die Zahl gegenüber den ersten sieben Monaten 2013 deutlich gesunken und ist damit wieder ungefähr auf dem Stand von 2012″, erläutert die Parasitologin Prof. Dr. Ute Mackenstedt von der Universität Hohenheim. „Längst sind Zecken nicht mehr ausschließlich nur im Wald zu finden, sondern verstärkt auch in heimischen Gärten. Diese wollen die Experten der Universität nun für eine Studie über Zeckenhäufigkeit in Gärten unter die Lupe nehmen. Dringend gesucht werden daher noch Gartenbesitzer in und um Stuttgart, die ihr Grundstück für die Untersuchungen zur Verfügung stellen.

Sie sind winzig klein und sehr gefährlich, gerade wegen des milden Winters 2013/2014 sind die Zecken in diesem Jahr sehr aktiv. Dies schlägt sich allerdings zum Glück nicht in den Zahlen der an FSME Erkrankten nieder: „Wir gehen davon aus, dass viele Menschen wegen des häufigen und heftigen Regens nicht spazieren gegangen sind, daher also die Kontaktzeiten zwischen Zecken und Menschen gering waren und wenig Viren übertragen werden konnten“, sagt Prof. Dr. Mackenstedt.

Vor allem betroffen: Baden-Württemberg und Bayern
Der Blick auf die Statistik zeigt: In den beiden bundesweit am meisten von Zecken betroffenen Bundesländern Bayern und Baden-Württemberg ist die Zahl der an FSME erkrankten Menschen in den Monaten Januar bis Juli in diesem Jahr deutlich gegenüber 2013 zurückgegangen. In Bayern waren es 54 Infizierte gegenüber 83 im Vorjahr und in Baden-Württemberg 34 gegenüber 68 im Jahr 2013. Auf den Plätzen 3 und 4 folgen Hessen mit 6 und Sachsen mit 4 Erkrankten.

Sehr hohe Fallzahlen gab es in den Jahren 2005 (432) und 2006 (546). Ansonsten wurden seit 2001 238-313 Fälle pro Jahr verzeichnet (Quelle: RKI). Vor allem betroffen waren auch damals Bayern und Baden-Württemberg. Regelmäßig tritt die FSME auch in Hessen, Thüringen, Sachsen und in Rheinland-Pfalz auf. Einzelfälle wurden in den letzten Jahren aber auch aus anderen Bundesländern gemeldet.

Verbreitung der FSME in Deutschland
Die Hauptverbreitungs- und -risikogebiete der FSME in Deutschland liegen in Bayern und Baden-Württemberg. Zudem gelten einige Landkreise in Hessen, Rheinland-Pfalz und Thüringen als Risikogebiete. Einzelne FSME-Fälle und infizierte Zecken wurden aber auch aus anderen Bundesländern gemeldet. Nach Angaben des Robert-Koch-Instituts sind bis zu etwa 3 Prozent der Zecken in einem FSME-Gebiet infiziert.

Das Vorkommen von Borrelien in Zecken schwankt regional sehr stark und kann bis zu 30 Prozent betragen. In der Bundesrepublik haben 5,8 Prozent der Frauen und 13 Prozent der Männer Antikörper – ein Zeichen dafür, dass sie vermutlich bereits mindestens einmal Kontakt mit den Erregern hatten. Nur rund ein Prozent der Infizierten entwickelt Krankheitssymptome.

Wo halten sich die Zecken auf, wenn sie auf Wirtsuche sind?
Zecken, die auf der Suche nach einem Wirt sind, erklimmen exponierte Stellen und warten dort so lange, bis ein Wirt (Tiere oder auch ein Mensch) vorbeikommt, an dem sie sich festhalten können. Dies ist in der Regel die bodennahe Vegetation (Gräser, krautige Pflanzen, Gebüsch), umherliegendes Totholz (Äste, Baumstämme), Baumstümpfe oder Ähnliches. Meist klettern aktive Zecken nicht sehr hoch. Erwachsene Zecken halten sich in der Regel in einer Höhe von 30 bis 60 Zentimeter auf, seltener bis zu einer Höhe von 1,5 Meter.

FSME
Die Frühsommer-Meningoenzephalitis, kurz FSME, ist eine durch das FSME-Virus ausgelöste Krankheit. Das Virus greift das zentrale Nervensystem des Menschen an. Das FSME-Virus wird in erster Linie von Zecken auf den Menschen übertragen. Es sind jedoch auch einige wenige Fälle bekannt, bei denen der Genuss von Rohmilch von FSME-infizierten Kühen oder Ziegen die Krankheit ausgelöst hat.
Die Gefahr, nach einem Zeckenstich in den Risikogebieten an FSME zu erkranken, liegt neuen Erkenntnissen zufolge bei 1 zu 150. Nicht jede FSME-Infektion führt zu einem schweren Krankheitsverlauf. Die Mediziner haben bisher noch nicht herausfinden können, warum es bei einigen Menschen zu schweren Erkrankungen kommt und diese sogar daran sterben, während andere FSME-Infizierte nur leicht oder gar nicht erkranken. Sicher ist, dass das Alter der Infizierten eine wichtige Rolle spielt. Je älter die Person, umso schlimmer kann die FSME verlaufen.

Die Gartenstudie der Universität Hohenheim: Gartenbesitzer gesucht
Auch die heimischen Gärten im Südwesten sind zunehmend von Zeckenbefall betroffen und können als so genannte „hot spots“ von Zecken dienen. Die Bedeutung der Gärten wurde bisher häufig unterschätzt und das Infektionsrisiko vor allem mit Freizeitaktivitäten in Wäldern und Wiesen verbunden. Deswegen will die Universität Hohenheim für eine Studie Gärten in Stuttgart und Umgebung auf Zeckenbefall untersuchen. Dafür werden noch Grundstücksbesitzer gesucht, die ihren Garten für die Untersuchungen zur Verfügung stellen. Der Garten sollte dabei mindestens 400 Quadratmeter umfassen. Nähere Informationen gibt es bei Prof. Dr. Ute Mackenstedt (mackenstedt@uni-hohenheim.de, https://zecken-im-garten.uni-hohenheim.de).

Quelle: idw

(nach oben)


Kein „Merkel-Faktor“: Studie untersucht Frauen auf dem Weg zur Macht

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Politische Werdegänge von Frauen und Männern unterscheiden sich kaum

Lüneburg. Welche Voraussetzungen müssen Frauen erfüllen, um die politische Karriereleiter zu erklimmen? Unterscheidet sich ihr Weg zur Macht von dem männlicher Konkurrenten? Eine neue Studie der Leuphana Universität Lüneburg verneint diese Frage. Die Wissenschaftler haben die Biografien sämtlicher Premierministerinnen in Europa seit 1945 mit denen ihrer männlichen Kollegen verglichen. Es ist bislang die europaweit umfangreichste Untersuchung dieser Art.

Seit 1945 gab es in Europa 276 Premierminister, aber nur 14 Premierministerinnen. Zu den wohl bekanntesten zählen die Britin Margaret Thatcher und die deutsche Bundeskanzlerin Angela Merkel. „Nur wenige Frauen schaffen es also an die politische Spitze“, stellt Ina Kubbe vom Zentrum für Demokratieforschung (ZDEMO) der Leuphana Universität fest. „Uns interessiert, ob sie auf diesem Weg andere Voraussetzungen erfüllen müssen als Männer.“

Die Demokratieforscher haben dazu Biografien der 14 Erfolgs-Frauen ausgewertet und mit denen ihrer männlichen Kollegen verglichen. Bei diesem Vergleich beschränkten sie sich auf die Länder in Europa, die seit 1945 mindestens einmal unter weiblicher Ägide standen. Die Demokratien Südeuropas etwa blieben so außen vor; dort war der Chefsessel bislang ausschließlich für Männer reserviert. „Wir vergleichen also insgesamt 138 Lebenswege – 124 von Männern, 14 von Frauen“, erläutert Kubbe.

Das Ergebnis ist auf den ersten Blick überraschend. „Die Karrierewege von männlichen und weiblichen Premierministern sind praktisch ununterscheidbar“, betont ZDEMO-Leiter Professor Dr. Ferdinand Müller-Rommel. Ob Kohl oder Merkel, Thatcher oder Blair – Frauen wie Männer durchlaufen auf ihrem Weg zur Spitze in der Regel ganz ähnliche Stationen: Sie beginnen meist in der Lokalpolitik, werden dann irgendwann Mitglied des Parlaments, übernehmen die Leitung eines Ministeriums und später oft den Vorsitz ihrer jeweiligen Partei. Im Schnitt sammeln sie 17 Jahre Erfahrung in Parlament und Kabinett, bevor der letzte Karriere-Schritt auf den Premierminister-Posten erfolgt – in der Regel mit Ende 40.

Wer ein Land führen will, muss seine Fähigkeiten also zuvor in hochrangigen politischen Ämtern bewiesen haben. Was zählt, sind Erfahrung und Professionalität – und zwar unabhängig von den Geschlechtschromosomen. „Wir haben anhand unserer Daten kein typisches Muster finden können, in dem sich der weibliche Weg zur Macht von dem ihrer männlichen Kollegen unterscheidet“, resümiert Müller-Rommel. „Das kam für uns unerwartet.“

Kein Muster an Gleichberechtigung
Das bedeutet aber nicht, dass Europas Regierungen ein Muster an Gleichberechtigung sind. Zwar müssen Frauen und Männer augenscheinlich dieselben Voraussetzungen mitbringen, um in Schlüsselpositionen vorzustoßen. Dennoch sind Frauen in der Politik immer noch stark unterrepräsentiert. Ein möglicher Grund: Männer machen in der Politik schneller Karriere, weil sie bei gleicher Qualifikation bevorzugt werden. Das Sieb vor jedem Karriereschritt wäre bei ihnen in diesem Fall also gröber als bei Frauen. Die Lüneburger Wissenschaftler wollen nun analysieren, ob dieser Mechanismus die geringe Zahl von Premierministerinnen erklären kann.

Die ZDEMO-Forscher haben in ihren Daten zudem zwei interessante Auffälligkeiten ausgemacht. Zum Einen sind Premierministerinnen im Schnitt besser ausgebildet als ihre männlichen Kollegen – sie haben zum Beispiel häufiger studiert und promoviert. Es scheint also so zu sein, dass die Anforderungen an Frauen, die in der Politik Karriere machen wollen, in diesem Punkt höher sind als die an Männer.

Ministerin für „Gedöns“
Im Unterschied zu Männern besetzen Frauen zudem meist wenig prestigeträchtige Ministerposten. Sie sind – um es mit den Worten von Altkanzler Gerhard Schröder zu sagen – eher für „Gedöns“ zuständig als für Finanzen oder das Militär. Sie werden also anscheinend eher auf „weiche“ Themen abgeschoben. Ursula von der Leyen ist in ihrer Position als Verteidigungsministerin (noch) eine Ausnahme – zumindest hierzulande. Denn in den skandinavischen Ländern scheint diese klassische Ressortaufteilung schon mehr oder weniger passé zu sein. „Schweden, Dänemark oder Norwegen sind – und zwar auch in der Politik! – in Sachen Gleichberechtigung ein ganzes Stück weiter als wir“, betont Ina Kubbe. „Die Gleichstellung von Mann und Frau ist dort in der Gesellschaft fest verankert. Das schlägt sich auch in den entsprechenden Rahmenbedingungen nieder, wie etwa der Versorgung mit Kinderbetreuungsplätzen.“

Doch immerhin scheint Europa bei diesem Thema insgesamt etwas voranzukommen. Inzwischen müssen etwa Premierministerinnen nicht mehr als absolute Exotinnen gelten: Zwischen 2010 und 2014 gab es in Europa immerhin sechs Staatslenkerinnen, in den 30 Jahren davor waren es zusammengerechnet acht. Von einem Frauen-Boom in der Politik mag Kubbe dennoch nicht sprechen: „In den 28 EU-Staaten gibt es momentan insgesamt vier Premierministerinnen. Das sind gerade einmal 14 Prozent.“

Kontakt:
Professor Dr. Ferdinand Müller-Rommel
Zentrum für Demokratieforschung, Leuphana Universität Lüneburg
Telefon: 04131/677-2486
E-Mail: muero@uni.leuphana.de

Ina Kubbe
Zentrum für Demokratieforschung, Leuphana Universität Lüneburg
Telefon: 04131/677-2465
E-Mail: ina.kubbe@uni.leuphana.de

Quelle: idw

(nach oben)


Rezession und Erneuerbare unschuldig am Preissturz für CO2 in Europa

Fabian Löhe Presse- und Öffentlichkeitsarbeit
Mercator Research Institute on Global Commons and Climate Change (MCC) gGmbH

Weder die wirtschaftliche Rezession noch der Ausbau Erneuerbarer Energien sind – wie oft vermutet – Hauptverursacher des massiven Preissturzes im Europäischen Emissionshandelssystem (EU ETS): Sie können gerade mal zehn Prozent des Preisrückgangs von CO2-Zertifikaten erklären. Das ist das Ergebnis einer neuen Studie des Mercator Research Institute on Global Commons and Climate Change (MCC), die im Fachmagazin „Energy Policy“ veröffentlicht worden ist.
Inwieweit die Unsicherheit über künftige politische Regulierung einen Anteil an den noch unerklärlichen 90 Prozent der Preisbildung hat, soll nun Gegenstand weiterer Forschung sein.

Für den Artikel „Gründe für den Preisverfall beim EU ETS“ haben MCC-Researcher Nicolas Koch und seine Kollegen empirisch untersucht, welchen Einfluss verschiedenste Variablen wie Konjunkturdaten, fossile Brennstoffpreise und die Einspeisung Erneuerbarer Energien auf die CO2-Preisentwicklung im Zeitraum von Januar 2008 bis Oktober 2013 hatten. All diese Faktoren beeinflussten den Preis zu nur knapp zehn Prozent. „Die üblichen Verdächtigen wie etwa die Konjunktur oder die Erneuerbaren tragen kaum Verantwortung“, sagt Koch. „Stattdessen geben 90 Prozent der CO2-Preisbildung in Europa weiter Rätsel auf.“

Das EU ETS gilt als eines der wichtigsten Instrumente der europäischen Klimapolitik. Doch die MCC-Ergebnisse kommen zu einer Zeit, in der Reformen heiß diskutiert werden. Denn während 2005 zu Beginn der Einführung des Emissionshandelssystems der Preis für den Ausstoß einer Tonne CO2 noch bei gut 25 Euro pro Tonne lag, mussten Unternehmen Ende 2013 nicht einmal mehr fünf Euro dafür bezahlen. Die EU-Kommission hat daher mit ihren Klimaschutz- und Energiezielen bis zum Jahr 2030 einen Reformvorschlag für den CO2-Handel vorgelegt.

„Wir halten es für wahrscheinlich, dass die Unsicherheit der Investoren, ob politische Ankündigungen zu langfristigen Klimazielen nun tatsächlich umgesetzt werden oder nicht, einen großen Einfluss auf den niedrigen Preis haben“, sagt Koch. „Derzeit ist der Ansporn sehr gering, auf neue, CO2-arme Technologien umzustellen. Die Politik muss auch über 2030 hinaus langfristige Pfade zur CO2-Reduktion aufzeigen.“

Ottmar Edenhofer, Direktor des MCC und Chefökonom am Potsdam-Institut für Klimafolgenforschung (PIK), regt daher einen verbindlichen Preiskorridor für das EU ETS an. „Wir brauchen einen Mindestpreis, um die Unternehmen zu Investitionen in kohlestoffarme Technologien zu ermuntern“, sagt er. „Gleichzeitig wäre aus unserer Sicht aber auch eine Preisobergrenze wichtig, damit bei einer steigenden Konjunktur diese nicht wieder abgewürgt wird.“ Darüber hinaus schlägt er eine sektorale Erweiterung des EU ETS auf den Transport- und Gebäudesektor vor.

Über das MCC
Das MCC erforscht nachhaltiges Wirtschaften sowie die Nutzung von Gemeinschaftsgütern wie globalen Umweltsystemen und sozialen Infrastrukturen vor dem Hintergrund des Klimawandels. Fünf Arbeitsgruppen forschen zu den Themen Wirtschaftswachstum und -entwicklung, Ressourcen und Internationaler Handel, Städte und Infrastrukturen, Governance sowie wissenschaftliche Politikberatung. Das MCC ist eine gemeinsame Gründung der Stiftung Mercator und des (PIK).

Weitere Informationen:
http://www.mcc-berlin.net
http://www.sciencedirect.com/science/article/pii/S0301421514003966

Quelle: idw

(nach oben)


Von welchem Elternteil Gene geerbt werden beeinflusst Alter der Sexualreife

Dr. Nadja Becker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Das Alter, in dem Mädchen die Geschlechtsreife erreichen, wird durch sogenannte genetische Prägung bestimmt. Dabei wird die Genaktivität allein von väterlichen oder mütterlichen Genen bestimmt – je nachdem welche Gene vererbt wurden, berichten Wissenschaftler in der Fachzeitschrift ‘Nature‘. Für die internationale Studie mit über 180.000 Teilnehmern arbeiteten 166 Forschungseinrichtungen zusammen, darunter das Helmholtz Zentrum München.

Das Team analysierte in 57 Studien das genetische Material von 182.416 Frauen und konnte so 123 genetische Varianten identifizieren, die mit dem Zeitpunkt der ersten Regelblutung bei Mädchen assoziiert sind. Sechs dieser Genvarianten sind in „geprägten“ Regionen des Genoms lokalisiert.

Am Helmholtz Zentrum München waren Wissenschaftler um Dr. Christian Gieger, Dr. Doris Stöckl und Dr. Melanie Waldenberger von den Instituten für Genetische Epidemiologie und Epidemiologie II sowie von der Abteilung Molekulare Epidemiologie an der Studie beteiligt. Sie werteten dazu Daten der bevölkerungsbasierten KORA*-Studie aus.

„Die Ergebnisse geben erstmals Einblicke in die genetische Regulation der Geschlechtsreife“, erklärt Gieger. „Das Alter der ersten Regelblutung wird immer wieder mit dem Auftreten chronischer Erkrankungen wie Diabetes mellitus oder Herz-Kreislauf-Erkrankungen in Verbindung gebracht“, ergänzt Stöckl, „daher können die genetischen Assoziationen auch für die Erforschung dieser Volkskrankheiten neue Erkenntnisse liefern.“

Zur Pressemitteilung der University of Cambridge http://www.mrc-epid.cam.ac.uk/age-of-puberty-in-girls-imprinted-genes/

Weitere Informationen
*KORA (Kooperative Gesundheitsforschung in der Region Augsburg)
Seit über 20 Jahren wird in der international bekannten KORA-Studie die Gesundheit tausender Bürger aus dem Raum Augsburg untersucht, um die Auswirkungen von Umweltfaktoren, Verhalten und Genen zu erforschen. Kernthemen der KORA-Studien sind Fragen zu Entstehung und Verlauf von chronischen Erkrankungen, insbesondere Herzinfarkt und Diabetes mellitus. Hierzu werden Risikofaktoren aus dem Bereich des Gesundheitsverhaltens (u.a. Rauchen, Ernährung, Bewegung), der Umweltfaktoren (u.a. Luftverschmutzung, Lärm) und der Genetik erforscht. Aus Sicht der Versorgungsforschung werden Fragen der Inanspruchnahme und Kosten der Gesundheitsversorgung untersucht (www.helmholtz-muenchen.de/kora).

Original-Publikation:
Perry, JRB et al. (2014). Parent-of-origin specific allelic associations among 106 genomic1 loci for age at menarche, Nature, doi: 10.1038/nature13545

Link zur Fachpublikation: http://www.nature.com/nature/journal/vaop/ncurrent/full/nature13545.html

Das Helmholtz Zentrum München verfolgt als deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.200 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 34.000 Beschäftigten angehören. www.helmholtz-muenchen.de

Fachlicher Ansprechpartner
Dr. Christian Gieger, Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt (GmbH), Institut für Genetische Epidemiologie, Ingolstädter Landstr. 1, 85764 Neuherberg – Tel.: 089-3187-4106 – E-Mail: christian.gieger@helmholtz-muenchen.de

Weitere Informationen:
http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…

Quelle: idw

(nach oben)


Kurzes Aufatmen am Ostseegrund: Sauerstoff im Tiefenwasser der zentralen Ostsee gemessen

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Aktuelle Messdaten des IOW zeigen: Sauerstoffreiches Salzwasser aus der Nordsee hat das Gotland-Becken erreicht und verdrängt zum ersten Mal seit 2003 den Schwefelwasserstoff in den Tiefen der zentralen Ostsee.

Nach einer langen Phase von Sauerstoffmangel im Tiefenwasser der zentralen Ostsee zeigen die Ergebnisse der aktuellen IOW-Messkampagne vom 19.-30. Juli dieses Jahres, dass Sauerstoff-reiches Salzwasser die Tiefenbecken der zentralen Ostsee erreicht hat. Damit wird eine seit 2003 anhaltende Phase von Sauerstoffzehrung und zunehmender Schwefelwasserstoffbildung unterbrochen und die Lebensbedingungen höherer Lebewesen in diesen oft als „Todeszonen“ bezeichneten Bereichen leicht verbessert.

Zuletzt war es im November/Dezember 2011 zu einem ähnlichen Ereignis gekommen, das jedoch lediglich das Tiefenwasser der südlichen Ostsee einschließlich der Danziger Bucht belüftete. Das aktuell gemessene Ereignis schaffte es, weiter nach Nordosten bis in das zentrale Gotland-Becken vorzudringen. Dort versorgte der Einstrom die bodennahe Wasserschicht in Tiefen zwischen 200 und 240 Meter zwar nur mit geringen Sauerstoffmengen – es wurden rund 0,37 ml/l gemessen -, er verdrängte jedoch den giftigen Schwefelwasserstoff. Die weiter nördlich liegenden Teile des Gotland-Beckens wurden im Messzeitraum noch nicht von diesem Einstrom erreicht. Das IOW wird den weiteren Verlauf verfolgen.

Als Auslöser dieses Ereignisses nehmen die Warnemünder OstseeforscherInnen zwei länger anhaltende Phasen von westlichen Winden im Februar und März 2014 an. In den Wasserstandsdaten vom 3.-20. Februar und 8.-19. März sind zwei kleinere windinduzierte Einstromereignisse mit geschätzten Volumina von ~ 141 km3 und ~ 203 km3 zu verzeichnen. Das Märzereignis, das die größere Wassermenge mit sich brachte, wurde durch die Abfolge der Sturmtiefs „Danli“, „Ev“ und „Feliz“ über Skandinavien mit Kerndrücken zwischen 960-990 hPa ausgelöst.

Die Schiffsexpedition vom 19.-30. Juli 2014 ist eine von fünf Messkampagnen zur Umweltüberwachung der Ostsee, die das IOW jährlich auf einem festen Stationsnetz, das bis in das Gotlandbecken reicht, durchführt. Innerhalb der deutschen Ausschließlichen Wirtschaftszone (AWZ) erfüllt das IOW damit im Auftrage des Bundesamtes für Seeschifffahrt und Hydrographie (BSH) den Beitrag zur Überwachung der Meeresumwelt der Ostsee, zu dem sich die Bundesrepublik Deutschland im Rahmen des Helsinki-Abkommens (HELCOM) verpflichtet hat. Die gewonnenen Daten werden für regelmäßige nationale und internationale Zustandseinschätzungen der Ostsee genutzt, finden Eingang in zahlreiche Publikationen und stellen die wissenschaftliche Basis für einzuleitende Maßnahmen zum Schutz des Ökosystems der Ostsee dar.

Kontakt:

Dr. Günther Nausch, Sektion Meereschemie, Arbeitsgruppe Allgemeine Meereschemie (Nährstoffanalytik), IOW
(Tel.: 0381 / 5197 332, Email: guenther.nausch@io-warnemuende.de)

Dr. Michael Naumann, Sektion Physikalische Ozeanographie und Messtechnik, IOW (Tel.: 0381 / 5197 267, Email: michael.naumann@io-warnemuende.de)

Nils Ehrenberg, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 106, Email: nils.ehrenberg@io-warnemuende.de)

Hintergrund Salzwassereinbrüche
Der Wasserkörper der Ostsee ist permanent geschichtet mit salzärmerem Oberflächenwasser, das ständig durch den Eintrag von Süßwasser der zahlreichen in die Ostsee mündenden Flusssysteme gespeist wird. Diese Deckschicht steht im ständigen Austausch mit der Atmosphäre und ist durch Windeinmischung, temperaturbedingte Umwälzungsprozesse sowie biologische Produktion gut mit Sauerstoff versorgt. Ab einer Tiefe von rund 70 m, also in Bereichen, die durch die Winddurchmischung nicht mehr erfasst werden, zeigt die Ostsee ihre enge Bindung an die Nordsee: hier sammelt sich das gelegentlich durch die Beltsee in die Ostsee einströmende Nordseewasser. Da es salzhaltiger ist als das Ostseewasser, ist es auch schwerer und fließt am Boden der Ostsee entlang in die Tiefenbecken. Beide Schichten mischen sich nur sehr geringfügig, so dass eine dauerhafte Schichtung in der Ostsee besteht. Feste Partikel, wie abgestorbene organische Substanz, passieren die Grenze dieser beiden Wasserkörper meist problemlos, im Wasser gelöste Gase wie Sauerstoff werden jedoch effektiv zurück gehalten. Der Sauerstoffgehalt des Tiefenwassers nimmt daher durch die Zersetzung des herabgesunkenen organischen Materials ständig ab. Bei der Unterschreitung von Schwellenwerten entsteht dort sogar giftiger Schwefelwasserstoff. Eine Verbesserung dieses Zustandes kann nur durch den Zustrom großer Mengen von Nordseewasser erfolgen, welches in Kontakt mit der Atmosphäre war und deshalb reich an Sauerstoff ist.

Dieser horizontale Wasseraustausch wird jedoch durch untermeerische Schwellen in der westlichen Ostsee erschwert. Nur in speziellen Sturmsituationen aus Nordwest kann das salzreiche Tiefenwasser über diese natürlichen Barrieren gepresst werden, um östliche/zentrale Ostseeteile mit neuem Sauerstoff zu versorgen. Diese Gebiete sind die sogenannte Darßer Schwelle, eine ausgedehnte Sandebene zwischen der dänischen Insel Møn und der Halbinsel Fischland-Darß-Zingst mit 18-19 m Wassertiefe und die Drodgen Schwelle im Öresund. Sie liegt zwischen der dänischen Insel Seeland und dem schwedischen Festland mit einer Wassertiefe von etwa 8-9m.

Seit 2003 fand kein größerer Zustrom mehr statt, so dass in den tiefen Bereichen der zentralen Ostsee, in Wassertiefen über 90 m, der Sauerstoff völlig aufgebraucht war und verstärkte Schwefelwasserstoffbildung eingesetzt hatte. Dadurch waren die biologischen Lebensbedingungen in diesen Gebieten stark eingeschränkt. In den Medien ist in diesem Zusammenhang häufig von „Todeszonen“ die Rede.

http://www.io-warnemuende.de/mitteilung/items/salzwassereinbruch-2014.html

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 17.200 MitarbeiterInnen, davon sind ca. 8.200 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,5 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Frauenquote in Norwegen hat wenig gebracht

Mark Fallak Presse- und Öffentlichkeitsarbeit
Institut zur Zukunft der Arbeit

Die seit 2008 geltende Frauenquote in norwegischen Unternehmen hat für weibliche Beschäftigte unterhalb der Führungsebene keine Karriere- oder Einkommensvorteile gebracht. So lautet das Fazit einer aktuellen Studie, die das Bonner Institut zur Zukunft der Arbeit (IZA) veröffentlicht hat. Ein Team aus vier internationalen Ökonominnen zieht darin eine gemischte Bilanz: Einerseits hat die Quote die männlichen Seilschaften an den Konzernspitzen erfolgreich aufgebrochen. Andererseits hat sich an der Situation von hochqualifizierten Frauen in der Wirtschaft insgesamt praktisch nichts geändert. Die Wissenschaftlerinnen warnen daher vor zu hohen Erwartungen an eine gesetzliche Frauenquote.

Im Jahr 2003 hatte die norwegische Regierung eine Quotenregelung beschlossen, um mehr Frauen in Führungspositionen zu bringen und die Einkommensnachteile gegenüber Männern abzubauen. Damals waren kaum mehr als fünf Prozent der Posten in den Verwaltungsräten börsennotierter Unternehmen mit Frauen besetzt. Ab 2008 musste der Anteil auf mindestens 40 Prozent steigen. Entsprechend groß war der Widerstand in der Wirtschaft. Einige Unternehmen änderten sogar ihre Rechtsform, um der Reform zu entgehen.

Die IZA-Studie der Ökonominnen Marianne Bertrand, Sandra Black, Sissel Jensen und Adriana Lleras-Muney entkräftet zunächst das Argument der Quotengegner, es mangele an qualifizierten Frauen für die höchsten Führungspositionen. Das formale Qualifikationsniveau der weiblichen Mitglieder in den Verwaltungsräten liegt heute sogar höher als vor der Reform. Auch gingen die Einkommensunterschiede innerhalb dieser Gremien deutlich zurück.

In der restlichen Belegschaft der Unternehmen hatte die Quote allerdings keine Auswirkungen. Der Frauenanteil im mittleren Management blieb nahezu unverändert. Auch der Einkommensunterschied zwischen hochqualifizierten Männern und Frauen unterhalb der Führungsebene liegt nach wie vor bei rund 15 Prozent. Offenbar sorgt die Frauenquote also nicht wie erhofft dafür, dass der weibliche Führungsnachwuchs gezielt gefördert wird.

Die Autorinnen geben zwar zu bedenken, dass seit der Reform erst wenige Jahre vergangen sind. Allerdings sprechen ihre Befragungen unter Hochschulabsolventinnen nicht dafür, dass sich in absehbarer Zeit viel ändern wird: Weder strömen vermehrt Frauen in Business-Studiengänge, noch haben sich die Einstiegsgehälter der Absolventinnen denen ihrer männlichen Kollegen angepasst. Hier klafft je nach Studiengang noch immer eine Lücke von 22 bis 27 Prozent. Zwar erhofft sich ein Großteil der hochqualifizierten jungen Frauen Einkommens- und Karrierevorteile durch die Quote. Doch die wenigsten von ihnen haben vor, ihre Familienplanung zugunsten der Karriere zurückzustellen.

Weitere Informationen und den Link zur Studie finden Sie unter:
http://newsroom.iza.org/de/2014/07/30/frauenquote-in-norwegen/

Quelle: idw

(nach oben)


Häusliche Abwässer energetisch nutzen

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Stadtquartier deckt Hälfte des Energiebedarfs durch lokale Erzeugung

Die im häuslichen Abwasser enthaltenen Fäkalien, das sogenannte Schwarzwasser, können zur Biogaserzeugung genutzt werden. Bisher geschah das meist am Ende aller Abwasserkanäle zentral auf der Kläranlage. Das BINE-Projektinfo „Energie aus Abwasser versorgt Stadtquartier“ (09/2014) stellt ein alternatives Konzept für das neue Stadtviertel Jenfelder Au in Hamburg vor. Hier werden die einzelnen Teilströme des Abwassers im Haushalt nicht mehr gemischt, sondern getrennt abgeleitet. Dadurch lässt sich das konzentrierte Schwarzwasser besonders effizient in einer dezentralen Biogasanlage nutzen. Das separat abgeführte Regenwasser wird verwendet, einen Teich zu füllen.

Im neuen Hamburger Stadtquartier Jenfelder Au im Bezirk Wandsbek sollen auf 35 Hektar insgesamt 770 Wohneinheiten für ca. 2.000 Menschen entstehen. Neben zwei sanierten ehemaligen Kasernengebäuden entstehen zu mehr als 80 Prozent Neubauten. Alle Häuser sind mit Vakuumtoiletten ausgestattet, die mit vergleichsweise wenig Spülwasser auskommen. Das Abwasserkonzept sieht vor, die drei Teilströme Grauwasser aus Küche und Bad, Regenwasser und Schwarzwasser getrennt zu erfassen und abzuleiten. Das bei der Vergärung des Schwarzwassers erzeugte Biogas wird über eine Mikrogasturbine in Strom und Wärme umgewandelt. Auf diesem Weg lassen sich etwa 40 Prozent des Wärme- und 50 Prozent des Strombedarfs im Viertel aus der lokalen Erzeugung decken. Damit entsteht in Jenfeld ein neues Stadtviertel, das im großen Maßstab Abwasserentsorgung und Energieerzeugung kombiniert.

Die Baumaßnahmen laufen derzeit und die ersten Bewohner werden ab 2015 im neuen Quartier leben. Die Projektleitung der Maßnahme oblag der HAMBURG WASSER in Zusammenarbeit mit der kommunalen Verwaltung.

Das BINE-Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Wasserentsalzung – umweltschonend und effizient

Thomas von Salzen Pressestelle
Rheinisch-Westfälische Technische Hochschule Aachen

Aachener Forscherteam entwickelt hocheffizientes und kontinuierliches Verfahren, das auf neuartigen Elektroden aus Kohlenstoffpartikeln basiert.

Die Weltmeere enthalten 95 Prozent der irdischen Wasserressourcen. Kein Wunder also, dass weltweit mehr und mehr Länder auf die Entsalzung von Meerwasser setzen, um kostbares Trinkwasser zu gewinnen. Wissenschaftlern und Wissenschaftlerinnen des DWI – Leibniz-Institut für Interaktive Materialien und der Aachener Verfahrenstechnik (RWTH Aachen University) gelang nun die Entwicklung einer umweltfreundlichen und zugleich sehr effizienten Technologie zur Wasserentsalzung. Das elektrochemische Verfahren basiert auf neuartigen Elektroden aus Kohlenstoff-Partikeln und ermöglicht eine kontinuierliche Regeneration der Elektroden während des laufenden Entsalzungsprozesses (Electrochemistry Communications, 2014).

Die aktuell gängigste Methode zur Entsalzung von Wasser ist die Umkehrosmose. Unter hohem Druck von 60-80 bar wird Meerwasser gewissermaßen filtriert und durch eine feine Membran gepresst, die das Salz zurückhält. Neben dem Energieverbrauch ist auch die geringe Ausbeute an entsalztem Wasser von gerade einmal 45-50 Prozent eine wesentliche technische Hürde. Elektrochemische Prozesse bieten hier eine vielversprechende Alternative. Die Bestandteile des Salzes, Anionen und Kationen, werden von Elektroden an einer internen Oberfläche kapazitiv aufgenommen und auf diese Weise aus dem Wasser entfernt. Einschränkungen gab es hierbei bislang bei der Kapazität und Regeneration der Elektroden.

Das Aachener Forscherteam um Professor Matthias Wessling entwickelte nun einen vollständig kontinuierlichen elektrochemischen Entsalzungsprozess. Er basiert auf sogenannten Flow-Elektroden, die aus Suspensionen positiv und negativ geladener Kohlenstoff-Partikel bestehen. „Die Kohlenstoff-Partikel der Elektroden binden das im Wasser vorhandene Salz extrem gut. Mit 260 Milligramm Salz pro Gramm Kohlenstoff-Partikel liegt der Wert mindestens um den Faktor 10 höher als bei zuvor beschriebenen Prozessen dieser Art“, erklärt Matthias Wessling.

Darüber hinaus beschreibt das Forschungsteam einen neuartigen kontinuierlichen Entsalzungsprozess. Im ersten Modul der verwendeten Apparatur binden die Flow-Elektroden Salz aus dem Wasser. In einem zweiten Modul werden die Elektroden-Partikel fortwährend regeneriert. Sie gelangen anschließend wieder in das erste Modul, wo sie erneut Salz-Ionen aus dem Wasser aufnehmen. Bei einer Ausgangskonzentration vom einem Gramm Salz pro Liter Wasser konnten Matthias Wessling und Kollegen auf diese Weise in 90 Prozent des zufließenden Wassers 99 Prozent des enthaltenen Salzes entfernen. Die restlichen zehn Prozent des Wassers dienen der Regeneration der Elektroden-Partikel. Sie nehmen die im Regenerationsprozess freigesetzten Ionen auf, sodass hier ein Salzkonzentrat entsteht.

Als eine Art ‚Hybrid-Professor‘ ist Matthias Wessling einerseits Lehrstuhlinhaber an der RWTH Aachen University, andererseits gehört er der wissenschaftlichen Leitung des DWI – Leibniz-Institut für Interaktive Materialien an. „Meine Teams in der Aachener Verfahrenstechnik und im Leibniz-Institut arbeiten komplementär. Bei diesem Projekt waren die RWTH-Mitarbeiter für die Prozessentwicklung zuständig, während das Team am DWI die benötigten Materialien angefertigt hat.“

Publikation:
Y. Gendel, A. K. E. Rommerskirchen, O. David, M. Wessling, Batch mode and continuous desalination of water using flowing carbon deionization (FCDI) technology, Electrochemistry Communications (2014), DOI: 10.1016/j.elecom.2014.06.004

Kontakt:
DWI – Leibniz-Institut für Interaktive Materialien
Dr. Janine Hillmer
hillmer@dwi.rwth-aachen.de
T +49 241 80 23336
M +49 178 1404852

Weitere Informationen:
http://authors.elsevier.com/a/1PP4n4xfgpiVTl

Quelle: idw

(nach oben)


Vielen Deutschen mangelt es an Zeit

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Alleinerziehende und Selbstständige sind besonders oft betroffen.

Vielen Menschen in Deutschland fehlt es an Zeit. Das zeigt eine Studie der Leuphana Universität Lüneburg, die in Kürze in der Fachzeitschrift „Journal of Economic Inequality“ erscheint. Die Forscher zeigen darin, dass zu wenig Zeit die Lebenszufriedenheit ähnlich beeinträchtigt wie zu wenig Geld. Sie schlagen daher einen neuen Armutsbegriff vor, der auch den Mangel an Freizeit berücksichtigt. Nach dieser Definition liegt in Deutschland jeder achte Erwerbstätige unter der Armutsgrenze. Bei Alleinerziehenden ist jeder Fünfte betroffen, bei Selbstständigen sogar jeder Dritte.

Die Wissenschaftler haben für ihre Studie unter anderem Daten des Sozioökonomischen Panels (SOEP) ausgewertet. Seit 1984 werden darin über 20.000 Menschen aus ganz Deutschland zu verschiedenen Themen befragt. Die Stichprobe ist nach dem Zufallsprinzip zusammengesetzt. Sie liefert daher ein repräsentatives Bild der Lebensumstände in Deutschland.

Die Teilnehmer machen unter anderem Angaben zu ihrem Einkommen sowie zu der Zeit, die sie täglich mit bestimmten Aufgaben verbringen. Außerdem geben sie zu Protokoll, wie sehr sie mit ihrem Leben zufrieden sind. Die Lüneburger Wirtschaftswissenschaftler Professor Dr. Joachim Merz und Tim Rathjen haben diese drei Parameter nun zueinander in Beziehung gesetzt. „Zu wenig Zeit zu haben, beeinträchtigt die Lebenszufriedenheit ganz ähnlich, wie zu wenig Geld zu haben“, fasst Merz einen Kernbefund der Analyse zusammen.

Zeitmangel lässt sich durch Geld zum Teil kompensieren
Ein zweites wichtiges Ergebnis: Zeitmangel lässt sich zumindest teilweise durch ein höheres Einkommen kompensieren – und umgekehrt. Wer viel verdient und nur wenig Freizeit hat, ist also im Schnitt ähnlich zufrieden wie jemand mit einem geringen Einkommen, aber viel Freizeit.

Merz und Rathjen haben aus diesen Zusammenhängen ein neues Armutsmodell entwickelt. Momentan zählt nach einer gängigen EU-Definition als arm, wer weniger als 60 Prozent des mittleren Einkommens in seinem Land verdient. „Wir haben in den SOEP-Daten nur diejenigen Befragten berücksichtigt, die mehr als 20 Stunden pro Woche arbeiten“, erläutert Merz. „Von diesen lagen zum Erhebungszeitpunkt rund 6,8 Prozent unter dieser Einkommensgrenze. Diese 6,8 Prozent sind die so genannten ‚working poor‘: Sie sind im klassischen Sinne arm, obwohl sie mehr als 5 Stunden täglich arbeiten.“

Die neue Definition bezieht nun aber erstmals auch mit ein, wie viel persönliche Freizeit den Befragten zur Verfügung steht. „Dadurch rutschen einige Personen trotz ihres geringen Einkommens aus der Armutszone“, erklärt der Ökonom. „Andererseits kommen aber Menschen hinzu, die zwar genug verdienen, denen aber durch Arbeit, Kindererziehung und andere Verpflichtungen so wenig Freizeit bleibt, dass sie nach unserer Definition dennoch als arm zu bezeichnen sind.“ Merz spricht von einer multidimensionalen Armutsdefinition (mit den Dimensionen Einkommen und Zeit). Nach ihr gelten 12,3 Prozent der Deutschen als arm – also fast doppelt so viele wie nach der Einkommens-fixierten Sichtweise.

Gefährdet: Alleinerziehende, Selbstständige, Kinderreiche
Um diese Zahl zu erhärten, nutzten die Forscher zusätzlich eine Umfrage aus den Jahren 2001/2002, die Zeitbudget-Erhebung des Statistischen Bundesamtes. Rund 35.000 Personen haben darin mittels detaillierter Zeittagebücher ihren Tagesablauf im Zehn-Minuten-Rhythmus erfasst.

„Mit Hilfe dieser Daten können wir sehr genau sagen, welche Personengruppen besonders häufig multidimensional arm sind“, sagt Merz. Alleinerziehende etwa haben oft ein vergleichsweise geringes Einkommen. Gleichzeitig sind sie jedoch durch Arbeit und Erziehungsaufgaben so in Anspruch genommen, dass sie nach der neuen Definition überproportional häufig unter die Armutsgrenze sinken. Mehr als 19 Prozent waren 2001/2002 betroffen. Kinderreiche Familien sind ebenfalls gefährdet; Paare mit drei oder mehr Kindern fielen zu 31,6 Prozent unter die neue Armuts-Definition.

Unter Selbstständigen lag die Quote mit 29,4 Prozent ähnlich hoch. Das liegt vor allem an ihren langen Arbeitszeiten: „Fast zwei Drittel der erfassten Selbstständigen sind ‚zeit-arm'“, erläutert Merz. „Ihnen steht weniger als 60 Prozent der Freizeit zur Verfügung, die die Befragten im Mittel angaben.“

Und noch ein Schluss lässt sich aus den Daten ziehen: Vor multidimensionaler Armut schützt (ähnlich wie vor Einkommens-Armut) am besten eine gute Ausbildung. Bei den Befragten mit Hochschulabschluss lag die multidimensionale Armuts-Quote nur bei 9,4 Prozent.

Merz, J. , & Rathjen, T. (2014). Multidimensional time and income poverty: Well-being gap and minimum 2DGAP poverty intensity – German evidence. Journal of Economic Inequality, 1-26; DOI: 10.1007/s10888-013-9271-6

Kontakt:
Prof. Dr. Joachim Merz
Forschungsinstitut Freie Berufe, Leuphana Universität Lüneburg
Telefon: 04131/677-2051
E-Mail: merz@uni.leuphana.de

Quelle: idw

(nach oben)


Schadstoffe im Abwasser mit Plasma abbauen

Dr. Claudia Vorbeck Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB

Einen neuen Ansatz für die Reinigung von Abwässern mit biologisch schwer abbaubaren Verbindungen untersuchen Fraunhofer-Wissenschaftler in dem vom BMBF geförderten Projekt »Wasserplasmax«. Mit einem ersten Plasmareaktor konnten sie zuvor bereits Cyanide erfolgreich abbauen.

Halogenierte Verbindungen aus Industrieabwässern, beispielsweise fluorierte Tenside, sind ebenso wie einige Arzneimittel aus Klinikabwässern oder Cyanid-Verbindungen aus der Galvanik nur schwer biologisch abbaubar. Um zu verhindern, dass sich diese Schadstoffe in der Umwelt anreichern, muss das Abwasser mit speziellen Reinigungsverfahren behandelt werden. Hierzu wird das Abwasser in der Regel mit oxidativ wirkenden Techniken aufbereitet, die beispielsweise Wasserstoffperoxid oder Ozon als Oxidationsmittel nutzen. Einen neuen Ansatz verfolgt das vom Bundesministerium für Bildung und Forschung (BMBF) als »wissenschaftliches Vorprojekt« (WiVoPro) geförderte Projekt »Wasserplasmax«. In diesem Projekt untersuchen Wissenschaftler am Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, wie Schadstoffe im Abwasser mithilfe von Plasmaverfahren abgebaut werden können – mit oxidierenden Radikalen und UV-Strahlung, welche direkt im Plasma erzeugt werden.

Ein Plasma ist ein ionisiertes Gas, das neben Ionen und Elektronen auch chemische Radikale und weitere elektronisch angeregte Teilchen sowie kurzwellige Strahlung enthält. Ein solches Plasma lässt sich durch ein elektromagnetisches Feld, beispielsweise durch Anlegen einer Hochspannung, zünden. Zur Anwendung in der Wasserreinigung eignet sich ein Atmosphärendruckplasma. »Bringt man verunreinigtes Wasser in Kontakt mit einem solchen Plasma, so reagieren die Radikale mit den im Wasser gelösten Schadstoffen. Auch die durch das Plasma erzeugte Strahlung wirkt über photochemische Prozesse auf die Schadstoffe ein. In beiden Fällen werden die Schadstoffe oxidiert und dadurch unschädlich gemacht«, erläutert Dr. Michael Haupt, Leiter des Projekts und Gruppenleiter »Plasmatechnik und dünne Schichten« am Fraunhofer IGB, das Prinzip.

Dass die Plasmatechnologie ein Ansatz ist, den es sich weiter zu verfolgen lohnt, konnten die Wissenschaftler mit Kollegen internationaler Partner in dem von der EU geförderten Projekt »Water Plasma« bereits zeigen. Wird cyanidhaltiges Industrieabwasser (1,5 mg Cyanid pro Liter) mit zusätzlicher hoher organischer Fracht in einem eigens konstruierten Plasmareaktor behandelt, nimmt die Konzentration von Cyanid innerhalb von nur 90 Minuten um mehr als 90 Prozent bis unter die Nachweisgrenze ab [M. Hijosa-Valsero, R. Molina, H. Schikora, M. Müller, J. M. Bayona, Water Research 47 (2013): 1701-1707]. »Um nun herauszufinden, welche Wechselwirkungen zwischen den reaktiven Plasmaspezies und im Wasser gelösten Schadstoffen am besten zum Abbau der Schadstoffe führen, wollen wir bei Wasserplasmax drei verschiedene Reaktortypen aufbauen und umfassend testen«, beschreibt Haupt den aktuellen Fokus. Bei einem Reaktor wird daher, wie auch zuvor im EU-Projekt, ein kontinuierlicher Wasserfilm direkt am Plasma vorbeiströmen. In einem zweiten Reaktor soll das zu behandelnde Abwasser zunächst mittels einer Düse zerstäubt werden, sodass fein vernebelte Tröpfchen die Plasmazone passieren. »In einem dritten Reaktortyp schließlich wollen wir untersuchen, ob zusätzliche photokatalytische Schichten die Abbauprozesse verstärken«, verrät Haupt. Fällt UV-Licht auf photokatalytische Oberflächen, so werden Radikale erzeugt. »Wenn wir die photokatalytischen Schichten so in den Reaktor integrieren, dass die im Plasma erzeugte UV-Strahlung genutzt werden kann, könnten theoretisch ohne zusätzlichen Energiebedarf weitere reaktive Radikale entstehen«, ist der Wissenschaftler überzeugt.

Die Reaktorkonfiguration mit den besten Ergebnissen soll schließlich als Demonstrator aufgebaut werden, um reales Industrieabwasser im größeren Maßstab zu untersuchen. Neben einem möglichst vollständigen Abbau der Modellschadstoffe spielt auch ein geringer Energieverbrauch eine wichtige Rolle, um die Plasmatechnologie als neues Wasserbehandlungsverfahren etablieren zu können.

Weitere Informationen:
http://www.igb.fraunhofer.de/de/presse-medien/presseinformationen/2014/schadstof…
– Originalmeldung mit Ansprechpartner

Quelle: idw

(nach oben)


Wie das Internet die Welt und unser Verständnis von ihr verändert

Kay Gropp Pressestelle
Universität Witten/Herdecke

Prof. Dr. Birger P. Priddat beschreibt in seinem neuen Buch „Homo Dyctos“ (Netzmensch) den Zusammenhang von Wirtschaft und Denken

Im Jahr Eins nach den Enthüllungen von Edward Snowden zu den Methoden der NSA im Netz steht das Internet plötzlich vor einem großen Imageschaden: Vorher die große Hoffnung auf die große Freiheit und das jederzeit sofort überall dabei sein, nachher die bedrohliche Schnüffelmaschine, die die Privatsphäre zur Lachnummer macht. Für den Philosophen und Volkswirt der Universität Witten/Herdecke, Prof. Dr. Birger P. Priddat, ein Grund genauer hin zu sehen: Er untersucht drei Phänomene: Verhaltensänderungen des Menschen im Umgang mit und durch das Internet, Big Data und den Hochgeschwindigkeitshandel an den Börsen.

Priddat versucht hierbei, z.B. das Phänomen der Urheberrechtsverletzungen im Internet neu zu verstehen. Massenhafter und in einer juristischen Welt verbotener Download von Filmen und Musik gehört zu einem „remix“ von Bildern und Tönen, die in Blogs und Foren wie Facebook oder tumblr eine neue Art der Selbstdarstellung und der „ich-Konstruktion“ ermöglichen. „Der Konsum ist nicht mehr nur private Aneignung, sondern nimmt netz-öffentliche Formen an. Der Konsum erfolgt durch die Anderen, denen man sich so präsentiert. Man selber konsumiert deren Anerkennung bzw. Resonanz.“ (S. 15f) Oder an anderer Stelle geht er auf die Allgegenwärtigkeit des Netzes ein: „Das Inter-Netz forciert nicht nur das Gefühl, weltweit überall zugreifen zu können (permanent access) und dabei zu sein (high level presence), sondern auch das – aus klassischer Perspektive dilettierende – Probieren neuer Konstellationen (creativity). Wahrnehmungen (und deren remixe) gelten bereits schon als Wissen“. (S. 37f)

Die Überwachung unserer Klicks bei Amazon und Co führt zu persönlichen Profilen, die mir nur noch die Werbung zeigt, die ich auch mag und mich interessiert. Durch diese Datenberge (Big Data) verändert sich aber nicht nur mein Konsum. Indem ich viel individueller angesprochen und zum Kaufen angereizt werde, verändert sich auch ein Teil meiner Persönlichkeitsstruktur.

Zum Hochgeschwindigkeitshandel an den Börsen: Das hektische Treiben auf dem Börsenparkett, das Ballett der Händler mit ihrem Winken, das alles ist verglichen mit dem Hochgeschwindigkeitshandel der Computer eine Superzeitlupe: Zum Jahreswechsel 2012/13 konnten die Rechner in jeder Sekunde 250.000 Aktienkäufe bzw. -verkäufe durchführen, 2014 werden es vermutlich schon 400.000 sein. Diese hohe Geschwindigkeit nutzen die Programme dazu, Käufe anzufragen und Millisekunden später wieder abzusagen, nur um zu sehen, ob jemand drauf anspringt und wo das Geld sitzt. Smoking und spoofing heißt das auf Börsendeutsch. 80% der Aufträge im Hochgeschwindigkeitshandel der deutschen Börse werden wieder storniert. Aber wenn man auch nur eine Aktie für einen Cent über dem Einkaufspreis wieder verkaufen kann, bringt das im großen Maßstab großen Gewinn: In der Börsenrushhour zwischen 15 und 16 Uhr wurden 2013 pro Tag 70 – 80 Millionen Wertpapiere gehandelt, macht rein theoretisch 700.000 – 800.000 Euro Gewinn täglich. Die Deutsche Bank verdient 40 Prozent ihrer Gesamterträge im Wertpapierbörsenhandel. „Der Hochgeschwindigkeitshandel verändert unsere Vorstellungen von Akteuren und von Zeit. Und: Er führt zu einer Veränderung bei unserer Vorstellung von ‚Entscheidung‘, denn tatsächlich entscheidet die Maschine ja nicht, sie reagiert nur so schnell, dass es wie eine Entscheidung aussieht“, fasst Priddat die Auswirkung zusammen. „Wenn wir das jetzt auf uns Menschen übertragen, dann fehlt das Moment des rationalen Vergleichens und Entscheidens, was ja den Kern der Ökonomik mit dem vernünftigen und informierten Subjekt ausmacht. Diese Rationalität entpuppt sich als Zeitluxus, weil keine Zeit mehr zum Überlegen bleibt. Das erst mal zu verstehen, ist eine bedeutsame Anforderung an die Theorien, die wir bislang noch vor uns haben.“

Birger P. Priddat: Homo Dyctos. Netze, Menschen, Märkte. Über das neue Ich: market-generated identities. Marburg: Metropolis 2014
http://www.metropolis-verlag.de/Homo-Dyctos/1067/book.do

Weitere Informationen bei Birger P. Priddat, 02302/926-582, birger.priddat@uni-wh.de
http://www.uni-wh.de/universitaet/personenverzeichnis/details/show/Employee/prid…

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1983 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 1.800 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Quelle: idw

(nach oben)


Tagung zum kommunalen Umweltschutz

Peter Kuntz Presse- und Öffentlichkeitsarbeit
Universität Trier

30. Trierer Kolloquium beleuchtet rechtliche Grundlagen und Handlungsfelder

„Kommunaler Umweltschutz“ lautet das zentrale Thema des 30. Trierer Kolloquiums zum Umwelt- und Technikrecht am 4. und 5. September. In Fachvorträgen und Diskussionen werden rechtliche Grundlagen und Handlungsfelder thematisiert. Ein größerer Sachkomplex widmet sich dem kommunalen Energierecht. Dabei werden auch Möglichkeiten einer Rekommunalisierung sowie der Unternehmens- und Bürgerbeteiligung bei Netzinfrastruktur-Maßnahmen erörtert. Ferner stehen Aspekte der Bauleitplanung und des Kreislaufwirtschaftsrechts auf der Agenda.

Die Tagung wird vom Institut für Umwelt- und Technikrecht der Universität Trier im Rahmen seiner Kolloquienreihe veranstaltet. Die wissenschaftliche Leitung liegt in den Händen von Prof. Dr. Timo Hebeler. Tagungsort ist das ERA Conference Centre (ECC) Trier, wo die Veranstaltung am Donnerstag, 4. September, um 14.00 Uhr im Beisein von Universitätspräsident Prof. Dr. Michael Jäckel eröffnet wird.

Am Abend des 4. September findet der traditionelle Empfang durch die rheinland-pfälzische Landesregierung im Kurfürstlichen Palais statt. In diesem Jahr wird Staatsminister Jochen Hartloff (Ministerium für Justiz und für Verbraucherschutz) die Tagungsteilnehmer begrüßen. Außerdem wird im Rahmen des Empfangs zum zweiten Mal der Michael-Kloepfer-Preis verliehen. Die Auszeichnung erhält Dr. Jeanine Greim aus Würzburg für ihre wissenschaftliche Arbeit mit dem Titel „Rechtsschutz bei Verfahrensfehlern im Umweltrecht“.

Weitere Informationen zum Programm und zur Anmeldung im Internet: http://www.iutr.de (Veranstaltungen).

Quelle: idw

(nach oben)


Einkommensgruppen leben in Berlin stärker voneinander getrennt als in München

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

In deutschen Großstädten ist die räumliche Verteilung von Niedriglohnbeziehern sehr unterschiedlich ausgeprägt. Das geht aus einer Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB) hervor, die am Dienstag veröffentlicht wurde. „Berlin und Hamburg gehören neben Frankfurt und Leipzig zu den am stärksten segregierten Großstädten. Dagegen ist die räumliche Trennung von Menschen mit unterschiedlich hohen Löhnen in München – neben Stuttgart und Essen – am wenigsten stark ausgeprägt“, berichten die IAB-Forscher.

Um bei der Betrachtung der einzelnen Städte die Unterschiede im lokalen Preisniveau und damit in der lokalen Kaufkraft zu berücksichtigen, haben die Arbeitsmarktforscher neben der bundesweiten auch die jeweilige stadtspezifische Niedriglohnschwelle berechnet. Entsprechend der OECD-Definition wurden sie bei zwei Drittel des Medianlohns angesetzt. Der Medianlohn ist der mittlere Lohn: Die eine Hälfte aller Beschäftigten verdient mehr, die andere Hälfte weniger.

Bei der Analyse, wo Niedriglohnbezieher wohnen, zeigen sich unterschiedliche Muster der Ansiedlung. In den Berliner Stadtteilen Neukölln, Marzahn und im Wedding gibt es beispielsweise geschlossene Flächen von mehreren Quadratkilometern, in denen mindestens jeder dritte Beschäftigte Niedriglöhne bezieht, wenn man die stadtspezifischen Niedriglohnschwellen zugrunde legt. In München sind Feldmoching-Hasenbergl, Milbertshofen-Am Hart oder Berg am Laim Stadtteile mit einem erhöhten Anteil von Niedriglohnbeziehern. „Auffällig ist, dass vom hohen Anteil an Niedriglohnbeziehern meist nicht ganze Stadtbezirke betroffen sind, sondern nur bestimmte Straßenzüge“, schreiben die IAB-Forscher zur Situation in München.

„Während Stadtgröße und geografische Lage für das Ausmaß der Segregation kaum relevant sind, ist ein Zusammenhang zwischen Segregation und Niedriglohnanteil zu erkennen“, erläutern die Forscher. Bezogen auf die bundesweite Niedriglohnschwelle zählen in Berlin beispielsweise 29 Prozent der Beschäftigten zu den Niedriglohnempfängern, in München dagegen nur 13 Prozent.

Ein Erklärungsansatz für die beobachteten Unterschiede ist den Arbeitsmarktforschern zufolge der Wandel der Wirtschaftsstrukturen: „Während die alten Industrien in Hamburg und Berlin durch negative Strukturschocks getroffen wurden, blieb München von größeren Schocks verschont und konnte zudem in besonderem Maße von der Neuansiedlung von wissensintensiven Branchen profitieren.“ Ein wesentlicher Effekt gehe auch von der lokalen Wohnungsbauförderung und den dort gesetzten Prioritäten aus: sowohl eine rein kostenoptimierte Förderung insbesondere von Großprojekten im Sozialen Wohnungsbau als auch ein Rückzug der staatlichen Aktivität aus diesem Feld führe eher zu stärkerer Einkommenssegregation, erklären die IAB-Forscher.

Die räumliche Trennung von Einkommensgruppen könne bei einer starken Ausprägung unerwünschte Folgen haben: „Im Ergebnis kann innerstädtische Einkommenssegregation dazu führen, dass sozioökonomisch schwächeren Bewohnern qualitativ schlechtere lokale öffentliche Ressourcen und Netzwerke zur Verfügung stehen. Diese sind aber für Bildungsergebnisse und Arbeitsmarktchancen sowie für Sozialisation und Informationsaustausch von hoher Bedeutung“, so die Forscher.

Weitere Informationen:
http://doku.iab.de/kurzber/2014/kb1214.pdf

Quelle: idw

(nach oben)


Mikroben als Umweltsanierer

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Mikrobiologen der Universität Jena lassen Bakterien Enzyme zum Abbau giftiger Chlorverbindungen produzieren

Tetrachlorethen ist eine farblose, leicht flüchtige und nicht brennbare Flüssigkeit. Dank ihres großen Fettlösevermögens findet sie vor allem in der Textilreinigung sowie der Optik- und Metallindustrie zur Entfettung von Oberflächen Anwendung. Mehr als 100.000 Tonnen fallen Jahr für Jahr weltweit an. Und das ist ein Problem: Denn Tetrachlorethen ist nicht nur krebserregend und ein Umweltgift. Es ist in Anwesenheit von Sauerstoff nicht biologisch abbaubar und reichert sich stattdessen im Boden und Grundwasser an. „Von dort ist der Weg nicht weit in die menschliche Nahrungskette“, sagt Dr. Torsten Schubert von der Friedrich-Schiller-Universität Jena. Daher sei es dringend notwendig, Methoden zu entwickeln, chlorierte Schadstoffe zu entgiften, so der Mikrobiologe weiter.

Beim Abbau chlorierter Kohlenwasserstoffe in der Umwelt könnten Mikroorganismen eine wichtige Rolle spielen. „Es gibt Bakterien, die in Abwesenheit von Sauerstoff Substanzen, wie Tetrachlorethen, entgiften können“, weiß Dr. Schubert. Allerdings werden solche Mikroben bislang nur selten für die Sanierung genutzt. „Sie lassen sich nur schwer aus der Natur isolieren und im Labor kultivieren.“ Außerdem besitzen diese Bakterien häufig mehrere dechlorierende Enzyme, die sogenannten reduktiven Dehalogenasen, mit ganz unterschiedlichen Substratspektren, was die Charakterisierung dieser biologischen Katalysatoren erschwert.

Doch Anita Mac Nelly aus dem Team um Dr. Schubert ist es jetzt gelungen, Bakterien heranzuzüchten, die entsprechende Dehalogenasen in Reinform produzieren können. Wie die Forscher in der Fachzeitschrift „Applied und Environmental Microbiology“ schreiben, haben sie das ursprünglich nicht-dechlorierende Bakterium Shimwellia blattae dazu gebracht, nicht nur ein funktionstüchtiges Tetrachlorethen-abbauendes Enzym sondern auch eine spezifische Dehalogenase zum Abbau anderer halogenierter Verbindungen zu produzieren (DOI: 10.1128/AEM.00881-14).

„Ziel der vorliegenden Arbeit war es, zunächst eine einfache und universelle Produktionsplattform zu schaffen, um die Schadstoff-abbauenden Enzyme unabhängig von ihrem Ursprungsorganismus einer Charakterisierung zugänglich zu machen“, erläutert Dr. Schubert. Dazu haben die Jenaer Forscher ein Dehalogenase-Gen, das die Bauanleitung für das gewünschte Enzym enthält, aus dem Mikroorganismus Desulfitobacterium hafniense in das leicht zu kultivierende Bakterium Shimwellia blattae übertragen. Shimwellia blattae ist ein aus dem Darm der Küchenschabe isolierter und vergleichsweise anspruchsloser Mikroorganismus, der sich für die Produktion der dechlorierenden Enzyme bestens eignet, da er das hierfür essentielle Kobalt-haltige Vitamin B12 in ausreichenden Mengen produzieren kann.

In weiterführenden Arbeiten wollen die Mikrobiologen nun die so erhaltenen Enzyme hinsichtlich ihres Aufbaus und ihrer Funktion umfassend charakterisieren. „Die Kenntnis des Katalysemechanismus ist eine wesentliche Voraussetzung dafür, dass wir diese Enzyme in absehbarer Zeit für die Sanierung von kontaminierten Grundwässern oder Böden nutzen können“, macht Dr. Schubert deutlich. An diesem langfristigen Ziel arbeiten die Mikrobiologen der Uni Jena u. a. im Rahmen der kürzlich um eine zweite Förderperiode verlängerten DFG-Forschergruppe „Anaerobic Biological Dehalogenation“.

Original-Publikation:
Mac Nelly A et al. Functional heterologous production of reductive dehalogenases from Desulfitobacterium hafniense strains, Applied and Environmental Microbiology 2014, DOI: 10.1128/AEM.00881-14

Weitere Informationen zur Forschergruppe unter: http://www.uni-jena.de/en/FOR1530.html.

Kontakt:
Dr. Torsten Schubert
Institut für Mikrobiologie der Friedrich-Schiller-Universität Jena
Philosophenweg 12, 07743 Jena
Tel.: 03641 / 949349
E-Mail: torsten.schubert@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Angenehmes Raumklima durch poröse Gläser

Die richtige Luftfeuchtigkeit und Temperatur beeinflussen das Wohnklima entscheidend. Künftig schaffen in Putze eingearbeitete poröse Gläser ein Wohlfühlklima in Räumen. Sie regulieren die Feuchtigkeit besonders gut und beugen Schimmel vor.

Kaum etwas beunruhigt Mieter und Eigentümer so sehr wie Schimmel an den Wänden. Die schwarzen Flecken sehen nicht nur hässlich aus, sondern gefährden die Gesundheit. Vor allem durch verschärfte Dämmstandards kann es zu hoher Feuchtigkeit in Wohnräumen kommen – der Hauptursache für Schimmel. Denn mit der 2002 in Kraft getretenen Energieeinsparverordnung hat die Bundesregierung festgelegt, dass Außenbauteile von Neubauten und sanierten Altbauten luftdicht ausgeführt werden müssen, damit möglichst keine Wärme entweicht. Die Kehrseite der Medaille: Die Feuchtigkeit bleibt in den Zimmern gefangen. »Feuchteregulierende Baustoffe gewinnen daher immer mehr an Bedeutung«, sagt Ferdinand Somorowksy, Wissenschaftler am Fraunhofer-Institut für Silicatforschung ISC in Würzburg.

Besonders schnelle Wasseraufnahme
Der Forscher und sein Team entwickeln gemeinsam mit der Universität Bayreuth und der Firma Keimfarben GmbH Zusätze für Farben und Putze, die ausgleichend auf das Raumklima, vor allem auf die Raumfeuchte wirken. Als Additive verwenden die Projektpartner künstlich hergestellte poröse Gläser, deren Porengröße, -volumen und Partikelform sich gezielt beeinflussen lassen – ein Vorteil dieser anorganischen Materialien gegenüber natürlichen Werkstoffen. Die Glaspartikel, die insbesondere in der Form von Flakes untersucht wurden, nehmen Wasser aus der Raumluft besonders schnell auf, speichern es und geben es langsam wieder ab. »Wasser ist als unsichtbarer Dampf ein Bestandteil der Luft. Damit das Raumklima angenehm ist und bleibt, muss das Wasser, das wir beim Duschen, Kochen und Schwitzen zusätzlich an die Raumluft abgeben, irgendwie auch wieder abgeführt werden. Wände und Decken bieten große Flächen, die für das Feuchtemanagement genutzt werden können. Wenn wir die Glaspartikel in Gipse, Putze und Farben für Innenwände einbringen, können sie täglich und jahreszeitlich bedingte Feuchteschwankungen abpuffern. Die Wohnung ist dann einfach behaglicher. 95 bis 98 Prozent der bislang erhältlichen Putze haben keine Zusätze«, erläutert Somorowsky.

Die Glaspartikel basieren auf Vycor-Glas®. Bei diesem Glas können sich durch eine geeignete Herstellung Poren bilden, die man durch Anpassen der Prozessparameter gezielt einstellen kann. Im Gegensatz zu anderen Materialien mit Sorptionseigenschaften wie Zeolithe oder Keramiken lassen sich runde Partikel, Fasern und Flakes produzieren. Möglich sind Füllstoffe mit Porengrößen zwischen wenigen Nano- bis zu mehreren Mikrometern. »Da sich die Porosität und die Größe der Poren exakt einstellen lässt, kann man die Feuchtigkeit effektiv regulieren. Indem wir die Porengröße minimal verändern, passen wir das Material für unterschiedliche Temperaturen und verschiedene Anwendungen wie Wohn-, Feucht – oder Kellerräume an«, sagt der Forscher. Die ungiftigen und nicht brennbaren porösen Gläser sind preisgünstig und konnten schon in Vorversuchen in großen Mengen von mehreren 100 Kilogramm hergestellt werden.

In Praxistests haben die Wissenschaftler nachgewiesen, dass Putze mit eingearbeiteten Glasflakes im Vergleich zu Zeolithen und Holzfaserplatten, die ebenfalls zur Feuchteregulierung verwendet werden, deutlich mehr Feuchtigkeit aufnehmen und diese auch wieder vollständig abgeben können. Die Tests wurden bei konstanter Temperatur und einer Luftfeuchtigkeit durchgeführt, die einem normalen Innenraumklima nachempfunden wurde. Auch in weiteren Untersuchungen mit Referenzputzen erwies sich das anorganische Material als überlegen. Bei steigender Luftfeuchtigkeit war die Massenzunahme und damit die Wasseraufnahme bei dem mit Glasflakes versetzten Putz deutlich höher als bei den Vergleichsmaterialien. »In einem 30 m3-Raum stehen über Decke und Wände etwa 40 m2 Fläche für einen feuchteregulierenden Putz zur Verfügung. Um die Luftfeuchtigkeit von 72 auf 47 Prozent Luftfeuchte zu reduzieren, müssten rund 180 Milliliter Wasser aufgenommen werden können. Tatsächlich kann unser Putz mit Glasflakes mehr als einen halben Liter Wasser adsorbieren«, so Somorowsky. Auch ließen sich Schimmelpilz hemmende Substanzen in den Putz einbringen.

Ein weiterer positiver Effekt der porösen Glasflakes: Sie beeinflussen die Energiebilanz eines Gebäudes. Wird bei hoher Luftfeuchte Wasser an der Glasoberfläche angereichert, macht die dabei freiwerdende Energie die Raumluft trockener und wärmer. Bei geringer Luftfeuchte und Desorption wird die Raumluft abgekühlt und feuchter. Diese Vorgänge laufen sowohl im Winter als auch im Sommer ab, so dass man primäre Energie zum Heizen oder Kühlen einsparen kann. Vor allem beim Heizungsbetrieb verbessern gleichmäßig in der Putzschicht verteilte Glasflakes das Raumklima.

Derzeit prüfen die Projektpartner wie sich die glasbasierten Werkstoffe unter zusätzlichen Farbschichten und Tapeten verhalten. Sie gehen davon aus, dass es noch etwa zwei Jahre dauern wird, bis die umweltfreundlichen, feuchteregulierenden Putze in den Fachhandel kommen.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Simulationsmodelle optimieren Wasserkraft

Das Columbia River-Delta im Nordwesten der USA bietet großes Potenzial für die Wasserkraft. Über
20 000 Megawatt produzieren die Kraftwerke dort. Ein Simulationsmodell soll helfen, den Betrieb des weiträumigen Staustufensystems zu optimieren.

Forscher des Fraunhofer-Instituts für Optronik, Systemtechnik und Bildauswertung IOSB entwickeln an ihrem Standort in Ilmenau Informationstechnologien, um Wasserkraftsysteme effizienter zu machen. Am Institutsteil Angewandte Systemtechnik AST erstellen sie Simulations- und Optimierungsmodelle, die sowohl externe Faktoren, wie Wetterdaten, Pegelstände und Marktpreise, als auch die Infrastruktur der Systeme zusammenführen und daraus Pläne für die zu betreibenden Anlagen errechnen. Hierzu gehören beispielsweise das Öffnen und Schließen der Schleusentore, die Regulierung der Pegel in den Stauseen und der Betrieb der Wasserturbinen. Die Betreiber können dadurch die Stromerzeugung ihrer Wasserkraftwerke an die aktuellen energiewirtschaftlichen Gegebenheiten anpassen und die erzeugte elektrische Energie mit höchstmöglichem Erlös vermarkten.

22 000 Megawatt im Delta des Columbia Rivers
Nach Projekten in Deutschland und China setzen die Ilmenauer ihr Fachwissen in Kooperation mit dem niederländisch-amerikanischen Unternehmen Deltares für einen der weltweit größten Wasserkraftbetreiber ein. Die Bonneville Power Adminstration (BPA) betreibt im Delta des Columbia Rivers im Nordwesten der USA ein komplexes, weiträumiges Staustufensystem, dessen Kraftwerke zusammen etwa 22 000 Megawatt (MW) Strom erzeugen. Das ist mehr als das Fünffache der in Deutschland verfügbaren Menge: Heute produzieren hierzulande rund 7500 Wasserkraftwerke an Flüssen und Seen eine Leistung von 4300 MW. Im Einzugsgebiet der BPA, zu dem die US-Bundesstaaten Idaho, Oregon, Washington, Montana, Kalifornien, Nevada, Utah und Wyoming gehören, leben über 12 Millionen Menschen. Zusammen mit Deltares entwickelten die Forscher im Projekt »HyPROM« ein funktionierendes Simulations- und Optimierungsmodell, das anhand vorgegebener Parameter den optimalen Betrieb des BPA-Staustufensystems gewährleistet.

»Es gibt sehr unterschiedliche Parameter, die das Erzeugen von Strom in Wasserkraftwerken beeinflussen: Niederschlagsstärke, Menge und Geschwindigkeit des Wassers sowie allgemeine Klimafaktoren gehören beispielsweise dazu. Gleichzeitig müssen Gesetze zum Fisch- und Hochwasserschutz oder Umweltvorgaben eingehalten werden«, so Dr. Divas Karimanzira, aus dem Projektteam am IOSB. »Nur wer alle Variablen im Blick hat, kann sein Wasserkraftwerk optimal betreiben. Bei ›HyPROM‹ kommt als zusätzliche Herausforderung die Komplexität des weiträumig verzweigten Staustufensystems im Delta des Columbia Rivers dazu: Es umfasst zwei verschiedene Flüsse mit durchschnittlich 7500 Kubikmetern Wasser pro Sekunde, zehn Kraftwerke, zehn Stauseen und einen Höhenunterschied von insgesamt 350 Metern.«

Aktuell arbeiten die Wissenschaftler daran, die Simulations- und Optimierungsmodelle um energiewirtschaftliche Aspekte zu erweitern. Sie berücksichtigen dabei die fluktuierende Verfügbarkeit von Wind- und Sonnenenergie ebenso wie sich stochastisch verändernde Marktpreise. »Wir sind dann in der Lage, noch mehr Informationen in die Berechnungen einfließen zu lassen. So entsteht ein Szenario, das der Realität sehr nahe kommt«, erklärt Karimanzira.

Die Projektpartner planen, die neu entwickelte Technologie in ein System zu integrieren, das den zuständigen Mitarbeitern hilft, die richtigen Entscheidungen beim Betrieb der Anlagen zu fällen. Ziel ist es, zukünftig die gesamte Kontroll- und Steuerungsanlage von BPA innerhalb einer Stunde an sich ändernde Rahmenbedingungen anzupassen. Damit wird es auch möglich sein, die Wasserkraft nur dann zu verkaufen, wenn der Preis stimmt. Andernfalls werden freie Speicher befüllt und zu einem späteren Zeitpunkt – wenn es wirtschaftlicher oder technisch notwendig ist – entleert. »Der Preis ist ein wichtiger Aspekt, gerade für Betreiber, die nicht nur Wasserkraft als schwankende Energiequelle verkaufen, sondern auch Sonnenenergie und Windkraft«, sagt Karimanzira.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Online-Kurs gegen „Aufschieberitis“

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Viele Menschen kennen das Verhalten aus ihrem Alltag: Unangenehme Tätigkeiten wie das Lernen auf Prüfungen oder das Verfassen einer schriftlichen Arbeit schieben sie erst einmal auf. Anstatt die Aufgabe sofort zu erledigen, beschäftigen sie sich mit vermeintlich vordringlicheren Dingen wie Internetsurfen oder Putzen. Am Lehrstuhl für Angewandte Psychologie wurde gemeinsam mit dem Fernstudienzentrum des Karlsruher Instituts für Technologie (KIT) ein videobasierter Online-Kurs für besseres Selbst- und Zeitmanagement entwickelt. Im August geht er auf der Plattform Iversity online.

„Bei einigen Menschen nimmt das Aufschieben ein solches Ausmaß an, dass man von einem chronischen Verhalten sprechen kann; es entsteht ein erheblicher Leidensdruck und es drohen beträchtliche negative Folgen wie das Scheitern in Studium oder Beruf“, sagt die Pädagogin Eliane Dominok. Die wissenschaftliche Mitarbeiterin am Lehrstuhl für Angewandte Psychologie des KIT beschäftigt sich mit dem Thema Prokrastination – so die wissenschaftliche Bezeichnung für das Aufschiebeverhalten. Von Betroffenen und ihrem Umfeld werde fortwährendes Aufschieben häufig als Mangel an Selbstdisziplin oder Faulheit abgetan. „Tatsächlich handelt es sich jedoch um eine ernsthafte Arbeitsstörung und ein schwerwiegendes Problem der Selbstregulation“, betont Dominok. Chronisches Aufschieben beeinträchtige das psychische Wohlbefinden und könne zur Ursache für andere psychische Belastungen und Symptome werden.

Am House of Competence (HoC), der zentralen Einrichtung für das Vermitteln fachübergreifender Kompetenzen am KIT, können Studierende Strategien gegen das Aufschieben lernen. „Diese Seminare sind regelmäßig überbucht“, sagt Dominok. Am erstmals angebotenen Online-Kurs „MOOCen gegen chronisches Aufschieben“ können alle Studierenden des KIT – und darüber hinaus auch alle interessierten Internetnutzer – ihren Informationsbedarf zum Thema decken. Mit MOOCs ermöglichen Hochschulen der breiten Öffentlichkeit an ihrem Lehrangebot teilzuhaben. „Das Vorlesungsformat im Internet kann viele Tausend Teilnehmer gleichzeitig erreichen“, erklärt Sarah Holstein, die am Fernstudienzentrum des KIT für die technische Umsetzung und Produktion des MOOC zuständig ist. Der Trend aus Kanada und den USA setzt sich mittlerweile in europäischen Bildungsinstitutionen fort.

Der KIT-MOOC gegen „Aufschieberitis“ bietet mehr als reine Wissensaneignung: Er unterstützt die Teilnehmer dabei, über das eigene Verhalten nachzudenken und es positiv zu verändern. Anhand unterschiedlicher Strategien können sie unter anderem lernen, Ziele im Auge zu behalten, realistisch zu planen, pünktlich zu beginnen, ihren Arbeitsplatz ablenkungsarm zu gestalten und sich selbst zu motivieren. „Die Verknüpfung eines Selbstregulations-Trainings mit einem MOOC stellt selbst innerhalb dieses innovativen Mediums universitärer Lehre ein experimentelles Novum dar“, betont Dominok. Elf Wochen lang wird auf der Internet-Plattform Iversity wöchentlich ein Kapitel des MOOC freigeschaltet. Mehrere jeweils etwa fünf- bis zehnminütige Lehr-Videos – ergänzt durch Quizfragen, Grafiken und Beispiele – vermitteln wissenschaftliche Hintergründe zum Prokrastinations-Phänomen. Zum Kurskonzept gehört die Bearbeitung von Wochenaufgaben durch die Kursteilnehmer. Kommunikation und Austausch zwischen den Teilnehmern ermöglichen unter anderem Elemente wie Online-Foren. Anonymisierte Online-Befragungen am Beginn und Ende des MOOC bieten den Teilnehmern eine differenzierte Auswertung hinsichtlich ihrer individuellen Ausprägung des Aufschiebeverhaltens und ermöglichen es, Verbesserungen von Symptomen empirisch nachzuweisen.

Studierende könnten den MOOC als Vorbereitungskurs nutzen, um gestärkt ins neue Semester zu starten, so Dominok. Die Strategien und Techniken seien jedoch ohne weiteres auf den beruflichen Kontext übertragbar. „Im Arbeitsleben gibt es zunehmend einen größeren Freiraum seine Arbeit zu erledigen und damit mehr Gelegenheit sie aufzuschieben“, sagt die Pädagogin.

Der Online-Kurs „MOOCen gegen chronisches Aufschieben“ startet im August auf der Internetplattform Iversity: http://www.iversity.org

Video-Teaser „MOOCen gegen das Aufschieben“:
http://www.youtube.com/watch?v=jUEI0ZrszfU&feature=youtu.be

Digitale Pressemappe zum Wissenschaftsjahr 2014
Ob in der Kommunikation, der Energieversorgung oder der Mobilität, in der Industrie, im Gesundheitsbereich oder in der Freizeit: Digitale Technologien sind längst Teil unseres Alltags, sie eröffnen neue Möglichkeiten und bieten Lösungen für gesellschaftliche Probleme. Gleichzeitig stellen sie uns vor Herausforderungen. Chancen und Risiken stehen im Mittelpunkt des Wissenschaftsjahres 2014 – Die Digitale Gesellschaft. Am KIT beschäftigen sich Forscherinnen und Forscher aller Disziplinen mit den vielfältigen – technischen und gesellschaftlichen – Aspekten der Digitalisierung. Kurzporträts, Presseinformationen und Videos dazu bietet die digitale Pressemappe des KIT zum Wissenschaftsjahr:
http://www.pkm.kit.edu/digitalegesellschaft

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Quelle: idw

(nach oben)


Spitzentechnologie in der Meeresforschung

Albert Gerdes Pressestelle
MARUM – Zentrum für Marine Umweltwissenschaften an der Universität Bremen

Zukunftsweisendes Tiefsee-Bohrgerät wird vorgestellt

Nach vierjähriger Entwicklungs- und Bauphase wurde das neue Meeresboden-Bohrgerät MARUM-MeBo200 des Bremer Zentrums für Marine Umweltwissenschaften fertig gestellt. Wissenschaftlich erprobt wird das Hightech-Instrument während eine der kommenden Fahrten des neuen Forschungsschiffs SONNE, das erst am vergangenen Freitag von Bundeskanzlerin Merkel getauft wurde. Das gut acht Millionen Euro teure Projekt umfasst neben dem Tiefsee-Bohrgerät unter anderem ein System mit Spezialkabel und Winde, mit dem es von Deck der Forschungsschiffe zu Wasser gelassen wird. MARUM-MeBo200 wurde vom Bundesministerium für Bildung und Forschung finanziert.

Um Schlüsselfragen der Meeres- und Klimaforschung zu beantworten, benötigen Wissenschaftler Proben aus dem Meeresboden. Nur so lassen sich Klimaentwicklungen rekonstruieren, Rohstoffpotentiale und Risiken der im Meeresboden lagernden Gashydrate ergründen oder die Stabilität von Tiefseehängen untersuchen, an denen durch Rutschungen bis in die jüngste Vergangenheit immer wieder Tsunamis ausgelöst wurden.

Mit dem rund zehn Tonnen schweren MARUM-MeBo200 steht jetzt ein ferngesteuertes Bohrgerät zur Verfügung, das von größeren Forschungsschiffen eingesetzt werden kann. Das weltweit einzigartige, mobile Bohrgerät ist für den Einsatz in Wassertiefen von bis zu 2.700 Meter ausgelegt. Am Meeresboden abgesetzt kann es bis zu 200 Meter lange Kerne von Lockersedimenten und Festgesteinen erbohren. „Das funktionale Design, die Steuerungstechnik und Energieversorgung sowie die technologischen Anpassungen für das Arbeiten unter den extrem hohen Umgebungsdrücken in der Tiefsee hat die Meerestechnik-Gruppe am MARUM entwickelt und realisiert“, sagt Projektleiter Dr. Tim Freudenthal: „Der Rahmen, die Bohrtechnik sowie die hydraulische Antriebstechnik des sechs Meter hohen Bohrturms stammen von der Firma Bauer Maschinen. Sehr produktiv verlief auch die Kooperation mit einer Reihe mittelständischer Firmen aus dem Bremer Umland.“ Insgesamt sieben Container sind nötig, um das System, das aus Bohrgerät und -gestänge, Winde, Steuerungs- und Aussetzeinheit, Hydraulik und Stromversorgung besteht, zu den Ausgangshäfen zukünftiger Expeditionen zu verschiffen.

„Wir hatten bereits ab 2005 ein Vorgängermodell entwickelt“, sagt der frühere Direktor des MARUM, Prof. Gerold Wefer. Naturgemäß sind die damit gesammelten Erfahrungen hinsichtlich Betrieb und Wartung in die Konzeption des neuen Bohrgeräts eingeflossen: „Obwohl wir mit dem neuen System fast dreimal so tief bohren können wie mit dem Vorgänger und obwohl wir auf gleichem Raum mehr Gestänge unterbringen mussten, ist das Gerät nicht schwerer geworden oder anspruchsvoller im Handling an Deck“, sagt Gerold Wefer. „Darauf sind wir besonders stolz!“ Möglich wurde dies durch ein intelligentes Design sowie durch den verstärkten Einsatz von Aluminium und Titan bei Rahmen und Gestänge. Die Materialien sparen Gewicht, bieten zugleich aber die für die Bohroperationen in der Tiefsee notwendige Stabilität.

„Mit dem neuen Bohrsystem bauen wir die weltweite Spitzenstellung Bremens, aber auch Deutschlands in der Tiefseetechnologie weiter aus“, betont Prof. Michael Schulz. Der Direktor des MARUM verweist darauf, dass auf internationaler Ebene, etwa im Rahmen des weltweiten International Ocean Discovery Program IODP, bereits intensiv über Einsätze des Bremer Bohrgeräts diskutiert wird. „MARUM-MeBo200 bietet die Möglichkeit, deutlich kostengünstiger als mit Bohrschiffen wertvolle Proben aus der Tiefsee zu gewinnen.“

Weitere Informationen / Interviewanfragen / Bildmaterial:
Albert Gerdes
MARUM-Öffentlichkeitsarbeit
Tel.: 0421 218 65540
Email: agerdes@marum.de

Weitere Informationen:
http://www.marum.de/Spitzentechnologie_in_der_Meeresforschung.html

Quelle: idw

(nach oben)


Die Psychologie des Autofahrens: Prof. Baumann erforscht den Faktor Mensch im Straßenverkehr

Annika Bingmann Pressestelle
Universität Ulm

Im Straßenverkehr entscheidet eine funktionierende Interaktion zwischen Fahrer und Auto über Leben und Tod. Die zunehmende Automatisierung von Fahrzeugen ist dabei Hilfestellung und Herausforderung zugleich. An der Universität Ulm testet und optimiert der neue Psychologieprofessor für Human Factors, Martin Baumann, gemeinsam mit Ingenieuren und Informatikern Fahrerassistenzsysteme von morgen.

Regen auf der A8. Die Sicht ist schlecht und der Autofahrer wird langsam nervös: Auf keinen Fall möchte er zu spät zum Vorstellungsgespräch in München erscheinen. Doch der LKW vor ihm schleicht im Schneckentempo über die Autobahn und auf der linken Spur wird bereits gedrängelt. Soll er das Überholmanöver riskieren? „Aus psychologischer Perspektive ist Auto fahren harte Arbeit“, sagt Martin Baumann, Professor für Human Factors an der Uni Ulm. Der Fahrer müsse zahlreiche Informationen gleichzeitig verarbeiten, ein mentales Bild der Situation aufbauen und in Sekundenbruchteilen Entscheidungen treffen. Assistenzsysteme versprechen Unterstützung – können aber auch neue Probleme schaffen. Wie die Interaktion mit den Hightech-Helfern funktioniert und wie sie optimiert werden kann, untersucht Baumann an der Universität Ulm.

Gemeinsam mit Ingenieuren und Informatikern arbeitet der Psychologe an Assistenzsystemen, die den Fahrer entlasten, nicht aber entmündigen. „Um ein technisches System zu akzeptieren, muss es der Mensch zunächst verstehen“, so Baumann. Fahrer und Maschine sollten also miteinander kommunizieren, denn auf beiden Seiten lauern Fehlerquellen: Das System könnte zum Beispiel ein Manöver vorschlagen, das dem Fahrer zu riskant erscheint, oder der Mensch könnte beim Überholen einen Wagen im toten Winkel übersehen. Gerade auf dem Weg zum automatisierten Fahren, bei dem das Auto ohne Fahrereingriff durch den Verkehr steuert, ist eine funktionierende Kommunikation zwischen Mensch und Maschine überlebenswichtig.
Wenn er bestehende Systeme testet oder seinen Kollegen aus den Technikfächern beratend zur Seite steht, greift Baumann einerseits auf kognitionspsychologisches Wissen zurück und führt andererseits Experimente durch. An der Uni Ulm wird gerade ein Fahrsimulator eingerichtet, der die Forschung des Psychologen ab etwa 2015 erleichtern soll. Über den „Bordcomputer“, Kameras und so genanntes eye-tracking, bei dem die Blickrichtung registriert wird, kann der Versuchsleiter dann die Fahrleistung der Testpersonen bewerten. Wie viele Fehler macht der Fahrer in der jeweiligen Situation? Hält er die Spur? Und wie leicht lässt er sich ablenken? Zusätzlich enthält der Versuchsaufbau womöglich die Erfassung physiologischer Parameter wie die Messung des Hautleitwiderstands, der Pupillengröße oder auch eine Befragung.

Am neuen Arbeitsplatz hat der gebürtige Regensburger mit wichtigen Stationen in Chemnitz und am Deutschen Zentrum für Luft- und Raumfahrt in Braunschweig ein ideales Umfeld vorgefunden. Die Psychologie ist stark kognitions- und technikorientiert, Kollegen aus den Ingenieurwissenschaften sind offen für eine Zusammenarbeit – zum Beispiel im Forschungszentrum für kooperative, hochautomatisierte Fahrerassistenzsysteme und Fahrfunktionen (F3). In dieser „Werkstatt für Fahrzeuge der Zukunft“ geht es auch um Autos, die untereinander beziehungsweise mit ihrer Umwelt kommunizieren, sich also vor Staus warnen oder Manöver aufeinander abstimmen. Was das für Auswirkungen auf den Fahrer hat, wird Martin Baumann untersuchen.

Er selbst beschreibt seine Arbeit als Grundlagenforschung, die teils anwendungsorientiert, nicht jedoch auf die Automobilindustrie zugeschnitten sei. Zunächst plant der 44-Jährige, den Schwerpunkt „Human Factors“ an der Universität Ulm zu etablieren. Dabei wird er sich auch einer Gruppe zuwenden, die in besonderem Maße von Fahrerassistenzsystemen profitieren könnte: den Senioren. Ausgehend von ihren Bedürfnissen soll (hoch-) automatisiertes Fahren für alle Altersgruppen optimiert werden.
Privat ist der zweifache Familienvater übrigens kein Autofan. Er räumt allerdings ein, sich bei Autofahrten zu beobachten und eigene Manöver mit der Theorie abzugleichen. Wie Martin Baumann, der über logisches Denken promoviert hat, beim Fahrleistungstest abschneidet, hat er nicht verraten.

Hintergrund:
Interdisziplinäres Forschungszentrum

Im Forschungszentrum für kooperative, hochautomatisierte Fahrerassistenzsysteme und Fahrfunktionen (F3) erarbeitet eine interdisziplinäre Gruppe aus Ingenieuren, Informatikern und Psychologen, wie sich menschliche Eigenschaften auf Fahrzeuge übertragen lassen. Seit 2013 unterstützt die Carl-Zeiss-Stiftung diesen bundesweit einzigartigen Zusammenschluss im Bereich automatisiertes Fahren für insgesamt vier Jahre mit 750 000 Euro. Die Förderung erfolgt im Rahmen des Programms zur Stärkung von Forschungsstrukturen an Universitäten. Durch verbesserte Assistenzsysteme sollen künftig Unfallzahlen reduziert werden.

Weiterhin könnten die Assistenten zur Komfortsteigerung des Fahrers – gerade im dritten Lebensalter – beitragen. Die Voraussetzungen an der Uni Ulm sind hervorragend: Am Institut für
Mess-, Regel- und Mikrotechnik wird seit mehr als zehn Jahren zu Fahrerassistenzsystemen geforscht – auch im gemeinsamen Innovationszentrum driveU mit der Daimler AG. Weitere Pluspunkte sind der Sonderforschungsbereich/Transregio 62 zu intelligenten technischen Systemen („Eine Companion Technologie für kognitive technische Systeme“) sowie der Schwerpunkt Mensch-Maschine- Interaktion an der Fakultät für Ingenieurwissenschaften und Informatik. Martin Baumanns Professur für Human Factors fügt sich passgenau in das Zentrum F3 ein.

Bitte beachten: Das Forschungszentrum heißt F*hoch 3*. Leider lässt sich die Hochzahl im System nicht darstellen.

Quelle: idw

(nach oben)


Spinat unter Druck

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Ernährungswissenschaftler der Uni Jena testen schonendes Verfahren zum Haltbarmachen von Gemüse

Fünf Mal am Tag eine Handvoll, so heißt die Empfehlung für den Verzehr von Obst und Gemüse. Voller Nähr- und Mineralstoffe steckt die pflanzliche Nahrung und enthält noch dazu jede Menge Vitamine. Sie liefert unserem Körper nicht nur Energie, sondern wirkt sich auch in vielerlei Hinsicht positiv auf die Gesundheit aus.

Auch das Augenlicht braucht die tägliche Dosis Gemüse: So haben pflanzliche Farbstoffe (Carotinoide) aus grünem Gemüse wie Spinat, Grünkohl oder Brokkoli eine positive Wirkung auf die Netzhaut im menschlichen Auge. „Carotinoide wie Lutein und Zeaxanthin wirken in der Netzhaut des Menschen als natürlicher Sonnenschutz, indem sie schädliches energiereiches, blaues Licht von der Netzhaut fernhalten“, sagt PD Dr. Volker Böhm von der Friedrich-Schiller-Universität Jena. Doch nicht mit jedem Biss in ein Spinatblatt tut man seinen Augen automatisch etwas Gutes. „Entscheidend ist, wie das Gemüse zubereitet bzw. haltbar gemacht wurde“, weiß der Ernährungswissenschaftler. So sei allgemein bekannt, dass etwa beim Kochen viele Inhaltsstoffe zerstört werden.

Dr. Böhm und sein Team haben daher in einer aktuellen Studie untersucht, wie sich der Gehalt an wertvollen Carotinoiden in Brokkoli und Co. bei der Konservierung schonen lässt. Wie die Forscher der Uni Jena in der Fachzeitschrift „LWT – Food Science and Technology“ schreiben, lassen sich die natürlichen Schutzpigmente durch den Einsatz eines Hochdruckverfahrens beim Haltbarmachen von Gemüse weitestgehend vor Zerstörung schützen (DOI: 10.1016/j.lwt.2014.01.004).

Für ihre Untersuchung haben die Forscher gemeinsam mit Kollegen der TU Dresden Spinat unterschiedlich lange einem Druck von bis zu 600 MPa ausgesetzt – das entspricht etwa dem Druck in 60 km Meerestiefe. Anschließend sind die Proben auf ihren Carotinoid-Gehalt untersucht und dieser mit Proben aus dampfgegartem und gekochtem Gemüse verglichen worden. „Während sich aus den erhitzten Proben deutlich geringere Mengen an Farbstoffen gewinnen ließen als aus dem rohen Gemüse, haben wir in den druckbehandelten Proben sogar leicht höhere Werte gefunden“, fasst Böhm die Studienergebnisse zusammen. Letzteres, so vermutet der Forscher, liege daran, dass die Farbstoffe durch das Druckverfahren leichter aus dem Gemüse herausgelöst werden.

Diese Erkenntnisse seien im Moment zwar noch ohne Relevanz für die Speisezubereitung in der heimischen Küche, so der Ernährungswissenschaftler. Doch für das industrielle Haltbarmachen von verarbeiteten Lebensmitteln, wie Gemüsesäften oder Fertiggerichten, sei das Hochdruckverfahren eine interessante Alternative zum gängigen Erhitzen. Nun planen die Jenaer Forscher weitere Untersuchungen, um die Auswirkungen der Hochdruckbehandlung auf die Bioverfügbarkeit der Carotinoide im menschlichen Körper zu testen.

Original-Publikation:
Arnold C et al. Carotenoids and chlorophylls in processed xanthophyll-rich food, LWT – Food Science and Technology 2014, DOI: 10.1016/j.lwt.2014.01.004

Kontakt:
PD Dr. Volker Böhm
Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Dornburger Straße 25, 07743 Jena
Tel.: 03641 / 949633
E-Mail: volker.boehm@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


UMSICHT beteiligt an Forschungsprojekt zur Wassereinsparung – ROOF WATER-FARM

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Gemüseanbau mitten in der Stadt? Die Idee, im Supermarkt erhältliche Gemüse und Kräuter einfach auf dem Dach anzubauen, anstatt sie von weither zu transportieren, findet viele Befürworter. Morgens geerntet, liegt die Ware dann frisch in den Regalen – ohne Verlust an Geschmack oder Vitaminen und ohne großartige Transportkosten zu verursachen.

Aufgrund von globalen Trends wie wachsende Weltbevölkerung und steigende Urbanisierung sowie Klimawandel und Flächenversiegelung wird die Rolle für die lokale Nahrungsmittelversorgung und Bewirtschaftung multifunktionaler Landschaften zunehmend wichtiger. In Zukunft muss eine nachhaltige Versorgung mit Nahrungsmitteln über innovative, systemische Ansätze sichergestellt werden. Im Gegensatz zu bestehenden Versorgungsstrukturen, die häufig stark auf Lebensmittelimporten basieren, zielt der Ansatz des Fraunhofer-Instituts UMSICHT inFarming® darauf ab, Nahrungsmittel in einem regionalen, ressourcenschonenden sowie ganzheitlichen Kontext zu erzeugen und bereitzustellen (»lokale und qualitativ hochwertige Produktion unter optimiertem Wachstum in der Stadt für die Stadt«).

Zentrale Standortbedingungen für die erfolgreiche Pflanzenproduktion sind die Verfügbarkeit von Licht, Wasser, Wärme und Nährstoffen. Diese können im urbanen Raum ressourceneffizient durch Integration kommunaler und industrieller Stoff- und Energieströme mittels intelligenter Verknüpfung von Produktionssystemen und Gebäudeinfrastrukturen bereitgestellt werden. Das Einsparpotenzial ist erheblich. Neben der benötigten Anbaufläche gehen weltweit rund 70 Prozent des verfügbaren Trinkwassers in die Landwirtschaft, darüber hinaus trägt der Energieverbrauch mit ca. 14 Prozent zu den weltweiten CO2-Emissionen bei.

Nährstoffe aus Schwarzwasser
In dem vom Bundesministerium für Bildung und Forschung (BMBF) geförderten Projekt ROOF WATER-FARM wird über drei Jahre ein System entwickelt, das die Wasserströme aus Gebäuden zur Versorgung von Pflanzensystemen nutzt. Aufgetrennt nach der Herkunft des Wassers, werden in einem Gewächshaus im Berliner Stadtteil Kreuzberg in zwei unabhängigen Versuchsstrecken einerseits das Wasser aus Dusche, Badewanne und Waschmaschine (Grauwasser) und andererseits das Toilettenabwasser (Schwarzwasser) derart aufbereitet, dass damit Erdbeeren, Tomaten oder Salat ideale Wachstumsbedingungen erhalten.

Neben der Bereitstellung von frischem Wasser liegt ein Hauptaugenmerk des Forschungsprojekts in der effizienten und hygienischen Versorgung der Pflanzen mit Dünger. Fraunhofer UMSICHT entwickelt in diesem Zusammenhang ein neues Verfahren, das die notwendigen Hauptnährstoffe für das pflanzliche Wachstum direkt aus dem Schwarzwasser gewinnt. Ökobilanzielle Betrachtungen der einzelnen Stoffströme geben darüber hinaus Auskunft, ob der konzeptionelle Ansatz nachhaltig ist.

Am 11. Juni 2014 ist die Versuchsanlage mit einem Erdbeerfest der Öffentlichkeit vorgestellt worden. Die Technologie, die heute noch in einem begrünten Hinterhof eines Kreuzberger Wohnblocks steht, soll zukünftig in sogenannten gebäudeintegrierten Stadtfarmen nach dem inFarming®-Ansatz für mehr Effizienz sorgen.

Das Projekt ROOF WATER-FARM ist ein Verbundprojekt unter Koordination der TU Berlin. Weitere Verbundpartner sind:
inter 3 GmbH – Institut für Ressourcenmanagement
TERRA URBANA Umlandentwicklungsgesellschaft mbH
Nolde & Partner
Senatsverwaltung für Stadtentwicklung und Umwelt

Weitere Informationen:
http://www.roofwaterfarm.com
http://www.infarming.de

Quelle: idw

(nach oben)


Internationale Fußballspiele in Höhenlagen – sind Top-Spieler aus dem ‚Flachland‘ benachteiligt?

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Sind Fußballspieler benachteiligt oder sogar gefährdet, wenn sie in Höhenlagen von über 3.000 Metern an internationalen Spielen teilnehmen? Am Institut für Sportwissenschaft der Universität Bayreuth befassen sich Prof. Dr. Walter Schmidt, der hier die Abteilung Sportmedizin / Sportphysiologie leitet, und seine Mitarbeiterin Dipl.-Sportök. Nadine Wachsmuth mit dieser Thematik. Ein Forschungsprojekt hat ergeben: Die oft praktizierte ‚fly in – fly out‘-Strategie ist aus leistungsphysiologischer Sicht nicht zu empfehlen.

Viele Fußballspieler, die südamerikanischen Fußball-Nationalmannschaften angehören, stehen bei europäischen Vereinen unter Vertrag – darauf hat die Weltmeisterschaft 2014 in Brasilien erneut aufmerksam gemacht. Diese Spieler sind es oftmals nicht gewohnt, Spitzenleistungen in Höhenlagen zu erbringen, wie sie für einige Andenstaaten typisch sind. So liegt beispielsweise die bolivianische Hauptstadt La Paz rund 3.600 m über dem Meeresspiegel, die kolumbianische Hauptstadt Bogotá in rund 2.600 m Höhe. Für La Paz hat sich mittlerweile die sogenannte ‚fly in – fly out‘-Strategie durchgesetzt: Auswärtige Mannschaften fliegen unmittelbar vor dem Spiel ein und verlassen danach gleich wieder die Stadt. Diese Praxis beruht auf der Annahme, es gebe unmittelbar nach der Ankunft in der Höhenlage ein ‚physiologisches Fenster‘, also einen kurzen Zeitraum, innerhalb dessen die Leistung noch nicht wesentlich abfällt.

In internationalen Sportverbänden wird schon seit langem darüber diskutiert, inwiefern manche Spieler benachteiligt oder sogar gefährdet sind, wenn sie beispielsweise bei der „Copa América“, der südamerikanischen Fußballmeisterschaft, oder bei WM-Qualifikationsspielen auf Mannschaften treffen, die an Höhenlagen bereits akklimatisiert sind. Der Fußball-Weltverband FIFA entschied im Jahr 2007, dass Fußballspiele nicht in einer Höhe über 3.000 m stattfinden dürfen, und revidierte damit eine frühere Entscheidung, die die zulässige Höchstgrenze bei 2.500 m angesetzt hatte. Südamerikanische Fußballverbände intervenierten jedoch gegen diese Maßgabe, und so wurde 2008 von der FIFA beschlossen, dass sie erst dann umgesetzt werden solle, wenn genügend wissenschaftliche Daten über die Leistungsentwicklung und eine mögliche Gesundheitsgefährdung in diesen Höhen vorliegen. Dies ist aber bis heute nicht der Fall.

Vergleichende Untersuchungen an Fußballteams aus Bolivien und Australien
An der Universität Bayreuth befassen sich Prof. Dr. Walter Schmidt, der die Abteilung Sportmedizin / Sportphysiologie im Institut für Sportwissenschaft leitet, und seine Mitarbeiterin Dipl.-Sportök. Nadine Wachsmuth schon seit längerem mit dieser Thematik. Forschungsergebnisse, die gemeinsam mit internationalen Partnern erzielt wurden, sind mittlerweile in internationalen Fachzeitschriften publiziert.

In einer speziell auf den Fußball bezogenen Fallstudie mit australischen Partnern ging es um einen Vergleich zwischen Juniorenspielern eines traditionsreichen bolivianischen Fußballvereins und den Mitgliedern der australischen U-17-Nationalmannschaft. Beide Mannschaften trafen zunächst in zwei Fußballspielen aufeinander, die in der bolivianischen Stadt Santa Cruz in 420 m Höhe stattfanden. Dann folgten, während eines Zeitraums von zwei Wochen, drei Begegnungen in La Paz. Bei allen Spielen und Trainingseinheiten zeichnete ein GPS-System die Laufwege und Laufgeschwindigkeiten der Spieler auf, die so gewonnenen Daten wurden mit der zeitgleich registrierten Herzfrequenz in Beziehung gesetzt. Kontinuierliche Messungen registrierten die Blutbildung. Hinzu kamen Fragebögen, in denen die Spieler wiederholt Auskunft über ihr subjektives Empfinden gaben.

Die Ergebnisse waren eindeutig: Während der ‚Flachlandphase‘ zeigten sich beide Mannschaften gleich stark. Doch unmittelbar nach der Ankunft in der bolivianischen Hauptstadt auf einer Höhe von 3.600 m, gleich während des ersten Fußballspiels, brach die Leistungsfähigkeit der australischen Mannschaft ein. Die Leistungsminderungen waren bei ihnen wesentlich stärker ausgeprägt als bei den bolivianischen Spielern, die zwar ebenfalls, aber längst nicht in gleichem Umfang mit Anpassungsschwierigkeiten zu kämpfen hatten. „Die ‚fly in – fly out‘-Strategie kann somit vom leistungsphysiologischen Standpunkt nicht empfohlen werden“, erklärt daher Prof. Schmidt.

Besonders auffällig waren Anomalien im Schlafverhalten, die mit Elektroden und Bewegungsanalysatoren aufgezeichnet wurden. Bei der Hälfte der australischen Spieler wurde eine so genannte Cheyne-Stokes-Atmung beobachtet: ein ständiger Wechsel zwischen Atemunterdrückung, Atemnot und tiefen Atemzügen, der tagsüber starke Erschöpfungserscheinungen verursacht.

Unterschiedliche Akklimatisierungsprozesse
Während der zwei Wochen in La Paz blieben deutliche Unterschiede zwischen den Teams bestehen, trotz der allmählich einsetzenden Akklimatisation. Einige physiologische Funktionen – insbesondere die Atmung sowie die Sauerstoffsättigung des Hämoglobins im Blut – veränderten sich bei den australischen Spielern in der Weise, dass sie durch die Höhenlage weniger stark beeinträchtigt wurden. Und schon nach zwei Tagen waren keine höhenspezifischen Krankheitszeichen mehr zu erkennen. Gleichwohl führten diese Anpassungsprozesse insgesamt nicht zu einer völligen Wiederherstellung der ursprünglichen Leistungsfähigkeit. Unterschiede zu den bolivianischen Spielern, die sich nach kurzer Zeit regenerieren konnten und in der Höhenlage ihr gewohntes Leistungsniveau zeigten, blieben bestehen.

Handlungsempfehlungen für internationale Fußballverbände
Welche Empfehlungen lassen sich daraus für den Fußballsport ableiten? „Es ist eine schwierige Abwägung, ob die FIFA oder andere Fußballverbände eine Höhengrenze für internationale Fußballturniere definieren und einem Land wie Bolivien dadurch die Chance nehmen sollten, Gastgeber für solche Veranstaltungen zu sein“, meint Prof. Schmidt. „Einerseits sind Nachteile für Spieler, die Fußballturniere in Höhenlagen nicht gewohnt sind, unbestreitbar; andererseits haben wir kein generelles Risiko für ernsthafte Erkrankungen nachweisen können.“

Der Bayreuther Sportmediziner betont, dass die Höhenlage eines Austragungsorts keineswegs der einzige Faktor ist, der Fußballspieler aus Ländern mit anderen klimatischen Bedingungen einseitig benachteiligt. „Es gibt andere Umweltfaktoren, die für die Gesundheit der Spieler wesentlich riskanter sind als die Höhenexposition – beispielsweise große Hitze mit Schattentemperaturen von über 40 Grad Celsius, wie sie 2022 bei der Fußballweltmeisterschaft in Qatar zu erwarten sind. Wenn die FIFA in ihren Regularien gesundheitliche Risiken ausschließen will, die durch klimatische Gegebenheiten an den Austragungsorten bedingt sind, sollte sie konsequenterweise auch solche risikoreicheren Faktoren berücksichtigen“, so Prof. Schmidt.

Kontakt:
Prof. Dr. Walter Schmidt
Abteilung Sportmedizin/Sportphysiologie
Universität Bayreuth
D-95440 Bayreuth
Tel.: +49 (0)921 55 3464
E-Mail: walter.schmidt@uni-bayreuth.de

Veröffentlichungen (u.a.):
Nadine Wachsmuth et al.,
Changes in blood gas transport of altitude native soccer players near sea-level and sea-level native soccer players at altitude (ISA3600)
British Journal of Sports Medicine 47:i93-i99. DOI: 10.1136/bjsports-203-092761, 2013

Christopher J Gore et al.,
Methods of the international study on soccer at altitude 3600 m (ISA3600),
British Journal of Sports Medicine 47:i80-i85.
DOI: 10.1136/bjsports-2013-092770, 2013

Quelle: idw

(nach oben)


Neues UNESCO-Wasserzentrum in Koblenz

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

Am 9. Juli wurde in Berlin von Bundesregierung und UNESCO der Vertrag zur Gründung des ersten UNESCO-Wasserinstituts in Deutschland unterzeichnet. Die Institution wird in Koblenz bei der Bundesanstalt für Gewässerkunde angesiedelt und trägt die Bezeichnung „Internationales Zentrum für Wasserressourcen und globalen Wandel“.

Weltweit gibt es bereits 26 Institute, die unter der Schirmherrschaft der UNESCO stehen. Es handelt sich um Forschungs- und Ausbildungszentren, von denen jedes einen anderen wasserspezifischen Themenkomplex behandelt. Im neuen Zentrum in Koblenz werden der globale Wandel und Wasserressourcen im Fokus stehen. Der Forschungsschwerpunkt wird auf der weltweiten Verfügbarkeit und Qualität von Wasser liegen. Das Wasser-Institut wird Experten aus aller Welt aus- und fortbilden und gemeinsame Forschungsprojekte initiieren. Mit neuen Datenstrukturen wird international ein effizienter Umgang mit gewonnenen Erkenntnissen auf dem Gebiet der Gewässerkunde ermöglicht. Hierzu gehören auch Referenzdatensätze, die weltweit die Abflussmenge und Güte großer Flüsse und Seen sowie die Grundwasserbeschaffenheit beschreiben.

Das UNESCO-Institut ist bei der Bundesanstalt für Gewässerkunde gut angesiedelt. In vielen Jahren der interdisziplinären Zusammenarbeit an praxisbezogenen Aufgabenstellungen wurde in der BfG ein umfassendes Expertenwissen zu Wassermengen, Wasserqualität sowie ökologischen Fragestellungen und Wirkungszusammenhängen an Gewässern aufgebaut. Gerade wurde unter Federführung der BfG das fünfjährige Forschungsprogramm KLIWAS abgeschlossen, das die Auswirkungen des Klimawandels auf Wasserstraßen und Schifffahrt untersuchte. Das neue Institut wird eng mit dem deutschen IHP/HWRP-Nationalkomitee für die Wasserprogramme der UNESCO und WMO kooperieren, dessen Sekretariat schon seit 1975 in der Bundesanstalt für Gewässerkunde ansässig ist.

Dazu erklärt Michael Behrendt, Leiter der Bundesanstalt für Gewässerkunde: „Seit vielen Jahren arbeitet die Bundesanstalt für Gewässerkunde erfolgreich mit Institutionen der WMO und der UNESCO zusammen. Daher ist es uns eine Freude, nun dieses internationale Wasserzentrum unter der Schirmherrschaft der UNESCO beherbergen zu dürfen.“

Aus Sicht der Bundesregierung ist das Zentrum gleichzeitig ein wichtiger Baustein des deutschen Beitrags zur Umsetzung wasserbezogener Ziele der UN.

Weiter führende Informationen zu UNESCO, IHP/HWRP, GRDC und GEMS:

Die UNESCO (United Nations Educational, Scientific and Cultural Organization) ist eine Institution der Vereinten Nationen mit Sitz in Paris. Sie ist die Weltorganisation mit der größten Expertise zu allen Fragen rund um das Wasser. Die wichtigsten Instrumente der UNESCO sind das Internationale Hydrologische Programm (IHP) mit Nationalkomitees in mehr als 160 Staaten, die regelmäßige Herausgabe des Weltwasserberichts und die Forschungsinstitute unter UNESCO-Schirmherrschaft.

Die WMO, die Weltorganisation für Meteorologie, bündelt ihre Forschungsaktivitäten im Wasserbereich im HWRP (Hydrology and Water Resources Programme).

Das GRDC (Global Runoff Data Centre) ist eine einzigartige Sammlung weltweiter Abflussdaten. Zur Zeit werden Daten von ca. 9000 Stationen aus 157 Ländern vorgehalten. Das GRDC ist seit 1988 in der Bundesanstalt für Gewässerkunde angesiedelt.

GEMS ist eine globale Datensammlung zur Qualität von Oberflächen- und Grundwasser im Rahmen des United Nations Water Programme. Die Einrichtung kam im April 2014 nach Koblenz.

Weitere fachliche Informationen: Direktor und Professor Michael Behrendt, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon 0261/1306 5300, Mail: behrendt@bafg.de; Dr. Johannes Cullmann, IHP-/HWRP-Sekretariat, Fon 0261/1306 5313, Cullmann@bafg.de.
Kontakt und Adresse für Belegexemplar: Benno Dröge, Pressesprecher, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Tel. 0261/ 1306-5461, Fax: 0261/ 1306 5333, E-mail: droege@bafg.de, Internet: www.bafg.de

Die Bundesanstalt für Gewässerkunde ist das zentrale wissenschaftlich eigenständige Institut des Bundes für die wissenschaftlich-technische Versuchs- und Forschungsarbeit und die praxisbezogene Beratung der Wasser- und Schifffahrtsverwaltung in den Fachgebieten Hydrologie und Gewässernutzung, Gewässerbeschaffenheit sowie Ökologie und Gewässerschutz. Sie unterstützt das Bundesministerium für Verkehr und digitale Infrastruktur sowie andere Bundesressorts in fachspezifischen Fragestellungen zu Bundeswasserstraßen und deren Einzugsgebiete und vertritt diese auch international.

Quelle: idw

(nach oben)


Bluttest zur Erkennung von Darmpolypen: Experten raten von Einsatz ab

Dipl.-Journ. Carsten Heckmann Pressestelle
Universität Leipzig

Die Zeitschrift „Journal of Translational Medicine“ publizierte vor einigen Monaten einen Artikel, an dessen Erstellung auch Wissenschaftler der Universität Leipzig beteiligt waren. Darin geht es um einen Bluttest zur Erkennung von Darmpolypen, der von der Leipziger Firma Indago GmbH angeboten wird. Auch das Magazin „Der Spiegel“ berichtet in seiner aktuellen Ausgabe (29/2014) darüber. Eine Expertenkommission der Universität Leipzig hat sich mit der Publikation befasst und ist zu einem eindeutigen Schluss gekommen: Der Bluttest sei wegen seiner unzureichenden Treffsicherheit und der fehlenden Qualitätskontrolle für eine valide labormedizinische Diagnostik ungeeignet.

„Die Herstellung der Proben ist nicht nachvollziehbar. Wir halten es daher ärztlich und ethisch für nicht vertretbar, wenn dieser Test für eine medizinische Diagnostik herangezogen wird“, sagt Prof. Dr. Ingo Bechmann, Prodekan der Medizinischen Fakultät der Universität Leipzig, der die Kommission einberufen hat. Nach Ansicht der vierköpfigen Expertengruppe sind „die in Broschüren und auf der Internetseite der Herstellerfirma geäußerten Behauptungen zum angeblichen Nutzen des Tests fehlleitend“. Sie könnten „zu einer Schädigung durch Fehldiagnostik und zu einer falschen Sicherheit getesteter Personen führen“. Die Medizinische Fakultät rät daher klar von dem Einsatz des Bluttests ab und warnt grundsätzlich vor unkritischem Einsatz von klinisch unzureichend geprüften diagnostischen Verfahren, auch wenn sie bereits kommerziell angeboten werden.

Dass es dennoch zu einem Beitrag in einer anerkannten wissenschaftlichen Zeitschrift gekommen ist, versteht Bechmann nicht. „Dieser Beitrag hätte nicht erscheinen dürfen. Wir haben den Herausgeber der Zeitschrift bereits schriftlich um eine Erklärung gebeten.“

Prof. Dr. Matthias Schwarz, Prorektor für Forschung und Nachwuchsförderung der Universität Leipzig, hatte im April durch einen umfangreichen Brief eines Konstanzer Wissenschaftlers Hinweise auf Ungereimtheiten bei dem Testverfahren erhalten. Nach einer ersten Sichtung und weiteren Anhaltspunkten durch die „Spiegel“-Recherche bat er Professor Bechmann und seine Kollegen um eine eingehende Prüfung. „Uns muss daran gelegen sein, dass stets alles erdenklich Mögliche für eine wissenschaftliche Qualitätssicherung getan wird. Entsprechende Mechanismen wie das Peer-Review-Verfahren bei wissenschaftlichen Veröffentlichungen haben in diesem Fall offenbar versagt.“

Zwar habe der Beitrag der beteiligten Leipziger Uni-Forscher von der Medizinischen Fakultät und dem Translationszentrum für Regenerative Medizin „vor allem in einer wissenschaftlichen Dienstleistung, nämlich der Bildauswertung“ bestanden, die Wissenschaftler hätten also nicht den fragwürdigen Bluttest entwickelt. Dennoch müsse auch die Universität Lehren aus dem Fall ziehen, sagt Schwarz. „Gerade wenn es um gemeinsame Projekte mit Unternehmen geht, vor allem bei Dienstleistungen, muss den beteiligten Forschern und anderen Mitarbeitern klar sein, dass sie mindestens die für das Thema am Ort ansässigen wissenschaftlichen Experten einbeziehen müssen. Damit erhalten sie dringend notwendige Informationen darüber, in welchem wissenschaftlichen Kontext sie sich mit ihrer Arbeit bewegen. Wir werden vor allem die Führungskräfte unter unseren Wissenschaftlern noch einmal deutlich darauf hinweisen.“

Natürlich könne es nicht die Aufgabe der Universität sein, Firmen zu kontrollieren, so der Prorektor. „Aber bei der Kooperation mit Firmen muss die wissenschaftliche Qualität des Gesamtprojekts stimmen.“ Die Zusammenarbeit mit der Firma Indago werde die Universität Leipzig so bald als möglich beenden. Derzeit werde zudem geprüft, ob und wie auch einzelnen Wissenschaftlern die Kooperation mit dem Unternehmen untersagt werden kann.

Der Beitrag im „Journal of Translational Medicine“ ist am 4. November 2013 unter dem Titel „Detection of colon polyps by a novel, polymer pattern-based full blood test“ erschienen (doi: 10.1186/1479-5876-11-278, online unter http://www.translational-medicine.com/content/11/1/278).

Weitere Informationen:
Prof. Dr. Matthias Schwarz
Prorektor für Forschung und Nachwuchsförderung
Telefon: +49 341 97-30020
E-Mail: prorektor.forschung@uni-leipzig.de

Quelle: idw

(nach oben)


Bioenergie in künftige Energieversorgungssysteme integrieren

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

BMEL sucht Forschungsansätze für eine bedarfsgerechtere Erzeugung von Bioenergie

Um Strom und Wärme aus Biomasse besser in die künftige Energieversorgung integrieren zu können, konkretisiert das Bundesministerium für Ernährung und Landwirtschaft (BMEL) mögliche förderfähige Forschungsansätze im Rahmen des Förderprogramms Nachwachsende Rohstoffe. Gesucht werden modellhafte Konzepte, bei denen Bioenergie bedarfsgerechter eingesetzt und effizient in energetische Versorgungsstrukturen eingebunden wird.

Der Förderschwerpunkt „Integration von Bioenergie in zukünftige Energieversorgungssysteme“ des BMEL wird aus dem Energie- und Klimafonds der Bundesregierung finanziert und durch die Fachagentur Nachwachsende Rohstoffe e. V. (FNR) betreut.

Mit Biomasse besteht grundsätzlich die Möglichkeit, Energie zielgenau auf Anforderung bereitzustellen. Das gilt sowohl für das Abdecken von Bedarfsspitzen im Stromnetz als auch für die Erzeugung von Nutzwärme.

Teilweise ausgeschöpft werden die bestehenden Potenziale derzeit vor allem im Bereich kleiner und mittlerer Heizanlagen und -werke. Die überwiegende Mehrheit der größeren Biomasse-Heizkraftwerke liefert hingegen rund um die Uhr Grundlaststrom und dementsprechend auch Wärme.

Soll die Erzeugung z. B. von Strom, Prozess- und Nahwärme aus Biomasse stärker an die Nachfrageentwicklung angepasst werden, sind intelligente Lösungen erforderlich. Sie betreffen stärker vernetzende Energiekonzepte, die auf variierende Nachfrage durch Regel- und Speichersysteme reagieren, als auch spezifische Regularien und Strategien im nichttechnischen Bereich.

Sie im Rahmen einer gesamtheitlichen Energieversorgung zu modellieren, ist Gegenstand des ausgeschriebenen Förderschwerpunkts. Gesucht werden Vorhaben, die die Erzeugung von Bioenergie kompatibel machen mit den Herausforderungen fluktuierender Stromnetze und spezifischer Wärmebedürfnisse und damit in der Lage sind, die Vorteile der Bioenergie zur Kompensation von Kapazitätsproblemen anderer Energieträger in Wert zu setzen. Die Modellierungen können sich auf verschiedene Bereitstellungs- und Versorgungsebenen beziehen und den hierfür erforderlichen ökonomischen Aufwand beschreiben.

Zudem fördert das BMEL die Entwicklung der sich aus der Modellierung ableitenden technologischen Ansätze zur systemintegrierten Erzeugung von Bioenergie. Dazu zählen die Neu- und Weiterentwicklung von Anlagen, Regelungs- und Managementsystemen.
Projektskizzen können ab sofort bei der FNR eingereicht werden. Entsprechende Hinweise bietet die FNR unter http://www.fnr.de/projekte-foerderung/energie-und-klimafonds/antragsverfahren/.

Kontakt für den Förderschwerpunkt:
Jenny Holz
Tel.: +49 3843 6930-205
j.holz@fnr.de

Weitere Informationen:
http://www.fnr.de/projekte-foerderung/nachwachsende-rohstoffe/foerderschwerpunkt…
http://www.fnr.de/projekte-foerderung/energie-und-klimafonds/antragsverfahren/

Quelle: idw

(nach oben)


Gärtrommel zur Erzeugung von Biogas

Erhard Jakobs Pressestelle
Technische Hochschule Mittelhessen

An einem neuartigen Verfahren zur Biogaserzeugung aus Abfällen arbeiten Forscher der Technischen Hochschule Mittelhessen. Bei der Entwicklung einer Gärtrommel kooperieren sie mit der Kompostierungsanlage Brunnenhof und dem Ingenieurbüro Dr. Geipert (beide aus Biebesheim) zusammen. Das Land Hessen fördert das Vorhaben mit 268.000 Euro. Projektleiter an der THM sind die Gießener Professoren Dr. Ulf Theilen und Dr. Harald Weigand vom Kompetenzzentrum für Energie- und Umweltsystemtechnik.

Bei der Vergärung von Biomasse entsteht mit Hilfe von Bakterien Biogas, das als Energieträger verwendet werden kann. Biomasse aus Abfällen gilt als wichtiger Beitrag zu einer nachhaltigen Energieversorgung, da sie nicht als Konkurrenzprodukt zu Nahrungs- und Futtermitteln erzeugt werden muss.
Zur Vergärung werden heute Fermenter in Garagen- oder Siloform, die mit strukturreichem stapelbarem Substrat befüllt werden, und verschiedene Reaktoren mit Rührwerken eingesetzt, die strukturarmes Material benötigen. Garagenfermenter haben einen relativ geringen Ertrag, da die Biomasse nicht durchmischt wird. Fermenter mit Rührwerken sind technisch aufwändig und haben einen hohen Verschleiß. Vergärungsanlagen, die sowohl strukturreichen Ernteabfall und Mist als auch Schlämme, Flüssigkeiten und pastöse Speisereste verarbeiten können, gibt es auf dem Markt nicht.
Die neu zu entwickelnde Gärtrommel mit einer Länge von bis zu 30 und einem Durchmesser von bis zu 6 Metern soll für alle Bioabfälle und organische Reststoffe geeignet sein. Sie besteht aus einem Hohlzylinder, der an zwei gegenüberliegenden Stirnseiten abgeschlossen ist. Der Fermenter ist drehbar gelagert. „Die Drehbewegung des großvolumigen Reaktorbehälters in Verbindung mit Mischwerkzeugen an der Trommelwand führt zu einer optimalen Materialdurchmischung und damit zu einem hohen Gasertrag. Die Trommelform und der Verzicht auf ein innenliegendes Rührwerk erlauben eine energieeffiziente Durchmischung bei sehr geringem Materialverschleiß“, erläutert Theilen. Die entwässerten Gärrückstände sollen zu Kompost weiterverarbeitet werden. Basis des neuen Trommelfermenters ist eine Rottetrommel, die sich in Biebesheim seit 15 Jahren für die Kompostierung bewährt hat.
Die Partner sehen für ihre Neuentwicklung ein großes Marktpotential. Laut einer Studie des Wiesbadener Umweltministeriums fallen in Hessen aktuell eine halbe Million Tonnen Bioabfälle an. Davon werden nur 15 Prozent in Vergärungsanlagen genutzt.
Das Forschungsvorhaben hat ein Gesamtvolumen von 377.000 Euro. Es wird im Rahmen der Förderlinie 3 der hessischen „Landes-Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz“ (Loewe) unterstützt. Damit bezuschusst die Landesregierung Projekte, bei denen Hochschulen mit kleinen und mittleren hessischen Unternehmen zusammenarbeiten.

Weitere Informationen:
http://www.thm.de/site/kompetenzzentren/zeuus.html

Quelle: idw

(nach oben)


Feldversuch in Niedersachsen zur großtechnischen Nutzung von Mikroalgen als Biomasse

Dipl.-Ing. Bernd Schlütter Hochschulmarketing
Technische Hochschule Wildau [FH]

Seit einigen Jahren arbeitet der Lehr- und Forschungsbereich Biosystemtechnik der Technischen Hochschule Wildau unter Leitung von Prof. Dr. Franz-Xaver Wildenauer gemeinsam mit Praxispartnern an der energetischen und stofflichen Nutzung von Algenbiomasse. Nach dem Aufbau eines entsprechenden Technikums auf dem Campus im Jahre 2011 wurde jetzt ein neuer Meilenstein erreicht.

Unter dem Titel „Schaufenster Algentechnologie“ startete in Bad Fallingbostel im niedersächsischen Heidekreis ein Pilotvorhaben zur großtechnischen Nutzung der Algenbiotechnologie. Dabei werden das in den Biogasanlagen der dortigen Agrar-Energie Obernhausen GmbH & Co. KG (AEO) entstehende CO2 und die Abwärme umweltverträglich in Photobioreaktoren eingeleitet, um darin Grünalgen zu kultivieren. Das Projekt ist in dieser Form einmalig in Deutschland.

Je nach Sonneneinstrahlung ist bereits nach sechs bis zehn Tagen „Erntezeit“. Über eine Zentrifuge vom Wasser getrennt, entstehen aus 750 Litern Algen-Wasser-Gemisch rund sieben Liter reine Biomasse. „Der Protein- und Fettanteil in den Algen ist sehr hoch“, erläutert Prof. Wildenauer den innovativen Ansatz des Projektes. „Wir können so auf eine effektive Weise verschiedenste Wertstoffe gewinnen, beispielsweise Öle zum direkten Einsatz als Brennstoff, probiotische Wirk- und Zusatzstoffe für die Nahrungsmittel- bzw. Kosmetikindustrie, Zuschlagstoffe für Tierzucht und Aquakultur. Und wir benötigen zum Anbau keinen fruchtbaren Boden. Algen wachsen zudem in Süß- wie Salzwasser, sogar in Brackwasser oder verschmutztem Oberflächenwasser.“

Das Projekt am Standort Obernhausen ist Teil der Strategie des Unternehmens AEO, die auf CO2-Reduktion, nachwachsenden Rohstoffen und minimalem Energieverbrauch fußt. Die TH-Forscher wollen damit den wissenschaftlichen Nachweis erbringen, dass die Algenbiotechnologie unter den klimatischen Bedingungen Norddeutschlands großtechnisch effektiv für die Wertstoff- und Energiegewinnung einsetzt werden kann.

Weitere Informationen unter http://www.th-wildau.de/bio.

Weitere Informationen:
http://www.th-wildau.de

Projektpartner sind neben der Agrar-Energie Obernhausen (AEO) die Stadt Bad Fallingbostel, der Industrie- und Gewerbeverein Deltaland sowie die Unternehmen Georg Fischer in Schaffhausen/Schweiz und Dautphetal, LGem B.V. in Den Haag/Niederlande und die Fa. Lipinski in Dorfmark.

Quelle: idw

(nach oben)


Bei Sau-Wetter lässt sich der Bock nicht sehen

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Die Deutsche Wildtier Stiftung rät: Erst den Wetterbericht hören, dann Wild beobachten gehen

Erst ist es heiß, dann zieht ein Gewitter übers Land und es regnet in Strömen: Was für ein Sauwetter! Für Spaziergänger, die Wildschweine beobachten wollten, trifft der Begriff „Sau-Wetter“ ins Schwarze: Schwarzwild kommt nach kräftigen Regenfällen aus der Deckung, denn dann lässt sich im aufgeweichten Boden leichter nach Nahrung suchen. Anschließend gib es noch eine Schlammpackung! Das hilft gegen Parasiten aller Art: Zecken und Flöhe ersticken nach dem Bad in der Suhle unter der eingetrockneten Erdkruste. Überhaupt macht Wildschweinen Dauerregen nichts aus! Sie sind mit ihrer dicken Schwarte wie unter einem Regenmantel geschützt.

Wer Wildtiere beobachten will, sollte aufs Wetter achten. Gerade nach einem heftigen Regenschauer kommen viele Wildtiere aus dem Wald. „Wenn im Wald die dicken Tropfen von den Bäumen klatschen, ziehen Rehe gern ins Freie. Ihnen sind die lauten Tropfen nicht ganz geheuer und auf dem Feld kann ihr Fell in der Sonne wieder trocknen“, sagt Dr. Andreas Kinser, Forst- und Jagdexperte der Deutschen Wildtier Stiftung.

Die meisten Wildtiere in unseren Wäldern sind keine klassischen Sonnenanbeter. „Bei großer Hitze verkriechen sie sich und suchen schattig-kühle Laubwälder auf“, sagt Kinser. Auch extrem windige Tage sind kein „Ausgeh-Wetter“ für Wildtiere. Dann bleiben Wildtiere lieber im sicheren Versteck. Der Wechsel von Hoch- und Tiefdruckgebieten ist keine gute Voraussetzung für eine erfolgreiche Wildbeobachtung.

Natürlich ist nicht nur das Wetter bei Wildtierbeobachtungen ausschlaggebend: Wer Wildtiere sehen will, muss Geduld bewahren und vor allem leise sein.

Weitere Informationen:
www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Auszeichnung für Modellprojekt zur dezentralen Abwasserentsorgung

Stephan Thomas M.A. Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig

An der HTWK Leipzig entwickeltes Konzept bringt Preis als „Ausgezeichneter Ort“ 2014

Der „Verein zum ökologischen Gewässerschutz Treptitz e.V.“ aus Nordsachsen ist mit seiner Kopplung einer dezentralen Abwasserentsorgung und Wärmeversorgung einer der Preisträger des Wettbewerbs „Ausgezeichnete Orte 2014/15: Innovationen querfeldein“ der Initiative „Deutschland – Land der Ideen“. Das zugrundeliegende Konzept wurde am Institut für Wasserbau und Siedlungswasserwirtschaft (IWS) der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) entwickelt und macht den Anschluss an eine Kläranlage auch in dünner besiedelten Regionen kostengünstiger.

„Um den ländlichen Raum attraktiv zu gestalten, brauchen wir solche kreativen und passgenauen Ideen. Grundlage für die Entwicklung solcher Konzepte ist die fachliche Expertise, eine wissenschaftliche Begleitung sowie die Empathie der Stakeholder“, so Prof. Hubertus Milke, Leiter des Instituts für Wasserbau und Siedlungswasserwirtschaft (IWS) an der HTWK Leipzig. Das Konzept sieht effiziente Gruppenkläranlagen statt teurerer Einzelkläranlagen sowie zusätzlich den Anschluss an ein durch Biogas gespeistes Fernwärmenetz vor. Dadurch sinken die Kosten für den Anschluss an eine Kläranlage in Treptitz (140 Einwohner) von 6.000 auf 3.000 Euro pro Haushalt, und es können zusätzlich 130.000 Liter Heizöl jährlich eingespart werden. Hintergrund ist die Europäische Wasserrahmenrichtlinie, welche den vollständigen Anschluss aller Haushalte an eine Kläranlage bis 2015 vorsieht. Im ländlichen Raum in Sachsen muss dies jedoch noch für ca. 80.000 Haushalte erfolgen.

„Durch unsere Lösung spart man nicht nur Geld und erreicht Umweltschutzziele. Die Tatsache, dass alle Einwohner mit an einem Strang gezogen haben, hat auch das Gemeinschaftsgefühl deutlich gestärkt“, erklärt der Treptitzer Tilo Sahlbach, Vorsitzender des Vereins zum ökologischen Gewässerschutz Treptitz e.V. und Geschäftsführender Direktor am IWS der HTWK Leipzig. Momentan gibt es Anfragen aus weiteren Gemeinden, die das Modell ebenfalls umsetzen wollen.

Im Wettbewerb „Innovationen querfeldein – Ländliche Räume neu gedacht“ der Initiative „Deutschland – Land der Ideen“ wurden 100 Innovationen ausgezeichnet, die die Zukunftsperspektiven ländlicher Regionen stärken, nationalen und internationalen Vorbildcharakter haben und als Inspiration für andere dienen können. Die Preisträger wurden am 1. Juli 2014 bekannt gegeben. Die Preisverleihung erfolgt am 13. September 2014 in Treptitz.

Ansprechpartner:
M.Sc. Tilo Sahlbach, HTWK Leipzig, Institut für Wasserbau und Siedlungswasserwirtschaft, Tel.: +49 341 3076- 6278, sahlbach@iws.htwk-leipzig.de
Prof. Dr.-Ing. Hubertus Milke, HTWK Leipzig, Institut für Wasserbau und Siedlungswasserwirtschaft, Tel.: +49 341 3076- 6230, milke@iws.htwk-leipzig.de

Weitere Informationen:
http://www.htwk-leipzig.de/de/hochschule/aktuelles/nachrichten/nachrichten-detai…

Quelle: idw

(nach oben)


Wie blendet das Gehirn Störungen aus?

Dr. Julia Biederlack GB Unternehmenskommunikation
Charité – Universitätsmedizin Berlin

Wie schafft es unser Gehirn, Störreize zu ignorieren und aus einer Vielzahl an Informationen die relevanten herauszufiltern? Dieser Frage sind zwei Neurowissenschaftler der Charité – Universitätsmedizin Berlin und der Eberhard Karls Universität Tübingen in einer experimentellen Studie nachgegangen. Die Ergebnisse der Studie sind in der aktuellen Ausgabe des Fachjournals Neuron* veröffentlicht.

Täglich ist unser Gehirn einer Flut von wichtigen und unwichtigen Reizen ausgesetzt. Dennoch sind wir in der Lage, aus der Masse an Informationen, diejenigen herauszufiltern, die für uns relevant sind. Welche Mechanismen diesen Filterungsprozessen zugrunde liegen, untersuchten Dr. Simon Jacob von der Klinik für Psychiatrie und Psychotherapie am Campus Charité Mitte und Prof. Dr. Andreas Nieder von der Fakultät für Biologie der Eberhard Karls Universität Tübingen an Rhesusaffen. Die Tiere sollten sich eine bestimmte Anzahl an Punkten in einem Musterbild merken. In einer sich anschließenden Gedächtnisphase wurde ein Störreiz gezeigt. Danach sollten sie das Musterbild wiedererkennen.

Während die Rhesusaffen die Aufgabe durchführten, wurde die elektrische Aktivität einzelner Nervenzellen im Stirnlappen und im Scheitellappen gemessen, zwei für das Arbeitsgedächtnis wesentliche Regionen im Großhirn. Der Stirnlappen ist Sitz komplexer kognitiver Funktionen, während der Scheitellappen unter anderem eine wichtige Rolle bei der Verarbeitung sensorischer Informationen spielt. Die Forschungsergebnisse zeigen, dass die Nervenzellen im Stirnlappen zwar durch den Störreiz aktiviert werden, nach Ausschalten des störenden Reizes jedoch wieder das im Gedächtnis gespeicherte Musterbild darstellen. Demgegenüber wurden die Nervenzellen im Scheitellappen durch den Störreiz überhaupt nicht aktiviert.

„Die Studie hilft zu erklären, warum das Arbeitsgedächtnis bei vielen neurologischen und psychiatrischen Erkrankungen gestört ist“, sagt Dr. Jacob von der Charité. Weiterhin erklärt er: „Verschiedene Hirnareale scheinen bei der Ausblendung eines störenden Reizes unterschiedliche Strategien zu verwenden. Während Nervenzellen im Scheitellappen den Störreiz einfach unterdrücken, lassen sich die Zellen im Stirnlappen kurzzeitig ablenken, um aber sofort danach die eigentlich wichtige Gedächtnisinformation wieder herzustellen.“ Prof. Andreas Nieder fügt hinzu: „Uns hat vor allem die unterschiedliche Anfälligkeit der beiden Hirnareale gegenüber Störreizen überrascht. Bisher war man davon ausgegangen, dass der Stirnlappen alle Arten von Störreizen filtert, während der Scheitellappen sensibler für Störungen ist. Unsere Ergebnisse fordern ein Umdenken hinsichtlich der Beiträge und Strategien der jeweiligen Hirnareale während Arbeitsgedächtnisaufgaben.“

*Jacob S, Nieder A. Complementary roles for primate frontal and parietal cortex in guarding working memory from distractor stimuli. Neuron. 2014 July 02.

Dr. Simon Jacob
Klinik für Psychiatrie und Psychotherapie
Campus Charité Mitte
Charité – Universitätsmedizin Berlin
t: +49 30 450 517 327
E-Mail: simon.jacob@charite.de

Weitere Informationen:
http://www.charite.de/
http://psy-ccm.charite.de/

Quelle: idw

(nach oben)


Algen sind Biomasse der Zukunft

Anette Schober-Knitz Referat für Presse- und Öffentlichkeitsarbeit
HBC Hochschule Biberach

Kluge Köpfe aus ganz Europa bringt das Europäische Forum Alpbach zusammen – in diesem Jahr ist Professorin Dr. Heike Frühwirth der Hochschule Biberach als Expertin zu dieser Tagung eingeladen, die sich als interdisziplinäre Plattform für Wissenschaft, Politik, Wirtschaft und Kultur versteht. Seit 1945 widmet sich das Forum in Alpbach relevanten gesellschaftspolitischen Fragestellungen. In diesem Jahr lautet das Thema „At the Crossroads“ und die teilnehmenden Experteninnen und Experten beschäftigen sich damit, wie Europa die Weichen stellen muss, um der Zukunft gewachsen zu sein. Mehr als 4000 Teilnehmer aus über 70 Staaten werden vom 13. bis 29. August im österreichischen Alpbach erwartet.

„Biomasse der Zukunft – Die Industrielle Biotechnologie als Lieferant für biogene Rohstoffe“ lautet das Thema von Prof. Frühwirth; die Verfahrenstechnikerin unterstützt die Alpbacher Tagung als Expertin im Arbeitskreis „Bioenergie – Auswege oder Irrtum“. Dr. Heike Frühwirth leitet als Studiendekanin den noch jungen Studiengang „Industrielle Biotechnologie“ an der Hochschule Biberach und beschäftigt sich mit der Entwicklung von alternativen Produktionsverfahren zur Realisierung von umwelt- und ressourcenschonenden Prozessen. Diese Prozesse, so Dr. Frühwirth, finden sowohl im Bereich der chemischen Industrie als auch in der Energiewirtschaft und in Umwelttechnologien Anwendung. Jeweils werden Mikroorganismen eingesetzt – etwa Bakterien, Hefen und Algen oder Enzyme daraus. Diese biotechnologischen Verfahren seien effizienter und weniger zielgerichteter – „und haben in bestimmten Bereichen klare Vorteile gegenüber klassischen Herstellungsprozessen“, so die Verfahrenstechnikerin.

Ihr ihrer Forschungsarbeit konzentriert sich Dr. Heike Frühwirth derzeit auf den Einsatz von Mikroalgen. Denn anders als Bakterien oder Hefen sind Algen in der Lage, Biomasse aus CO2 zu bilden – also ohne den Einsatz von urbaren Flächen. Allerdings werden Mikroalgen bisher industriell nur in der Herstellung von hochpreisigen Produkten – etwa von Kosmetik – eingesetzt. Das Problem: Noch sind die Prozesse zur Kultivierung von Algen in ausreichender Menge zu teuer. Forschergruppen weltweit arbeiten deshalb mit Hochdruck an der Weiterentwicklung von Kultivierungssystemen, die mit möglichst wenig Energie auskommen. Professorin Dr. Heike Frühwirth wird in Alpbach ihre aktuelle Forschungsarbeit vorstellen und aufzeigen, welche Ideen es in Biberach zur Erhöhung der Biomassekonzentration gibt, damit die Algenbiotechnologie kein Irrweg, sondern ein Ausweg in der Bioenergie darstellt.

Weitere Informationen:

http://www.hochschule-biberach.de
http://www.alpbach.org

Quelle: idw

(nach oben)


„Die Bundesregierung schafft das EEG 2017 praktisch ab!“

Kathrin Fischer Präsidium
Universität Flensburg

„Die EEG-Novelle der Bundesregierung schafft den Kern des EEG ab, schadet dem Klima, erhöht die Kosten der Energiewende für die Bürger und füllt Großinvestoren die Taschen!“ stellt Prof. Dr. Olav Hohmeyer fest.

Professor Hohmeyer ist Inhaber der Professur für Energiewirtschaft der Universität Flensburg. Er war von 2002 bis 2008 einer der Koordinatoren des IPCC (UN-Klimarats) und von 2008 bis 2012 im Sachverständigenrat für Umweltfragen der Bundesregierung für Energie- und Klimafragen verantwortlich.

In einer heute vorgelegten Untersuchung über die Wirkungen der EEG-Novelle der Bundesregierung stellt Professor Hohmeyer fest, dass die vorgeschlagenen Maßnahmen völlig untauglich sind, um die angekündigte Kostenbegrenzung bei der Finanzierung des Ausbaus der regenerativen Energiequellen in Deutschland zu erreichen. Vielmehr wird fast jede der angekündigten Maßnahmen zu einer Kostenerhöhung des Ausbaus der regenerativen Energiequellen führen. Gleichzeitig werden große Potentiale zur Senkung der EEG‐Umlage nicht erschlossen.
Im Kern führt die vollständige Umstellung der Förderung der regenerativen Energiequellen ab 2017 von der gesetzlich festgelegten Vergütung auf ein Ausschreibungsmodell zur Abschaffung des EEG! Diese Umstellung führt dazu, dass nur noch sehr große Investoren wie Hedge Fonds oder große Energieversorgungsunternehmen in den Ausbau der regenerativen Energiequellen investieren können. Die Bundesregierung will offensichtlich die weitere Beteiligung der Bürger an der Energiewende verhindern.

Die vorgelegte Untersuchung zeigt, dass eine echte Reform der EEG-Finanzierung, die den Wert des regenerativen Stroms durch eine Abschöpfung des Merit-Order-Effekts an der Börse realisiert, die EEG‐Umlage von derzeit 6,2 c/kWh dauerhaft auf weniger als 4 c/kWh senken kann. Dies gilt auch bei einem Ausbau der regenerativen Energiequellen auf über 60% der deutschen Stromerzeugung in den nächsten 20 Jahren.

Die Studie kann von der Homepage der Universität Flensburg unter dem Menüpunkt ‚Downloads‘ von folgender Adresse herunter geladen werden:
http://www.iim.uni-flensburg.de/eum/

Was wirklich wichtig ist:
1. Die Bundesregierung schafft das EEG 2017 durch die Umstellung auf ein Ausschreibungsmodell praktisch ab!
2. Die Bundesregierung bremst mit der EEG-Novelle die notwendige Energiewende aus und verdrängt das Engagement zehntausender Bürger, das bisher die Energiewende getragen hat, zu Gunsten weniger Großinvestoren!
3. Die EEG-Novelle setzt die unsinnige Subventionierung von Kohlestromexporten durch die EEG-Umlage fort und fördert die massive zusätzliche Verstromung von Braunkohle!
4. Die EEG‐Novelle behindert den Klimaschutz massiv durch einen viel zu langsamen Ausbau der regenerativen Stromerzeugung und eine völlig unsinnige Ausweitung der deutschen Kohleverstromung!
5. Die Bundesregierung treibt die Kosten der Energiewende in die Höhe, anstatt sie zu senken!
6. Die Kosten der Energiewende könnten durch die Abschöpfung des Wertes des regenerativen Stroms, der an der Börse nicht realisiert wird (Merit‐Order‐Effekt), leicht von derzeit 6,2 c/kWh auf dauerhaft deutlich unter 4 c/kWh gesenkt werden.
7. Die Abschöpfung des Merit‐Order‐Effekts würde gleichzeitig die massive Subventionierung klimaschädlicher Exporte deutschen Kohlestroms über die EEG-Umlage und die Wettbewerbsverzerrungen durch subventionierte niedrige Strompreise zu Gunsten der energieintensiven deutschen Industrie abschaffen.
8. Im Interesse des Klimaschutzes darf die EEG-Novelle nicht in Kraft treten!

Ansprechpartner:
Kathrin Fischer, Referentin für Öffentlichkeit, Campusallee 3, 24943 Flensburg, Tel.: 0461/805-2771. Mobil: 0173/31 89 331. Email: Kathrin.Fischer@uni-flensburg.de

Quelle: idw

(nach oben)


Zuversichtsstudie: Deutsche zuversichtlich wie nie

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Umfrage der Universität Hohenheim ermittelt: Konjunktur in Deutschland sorgt für Zuversicht / Optimismus in Baden-Württemberg am größten / Fußball-WM heizt Stimmung an – bei Frauen und Männern

Was die deutsche Wirtschaft betrifft, waren die Deutschen nie optimistischer. Die Zuversicht in die wirtschaftliche Entwicklung stieg im zweiten Quartal 2014 auf den höchsten Wert seit der ersten Zuversichtsstudie im Jahr 2007. Gefragt nach der künftigen wirtschaftlichen Entwicklung Deutschlands, sind erstmals mehr als die Hälfte (53 Prozent) der Deutschen zuversichtlich oder sehr zuversichtlich. Im Hinblick auf ihr persönliches Leben – das heißt auf das eigene Zuhause, die Familie, die Sicherheit des eigenen Arbeitsplatzes oder auf die individuelle finanzielle Lage – schauen sogar mehr als zwei Drittel (68 Prozent) der Deutschen optimistisch in die Zukunft. Das zeigt die aktuelle repräsentative Allianz Zuversichtsstudie, ein Gemeinschaftsprojekt der Allianz Deutschland AG und der Universität Hohenheim. Zusammenfassung unter www.uni-hohenheim.de/presse

Vor allem das Vertrauen in die Sicherheit der Arbeitsplätze (+ acht Prozentpunkte) und in die Konjunktur (+14 Prozentpunkte) ließen die allgemeine Zuversicht auf einen Höchststand klettern (44 Prozent).
„Der positive Blick auf die allgemeine Wirtschaftslage lässt auch die Zuversicht in die Sicherheit der Arbeitsplätze deutlich wachsen. Wirtschaftslage und Arbeitsmarkt – beide verleihen der Zuversicht für Deutschland gegenüber dem Vorjahreszeitraum einen deutlichen Schub“, kommentiert Dr. Markus Rieß, Vorstandsvorsitzender der Allianz Deutschland die exzellente Stimmungslage in Deutschland.

Vertrauen in Wirtschaftsaufschwung: Baden-Württemberger weit vorne
Besonders deutlich wird der Zusammenhang zwischen Zuversicht und Konjunktur in Baden-Württemberg, Hessen und Nordrhein-Westfalen. Hier verzeichnet die Zuversicht in die Wirtschaft im Vorjahresvergleich zweistellige Zuwächse auf über 60 Prozent in Baden-Württemberg und Hessen (+26 Prozentpunkte und 31 Prozentpunkte) und 56 Prozent in Nordrhein-Westfalen (+11 Prozentpunkte).
„Die meisten Deutschen blicken erwartungsvoll in die Zukunft. Die Befragten vertrauen darauf, dass der Wirtschaftsaufschwung anhält“, sagt Prof. Dr. Frank Brettschneider, Kommunikationswissenschaftler der Universität Hohenheim, der die Zuversichtsstudie wissenschaftlich betreut.

Fußball vereint: junge Frauen und Männer im WM-Fieber
Die aktuelle Erhebung untersucht zusätzlich den Einfluss der Fußballweltmeisterschaft auf die Stimmung in Deutschland. Die Zuversichtsstudie zeigt: Bei gut einem Viertel der Deutschen hebt der Ausblick auf die Fußball-WM die Stimmung. Das sind sogar etwas mehr als vor der Europameisterschaft 2012.
Die Fußballbegeisterung ist dabei immer weniger eine Geschlechterfrage: Vor allem junge Frauen bis 29 Jahren (40 Prozent) lassen sich fast gleichermaßen begeistern wie gleichaltrige Männer (43 Prozent).
Fußballbegeisterung ist eher eine Frage des Alters: Bei den unter 40-Jährigen ist der Anteil der Fußballfans deutlich höher als bei den Älteren. Spitzenreiter ist die Altersgruppe der 30- bis 39-Jährigen, hier freuen sich 44 Prozent auf die Weltmeisterschaft in Brasilien.
Personen ab 60 Jahre beeindruckt die Weltmeisterschaft dagegen wenig. Lediglich jeder Fünfte gibt an, deswegen guter Laune zu sein.

Zuversicht für Deutschland 44% (+10)
• Allgemeine Wirtschaftslage: 53% (+14)
• Sicherheit der Arbeitsplätze: 37% (+8)
• Umwelt- und Klimaschutz: 31% (+4)
• Qualität der Schulen und Universitäten: 25% (-3)
• Gesetzliche Pflege- und Krankenversicherung: 25% (-1)
• Gesetzliche Rentenversicherung: 17% (+1)
2. Quartal 2014 (Differenz zum 2. Quartal 2013 in Prozentpunkten)

Zuversicht für das persönliche Leben 68% (+1)
• Eigenes Zuhause: 82% (+1)
• Familie / Partnerschaft / Kinder: 71% (+0)
• Sicherheit des eigenen Arbeitsplatzes: 62% (+0)
• Persönliche finanzielle Lage: 59% (-1)
• Finanzielle Versorgung bei Krankheit und Pflege: 47% (+2)
• Finanzielle Versorgung im Alter: 42% (-2)
2. Quartal 2014 (Differenz zum 2. Quartal 2013 in Prozentpunkten)

Die Allianz Zuversichtsstudie
Basis der Allianz Zuversichtsstudie, einer gemeinschaftlich durchgeführten Untersuchung der Allianz Deutschland AG und der Universität Hohenheim, sind repräsentative monatliche Befragungen mit jeweils mindestens 500 bis 1.000 Interviewpartnern. Seit Beginn der Erhebung im Jahr 2007 wurden mittlerweile insgesamt mehr als 48.000 Menschen befragt. Im 2. Quartal 2014 wurden 1.507 Interviews geführt. Ziel der Allianz Zuversichtsstudie ist es, die Stimmungslage in Deutschland zu erheben. Dazu wird regelmäßig die Zuversicht der Menschen für die jeweils kommenden zwölf Monate in sechs persönlichen und sechs gesellschaftlich übergreifenden Lebensbereichen erfasst. Die aktuellen Ergebnisse der Allianz Zuversichtsstudie sowie Trends, die sich daraus ablesen lassen, werden der Öffentlichkeit in der Regel vierteljährlich vorgestellt.
Die Ergebnisse des 3. Quartals 2014 erscheinen im September 2014.

Weitere Informationen:
http://www.uni-hohenheim.de/presse

Quelle: idw

(nach oben)


Nachhaltiges Wassermanagement für das Jordantal

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Der untere Jordan und seine Zuflüsse sind die Lebensadern für eine Region mit über 6 Millionen Einwohnern. Sauberes Trinkwasser wird dort immer knapper. Unter der Federführung des KIT hat das internationale Projekt SMART Daten zusammengetragen, Konzepte entwickelt und Pilotanlagen initiiert, um die Wasserversorgung auch in Zukunft zu gewährleisten.

„In den letzten vier Jahren haben wir begonnen die Forschungsergebnisse praktisch umzusetzen“, erklärt Nico Goldscheider vom KIT, der SMART koordiniert. Dazu wurden in enger Zusammenarbeit mit den lokalen Behörden Pilotanlagen geplant und installiert. Im Jordanischen Fuheis entstand eine Demonatrations-Anlage zur dezentralen Abwasseraufbereitung, deren Technik mittlerweile auch in mehreren lokalen Gemeinden verwendet wird. In Karame, Jordanien, liefert eine Entsalzungsanlage rund 200 Kubikmeter Trinkwasser und versorgt so etwa 650 Einwohner.

Des Weiteren erforscht SMART, wie durch Versickerungsbecken die seltenen, aber manchmal sehr heftigen Niederschläge im geologischen Untergrund gespeichert werden können. Diese „künstliche Grundwasserneubildung“ in natürlichen Speicherräumen schützt das Wasser vor Verdunstung. Die Wissenschaftler haben geeignete natürliche Speicher in Sedimenten und Gesteinen erkundet und Wasserkreisläufe kartiert. Dies ist auch die Basis, um Grundwasser vor der Kontamination mit ungefilterten Abwässern zu schützen und die Qualität des Grundwassers flächendeckend zu gewährleisten.

Der dramatische Wassermangel im unteren Jordantal hängt unter anderem mit der Bevölkerungsentwicklung zusammen. Das Klima im Einzugsgebiet zwischen See Genezareth und Totem Meer ist sehr trocken, gleichzeitig wächst die Bevölkerung rasant. „In Jordanien ist die Bevölkerung von etwa 500.000 Menschen im Jahr 1952 auf heute über sechs Millionen angewachsen, das bedeutet zehnmal mehr Menschen brauchen Trinkwasser“, erläutert Goldscheider. Der Wasserbedarf überschreitet das verfügbare Wasserangebot um ein Vielfaches. „Eine sichtbare Folge ist der rapide Schwund des Toten Meeres – dessen Oberfläche sinkt pro Jahr um etwa einen Meter“. Am KIT sind neben Goldscheiders federführendem Lehrstuhl für Hydrogeologie weitere Institute und Wissenschaftler an SMART beteiligt. So befasst sich der Lehrstuhl für Wasserchemie am Engler-Bunte-Institut (EBI) mit der Entsalzung von Brackwasser. Da das brackische Quell- oder Grundwasser weniger salzig als Meerwasser ist, lässt es sich mit geringerem Energieaufwand entsalzen. Da es auch im Landesinneren zu finden ist, muss das aufbereitete Wasser nicht weit transportiert werden, sondern kann dezentral zum Trinken und für die Landwirtschaft bereitgestellt werden.

Neben den technischen und wissenschaftlichen Meilensteinen war eine Informationskampagne Teil des SMART-Projektes. Durch die Einbindung von Bevölkerung, Behörden und Entscheidern in der Region sollten nachhaltige Lösungen initiiert werden. Technische Lösungen wurden in die nationalen Wasserstrategien und den sozio-ökonomischen Rahmen eingebunden. Mit einer Unterrichtsreihe über Wasser wurde bei rund 5000 Schülern in der Region ein Grundverständnis für ökologische Zusammenhänge gelegt. Techniker und Studenten wurden ausgebildet.

An der jetzt abgeschlossenen zweiten Phase (2010-2014) von SMART (Sustainable Management of Available Water Resources with Innovative Technologies) beteiligt waren unter anderem die Ben Gurion Universität des Negev, die Universität Tel Aviv, die palästinensische Al-Quds-Universität und die Jordanische Universität in Amman. An der Kooperation beteiligt sind außerdem Ministerien, Wasserversorgungsunternehmen und Behörden sowie lokale Entscheidungsträger. Das Bundesministerium für Bildung und Forschung (BMBF) finanzierte diese Projektphase mit rund 9 Millionen Euro. „In Zukunft wollen wir dazu beitragen, dass die noch singulären Projekte flächendeckend greifen“, erläutert Goldscheider. Dazu ist eine dritte Phase des SMART-Projektes bereits beantragt.

Webseite des SMART-Projekts:
http://www.iwrm-smart2.org

Weiterer Kontakt:
Kosta Schinarakis, Presse, Kommunikation und Marketing, Themenscout, Tel.: +49 721 608-41956, Fax: +49 721 608-43658, E-Mail:schinarakis@kit.edu

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9400 Mitarbeiterinnen und Mitarbeitern, darunter mehr als 6000 in Wissenschaft und Lehre, sowie 24 500 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Weitere Informationen:
http://www.kit.edu/kit/pi_2014_15315.php

Quelle: idw

(nach oben)


Vogelschutz lohnt sich! – Vogelbestände in Osteuropa profitieren von neuer Gesetzgebung

Sabine Wendler LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Senckenberg Forschungsinstitut und Naturmuseen

Die Ende der 80er / Anfang der 90er Jahre etablierte Gesetzgebung zum Vogelschutz in Osteuropa hat dazu beigetragen, den Rückgang der Bestände geschützter Vogelarten zu verringern. Das traf insbesondere in den Ländern zu, in denen die Ressourcen für den Schutz für ausgewählte seltene oder stark bedrohte Arten verwendet wurden. Das ist das Ergebnis einer Studie, die vor kurzem im Fachjournal Biological Conservation veröffentlicht wurde. Beteiligt waren Forschende der Universität Brno, des Frankfurter LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) sowie weitere Experten, z.B. die internationale Vogelschutz-Organisation BirdLife.

Vogelschutz ist eine internationale Aufgabe, nicht zuletzt, weil für Vögel nationale Grenzen bedeutungslos sind. Jedoch fußt der Schutz vor Ort auf nationaler Gesetzgebung. Während frühere Studien bereits den Nutzen des legislativen Vogelschutzes in Westeuropa und den Vereinigten Staaten untersucht haben, stellt eine neue Studie nun den Nutzen der Vogelschutz-Gesetzgebung in Osteuropa auf den Prüfstand.

Vergleich von Langzeitenreihen von Vögeln in zehn Ländern
Für die Untersuchung wurden Daten der Bestände geschützter und ungeschützter Vogelarten in zehn osteuropäischen Ländern – Tschechische Republik, Slowakei, Polen, Weißrussland, Litauen, Moldawien und Estland sowie Ungarn und Kroatien – ausgewertet. Allen Ländern ist gemein, dass die den Vogelschutz betreffende Gesetzgebung in den späten 80er oder frühen 90er Jahren verabschiedet wurde. Ein Team der Universität Brno, des Frankfurter LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) und weiterer Universitäten verglich, wie sich die Bestände einzelner Vogelarten in diesen Ländern in den Zeiträumen 1970 bis 1990 und 1990 bis 2000 entwickelt haben. Die Daten lieferte die Vogelschutzorganisation BirdLife, die regelmäßig großräumig Populationsdaten von Vögeln in Europa zusammenträgt.

Geschützte Vögel profitierten vom politischen Umbruch in Osteuropa
Die beiden Untersuchungszeiträume fallen mit der Zeit vor und nach dem politischen Umbruch und der Einführung moderner Umweltgesetzgebung in vielen Ländern in Osteuropa zusammen. Der Zustand der Populationen im ersten Zeitraum (d.h. ‚vor‘ der Schutzgesetzgebung) konnte daher direkt mit der Anzahl der Vögel im zweiten Zeitraum, also nach Etablierung der Schutzgesetzgebung, verglichen werden. Es zeigte sich, dass sich die Bestände geschützter Arten nach 1990 besser entwickelt haben als die der nicht-geschützten Arten. „Das deutet darauf hin, dass nationale Regelungen tatsächlich dazu beigetragen haben, den Rückgang geschützter Arten aufzuhalten. Insbesondere hat sich der Bestand geschützter Vogelarten in den Ländern positiv entwickelt, die mit großem Aufwand ausgewählte seltene oder charakteristische Vogelarten schützen“, so Prof. Katrin Böhning-Gaese, BiK-F.

Kombination unterschiedlicher Schutzkonzepte am effektivsten
Dieses Konzept kommt in Weißrussland, der Tschechischen Republik, Litauen, Moldawien und der Ukraine zum Tragen, die per Gesetzgebung für weniger als 50 % der Vogelarten einen solchen tiefgreifenden Schutzansatz anwenden. Kroatien, Estland, Ungarn, Polen und die Slowakei schützen über 80 % ihrer Vogelarten, auch solche die nicht akut bedroht sind, jedoch mit vergleichsweise oberflächlichen Maßnahmen. Obwohl es sich zunächst nur um eine Korrelation handelt, deutet der positive Zusammenhang zwischen Schutz und Bestandsentwicklung darauf hin, dass Artenschutz per Gesetz funktioniert. Insgesamt scheint es am effektivsten, viele Arten unter Schutz zu stellen und gleichzeitig besondere Maßnahmen zu ergreifen, um seltene oder bedrohte Arten zu erhalten.

Gesetzgebung konnte allgemeinen Negativtrend aber nicht aufhalten
„Dass die Bestände geschützter Arten nach Beginn des Schutzes durchschnittlich nur noch halb so stark zurückgingen wie vorher, klingt zunächst gut. Aber wir haben auch gesehen, dass in den Jahren 1990-2000 die Vogelbestände unabhängig vom Schutzstatus im Mittel noch immer rückläufig waren“, so der Ko-Autor der Studie, Dr. Matthias Schleuning, BiK-F. Ein dritter Statusbericht von BirdLife zum Zustand europäischer Vogelarten, in den auch im Auftrag der Europäischen Kommission zusammengestellte neue Daten einfließen, wird deshalb mit Spannung erwartet: Er wird zeigen, ob die in der vorliegenden Studie aufgezeigten Trends weiterhin gelten, und ob Europa sein Ziel, den Verlust der biologischen Vielfalt und den Rückgang der Ökosystemleistungen bis 2020 zu stoppen, erreichen kann. Die auf dem neuen Statusbericht basierende Rote Liste der Vögel Europas wird 2015 veröffentlicht.

Publikation:
Koleček, J et al.: Birds protected by national legislation show improved population trends in Eastern Europe. -Biological Conservation. DOI: /10.1016/j.biocon.2014.02.029

Für weitere Informationen kontaktieren Sie bitte:

Prof. Dr. Katrin Böhning-Gaese
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F),
Tel. + 49 (0)69 7542 1890
katrin.boehning-gaese@senckenberg.de
oder

Dr. Matthias Schleuning
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel. + 49 (0)69 7542 1892
matthias.schleuning@senckenberg.de

oder
Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F),
Pressereferentin
Tel. +49 (0)69 7542 1838
Sabine.wendler@senckenberg.de

__________________________________________________________
LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt am Main
Mit dem Ziel, anhand eines breit angelegten Methodenspektrums die komplexen Wech-selwirkungen von Biodiversität und Klima zu entschlüsseln, wird das Biodiversität und Klima Forschungszentrum (BiK‐F) seit 2008 im Rahmen der hessischen Landes‐Offensive zur Entwicklung Wissenschaftlich-ökonomischer Exzellenz (LOEWE) gefördert. Die Senckenberg Gesellschaft für Naturforschung und die Goethe Universität Frankfurt sowie weitere direkt eingebundene Partner kooperieren eng mit regionalen, nationalen und internationalen Akteuren aus Wissenschaft, Ressourcen‐ und Umweltmanagement, um Projektionen für die Zukunft zu entwickeln und wissenschaftlich gesicherte Empfehlungen für ein nachhaltiges Handeln zu geben. Mehr unter www.bik‐f.de

Quelle: idw

(nach oben)


Mit präziseren Messgeräten der Versauerung der Ostsee auf die Spur kommen

Dr. Barbara Hentzsch Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Neues europäisches Projekt PINBAL hat die Entwicklung eines neuartigen
Ostsee-tauglichen spektrophotometrischen pH-Meters zum Ziel

Am heutigen Donnerstag fand am Leibniz-Institut für Ostseeforschung Warnemünde (IOW) das kick-off-meeting für das europäische Projekt PINBAL statt. Die vier am Projekt beteiligten Partner kamen zum ersten Mal zusammen, um ihre Forschungs- und Entwicklungsarbeiten zu planen. Neben dem IOW, das die Projektkoordination übernommen hat, beteiligen sich die Universität Göteborg, das Institute for Oceanology in Sopot und das Unternehmen CONTROS Systems and Solutions an PINBAL.

Seit dem Beginn der Industrialisierung hat sich ein nicht unerheblicher Teil der ständig zunehmenden CO2 Emissionen in den Weltmeeren gelöst und dadurch den pH-Wert um 0,1 Einheiten reduziert. Das Intergovernmental Panel of Climate Change (IPCC) geht bei einer unverändert hohen weltweiten CO2 Produktion davon aus, dass sich bis zum Jahr 2100 der pH-Wert der Weltmeere von derzeit 8,1 auf rund 7,7 verringern wird, mit gravierenden Folgen für die Meeresumwelt. Für die Ostsee mit ihren stark schwankenden Salzgehalten und hohen Konzentrationen an organischen Stoffen sowie dem Vorkommen von Schwefelwasserstoff im Tiefenwasser existieren bislang noch keine geeigneten Messmethoden, um Langzeitänderungen zu erfassen. Das soll nun mit PINBAL geändert werden.

Auch die Grundlagenforschung wünscht sich präzisere Messmethoden zur Bestimmung des pH-Wertes, um damit die Kohlenstoffdioxid-Umsätze in der Ostsee genauer erfassen zu können. Gregor Rehder, Projektleiter und Meereschemiker am IOW, beschreibt die Ziele von PINBAL: „Wir wollen gemeinsam ein robustes, aber hochpräzises System entwickeln, das sich auf so genannten voluntary observing ships (VOS) einsetzen lässt. „Auf solchen VOS – Frachtschiffen oder Fähren – wurden in den vergangenen Jahren automatische Mess- und Beprobungsvorrichtungen installiert, um ein effektives Monitoring von Umweltparametern im Oberflächenwasser der Ostsee zu realisieren. Sie sollen nach Abschluss des Projektes auch das neue pH-Messsystem aufnehmen.

PINBAL wird in den kommenden drei Jahren im Rahmen von BONUS (Artikel 185) gefördert, einem Programm, das gemeinsam durch das 7. Forschungs-rahmenprogramm der Europäischen Union und nationalen Förderinstitutionen der Ostseeanrainerstaaten finanziert wird.

Kontakt:

Prof. Dr. Gregor Rehder, Sektion Meereschemie, Leibniz-Institut für
Ostseeforschung Warnemünde, Tel.: (0381 / 5197 336, Email: gregor.rehder@io-warnemuende.de)

Dr. Barbara Hentzsch, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 102, Email: barbara.hentzsch@io-warnemuende.de)

Nils Ehrenberg, Öffentlichkeitsarbeit, IOW
(Tel.: 0381 / 5197 106, Email: nils.ehrenberg@io-warnemuende.de)

Dipl.-Phys. Peer Fietzek, CONTROS Systems & Solutions

Prof. Dr. Leif Anderson, Universität Göteborg

Dr. Karol Kulinski, Institute for Oceanology, Polish Academy of Science,
Sopot

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 89 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 17.200 MitarbeiterInnen, davon sind ca. 8.200 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,5 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr. (www.leibniz-gemeinschaft.de)

Quelle: idw

(nach oben)


Gentechnisch veränderte Pflanzen beschleunigen den Biodiversitätsverlust

Franz August Emde Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz

Das Bundesamt für Naturschutz Deutschland und die Umweltbundesämter Österreichs und der Schweiz ziehen eine kritische Bilanz zu den Auswirkungen des langjährigen Anbaus von herbizidresistenten, gentechnisch veränderten Pflanzen. Solche Kulturen treiben die Intensivierung der Landwirtschaft und damit den Biodiversitätsverlust weiter, so die drei Institutionen.

Das deutsche Bundesamt für Naturschutz, das österreichische Umweltbundesamt und das schweizerische Bundesamt für Umwelt haben im Rahmen einer Literaturstudie untersuchen lassen, wie sich der langjährige Anbau herbizidresistenter gentechnisch veränderter Pflanzen (GV) auf die Umwelt auswirkt und die Ergebnisse in einem gemeinsamen Bericht veröffentlicht. Im Rahmen dieser Arbeit wurden Anbaupraktiken von GV-Pflanzen in Übersee und die Auswirkungen ihrer Bewirtschaftung auf die Ackerbegleitflora sowie die biologische Vielfalt analysiert.
Eine intensive Landbewirtschaftung und die damit einhergehende Verwendung hoher Mengen an Pflanzenschutzmitteln sind Hauptursachen für den Verlust von Biodiversität. In Nord- und Südamerika werden seit knapp 20 Jahren gentechnisch veränderte Pflanzen mit Resistenzen gegen verschiedene Totalherbizide (z.B. Glyphosat) großflächig angebaut. Die Studie zeigt, dass im Verlauf dieser Zeit der Herbizidverbrauch kontinuierlich ansteigt. Die Folge ist eine deutliche Abnahme der Biodiversität auf und neben den Ackerflächen.
Auswirkungen von herbizidresistenten Nutzpflanzen
Der intensive, langjährige Anbau von herbizidresistenten Pflanzen und der damit verbundene Einsatz von Totalherbiziden führen zum Aufkommen von herbizidresistenten Ackerbeikräutern. Es werden daher zunehmende Mengen von Totalherbiziden, meistens Glyphosat und weitere Herbizide eingesetzt.

Die intensive Verwendung von Pflanzenschutzmitteln führt auch zu einem Verlust von Tierarten in landwirtschaftlich genutzten Lebensräumen. Die ExpertInnen gehen davon aus, dass dieser Effekt eine der Ursachen für den Rückgang auch von geschützten Arten, wie z.B. dem Monarchfalter in Amerika, darstellt.

Der umfassende Bericht „Agronomic and environmental aspects of the cultivation of genetically modified herbicide-resistant plants“ ist zu finden unter:
http://www.bfn.de/0502_gentechnik.html

Auskünfte Schweiz
Sara Restrepo-Vassalli, Abteilung Boden und Biotechnologie, BAFU, Tel. +41 (0) 58 462 22 38, E-Mail: sara.restrepo-vassalli@bafu.admin.ch

Auskünfte Deutschland
Franz August Emde, Referat Presse/Öffentlichkeitsarbeit, Konstantinstraße 110, 53179 Bonn, Fon: 0228/8491 – 4444, E-Mail: presse@bfn.de

Auskünfte Österreich
Ingeborg Zechmann, Pressestelle Umweltbundesamt, Tel.: +43/ (0)1 31304-5413, E-Mail: ingeborg.zechmann@umweltbundesamt.at

Quelle: idw

(nach oben)


Mehr Energieeffizienz in Großwäschereien – Fraunhofer IFF und DTV entwickeln gemeinsam Lösungen

René Maresch Presse und Öffentlichkeitsarbeit
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF

Die industrielle Wäscherei ist eine Branche mit großem Potenzial für Energieeinsparungen. Der Deutsche Textilreinigungs-Verband (DTV) holt sich darum die Unterstützung des Fraunhofer IFF in Magdeburg. Gemeinsam mit den Forschern wollen die Großwäschereien daran arbeiten, den Energieverbrauch zu senken und ihre Prozesse zu verbessern. Automatisierungslösungen, wie der Einsatz von Robotern und neuester RFID-Technologien, sollen eine besondere Rolle spielen.

Eine Großwäscherei lässt sich nicht mit dem heimischen Reinigen der Familienkleidung vergleichen. Die Textilienberge, die eine Wäscherei täglich vom Schmutz befreit, sind gigantisch. 20 bis 50 Tonnen Wäsche schleust so ein Betrieb locker durch seine Waschstraßen – pro Tag. Große Betriebe schaffen dabei 50.000 bis 100.000 Wäschestücke. Ebenso gigantisch ist auch der Energieverbrauch. Die Branche steht damit vor einem Problem. Denn Energie wird immer teurer. Um den Kostenanstieg zu bremsen, geht der Deutsche Textilreinigungs-Verband DTV nun neue Wege. Gemeinsam mit dem Magdeburger Fraunhofer-Institut für Fabrikbetrieb und
-automatisierung IFF wollen die Mitgliedsunternehmen neue Lösungen finden, die ihnen beim Energiesparen helfen sollen. Am 26. Juni unterzeichneten beide Seiten am Rande der 17. IFF-Wissenschaftstage in Magdeburg eine entsprechende Kooperationsvereinbarung.

»In der Zusammenarbeit mit dem Fraunhofer IFF sehen wir die Chance, mit versierter wissenschaftlicher Unterstützung fachliche Zukunftsfragen für die Betriebe anzugehen«, sagt Joachim Krause, Präsidiumsmitglied und Vorsitzender des Ausschusses für Technik und Umweltschutz im DTV. »Ganz wichtige Aspekte sind dabei der Automatisierungsgrad und die Logistik und die damit verbundenen Verbesserungsmöglichkeiten bei den energetischen Prozessen. Wir können durch technische Veränderungen in Prozessabläufen die Ressourcen- und Energieeffizienz unter die Lupe nehmen und steigern. Hierzu wollen wir gemeinsam forschen und die Prozesse sowie Technologien weiterentwickeln.«

RFID und Automatisierung sollen für Entlastung und mehr Effizienz sorgen
Das Fraunhofer IFF ist unter anderem auf die Planung energie- und ressourceneffizienter Produktionsmethoden spezialisiert. Institutsleiter Professor Michael Schenk betont die Rolle seines Instituts als Forschungs- und Entwicklungspartner für die Branche, die vor allem durch klein- und mittelständische Strukturen geprägt ist. »Unser gemeinsames Ziel ist es, neue Wege zu finden, mit denen sich die wachsenden technologischen, ökonomischen und ökologischen Herausforderungen für die kleinen und mittleren Unternehmen bewältigen lassen. Uns kommt dabei zu Gute, dass wir Lösungen für die Erhöhung der Ressourcen- und Energieeffizienz, die wir bereits erfolgreich für andere Branchen entwickelt haben, transferieren können. Mit der Integration von technischen Innovationen wird die Wäschereibranche auch weiterhin wettbewerbsfähig sein.«

Einer der Schwerpunkte der Zusammenarbeit ist der ganzheitliche Einsatz von RFID-Technologien im Flachwäschebereich, wie Hotel- und Krankenhaustextilien. Mit Hilfe der RFID-Chips in den Wäschestücken lassen sich die komplexen Prozesse in den Wäschereien über bessere Steuerungsmöglichkeiten deutlich optimieren. Zudem steigt die Transparenz der Abläufe auch gegenüber den Auftraggebern. Mögliche Verluste an Wäschestücken, wie es heute schon noch vorkommt, sollen damit bald der Vergangenheit angehören.

Ein weiteres Thema ist die Erhöhung der Automatisierung. Während z.B. schmutzige Krankenhauswäsche gar nicht manuell bearbeitet werden darf, wird die letztlich saubere Wäsche momentan noch per Hand sortiert. Erkrankte Mitarbeiter könnten diese aber möglicherweise gleich wieder infizieren. Hinzu kommt die große körperliche Belastung der anstrengenden Tätigkeit, für die sich nur noch schwer Mitarbeiter finden lassen. Serviceroboter, die dank der RFID-Technologie die einzelnen Wäschestücke fehlerfrei identifizieren können, sollen hier in Zukunft Entlastung bringen.

Industrie 4.0 für Großwäschereien
Zunächst wollen die Fraunhofer-Forscher die Mitgliedsunternehmen des DTV bei der Einführung von RFID-Technologien unterstützen. Beim Anpassen der Technik an die besonderen Gegebenheiten in Wäschereien waren sie in der Vergangenheit bereits sehr erfolgreich. Schon seit 2011 arbeitet das Fraunhofer IFF auf diesem Gebiet eng mit dem deutschen Laundry Innovation Network zusammen. Aus dieser Zusammenarbeit resultiert auch die nun erfolgte Kooperation mit dem DTV.

Neben dem Technologietransfer steht die Beratung der Unternehmen mit Blick auf die Optimierung ihrer energetischen Prozesse im Mittelpunkt. Für die mittlere Zukunft, so Professor Schenk, sei sogar die Chance für die Umsetzung einer »Industrie 4.0« in der Wäschereibranche sehr realistisch. Mit der unternehmensweiten Einführung von RFID-Technologien und dem Einsatz von Servicerobotern sei man nicht mehr weit von einer selbststeuernden und selbstüberwachenden Prozesskette entfernt. Die Möglichkeiten für weitgehende Energieeinsparungen und noch höhere Flexibilität würden damit noch mehr wachsen.

Deutscher Textilreinigungs-Verband e.V. (DTV)
Der Deutsche Textilreinigungs-Verband e.V. (DTV) vertritt ca. 1.300 Mitgliedsunternehmen aus allen Bereichen textiler Dienstleistungen. Mit seinen Aktivitäten als Branchen-, Wirtschafts-, Arbeitgeber- und Berufsverband orientiert sich der DTV vorrangig an den Bedürfnissen seiner Mitgliedsbetriebe. Zu diesen gehören neben Textilreinigungen im Privatkundenbereich auch Wäschereien und textile Dienstleistungsunternehmen, die andere Unternehmen und Einrichtungen mit Textilien und Wäsche versorgen, beispielsweise Hotels oder Krankenhäuser. Die Ziele der Verbandsarbeit sind u.a. das Stärken der Markt- und Wirtschaftspräsenz des Textilreinigungsgewerbes, die Interessenvertretung auf fachlicher, beruflicher und politischer Ebene sowie die ständige Weiterentwicklung der Aus- und Weiterbildung.

Fraunhofer IFF
Das Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF ist ein produktionstechnisch ausgerichtetes Forschungsinstitut im Verbund der Fraunhofer-Gesellschaft. Es ist Forschungsdienstleister sowie System- und Technologiepartner für große und mittelständische Unternehmen und für die öffentliche Hand. Das Institut ist in nationale und internationale Wirtschafts- und Wissenschaftsnetzwerke eingebunden und kooperiert eng mit der Otto-von-Guericke-Universität Magdeburg. Es forscht und arbeitet in den drei Geschäftsfeldern »Intelligente Arbeitssysteme«, »Ressourceneffiziente Produktion und Logistik« und »Konvergente Versorgungsinfrastrukturen«. Für eine zukunftsfähige Produktion und Energieversorgung entwickelt es automatisierte, intelligente Arbeitssysteme und entwirft Lösungen für eine ressourcen- und energiesparende Produktion.

Ansprechpartner
Dr.-Ing. Frank Ryll l Telefon +49 391 4090-413 l frank.ryll@iff.fraunhofer.de
Fraunhofer-Institut für Fabrikbetrieb und -automatisierung IFF, Magdeburg l www.iff.fraunhofer.de

Weitere Informationen:

http://www.iff.fraunhofer.de/de/presse/presseinformation/2014/textilreinigungsve…

Quelle: idw

(nach oben)


Umfrage: Sind Hobbyangler Tierquäler?

Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Die meisten Deutschen glauben, dass Fische Schmerzen empfinden können. Dennoch akzeptiert ein Großteil der Bevölkerung das Angeln aus moralischer Sicht, insbesondere wenn es zur Nahrungsbeschaffung oder zur Gewässerhege erfolgt. Auch das vom Angler selbstentschiedene Zurücksetzen von großen, entnahmefähigen Fischen nach dem Fang aus ökologischen Gründen hält das Gros der Bevölkerung für unproblematisch. Das und vieles mehr ergab eine repräsentative Umfrage zur Einstellung der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei, die vom Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) gemeinsam mit der Humboldt-Universität vorgelegt wurde.

Rund 7 % der Deutschen angeln regelmäßig in ihrer Freizeit. Zugleich ist die Angelfischerei durch das Tierschutzgesetz streng reglementiert. Vor allem das Angeln ohne sogenannten vernünftigen Grund ist tierschutzrechtlich verboten, wenn dadurch Fischen Schmerzen, Leiden oder Schäden zugefügt werden. Doch der Teufel steckt im Detail. So gibt verschiedenste Ansichten über die guten Gründe, die das Hobbyangeln legitimieren. Zudem ist sich die Wissenschaft bezüglich der Schmerz- und Leidensfähigkeit von Fischen uneinig. Dr. Carsten Riepe (IGB) und Prof. Dr. Robert Arlinghaus (IGB und Humboldt-Universität zu Berlin) bilden mit Hilfe ihrer nun publizierten repräsentativen Umfrage erstmals die Stimme der Bevölkerung in Deutschland zum Thema Angeln und Tierschutz ab. Die wichtigsten Ergebnisse können auf Basis von über 1000 zufällig in ganz Deutschland ausgewählten Befragten folgendermaßen zusammengefasst werden:

1. Angeln ist positiver besetzt als die Freizeitjagd
Nur ein Fünftel der Deutschen lehnt das Angeln aus moralischen Gründen ab. Für die Mehrzahl der Befragten (61 %) ist das Angeln als Freizeitbeschäftigung positiv oder neutral besetzt. Ein Angelverbot würde mehrheitlich nicht unterstützt werden. Im Vergleich dazu wird die Jagd deutlich negativer bewertet.

2. Fische können Schmerzen empfinden, aber wohl begründetes Angeln wird akzeptiert
Die meisten Befragten glauben, dass eine Forelle Schmerz empfinden kann. Auch sind über 40 % der Deutschen der Meinung, dass das Angeln für Fische schmerzhaft ist. Dennoch findet die große Mehrheit der Bevölkerung die Hobbyfischerei akzeptabel, insbesondere wenn sie zur Nahrungsbeschaffung (62 % Zustimmung) oder als ökologische Hegemaßnahme (69 % Zustimmung) erfolgt. Die ethische Bewertung des Angelns orientiert sich dabei vor allem an der Intention des Fischenden und weniger daran, was dem Fisch an der Angel passiert. 88 % der Befragten finden es moralisch völlig akzeptabel, Fisch zu essen.

3. Es besteht kein besonders dringender Bedarf zur Verbesserung des Tierschutzes beim Hobbyangeln
Tierschutz ist ein wichtiges Thema in der Gesellschaft. Doch wird von der Mehrheit der Bevölkerung (74 %) kein dringender Bedarf gesehen, den Tierschutz in der Freizeitfischerei zu verbessern. Eine Verbesserung des Tierschutzes wird in anderen Bereichen der Mensch-Tier-Interaktion, wie z.B. in der Versuchstierhaltung oder in der Landwirtschaft, als viel wichtiger empfunden.

4. Gegenwärtig bereits verbotene Praktiken wie Wettangeln und der Einsatz lebender Köderfische sind nicht akzeptiert, Put-and-Take-Angeln und die Verwendung von Setzkeschern sind hingegen okay.
Die hierzulande verbotenen Formen des Wettangelns ohne Verwertungsabsicht und die Verwendung lebender Köderfische werden von der Mehrheit der Befragten rigoros abgelehnt. Gleiches gilt für das ebenfalls unerlaubte, nicht waidgerechte Töten von Fischen durch Erstickenlassen. Beim Put-and-Take-Angeln besetzen die Betreiber kommerzieller Angelteiche schlachtreife Fische, welche Kunden für ein Entgelt wieder herausangeln können. Auch diese Praktik ist in Deutschland aus Tierschutzsicht kritisch diskutiert. Tatsächlich aber hat die Mehrheit der Befragten kein Problem damit (51 % finden es völlig akzeptabel, 29 % stehen der Praktik neutral gegenüber, 20 % lehnen dies ab). Ganz ähnlich verhält es sich mit der Verwendung von Setzkeschern. Diese werden eingesetzt, um gefangene Fische lebend im Gewässer zu halten, bis sie weiter verwertet werden. Ihr Einsatz wird von der Mehrheit der Bevölkerung als unproblematisch angesehen.

5. Ökologische Gründe rechtfertigen Catch-and-Release entnahmefähiger Fische
Als Catch-and-Release-Angeln (Fangen und Zurücksetzen) bezeichnet man eine Angelpraxis, bei der Fische, die groß genug und legal entnahmefähig sind, nach dem Fang wieder in das Gewässer zurückgesetzt werden. Da in Deutschland das Angeln vor allem mit dem vernünftigen Grund der Verzehrabsicht toleriert wird, gibt es in einigen Bundesländern die Regelung, dass prinzipiell entnahmefähige Fische nach dem Fang entnommen werden müssen. Mit anderen Worten: Es herrscht ein Entnahmegebot und ein Zurücksetzverbot. Die Mehrzahl der Bürger steht einem selektiven Zurücksetzen aus ökologischen Gründen nach Selbstermessen des Anglers jedoch positiv gegenüber – zum Beispiel, um kleinen Fischen das Heranwachsen in den Bestand zu ermöglichen (78 % Zustimmung) oder um große Laichfische für den Bestand zu erhalten (65 % Zustimmung). Gesellschaftlich weniger akzeptiert ist es, wenn das Zurücksetzen zur Selbstprofilierung genutzt wird, beispielsweise um anderen Anglern den Wiederfang zu ermöglichen. 56 % der Befragten finden dies verwerflich. Doch auch ein totales Zurücksetzen aller Fische wird nur von 40 % der Bevölkerung abgelehnt. Die Gesellschaft hat damit eine moderatere Einstellung zum Catch-and-Release als viele Veterinär- und Fischereibehörden oder zahlreiche Tierschutz- und Angelfischereiverbände.

Insgesamt zeigt die Studie, dass Gesetzgeber, Behörden und Angelverbände das Tierschutzgesetz in vielen Fällen gemäß der allgemeinen Bevölkerungsmeinung zum Angeln in Deutschland auslegen. Doch gibt es auch überdenkenswerte Bestimmungen. Insbesondere die gegenwärtig weitverbreitete Entnahmepflicht ist für den Bestandsschutz aus ökologischen Gründen kontraproduktiv. Eine liberalere Regelung, die selektives Zurücksetzen von ökologisch bedeutsamen großen Fischen ermöglicht, würde aus Sicht der Bevölkerung grünes Licht erhalten und auch den Beständen zu Gute kommen.

Die Ergebnisse dieser repräsentativen Bevölkerungsbefragung sind in der Reihe „Berichte des IGB“ unter dem Titel „Einstellungen der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei“ erschienen. Der Bericht steht unter www.besatz-fisch.de zum Download bereit. Insgesamt wurden 1043 zufällig ausgewählte Personen ab 14 Jahren befragt. Die Antwortquote aller ausgewählten Personen betrug über 72 %. Die Datensammlung und -auswertung wurde durch die am IGB angesiedelten Projekte Adaptfish (gefördert im Rahmen des Pakts für Innovation und Forschung durch die Gottfried-Wilhelm-Leibniz-Gemeinschaft) sowie Besatzfisch (gefördert vom Bundesministerium für Bildung und Forschung) ermöglicht.

QUELLE:
Riepe, C. & Arlinghaus, R. (2014). Einstellungen der Bevölkerung in Deutschland zum Tierschutz in der Angelfischerei. Berichte des IGB, Heft 27/2014.

KONTAKT:
Prof. Dr. Robert Arlinghaus
Leibniz-Institut für Gewässerökologie und Binnenfischerei
Abteilung Biologie und Ökologie der Fische
Müggelseedamm 310, 12587 Berlin
E-Mail: arlinghaus@igb-berlin.de

Dr. Carsten Riepe
Leibniz-Institut für Gewässerökologie und Binnenfischerei
Abteilung Biologie und Ökologie der Fische
Müggelseedamm 310, 12587 Berlin
E-Mail: riepe@igb-berlin.de

Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) ist das bundesweit größte Forschungszentrum für Binnengewässer. Es gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.

Weitere Informationen:
http://www.igb-berlin.de
http://www.besatz-fisch.de
http://www.adaptfish.igb-berlin.de

Quelle: idw

(nach oben)


Bienen können wichtiger als Dünger sein

Rudolf-Werner Dreier Presse- und Öffentlichkeitsarbeit
Albert-Ludwigs-Universität Freiburg im Breisgau

Experiment bestätigt die wichtige Rolle von Insekten für die Bestäubung von Kulturpflanzen

Das Fehlen von Bienen und anderen wildlebenden Insekten als Bestäuber von Nutzpflanzen kann den Ernteeintrag der Landwirtschaft stärker mindern als ausbleibende Düngung oder stark reduzierte Bewässerung. Findet dagegen Bestäubung in ausreichendem Maß statt, tragen die Pflanzen mehr Früchte, und deren Nährstoffgehalte verändern sich. Diese Ergebnisse hat die Freiburger Ökologin Prof. Dr. Alexandra-Maria Klein gemeinsam mit Kolleginnen und Kollegen aus den USA in einem Experiment an Mandelbäumen in Kalifornien erzielt. Das Team hat dazu Artikel in den Fachzeitschriften „Plant Biology“ und „PLoS ONE“ veröffentlicht. Für diese und weitere Arbeiten über die Bedeutung von Insekten für die Bestäubung von Kulturpflanzen erhält Alexandra-Maria Klein am Dienstag, 17. Juni 2014, den mit 25.000 Euro dotierten CULTURA-Preis. Die Alfred Toepfer Stiftung F.V.S. würdigt mit der Auszeichnung europaweit innovative und beispielhafte Arbeitsansätze auf den Gebieten Naturschutz, Land- und Forstwirtschaft sowie den damit verbundenen Wissenschaften.

Alexandra Klein manipulierte zusammen mit Studentinnen sowie Kolleginnen der University of California, Berkeley Mandelbäume, indem sie Bienen mit Hilfe von Käfigen vom Blütenbesuch ausschlossen oder die Bestäubung durch Bienen zuließen oder die Blüten mit der Hand bestäubten. Zudem bewässerten und düngten die Forscherinnen und Forscher Bäume nach lokalen Praktiken oder gaben ihnen nur wenig Wasser oder keinen Dünger. An einigen Mandelbäumen kombinierten sie die verschiedenen Manipulationen, um die Effekte auf den Ertrag und die Zusammensetzung der Nährstoffe in den Nüssen getrennt und in Kombination zu untersuchen. Mandelbäume, die mit der Hand bestäubt wurden, brachten die meisten Nüsse hervor, allerdings waren diese sehr klein. Dagegen trug ein Baum, der nicht bestäubt wurde, kaum Nüsse – aber sehr große. Der Ertrag durch Bienenbestäubung konnte im Vergleich zur Selbstbestäubung um etwa 200 Prozent gesteigert werden.

Düngung und Bewässerung hatten nur in Kombination mit den Bestäubungsmanipulationen einen Effekt auf den Ertrag. Allerdings verloren die unzureichend bewässerten Bäume mehr Blätter, und ohne Dünger wurden die Blätter vermehrt gelb. Die Wissenschaftlerinnen und Wissenschaftler schlossen aus den Ergebnissen, dass ein Mandelbaum kurzfristig Nährstoff- und Wasserentzug ausgleicht, indem Nährstoff- und Wasserreserven aus dem Baum in die Früchte geholt werden. Defizite in der Bestäubung kann der Baum allerdings nicht ausgleichen. Weiter zeigten die Wissenschaftler, dass die Nährstoffzusammensetzungen sich je nach Bestäubungsmanipulation unterschieden: Nüsse aus Selbstbestäubung enthielten einen geringen Anteil an Linolsäuren, aber einen höheren Anteil an Vitamin E.

Information der Alfred Toepfer Stiftung F.V.S.:
http://toepfer-stiftung.de/cultura-preis

Originalveröffentlichungen:
Klein, A.M., Hendrix, S.D., Clough, Y., Scofield, A., Kremen, C. 2014. Interacting effects of pollination, water and nutrients on fruit tree performance. Plant Biology, online first, DOI:10.1111/plb.12180

Brittain, C., Kremen, C., Garber, A., Klein, A.M. 2014. Pollination and plant resources change the nutritional quality of almonds for human health. PLoS ONE 9: e90082. DOI:10.1371/journal.pone.0090082

Kontakt:
Prof. Dr. Alexandra-Maria Klein
Professur für Naturschutz und Landschaftsökologie
Albert-Ludwigs-Universität Freiburg
Tel.: 0761/203-67770, 0176/84321671
E-Mail: alexandra.klein@nature.uni-freiburg.de

Weitere Informationen:
http://www.pr.uni-freiburg.de/pm/2014/pm.2014-06-10.50-en?set_language=en

Quelle: idw

(nach oben)


Klärschlamm als flexibler Energielieferant – Neues Verbundprojekt an TU Darmstadt gestartet

Silke Paradowski Kommunikation
Technische Universität Darmstadt

Lässt sich aus Klärschlamm in einer Kläranlage Energie so erzeugen und verteilen, dass sie flexibel je nach Bedarf zur Verfügung steht? Das erforschen seit kurzem Wissenschaftlerinnen und Wissenschaftler der TU Darmstadt im vom Bund geförderten Verbundprojekt „ESiTI“ mit externen Partnerunternehmen. Sie setzen dabei auch auf Optimierung bekannter Verfahren.

Als Beispiel für die Untersuchung dient den Forscherinnen und Forschern die Wissenschaftsstadt Darmstadt, die mit ihren rund 145.000 Einwohnerinnen und Einwohnern für viele Städte stehen kann. Aufgesetzt wurde „ESiTI“ am Institut IWAR im Fachbereich Fachbereich Bau- und Umweltingenieurwissenschaften der TU Darmstadt. Hier liegt auch die Koordination des Verbundprojektes, an dem insgesamt elf Partner beteiligt sind. Das Bundesministerium für Bildung und Forschung fördert das Engagement der TU an „ESiTI“ über drei Jahre mit 1,2 Millionen Euro (Gesamtfördervolumen 2,7 Millionen Euro).
„Flexibilisierung“ ist eine Schlüsselforderung des Projekts „ESiTI“. Bislang wird die Klärschlammfaulung in Kläranlagen unter fast konstanten Bedingungen gefahren und erzeugt dadurch auch eine fast konstante Menge an Biogas. Das ist wenig effizient, erklärt Dr. Christian Schaum, gemeinsam mit Professor Peter Cornel verantwortlich für „ESiTI“: „Der Energieverbrauch einer Kläranlage unterliegt über den Tag Schwankungen. Wenn zum Beispiel besonders schmutziges Wasser in die Anlage kommt, braucht man auch mehr Energie zur Behandlung.“ Die Darmstädter Forscherinnen und Forscher arbeiten daran, punktgenau so viel Energie zu erzeugen, wie momentan gebraucht wird. „Im Idealfall kann man beides bedarfsgerecht anpassen“, sagt Schaum.
Dafür wird unter anderem an einem optimierten Faulverfahren gearbeitet. Diese Klärschlammbehandlung soll zum zentralen Baustein eines flexiblen Energiesystems werden – zum Beispiel, indem sie durch veränderte Reaktionsbedingungen schneller als bisher abläuft oder zeitlich so gut gesteuert werden kann, dass das Verfahren wie ein Puffer bei der Energieerzeugung wirkt. So kann eine Kläranlage sogar zum Energiespeicher werden.
Überschüsse an gewonnener Energie könnten auch in größeren Infrastruktursystemen einer Stadt genutzt werden, zum Beispiel durch intelligente Vernetzung etwa mit Energieversorgern oder Großverbrauchern.

Auch dieser Aspekt findet bei „ESiTI“ Berücksichtigung. Ein weiteres Teilprojekt unter Leitung von Professor Lieselotte Schebek, Fachgebiet Stoffstrommanangement und Ressourcenwirtschaft am Institut IWAR der TU Darmstadt, nimmt eine ökologische Bewertung der Energieeinsparung gegenüber den Umweltauswirkungen vor. Außerdem sollen Verfahren für die Nutzbarmachung von schwer abbaubaren Substanzen entwickelt werden. Volkswirtschaftliche Aspekte werden im Rahmen von „ESiTI“ ebenso untersucht wie die Frage, inwieweit unterschiedliche Motivation von beteiligten Unternehmen ein großes Energie-Projekt beeinflussen kann.

Was am Beispiel der Stadt Darmstadt und in den Versuchsanlagen der TU Darmstadt erforscht und entwickelt wird, wird in ein Planungswerkzeug einfließen, das Betreiber von Wasseraufbereitungsanlagen unterstützt. Mit seiner Hilfe sollen Kläranlagen dann flexibilisiert und optimal in die städtische Infrastruktur eingebettet ihren Beitrag zum intelligenten und schonenden Umgang mit der Ressource Abwasser leisten.

Weitere Informationen
Das Projekt „ESiTI“ (Abwasserbehandlungsanlage der Zukunft: Energiespeicher in der Interaktion mit technischer Infrastruktur im Spannungsfeld von Energieerzeugung und -verbrauch) ist eines von zwölf Verbundprojekten, die das Bundesministerium für Bildung und Forschung im Rahmen der Maßnahme „Zukunftsfähige Technologien und Konzepte für eine energieeffiziente und ressourcenschonende Wasserwirtschaft (ERWAS)“ fördert.

https://www.fona.de/de/14746

Quelle: idw

(nach oben)


Beeinflusst der Mond unseren Schlaf?

Dr Harald Rösch Wissenschafts- und Unternehmenskommunikation
Max-Planck-Gesellschaft zur Förderung der Wissenschaften e.V.

Max-Planck-Wissenschaftler finden keinen Zusammenhang zwischen den Mondphasen und menschlichem Schlaf

Im Volksglauben gibt es verschiedenste Mythen über den Einfluss des Mondes auf den Menschen. So leiden angeblich viele Menschen bei Vollmond unter Schlafstörungen. Im Gegensatz zu früheren Studien konnten Wissenschaftler am Max-Planck-Institut für Psychiatrie in München nun keinen Zusammenhang zwischen dem menschlichen Schlaf und den Mondphasen finden. Für die Untersuchung werteten die Forscher große, bereits vorhandene Datensätze über den Schlaf zahlreicher Probanden aus. Während der Recherchen stießen sie auf weitere Studienergebnisse, welche ebenfalls keinen Einfluss des Mondes feststellen konnten. Diese sind jedoch häufig nicht veröffentlicht worden. Dadurch waren Studien mit positivem Befund bislang in der wissenschaftlichen Literatur überrepräsentiert.

Seit Jahrhunderten glauben die Menschen, dass ihre Gesundheit oder ihr Verhalten durch den Mond beeinflusst werden. Im Volksglauben hält sich vor allem die Überzeugung, dass man in Vollmondnächten schlechter schläft. Aber gibt es tatsächlich einen wissenschaftlich nachweisbaren Zusammenhang?

Einige Studien beschäftigten sich bereits in Nachanalysen von zuvor zu einem anderen Zweck erhobenen Schlafdaten mit dem Einfluss des Mondes auf den menschlichen Schlaf. Allerdings wurden die Auswirkungen auf den Schlaf selten mit objektiven Methoden, wie z.B. dem Schlaf-EEG, untersucht und die Ergebnisse waren sehr unterschiedlich. In manchen Studien schienen sich die Mondphasen besonders auf Frauen auszuwirken, in andern wiederum besonders auf Männer. Zwei Analysen von Datensätzen mit jeweils 30 bis 50 Teilnehmern aus den Jahren 2013 und 2014 zeigten übereinstimmend, dass die Schlafdauer in Vollmondnächten verkürzt ist. Für andere Messungen kamen sie jedoch zu kontroversen Ergebnissen. Beispielsweise wurde in einer der beiden Analysen gezeigt, dass das Einsetzen des REM-Schlafes – die Schlafphase, in welcher wir vor allem träumen – bei Neumond verzögert ist. In der anderen Studie wurde hingegen eine Verzögerung in Vollmondnächten festgestellt.

Um Zufallsbefunde zu vermeiden, wie sie in Studien mit geringer Teilnehmerzahl möglich sind, untersuchten die Wissenschaftler nun Schlafdaten von 1.265 Probanden aus 2.097 Nächten. „Nachdem wir diese große Anzahl von Daten ausgewertet hatten, konnten wir frühere Ergebnisse aus anderen Studien nicht bestätigen“, berichtet Martin Dresler, Neurowissenschaftler am Max-Planck-Institut für Psychiatrie in München und Donders Institute for Brain, Cognition and Behaviour in Nijmegen, Niederlande. „Wir konnten keinen statistisch belegbaren Zusammenhang zwischen menschlichem Schlaf und den Mondphasen aufzeigen.“ Im Rahmen dieser Untersuchungen fand sein Team weitere unveröffentlichte Analysen von über 20.000 Schlafnächten, welche ebenfalls keinen Einfluss des Mondes feststellen konnten. Dass diese Ergebnisse nicht veröffentlicht worden sind, könnte ein Beispiel für eine verzerrte Veröffentlichungspraxis sein, wie sie beispielsweise auch als „Schubladenproblem“ bekannt ist.

Darunter versteht man das Phänomen, dass viele Untersuchungen zwar durchgeführt, aber nie veröffentlicht werden – sie verbleiben stattdessen in der Schublade der Forscher. Die Tendenz nur positive oder signifikante Ergebnisse zu veröffentlichen, nicht aber negative oder unschlüssige, ist ein viel diskutiertes Problem in der Wissenschaft, Medizin und Pharmazie.

Bisher wurde der Einfluss des Mondes auf den menschlichen Schlaf durch die Nachanalyse von bereits früher zu einem anderen Zweck erhobenen Datensätzen untersucht. „Um die ganz offensichtlichen Einschränkungen von solchen Nachanalysen zu umgehen, müssten gut überlegte und genau auf den Zweck abgestimmte Experimentreihen mit einer großen Anzahl von Probanden durchgeführt werden“, kommentiert Dresler.

Originalveröffentlichung:
Cordi M, Ackermann S, Bes FW, Hartmann F, Konrad BN, Genzel L, Pawlowski M, Steiger A, Schulz H, Rasch B, Dresler M.
Lunar cycle effects on sleep and the file drawer problem.
Current Biology. Vol 24, Nr. 12 (doi: 10.1016/j.cub.2014.05.017)

Ansprechpartner:
Anna Niedl
Press and Public Relations
Max-Planck-Institut für Psychiatrie, München
Telefon: +49 89 30622-263
Fax: +49 89 30622-370
E-Mail:anna_niedl@mpipsykl.mpg.de

Dr. Martin Dresler
Max-Planck-Institut für Psychiatrie, München
E-Mail:dresler@mpipsykl.mpg.de

Quelle: idw

(nach oben)


Neues Energiezeitalter in Oberfranken

Anja Matern-Lang Zentrale Verwaltung / Öffentlichkeitsarbeit
Bayerisches Zentrum für Angewandte Energieforschung e.V.

Neues Energiezeitalter in Oberfranken – ZAE Bayern und Areva präsentieren System zur wasserstoffbasierten Energiespeicherung
Das ZAE Bayern und die Areva GmbH präsentierten heute in Anwesenheit des ehemaligen Bayerischen Ministerpräsidenten Günther Beckstein und des Parlamentarischen Staatssekretärs im Bundesforschungsministerium Stefan Müller ein System zur wasserstoff-basierten Energiespeicherung. Dieses System wurde von der Areva GmbH für das vom ZAE Bayern geleitete Projekt „Smart Grid Solar“ erstellt und wird im oberfränkischen Arzberg in Betrieb gehen.

Der von Areva realisierte Elektrolyseur wird in Arzberg aus dem von PV-Anlagen gelieferten Strom Wasserstoff produzieren. Damit wird an sonnenreichen Tagen entstehende überschüssige Energie speicherbar und kann mit der ebenfalls erstellten Brennstoffzelle zur Generierung elektrischer Energie für weniger wind- und sonnenreiche Perioden eingesetzt werden. Der erzeugte Wasserstoff kann außerdem zum Betrieb von Fahrzeugen mit wasserstoffbasierten Antrieben und im Bereich der Gasversorgung verwendet werden. Die vorgestellte Technologie hat daher eine hohe Bedeutung für die zukünftige Energieversorgung, da mir ihr nicht nur Zeiten mit geringer Windkraft- und Photovoltaikleistung überbrückt werden können, sondern ebenso die hohe Abhängigkeit Deutschlands von Erdgasimporten reduziert werden kann. Geleitet wird das Projekt vom Vorstandsvorsitzenden des ZAE Bayern Prof. Dr. Christoph J. Brabec.

Weitere Informationen:
http://www.zae-bayern.de

Quelle: idw

(nach oben)


Europäische Gewässer stärker durch Chemikalien belastet als bislang angenommen

Bernd Hegen Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Großflächige Studie zeigt: Ökologische Ziele der Wasserrahmenrichtlinie werden vermutlich verfehlt.

Die Gewässerqualität bis 2015 deutlich zu verbessern, das haben sich die EU-Mitgliedsstaaten nicht zuletzt durch die Wasserrahmenrichtlinie (WRRL) auf die Fahnen geschrieben. Wie eine aktuelle Studie des Instituts für Umweltwissenschaften Landau und des Helmholtz-Zentrums für Umweltforschung (UFZ) mit Kollegen aus Frankreich (Universität Lorraine und EDF) und der Schweiz (EAWAG) zeigt, wird dieses Ziel aufgrund starker Schadstoffeinträge wohl nicht erreicht werden. Ein Grund: Aktuelle Maßnahmen zur Verbesserung der Gewässerqualität berücksichtigen Chemikalieneinträge nur unzureichend. Dabei sind die ökologischen Risiken durch Chemikalien wesentlich höher als bislang angenommen, wie die Studie erstmals auf europäischer Ebene belegt.

Bislang gingen Umweltbehörden und Teile der Fachwelt davon aus, dass der Eintrag von Chemikalien eher ein lokales Problem in einigen Gewässern darstellt. Die aktuelle Untersuchung zeigt nun erstmals im großen Maßstab das ökologische Risiko durch Chemikalieneinträge für mehrere Tausend europäische Gewässer: Die chemische Belastung stellt für rund die Hälfte der europäischen Gewässer ein ökologisches Risiko dar. Bei rund 15 Prozent könnten sogar akut toxische Effekte auf Gewässerorganismen auftreten.

Reale Situation europäischer Gewässer vermutlich noch schlechter
Untersucht haben die Wissenschaftler aus Landau und Leipzig mit den französischen und schweizerischen Kollegen EU-weite Überschreitungen von Risikoschwellen in den Einzugsgebieten großer Gewässer wie Donau und Rhein. Für diese Flussgebietseinheiten wurde berechnet, in welchem Maße die Risikoschwellen für die drei Organismengruppen Fische, Wirbellose und Algen/Primärproduzenten in den vergangenen Jahren überschritten wurden. Die analysierten Daten stammen aus der behördlichen Überwachung. Die Probenabdeckung ist daher räumlich und zeitlich sehr unterschiedlich, so dass direkte Vergleiche zwischen den Ländern teilweise schwierig sind. Dass etwa Frankreichs Gewässerqualität laut der Studie am schlechtesten dasteht, liegt vermutlich daran, dass die Behörden dort über ein sehr engmaschiges Messnetz verfügen und viele Substanzen analysiert werden. In anderen Ländern werden Risiken durch unzureichende Überwachung dagegen gar nicht erkannt. „Generell haben wir in unserer Analyse das Risiko eher unter- als überschätzt“, so Studienleiter Jun.-Prof. Dr. Ralf B. Schäfer vom Institut für Umweltwissenschaften Landau. „Die reale Situation der europäischen Gewässer ist wahrscheinlich noch schlechter“.

Der Eintrag der Chemikalien in die Gewässer erfolgt größtenteils durch die Landwirtschaft und städtische Kläranlagen. Pestizide stellen mit Abstand die stärkste Belastung für die Gewässer dar, allerdings treten auch Organozinnverbindungen, bromierte Flammschutzmittel und polyzyklische aromatische Kohlenwasserstoffe, die aus Verbrennungsprozessen resultieren, in bedenklichen Konzentrationen auf. Aktuell fokussieren die EU-Vorgaben zur Gewässerqualität vor allem auf Einträge von sogenannten prioritären Stoffen, d.h. rund 40 Chemikalien, die als besonders gefährlich eingestuft wurden. „Glücklicherweise sind viele dieser prioritären Substanzen heute nicht mehr zugelassen und ihre Konzentrationen gehen vielerorts zurück. Das Problem ist aber, dass viele aktuell verwendete Chemikalien bei der Überwachung der Gewässer gar nicht berücksichtigt werden“, so Dr. Werner Brack vom Helmholtz-Zentrum für Umweltforschung in Leipzig. Zudem zeigen neuere Erkenntnisse, dass die angenommenen Wirkschwellen für einige Stoffe zu hoch angesetzt sein könnten.

Konkretere Rahmenvorgaben und Koordination unabdingbar
Um der Vielfalt möglicherweise schädlicher Stoffe in der Umwelt gerecht zu werden, empfehlen die an der Studie beteiligten Wissenschaftler daher eine intelligente Verknüpfung von ökologischen, wirkungsbasierten und chemischen Screening-Methoden. Nur so kann mit vertretbaren Kosten das ganze Spektrum an ökotoxikologisch relevanten Substanzen erfasst werden. „Gefährliche Stoffe können auch dann aufgespürt werden, wenn sie noch nicht auf die Prioritätenliste gesetzt wurden“, verdeutlicht Werner Brack. Allerdings zeigt die aktuelle Studie, dass auch auf Grundlage der heute bereits überwachten Stoffe Handlungsbedarf besteht. „Für die Praxis bedeutet das, dass sich auf allen Ebenen dringend etwas bewegen muss zum nachhaltigen Schutz der Gewässer“, so Schäfer. Das reicht von der generellen Vermeidung von Chemikalieneinträgen in Gewässer und dem Ersetzen von besonders problematischen Substanzen über die Verringerung der Ausbringung von landwirtschaftlichen Chemikalien bis hin zur verbesserten Klärung von Abwässern. Die Forschergruppe ist sich einig: Es ist zu befürchten, dass die Ziele der Wasserrahmenrichtlinie auf Grund der massiven chemischen Belastung verfehlt werden, sollte sich an der aktuellen Situation nichts ändern. Längerfristig habe das auch Risiken für den Menschen zur Folge, wenn beispielsweise Funktionen des Ökosystems, wie die Selbstreinigungskraft des Wassers beeinträchtig werden.

Die Studie:
„Organic chemicals jeopardize the health of freshwater ecosystems on the continental scale“, Egina Malaj, Peter C. von der Ohe, Matthias Grote, Ralph Kühne, Cédric P. Mondy, Philippe Usseglio-Polatera, Werner Brack, Ralf B. Schäfer.
Die Studie wurde am 16. Juni 2014 in der Fachzeitschrift Proceedings of the National Academy of Sciences (PNAS, Early Edition) zunächst online veröffentlicht und ist unter diesem Link abrufbar:
http://www.pnas.org/cgi/doi/10.1073/pnas.1321082111
Die Untersuchungen wurden gefördert von Electricité de France (EDF), der Französischen Nationalen Forschungsagentur (ANR) und der Deutschen Forschungsgemeinschaft (DFG).

Beteiligte Institutionen:
Institut für Umweltwissenschaften Landau der Universität Koblenz-Landau, Helmholtz-Zentrum für Umweltforschung (UFZ), Electricité de France (EDF) in Frankreich, Universität Lorraine in Frankreich und EAWAG in der Schweiz.

Weitere Informationen:
Universität Koblenz-Landau
Institut für Umweltwissenschaften Landau
Jun.-Prof. Dr. Ralf B. Schäfer
Tel.: +49 6341 280-31536, E-Mail: schaefer-ralf@uni-landau.de

Helmholtz-Zentrum für Umweltforschung (UFZ)
Department Wirkungsorientierte Analytik
Dr. Werner Brack
Tel.: +49 341 235-1531
http://www.ufz.de/index.php?de=17477

Links:
Umweltverhalten von Chemikalien:
http://www.ufz.de/index.php?de=32298
EU-Projekt SOLUTIONS:
http://www.solutions-project.eu/

Das Institut für Umweltwissenschaften Landau betreibt grundlagen- und anwendungsorientierte Forschung, in deren Fokus die vielfältigen Interaktionen zwischen Mensch und Umwelt stehen. Das Institut vereint die Expertisen von neun interdisziplinären Arbeitsgruppen und damit aktuelle Forschung vom Molekül über Ökosysteme bis zur menschlichen Gesellschaft. Das Institut für Umweltwissenschaften Landau wurde 2004 an der Universität Koblenz-Landau, Campus Landau gegründet. Weitere Informationen: http://www.umwelt.uni-landau.de

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/

Weitere Informationen:
http://www.pnas.org/cgi/doi/10.1073/pnas.1321082111 Studie
http://www.ufz.de/index.php?de=32298 Umwelverhalten von Chemikalien
http://www.solutions-project.eu/

Quelle: idw

(nach oben)


Welchen Einfluss haben Energieversorgung und Umweltfragen auf das persönliche Wohlergehen?

Dipl.-Sozialwissenschaftlerin Heidi Müller-Henicz Presse- und Öffentlichkeitsarbeit
Hanse-Wissenschaftskolleg

Mehrere europäische Staaten beraten derzeit über wesentliche Änderungen ihrer Energiepolitik, dies allerdings unter sehr unterschiedlichen Vorzeichen.

Deutschland hat, wie allgemein bekannt, im Jahre 2011 die Energiewende beschlossen und sich damit einen beschleunigten Atomausstieg zum Ziel gesetzt. Gleichzeitig ist es erklärtes und ehrgeiziges Ziel deutscher Energiepolitik, den wegfallenden „Atomstrom“ nicht durch Strom aus konventionellen Kraftwerken zu ersetzen, sondern in sehr hohem Maße aus sogenannten erneuerbaren Energien zu beziehen.
Ganz anders plant beispielsweise Frankreich, wo die existierenden Kernkraftwerke länger betrieben werden sollen als bislang vorgesehen; Großbritannien setzt sogar auf den Neubau solcher Kraftwerke.

Alle diese Planungen müssen in Verbindung mit Fragen der „Versorgungssicherheit“ (Importabhängigkeit, Verknappung von Ressourcen) einerseits und der Umweltverträglichkeit bzw. Nachhaltigkeit andererseits betrachtet werden; hinzu kommt, ausgelöst durch Debatten über Preisentwicklungen, das Thema „Energiearmut“, das in letzter Zeit sehr aufmerksam betrachtet wird und phasenweise die öffentliche Diskussion zu dominieren scheint.

Vor diesem Hintergrund haben Wissenschaftler aus Deutschland, Großbritannien, Irland, der Schweiz und den USA im Projekt „Using Subjective Well-Being Data for Energy Policy Analysis – Energy for Well-Being“ (Analyse von Energiepolitik mittels Daten zum subjektiven Wohlergehen – Energie und Wohlergehen) gemeinsam geforscht. Ziel des Projektes war eine Bewertung von Energieversorgung, Energiekosten und unterschiedlichen Systemen zur Energieerzeugung und -verteilung aus der subjektiven Perspektive der Bürger. Anders formuliert: Wie nützlich ist welche Energie für wen?

Wesentliche Forschungsergebnisse betreffen den Einfluss von unterschiedlichen Stromerzeugungsarten, von Energiekosten sowie der Nähe zu Energieanlagen auf das persönliche Wohlergehen der Menschen in mehr als 20 europäischen Ländern und darauf, wie sich diese Zusammenhänge durch Ereignisse wie die Kernschmelze in Fukushima oder politische Unruhen in Energieexportländern verändert haben.

Mit dem Workshop im Hanse-Wissenschaftskolleg kommt das Projekt (Laufzeit von November 2012 bis Juni 2014) zum Abschluss.
Der Workshop dient der Darstellung und Verbreitung der Projektresultate in der wissenschaftlichen Gemeinschaft und insbesondere beim wissenschaftlichen Nachwuchs.
Die Tagungssprache ist Englisch.
Forschungsprojekt und Workshop werden durch das Schweizer Bundesamt für Energie unterstützt.

Veranstalter des Workshops und Sprecher des Forschungsprojekts ist Prof. Dr. Heinz Welsch, Institut für Volkswirtschaftslehre, Carl von Ossietzky Universität Oldenburg

Kontakt:
Prof. Dr. Heinz Welsch, heinz.welsch@uni-oldenburg.de oder Tel.: 0441 798-4112
Wolfgang Stenzel, wstenzel@h-w-k.de oder Tel.: 04221 9160-103

Weitere Informationen:
http://www.uni-oldenburg.de/wire/vwl/wt/projekte/

Quelle: idw

(nach oben)


Macht Kalk aus Haushaltsgeräten Schrott?

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Werden verkalkte Haushaltsgeräte entsorgt, bevor sie kaputt sind? Wie lässt sich die Lebensdauer dieser Geräte verlängern? Die Arbeitsgruppe „Nachhaltigkeit“ der Sektion Haushaltstechnik der Universität Bonn sucht Studienteilnehmer, die in einer Umfrage über ihre Erfahrungen mit der Nutzung ihrer privaten Haushaltsgeräte anonym Auskunft geben. Die Beantwortung der Fragen dauert nur wenige Minuten.

Eine hohe Wasserhärte wird allgemein mit der schnellen Bildung von unerwünschtem Kalk gleichgesetzt – ob auf Badarmaturen oder für den Verbraucher unsichtbar in der Waschmaschine oder im Wasserkocher. Was für eine Auswirkung hat die Bildung von Kalk auf die Lebensdauer von Geräten? Das Fragen sich Wissenschaftler von der Arbeitsgruppe „Nachhaltigkeit“ der Sektion Haushaltstechnik der Universität Bonn.

Ist ein Gerät kaputt, nur weil es verkalkt ist?
Kalk kann bei Haushaltsgeräten zu einem vorzeitigen Ausfall führen, wenn die Ablagerungen nicht regelmäßig entfernt werden. Verkalkte Heizstäbe sind zum Beispiel ein typischer Ausfallgrund für Waschmaschinen. Aber was passiert mit Geräten, die trotz Kalkablagerungen noch funktionieren? „Hier muss die Frage beantwortet werden, ob ein Wasserkocher schon kaputt ist, nur weil die Heizstäbe verkalkt sind“, sagt Prof. Dr. Rainer Stamminger, der die Arbeitsgruppe „Nachhaltigkeit“ leitet. Die Wissenschaftler interessiert auch, auf welcher Basis der Verbraucher die Entscheidung trifft, wann er ein Elektrogerät verschrottet. Darüber hinaus ist eine zentrale Frage, wie man die Lebensdauer der Geräte verlängern könnte.

Um diese Fragen zu beantworten, haben die Wissenschaftler der Sektion Haushaltstechnik der Universität Bonn einen Fragebogen zu den Ursachen für den Verschleiß von Haushaltsgeräten erstellt. Der zeitliche Aufwand für die Beantwortung beträgt etwa fünf bis zehn Minuten. Die Studie ist umso aussagekräftiger, desto mehr Personen an der Umfrage teilnehmen.

Weitere Informationen:
http://tinyurl.com/kxrpfm5 Fragebogen im Internet

Quelle: idw

(nach oben)


Wie wirken Nanomaterialien in Leber und Darm?

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR beteiligt sich an deutsch-französischem Forschungsprojekt

Wie wirken über Lebensmittel aufgenommene Nanomaterialien in Leber und Darm? Welche Faktoren bestimmen ihre Giftigkeit? Wegen der großen Anzahl an unterschiedlichen Nanomaterialien ist es kaum möglich, jedes Material einzeln auf seine toxischen Eigenschaften hin zu untersuchen. Im Rahmen des deutsch-französischen Forschungsprojektes „SolNanoTox“, das am 1. März 2014 begonnen hat, sollen deswegen spezifische Eigenschaften zur Klassifizierung von Nanomaterialien untersucht werden. Das Bundesinstitut für Risikobewertung (BfR) benötigt für seine Bewertungsarbeit Daten zur Bioverfügbarkeit, insbesondere dazu, ob die Löslichkeit von Nanomaterialien ihre Aufnahme und Akkumulation in bestimmten Organen wie Leber und Darm beeinflusst. „Wir wollen mit unseren Untersuchungen herausfinden, ob das Kriterium löslich oder nichtlöslich ein bestimmender Faktor für die Aufnahme und Toxizität von Nanomaterialen ist“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel.

Eine gesundheitliche Risikobewertung von Nanomaterialien ist derzeit kaum möglich bzw. mit sehr großen Unsicherheiten behaftet, da bislang noch wichtige toxikologische Daten zum Verhalten in Gewebe und Zellen fehlen. Das deutsch-französische Forschungsprojekt SolNanoTox untersucht, welche Rolle die Löslichkeit von Nanomaterialien für ihre Anreicherung und toxischen Eigenschaften spielt. Das Projekt läuft dreieinhalb Jahre. Dabei arbeitet das BfR eng mit der französischen Schwesterorganisation des BfR, der ANSES, zusammen. Weitere Partner sind das Institut des Sciences Chimiques de Rennes und die Universität Leipzig. Die Deutsche Forschungsgemeinschaft und die Französischen Agence Nationale de la Recherche (ANR) finanzieren das Projekt .

Zu den Aufgaben des BfR zählt die Durchführung von in vitro-Versuchen (z.B. die Untersuchung des Einflußes vom Verdausystem des Menschen) sowie die Analyse biologischer Proben hinsichtlich einer eventuellen Anreicherung von Nanomaterialien. Darüber hinaus erfolgt am BfR der Einsatz moderner Verfahren der bildgebenden Massenspektrometrie, um herauszufinden, ob Nanopartikel die Struktur von Biomolekülen, z.B. die Struktur der Lipide der Zellmembran, verändern. Bislang fehlen diese wichtigen experimentellen Untersuchen, die nötig sind, um mögliche Veränderungen der DNA oder zellulärer Strukturen, verursacht durch Nanomaterialien in der Nahrung, bewerten zu können.

Im Projekt werden zwei grundsätzlich verschiedene Nanopartikeltypen stellvertretend für andere ihrer Art untersucht: Titandioxid als Stellvertreter für wasserunlösliche Nanopartikel und Aluminium als Beispiel für Nanomaterialien, die nach Oxidation eine gewisse Wasserlöslichkeit aufweisen. Es wird geprüft, ob der Grad der Löslichkeit die Verteilung der Nanomaterialien im Körper beeinflusst und lösliche Materialien sich möglicherweise in anderen Organen akkumulieren als unlösliche. Es soll nachgewiesen werden, ob unlösliche Nanomaterialien aufgrund ihrer Nanodimension nach oraler Aufnahme generell direkt toxisch wirken.

In dem Projekt werden verschiedene moderne analytische Methoden miteinander kombiniert, um das Verhalten von Nanomaterialien im Gewebe und ihre Aufnahme in die Zelle zu erforschen. Im Fokus stehen vor allem Effekte, die genotoxische Schäden und Entzündungen auslösen können. Zunächst werden im Projekt die Effekte beider Materialien an Kulturen von humanen Darm- und Leberzellen in künstlicher Umgebung (in vitro) untersucht. Danach ist tierexperimentell zu überprüfen, ob hier beobachtete Effekte auch im lebenden Organismus auftreten können. Diese Vorgehensweise ermöglicht es, Rückschlüsse auf Effekte und Wirkungsweise oral aufgenommener Nanomaterialien mit unterschiedlichen Eigenschaften zu ziehen. Ziel ist es, Nanomaterialien anhand spezifischer Eigenschaften zu klassifizieren und diesen Klassen entsprechende toxikologische Eigenschaften zuzuordnen. Grund dieses Anliegens ist die enorme Vielzahl an Nanomaterialien mit großen Unterschieden in ihren physikalisch-chemischen Eigenschaften, nicht für alle Materialien können toxikologische Untersuchungen durchgeführt werden.

Über das BfR
Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/de/forschung_zum_einsatz_von_nanotechnologie-8077.html
Weitere Informationen zur BfR-Forschung zum Einsatz von Nanotechnologie

Quelle: idw

(nach oben)


Ein französisches Start-up installiert ein Mini-Kraftwerk auf einer Biogasanlage

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Abwärme in Strom umwandeln: Ein französisches Start-up installiert ein Mini-Kraftwerk auf einer Biogasanlage

Das auf ORC-Systeme (Organic Rankine Cycle) zur Umwandlung von Abwärme in Strom spezialisierte Start-up aus Marseille, Enogia, hat auf einer Biogasanlage eines Bauernhofs in Côtes d’Armor eine kleine, hoch innovative Turbine installiert, die wie ein Stromkraftwerk funktioniert. Es ist das erste Mal, dass in Frankreich ein ORC-System für eine kleine Anlage (100 kW) eingerichtet wurde.

Mit dieser Anlage werden drei Ziele verfolgt:

– Die Verwertung von Biogas aus landwirtschaftlichen Abfällen (Gülle, Pflanzen) durch die Verbrennung von Biogas in einem BHKW-Motor (100 kW)

– Die Verwertung der in den Motorabgasen enthaltenen Abwärme mit dem ORC-System (5 bis 7 zusätzliche kW).

– Die Verwertung landwirtschaftlicher Abfälle: Die bei der Methanisierung entstehenden Gärreste können bei allen Kulturen eingesetzt werden. Dadurch lässt sich die Verwendung von Stickstoff-Düngemitteln um 50% bis 100% reduzieren.

Das Prinzip des ORC-Systems besteht darin, dass die vom Motor erzeugte Wärme über ein Arbeitsfluid in Nutzenergie umgewandelt wird. Kommt das Fluid mit den Abgasen in Berührung, wandelt es sich in unter Druck stehenden Dampf um, mit dem eine Turbine angetrieben wird. Durch die Rotation der Turbine wird Strom erzeugt. Die von Enogia vertriebenen kleinen Turbinen (Leistungsbereich von 5 bis 100 kW) werden in Kooperation mit dem französischen Institut für Erdöl und neue Energien (IFPEN) entwickelt [1]. Diese Turbinen haben nur sehr wenige Verschleißteile und sehr wenige Teile in Relativbewegung, was ihnen eine hohe Zuverlässigkeit und einen geringen Wartungsaufwand verleiht.

Mit der in Côtes d’Armor installierten Turbine können 5 – 7% zusätzlicher Strom erzeugt werden.

[1] Siehe Artikel aus Wissenschaft-Frankreich vom 10. April 2014: http://www.wissenschaft-frankreich.de/de/energie/partnerschaft-zwischen-oeffentl…

Quelle:
Pressemitteilung des französischen Instituts für Erdöl und neue Energien – 10.06.2014 – http://www.ifpenergiesnouvelles.fr/actualites/communiques-de-presse/enogia-ifpen

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/allgemein/abwaerme-in-strom-umwandeln-e…

Quelle: idw

(nach oben)


Die Zukunft der Arbeitswelt – Herausforderungen und Chancen für Frauen

Marietta Fuhrmann-Koch Kommunikation und Marketing
Ruprecht-Karls-Universität Heidelberg

Die Arbeitswelt von morgen mit ihren Herausforderungen und Chancen für Frauen ist Thema einer Konferenz, die am 12. Juni 2014 an der Universität Heidelberg stattfindet. Initiiert hat die Veranstaltung „Expertinnen der Zukunft“ eine Gruppe von Studentinnen, die sich als Bloggerinnen auf der Internet-Plattform Denkerinnen.de zusammengeschlossen haben. Unterstützt wird die Konferenz vom Institut für Bildungswissenschaft, dem Gleichstellungsbüro der Universität und der Gleichstellungsbeauftragten der Philosophischen Fakultät sowie dem Studierendenrat. Sie ist der erste Teil einer geplanten Reihe mit dem Titel „Generation Y – ein neues Modell ‚Leben'“ und wendet sich vor allem an Studierende.

Die Zukunft der Arbeitswelt – Herausforderungen und Chancen für Frauen
Konferenz an der Universität Heidelberg richtet sich vor allem an Studierende

Die Arbeitswelt von morgen mit ihren Herausforderungen und Chancen für Frauen ist Thema einer Konferenz, die am 12. Juni 2014 an der Universität Heidelberg stattfindet. Initiiert hat die Veranstaltung „Expertinnen der Zukunft“ eine Gruppe von Studentinnen, die sich als Bloggerinnen auf der Internet-Plattform Denkerinnen.de zusammengeschlossen haben. Unterstützt wird die Konferenz vom Institut für Bildungswissenschaft, dem Gleichstellungsbüro der Universität und der Gleichstellungsbeauftragten der Philosophischen Fakultät, Prof. Dr. Katja Patzel-Mattern, sowie dem Studierendenrat. Sie ist der erste Teil einer geplanten Reihe mit dem Titel „Generation Y – ein neues Modell ‚Leben'“ und wendet sich vor allem an Studierende.

„Die Generation Y, die man auch als Generation Why lesen kann, setzt sich kritisch mit der Berufswelt auseinander und hinterfragt starre Arbeitsformen. Im Rahmen unserer Veranstaltungsreihe möchten wir herausfinden, wo und wie die Expertinnen und Experten von morgen arbeiten und leben werden“, erklärt Merve Kadayifci im Namen der Organisatorinnen. Die Konferenz legt den Fokus auf die Chancen und Perspektiven von Frauen. In einem für 2015 geplanten zweiten Teil der Reihe soll die Thematik für beide Geschlechter erörtert werden.

Die aktuelle Konferenz besteht aus zwei Sektionen, die Vorträge zu den Themenbereichen „Frauen und Bildung – eine lange Geschichte“ und „Lebensfelder von Frauen“ umfassen. Vertreten sind hier die Disziplinen Soziologie, Politikwissenschaft, Sprachwissenschaft und Pädagogik. In der anschließenden Podiumsdiskussion zum Thema „Herausforderungen und Interessenfelder der Politik“ diskutieren Vertreterinnen verschiedener Parteien über Aspekte wie Work-Life-Balance, Arbeitsformen und Berufsbilder.

Informationen im Internet:
Programm: http://www.uni-heidelberg.de/md/gsb/aktuelles/expertinnen.pdf
Referenten: http://denkerinnen.de/konferenzen/portraits

Kontakt:
Merve Kadayifci, merve.kadayifci@denkerinnen.de
Safiyye Arslan, safiyye.arslan@denkerinnen.de
Cansu Güler, C.Gueler@stud.uni-heidelberg.de

Quelle: idw

(nach oben)


Die Brennstoffzelle für zu Hause

Tobias Steinhäußer Unternehmenskommunikation
Fraunhofer-Gesellschaft

Sie wandelt chemische direkt in elektrische Energie um. Doch der Marktdurchbruch der Brennstoffzelle blieb bisher aus. Zu komplex waren die Systeme. Fraunhofer und Vaillant haben ein einfaches Gerät für den Hausgebrauch entwickelt.

»Man spricht immer von einem Brennstoffzellensystem«, sagt Dr. Matthias Jahn vom Fraunhofer-Institut für Keramische Technologien und Systeme IKTS in Dresden. Eine einzelne Zelle erzeugt nicht genug Spannung, um eine ausreichende elektrische Leistung zu erreichen. In einem Brennstoffzellenstapel sind mehrere Zellen hintereinander geschaltet. Jede davon hat etwa die Größe einer CD. Wir nennen die Stapel Stacks«, so Jahn. Brennstoffzellen wandeln Erdgas direkt in elektrische Energie um. Ihr Wirkungsgrad ist um ein Vielfaches höher als bei Verbrennungsmaschinen, wie zum Beispiel dem Automotor. Diese benötigen noch einen Zwischenschritt. Sie wandeln zunächst die chemische in thermische (Wärme) und mechanische Energie (Kraft) um. Mit der Kraft treiben sie einen Generator an, der dann erst die elektrische Energie erzeugt. Dabei geht ein großer Teil der ursprünglich zur Verfügung stehenden Energie verloren.

Praxistest in Privathaushalten
Zusammen mit dem Heizungshersteller Vaillant hat das IKTS ein kompaktes, sicheres und robustes Brennstoffzellensystem entwickelt, das in Privathaushalten aus Erdgas Strom und Wärme erzeugt. Die Forscher verantworteten insbesondere den Bau der Prototypen, die Auslegung des Gesamtsystems, die Gestaltung der Keramikbauteile sowie die Entwicklung des Reformers und des Nachbrenners. Aktuell werden die Geräte in Privathaushalten im Praxistest »Callux« getestet (www.callux.net).

Sie sind ähnlich kompakt wie klassische Gasheizgeräte, die nur Wärme erzeugen. Sie lassen sich bequem an der Wand montieren und einfach warten. Mit einer Leistung von einem Kilowatt decken sie den mittleren Stromverbrauch eines Vier-Personen-Haushalts ab. Das Bundesministerium für Verkehr und digitale Infrastruktur BMVI fördert Callux. Derzeit werden im europäischen Demonstrationsprojekt »ene.field« (www.enefield.eu) etwa 150 weitere Geräte in mehreren Europäischen Ländern installiert. Dazu hat Vaillant Anfang 2014 die Produktion einer Kleinserie gestartet. Parallel zum Praxistest arbeiten die beiden Partner bereits an neuen Modellen. »Jetzt geht es vor allem darum, die Kosten bei der Herstellung weiter zu drücken und die Lebensdauer der Anlage zu erhöhen«, sagt Jahn.

Das Prinzip der Brennstoffzelle ist bereits seit über 175 Jahren bekannt. Bisher blieb der Marktdurchbruch jedoch aus. Wesentlicher Grund war die Erfindung des elektrischen Generators. Er lief der komplexeren Brennstoffzelle den Rang ab. Erst in den 1960er Jahren wurde die Technologie von der NASA bei einigen Apollo-Mondmissionen praktisch umgesetzt. Ende der 1990er Jahre gab es weitere Projekte in der Automobilindustrie, die sich aber bis heute nicht durchsetzen konnten. Die Gründe: Zu komplex, zu teuer, zu unsicher. »In unserem Projekt mit Vaillant haben wir große Fortschritte gemacht, die Technologie nah an die Marktreife zu bringen. Vaillant produziert bereits eine Kleinserie, die in geförderten Projekten an Kunden verkauft wird«, so Jahn. »Für den Durchbruch am Markt müssen die Kosten weiter deutlich sinken.«

Das Minikraftwerk für den Hausgebrauch basiert auf einer Festoxidbrennstoffzelle (engl. solid fuel cell, SOFC). SOFCs arbeiten gegenüber konkurrierenden Ansätzen, zum Beispiel den Polymerelektrolyt-Brennstoffzellen (engl. proton exchange membrane fuel cell, PEMFC), die in Autos zum Einsatz kommen, mit sehr viel höheren Temperaturen. Während sie bei PEMFCs lediglich bei 80 Grad liegen, erreichen die SOFCs bis zu 850 Grad. »Dadurch können die SOFCs deutlich einfacher und kostengünstiger aufgebaut werden«, sagt Jahn.

Der Elektrolyt einer SOFC leitet nur Sauerstoffionen weiter, keine Elektronen. Andernfalls käme es zu Kurzschlüssen. »Als Material für den Elektrolyt eignet sich Keramik besonders gut. Es verfügt über die gewünschte Leitfähigkeit und hält auch hohe Temperaturen aus«, sagt Jahn. So laufen alle Reaktionen auch ohne den Einsatz von Edelmetallen reibungslos ab, die für das direkte Umwandeln von chemischer in elektrische Energie notwendig sind: Wenn das Brennstoffzellen-Heizgerät an das Erdgasnetz angeschlossen ist, wandelt ein Reformer das Erdgas zunächst in ein wasserstoffreiches Gas um. Dieses reagiert dann im Stack mit dem Sauerstoff der Luft in einer geräusch-losen »kalten Verbrennung«. Dabei entstehen Strom und Wärme.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2014/Juni/die_brennstoffz…

Quelle: idw

(nach oben)


Friedensforscher fordern: Das Friedensprojekt Europa ist nicht zu Ende – es ist zu stärken

Susanne Heinke Public Relations
Bonn International Center for Conversion (BICC)

Berlin. Im „Friedensgutachten 2014″, das am 3. Juni in Berlin vorgestellt wird, fordern die fünf führenden deutschen Friedens- und Konfliktforschungsinstitute angesichts der Ukraine-Krise eine Neuausrichtung der Europäischen Nachbarschaftspolitik. Das „Friedensprojekt Europäische Union“ brauche eine gesamteuropäische Sicherheitsarchitektur. Kritisch setzen sich die Friedensforscher auch mit der europäischen Rüstungsexportkontrolle und Migrationspolitik auseinander. Angesichts der humanitären Katastrophe in Syrien appellieren sie an die Bundesregierung mindestens 200.000 Flüchtlinge von dort in Deutschland aufzunehmen.

Der völkerrechtswidrige Anschluss der Krim an Russland und die anhaltende Destabilisierung der Ostukraine stellen die Europäische Union vor eine ihrer größten Herausforderungen. Die Politik der Europäischen Union, mit dem Assoziierungsabkommen die Ukraine faktisch vor ein Entweder-Oder zu stellen, war ein folgenreicher Fehler. Weder berücksichtigte sie die fragile Situation dieses regional und kulturell gespaltenen Landes noch bewies sie besondere Sensibilität gegenüber Russland. „Wir fordern eine Neuausrichtung der Europäischen Nachbarschaftspolitik. Die EU muss alles tun, um eine Vertiefung der Grenzen in Europa bis hin zu einer neuen Blockbildung zu verhindern“, mahnt das „Friedensgutachten 2014″ an. Der Bundesregierung empfehlen die Herausgeber sich über Genf II hinaus für eine Kontaktgruppe aus den fünf Ständigen Mitgliedern des UN-Sicherheitsrates plus Ukraine, Polen und Deutschland einzusetzen. Aber auch die zivilgesellschaftlichen Kräfte einschließlich der Kirchen und die Konferenz der Europäischen Kirchen in Brüssel seien aufgerufen, ihren Einfluss für einen Gewaltverzicht und Verhandlungslösungen geltend zu machen.

Für eine gesamteuropäische Sicherheitsarchitektur
Dass die NATO 2008 Georgien und der Ukraine einen Beitritt in Aussicht stellte, hat das Verhältnis zwischen Russland und dem Westen beschädigt. Auch den Dialog mit Russland über die Raketenabwehr auszusetzen, setzte ein falsches Signal. Doch ist die Rückkehr zu traditioneller Großmachtpolitik, die sich mit dem Recht des Stärkeren über multilaterale Vereinbarungen und das Völkerrecht hinwegsetzt, nicht zu akzeptieren. „Wie der Verzicht auf Konfrontation, die Durchsetzung des Rechts und das Festhalten am Dialog zusammengehen, kennzeichnet den Kern einer neuen Russlandpolitik, für die es noch keinen Kompass gibt“, erklären die Friedensforscher. Sie halten es für erforderlich, die OSZE künftig wieder stärker als integrativen Akteur „ins Feld zu führen“ – insbesondere dann, wenn es um Konfliktverhütung und Krisenbewältigung geht, wozu sie eine Reihe von Instrumenten entwickelt hat. „In der gegenwärtigen Situation verbleibt vor allem, auf Dialog, Vertrauensbildung, Rüstungskontrolle und bilaterale Bemühungen um eine Stabilisierung der Ukraine zu setzen“, betont das Friedensgutachten.

Für eine europäische Kontrolle von Rüstungsexporten
Für die steigenden Rüstungsexporte Deutschlands und anderer EU-Staaten gibt es keine friedenspolitische Rechtfertigung. Rüstungsexporte in Spannungsgebiete und Lieferungen von Waffen und Überwachungstechnologien an autokratisch regierte Staaten sind ein Skandal. Das Friedensgutachten, das in den vergangenen Jahren wiederholt eine Umkehr dieses Trends angemahnt hatte, verweist auf die Tatsache, dass z. B. Russland zwischen 2008 und 2012 Militärgüter im Wert von 925 Millionen Euro aus der EU, vornehmlich aus Frankreich, Deutschland und Italien, bezog. Die Herausgeber fordern „die Einstellung der aktuellen Großgeschäfte und ein umfassendes Waffenembargo der EU gegen Russland.“

Statt Flüchtlingsabwehr aktive Migrationspolitik
Aufgerüstet wird auch an den EU-Außengrenzen. Das kostete in den letzten 20 Jahren mindestens 17.000 Menschen das Leben. Das „Friedensgutachten 2014″ fordert, die in der Dublin-III-Verordnung verankerte Regelung abzuschaffen, wonach das EU-Land, das der Flüchtling als erstes betreten hat, für das Asylverfahren zuständig ist. Diese Verordnung überlastet die Staaten an der EU-Peripherie und ist durch solidarische Regelungen zu ersetzen. Mit der „Ertüchtigung“ von Grenzschutzkräften in Nachbarstaaten wie Libyen und Ägypten stiehlt sich die EU aus ihrer Verantwortung, denn Staaten, die selbst unter Gewaltkonflikten leiden, bieten Flüchtlingen keinen umfassenden Schutz. „Eine Friedensmacht braucht keine Flüchtlingsabwehr, sondern eine aktive und humane Migrationspolitik“, kritisiert das „Friedensgutachten“.

Antiterrorpolitik auf den Prüfstand
Nach dem Urteil des Europäischen Gerichtshofs zur Rechtswidrigkeit der EU-Richtlinie über die Vorratsdatenspeicherung muss die EU den Schutz der Grundrechte ihrer Bürgerinnen und Bürger auch auf europäischer Ebene fest verankern und garantieren. Die Friedensforscher unterstützen die Forderungen des Europäischen Parlaments, die Geheimdienste besser zu kontrollieren, Datenschutzabkommen zügig voranzubringen und die Safe-Harbour- und Swift-Abkommen mit den USA auszusetzen. Sie plädieren dafür, das geplante transatlantische Freihandelsabkommen an die Bedingung zu knüpfen, dass sich die USA bei der Aufklärung des NSA-Skandals kooperativ zeigen. „Für Edward Snowden, der sich große Verdienste bei der Verteidigung der Bürgerrechte erworben hat, fordern wir Asyl in Deutschland“, so das „Friedensgutachten 2014″.

Aktuelle Brennpunkte: Afghanistan und Syrien
Im Herbst dieses Jahres entscheidet sich, wie lange und wie viele westliche Truppen in Afghanistan verbleiben werden – Zeit für eine kritische Bilanzierung dieses für die Bundeswehr größten internationalen Militäreinsatzes, unterstreichen die Herausgeber. Allein ein auf Generationen angelegtes, ziviles Engagement kann Afghanistan vor einem Kollaps bewahren. Die Bundesregierung sollte in der EU dafür werben, dass auch andere ihr ziviles Engagement fortsetzen. Eine Chance bietet der Istanbul-Prozess, eine Dauerkonferenz regionaler Staaten zur Förderung von Kooperation und vertrauensbildenden Maßnahmen. Das „Friedensgutachten 2014″ fordert „die Bundesregierung und die EU auf, diese Initiative mit Mediatoren und Finanzmitteln zu unterstützen.“

Der Krieg gegen die syrische Bevölkerung geht mit unverminderter Brutalität weiter. Die Friedensforscher appellieren an die Bundesregierung und die EU, mehr humanitäre Hilfe zu leisten, und halten eine Luftbrücke, wie sie Rupert Neudeck vorgeschlagen hat, für eine der dramatischen Lage angemessene Maßnahme, um die humanitäre Katastrophe in unzugänglichen Gebieten und in Flüchtlingslagern zu mildern. Zudem appellieren sie „an die Bundesregierung, angesichts der humanitären Katastrophe mindestens 200.000 syrische Flüchtlinge in Deutschland aufzunehmen.“

Weitere Informationen:
http://www.friedensgutachten.de/index.php/id-2014.html

Quelle: idw

(nach oben)


Sauberer Strom aus Abwärme

Dr. Norbert Aschenbrenner Corporate Communications, Corporate Technology
Siemens AG

Siemens hat eine Technologie entwickelt, um aus bisher ungenutzter Abwärme Strom zu erzeugen. Die Lösung nutzt Silikonöle, die im Vergleich zu Wasser eine niedrigere Verdampfungsenthalpie haben. Hintergrund ist, dass die in Industrieanlagen oder Kraftwerken anfallende Abwärme oft nicht genug Energie besitzt, um eine Turbine mit Wasserdampf zu betreiben. Siemens stellte das sogenannte Organic Rankine Cycle Modul kürzlich vor. Hier treibt das Arbeitsmedium eine Turbine an, kühlt ab und geht wieder in seinen flüssigen Anfangszustand über. So lässt sich ohne zusätzlichen Einsatz von Energie oder Rohstoffen und ohne zusätzliche Kohlendioxidemissionen Strom erzeugen.

Konventionelle Kraftwerke verwandeln üblicherweise nur etwa 50 Prozent der eingesetzten Brennstoffenergie in Strom, die Abwärme wird meist über einen Kühlturm abgeführt. Auch in der Chemie-, Glas-, Papier- oder Stahlindustrie – um nur einige Beispiele zu nennen – fällt eine Menge Abwärme an. Oft wird sie genutzt, um andere Substanzen vorzuwärmen. Ist das nicht möglich und ist die Abwärme-Temperatur für den Betrieb einer konventionellen Dampfturbine zu niedig, „verpufft“ die wertvolle Energie.

Siemens-Ingenieure verwandeln diese Energie nun mit Hilfe von Silikonölen in Strom. Diese Öle haben eine wesentlich niedrigere Verdampfungsenthalpie als Wasser und können schon mit etwa 300 Grad heißer Abwärme genutzt werden.

Das Organic Rankine Cycle (ORC) Modul leitet sich vom so genannte Rankine Cycle, einem geschlossenen Kreislauf für mit Wasserdampf betriebene Kraftmaschinen ab, nur dass hier organische Silikonöle als Arbeitsmedium dienen. Das Öl nimmt über einen Wärmetauscher die Abwärmeenergie auf. Es verdampft, treibt eine Turbine an, wird in einem Kondensator wieder vollständig verflüssigt und zum Verdampfer zurückgepumpt. Die beim Abkühlen freiwerdende Wärme wird ebenfalls für das Vorwärmen des Öls zurückgewonnen.

Das ORC-Modul hat eine Leistung von bis zu zwei Megawatt -mittelfristig sollen Varianten mit höhernen Leistungen dazukommen. Herzstück des Moduls ist die bewährte Dampfturbine SST-060, die bereits über 850 Mal erfolgreich installiert wurde. Das verwendete Silikonöl ist chlorfrei und nicht toxisch.

Insgesamt sind die Investitionskosten sowie der Wartungsaufwand für ein ORC-Modul vergleichsweise gering. Sein Betrieb ist gegenüber konventionellen, mit Wasserdampf betriebenen Turbinen einfacher, unter anderem wegen den geringeren Temperaturen und Drücke. Das ORC-Modul hat einen Automatik-Modus und benötigt kein zusätzliches Personal. Damit bietet es eine sehr wirtschaftliche Möglichkeit, Energie-Rohstoffe effizienter zu nutzen.

Pressebilder: http://www.siemens.com/press/de/pressebilder/index.php?view=list&content=&am…

Weitere Informationen:

http://www.siemens.de/innovationnews

Quelle: idw

(nach oben)


EU-Projekt PROMISE zu Phosphorrecycling startet

Dipl.-Biol. Stefanie Hahn Pressestelle
Julius Kühn-Institut

Julius Kühn-Institut koordiniert Arbeitspaket zur Herstellung von Recyclingdüngern aus urbanen und landwirtschaftlichen Reststoffen

Wissenschaftlerinnen des Julius Kühn-Institutes (JKI) in Braunschweig leiten in den nächsten drei Jahren ein Arbeitspaket des BONUS-Projektes „PROMISE“, in dem deutsche, finnische und schwedische Forscher auf dem Gebiet des Phosphorrecyclings zusammen arbeiten. Die Fördermittel des kürzlich gestarteten Projektes in Höhe von 486.000 Euro werden zu gleichen Teilen vom Bundesforschungsministerium (BMBF) über den Projektträger Jülich und durch das 7. Forschungsrahmenprogramm (RP7) der EU-Kommission getragen http://www.bonusportal.org/about_bonus

In dem vom JKI koordinierten Arbeitspaket geht es um die Herstellung nachhaltiger Recyclingdünger aus urbanen und landwirtschaftlichen Reststoffen. Dabei sollen so genannte sekundäre Rohstoffquellen wie Gärreste, Klärschlämme und Wirtschaftsdünger auf mögliche Kontaminationen mit ausgewählten Antibiotika, pathogenen Mikroorganismen und Schwermetallen untersucht werden. Zudem wird ermittelt, welchen Einfluss verschiedene Verarbeitungsprozesse auf die Kontaminanten haben.

Information zum Promise-Projekt:
In dem Projekt sollen flächenspezifische, nachhaltige Dünge-Strategien für den Ostseeraum entwickelt werden, mit dem Ziel, den Eintrag schädlicher Stoffe mit der Düngung zu reduzieren. Hierbei werden verschiedene Aspekte berücksichtigt, die die nachhaltige und effiziente Herstellung von Phosphatdüngern durch Phosphorrecycling voraussetzen. Darüber hinaus soll die Entwicklung innovativer Technologien im Bereich des Phosphorrecyclings gefördert werden. Dazu ist die vergleichende Beurteilung bereits bestehender Konzepte zur P-Rückgewinnung aus verschiedenen Stoffströmen nötig. Das Auftakttreffen hat Ende April 2014 im finnischen Jokioinen stattgefunden.http://www.bonusportal.org/bonus_projects/innovation_projects/promise

Ihre Ansprechpartnerinnen:
Dr. Elke Bloem
Telefon: +49 531 596 2200
E-Mail: elke.bloem@jki.bund.de

Dr. Judith Schick
Telefon: +49 531 596 2108
E-Mail: judith.schick@jki.bund.de

Weitere Informationen:
http://www.bonusportal.org/bonus_projects/innovation_projects/promise – PROMISE-Projekt
http://www.bonusportal.org – zu BONUS

Quelle: idw

(nach oben)


Instrumente für die Planung von Bioenergieprojekten in Kommunen

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Im Rahmen der Energiewende wird verbreitet über die Themen Strom und Wärme sowie deren Herkunft diskutiert. Um die Umsetzung von Bioenergieprojekten auf kommunaler Ebene zu vereinfachen, bedarf es innovativer Planungsinstrumente. Denn nur wenn die Planung auf allen Ebenen reibungslos funktioniert, kann die Energiewende ganzheitlich erfolgreich durchgeführt werden. Mit der nachhaltigen Integration von Bioenergiesystemen beschäftigt sich das Projekt »KomInteg«, an dem Fraunhofer UMSICHT beteiligt ist. Am 4. Juli 2014 findet hierzu in Frankfurt am Main der dritte Projektworkshop unter dem Thema »Kommunale Planungsinstrumente für Bioenergieprojekte« statt.

Im Rahmen von KomInteg wird insbesondere die oftmals nicht hinreichende Ausschöpfung bekannter Nutzungspotenziale von Stoff- und Energieströmen untersucht. Immer im Fokus: die nationalen Klimaschutzziele, zu denen unter anderem die verstärkte Reststoffnutzung und effiziente Nutzung der vorhandenen Biomasse z. B. durch Kraft-Wärme-Kopplung (KWK) zählen. Wie lassen sich diese Ziele auf die kommunale Planungsebene übertragen, und welche Handlungsmöglichkeiten sind kommunal bereits vertreten beziehungsweise sollten es sein? KomInteg soll Kommunen Handlungsempfehlungen für neue Bioenergieprojekte geben, die zur Installation neuer Biomassenutzungssysteme wie beispielsweise Wärmenetze beitragen und gleichzeitig die nationalen Klimaschutzziele adressieren. Die Endergebnisse des Projekts werden am 10. Oktober 2014 im Rahmen des 14. BBE Fachkongress für Holzenergie in Augsburg präsentiert.

Individuelle Bewertung: Welche Technologien eignen sich?
Fraunhofer UMSICHT hat eine Technologiedatenbank entwickelt, die die verschiedenen technischen Ansätze zur Wärme- und Stromerzeugung erfasst. Ziel ist, Wechselwirkungen zwischen den einzelnen eingesetzten Technologien und deren Umfeld aufzuzeigen. Zu den Wechselwirkungen zählen etwa die Transportlogistik samt deren Umweltauswirkungen in der Erntezeit oder ökologische Probleme durch Monokulturen.

Bestehende und zukünftig vorhandene Technologien werden zusammengetragen und nach Anwendungskriterien wie z. B. technischer und wirtschaftlicher Marktverfügbarkeit bewertet. Somit können die für Kommunen relevanten Technologien für eine nachhaltige Energieversorgung identifiziert werden.

Das Team von Fraunhofer UMSICHT baut die Technologiedatenbank aktuell weiter aus: Es ist eine Anwendung vorgesehen, bei der die Technologieempfehlung auf Grundlage von individuell eingegebenen Daten genau auf die jeweilige Kommune zugeschnitten ist. Als Grundlage dienen unter anderem vorhandene Mengen an Biomasse wie Mais oder Holz, Einwohnerzahl, Ackerfläche und Viehbestand. Diese Grundlagen werden durch den Projektpartner IZES gGmbH Institut für ZukunftsEnergieSysteme erarbeitet. So können zum einen Empfehlungen zu spezifischen geeigneten Bioenergiesystemen geliefert werden, zum anderen weiterführende Informationen zu Wechselwirkungen, aber auch rechtlichen Rahmenbedingungen.

Workshop: »Kommunale Planungsinstrumente für Bioenergieprojekte«
Das KomInteg-Team, bestehend aus dem IZES, dem Wuppertal Institut für Klima, Umwelt, Energie und Fraunhofer UMSICHT, hat seit Projektbeginn Oktober 2012 bereits zwei Expertenworkshops zu den Themen »Biomasse im Wärmemarkt der Zukunft« und »Rechtliche Rahmenbedingungen Bioenergienutzung« durchgeführt. Am 4. Juli 2014 werden in Frankfurt am Main im Rahmen eines dritten Expertenworkshops Planungsinstrumente zur Umsetzung von Bioenergieprojekten zur Energiegewinnung diskutiert, die insbesondere auf kommunaler Ebene eingesetzt werden können. Zunächst soll eine gemeinsame Wissensbasis rund um Planungsinstrumente- und Möglichkeiten gebildet werden, um dann die vielfältigen informellen und formellen Möglichkeiten mit verschiedenen Vertretern entlang der Wertschöpfungskette der Bioenergie zu besprechen. Der Workshop richtet sich an kommunale Vertreter, Beratungsstellen, Projektplaner und Dienstleister aus dem Bereich Bioenergie.

»KomInteg – Nachhaltige Integration von Bioenergiesystemen im Kontext einer kommunalen Entscheidungsfindung« wird gefördert vom Bundesministerium für Wirtschaft und Energie (BMWi).

Weitere Informationen:

http://www.umsicht.fraunhofer.de/de/presse-medien/2014/140603-kominteg/_jcr_cont…

Quelle: idw

(nach oben)


Wissenschaftler veröffentlichen Prognose des WM-Turniers auf Basis der Marktwerte der Spieler

Carsten Wette Stabsstelle für Presse und Kommunikation
Freie Universität Berlin

Im Finale der Fußball-Weltmeisterschaft am 13. Juli treffen einer Prognose von Wissenschaftlern der Freien Universität Berlin, der Universität Göttingen und des Deutschen Instituts für Wirtschaftsforschung zufolge mit großer Wahrscheinlichkeit die Mannschaften Spaniens und Deutschlands aufeinander. Der Soziologe Prof. Dr. Jürgen Gerhards von der Freien Universität, der Sportwissenschaftler Prof. Dr. Michael Mutz von der Universität Göttingen und der Wirtschaftswissenschaftler Prof. Dr. Gert G. Wagner von der TU und dem DIW summierten für jede Mannschaft den Marktwert der Einzelspieler und legten diese Werte allen Gruppen- und Entscheidungsspielen zugrunde.

Spanien mit 631 Millionen Euro Marktwert und Deutschland mit 562 Millionen haben das größte Potenzial, das Endspiel zu erreichen. Nach der Marktwert-Prognose ist die Chance für das DFB-Team, den Titel zu gewinnen, so groß wie schon lange nicht mehr.

In der Gruppe A setzen sich demnach Gastgeber Brasilien (468 Mio.. Euro) und Kroatien (193 Mio. Euro) durch, in der Gruppe B neben Spanien die Niederlande (208 Mio. Euro). Die Gruppe C entsendet Kolumbien (190 Mio. Euro) und die Elfenbeinküste (122 Mio. Euro) ins Achtelfinale. In der Gruppe D ziehen der Prognose zufolge England (334 Mio. Euro) und Italien (323 Mio. Euro) ein. Die Gruppe E dominieren Frankreich (412 Mio. Euro) und die Schweiz (178 Mio. Euro), in Gruppe F haben Argentinien (392 Mio. Euro) und Bosnien-Herzegowina (114 Mio. Euro) die Nase vorn. In der Gruppe G zieht der Einschätzung zufolge neben Deutschland Portugal (297 Mio. Euro) in die nächste Runde ein. Aus Gruppe H bestreiten Belgien (349 Mio. Euro) und Russland (184 Mio. Euro) das Achtelfinale. Jeweils ins Viertel-, Halb- und Finale kommen die Teams, deren Marktwert höher ist als der des Gegners.

Nach der Gruppenphase, in der die Marktwert-Unterschiede der Teams sehr groß sind, steht den Fans ein stärker ausgeglichenes und damit spannungsreicheres Turnier bevor – ähnlich wie im Jahr 2006. Zwar ist Spanien mit einem Mannschaftswert von 631 Mio. Euro immer noch das Team, das den höchsten Marktwert auf die Waage bringt, Brasilien (468 Mio.), Frankreich (412 Mio.), Argentinien (392 Mio.) und vor allem Deutschland (562 Mio.) haben aber im Vergleich zur letzten Weltmeisterschaft deutlich aufgeschlossen. Diese fünf Mannschaften sind die Favoriten des Turniers.

Nach der Marktwert-Methode erreicht allerdings Frankreich nicht das Halbfinale. Würde sich ab dem Achtelfinale in jeder Begegnung immer die Mannschaft mit dem höheren Marktwert durchsetzen, stünden sich im Halbfinale einerseits Brasilien und Deutschland, andererseits Spanien und Argentinien gegenüber.

Mithilfe der Marktwerte konnten die Wissenschaftler bereits vier Mal den Titelgewinner bedeutender Fußballturniere korrekt vorhersagen. Das Prinzip der Methode ist einfach. Seit dem Wegfall restriktiver „Ausländerklauseln“ ist ein globaler Spielermarkt entstanden, und Fußballspieler sind zu einer weltweit gehandelten „Ware“ geworden. Die Spieler stehen heutzutage mehr denn je unter Dauerbeobachtung von Spielervermittlern, Sportmanagern, Trainern und zahlreichen echten und selbsternannten Experten, die das Leistungsvermögen der Spieler kontinuierlich bewerten. Diese Leistungseinschätzungen finden ihren Ausdruck im Transferwert des Spielers auf dem Spielermarkt: Der Preis des Spielers spiegelt seine Leistungen wider.

„Ebenso wie der Marktwert ein Spiegelbild für die sportliche Leistungsfähigkeit eines einzelnen Fußballers ist, lässt sich auch die Leistungsstärke einer gesamten Mannschaft an ihrem Marktwert ablesen“, erklärte Prof. Dr. Gert G. Wagner. Der Marktwert der Mannschaft ergibt sich dabei aus der Summe der Marktwerte aller Einzelspieler. „Dieser äußerst einfache Indikator, gegen den jeder Fußballfan zig Einwände im Detail vorbringen kann, hat eine verblüffend große prognostische Kraft: Die Mannschaft mit dem teuersten Spielerkader ist auch die spielstärkste Mannschaft im Turnier und wird deshalb mit der höchsten Wahrscheinlichkeit das Turnier gewinnen“, sagte Prof. Dr. Jürgen Gerhards. Seit der Weltmeisterschaft 2006 konnte mit dieser Methode der Ausgang aller großen Fußball-Turniere gut vorhergesagt werden. „Auch für den europäischen Vereinsfußball konnten wir zeigen, dass der Ausgang der Meisterschaft in den Fußballligen sehr gut über den Marktwert der Teams vorhersagbar ist“, konstatierte Prof. Dr. Michael Mutz. Schließlich habe sich die Marktwert-Methode auch bei der Qualifikation zur Weltmeisterschaft 2014 sehr gut bewährt.

Weitere Informationen
Prof. Dr. Jürgen Gerhards, Freie Universität Berlin, Telefon: 030 / 838-57653, E-Mail: j.gerhards@fu-berlin.de

Prof. Dr. Michael Mutz, Universität Göttingen, Telefon: 0551 / 395682, E-Mail: michael.mutz@sport.uni-goettingen.de

Gert G. Wagner, Deutsches Institut für Wirtschaftsforschung (DIW Berlin), Telefon: 030 / 89789249, E-Mail: gwagner@diw.de

Weitere Informationen:
Studie in der Zeitschrift für Soziologie
http://www.zfs-online.org/index.php/zfs/article/view/3170/2707
Die Graphik zum Download
http://www.fu-berlin.de/presse/informationen/fup/2014/fup_14_211-wm-prognose-ger…

Quelle: idw

(nach oben)


Fließendes Wasser energetisiert Mineralien

Stephan Imhof Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Polymerforschung

Die elektrische Ladung mineralischer Oberflächen verändert sich in fließendem Wasser – die Erkenntnis ist auch für das Verständnis geologischer Prozesse relevant.
Ein Team des Mainzer Max-Planck-Instituts für Polymerforschung und der belgischen Universität Namur hat jetzt mit einem ausgeklügelten spektroskopischen Verfahren herausgefunden, dass sich die elektrische Ladung von mineralischen Oberflächen unter einer Wasserströmung entscheidend verändert, weil sich dabei manche Ionen bevorzugt aus dem Material lösen.

Mainz/Namur. In der Chemie kommt es oft auf die Oberfläche an – zumindest immer dann, wenn es um Reaktionen an festen Materialien geht. Dass sich die Ladung mineralischer Oberflächen in fließendem Wasser verändert, ist ein bisher unbekannter Faktor, der die Eigenschaften von Oberflächen und somit ihr chemisches Verhalten beeinflusst – und zwar geradezu allgegenwärtig: Wenn Regentropfen eine Fensterscheibe herunter rinnen, wenn Bäche und Flüsse ihr Bett auswaschen, wenn Fels erodiert oder wenn gelöste Reaktionspartner an einem festen Katalysator zusammenkommen.

Noch lässt sich die Bedeutung der neuen Erkenntnisse zwar nicht genau abschätzen. Möglicherweise aber ist sie gewaltig: So besteht der größte Teil der Landoberfläche aus Mineralien, deren Oberflächen beständig oder zumindest immer wieder von fließendem Wasser, seien es Flüsse, Bäche oder Niederschläge überspült werden. Da sich die Reaktivität von Mineralien in fließendem Wasser mit der Ladung ihrer Oberfläche ändert und sie sich zudem – je nach Oberfläche – schneller oder langsamer auflösen, könnten die Befunde des Teams um die Max-Planck-Forscher für die Bodenerosion und die Gesteinsverwitterung relevant sein. Die Verwitterung von Gestein spielt wiederum eine Rolle in der langfristigen Entwicklung des Kohlendioxidgehalts in der Atmosphäre, weil dabei Kohlendioxid gebunden wird.

Die Oberflächenladung könnte bei Erosion und Verwitterung relevant sein
„Aufgrund unserer Erkenntnisse zu elementaren Lösungsvorgängen von Mineralien wird es nötig, etablierte geologische Theorien zu überprüfen und zu erforschen, welche Auswirkung die Änderung der Oberflächenladung auf Prozesse wie etwa Erosion und Verwitterung hat“, erklärt Mischa Bonn, Direktor am Max-Planck-Institut für Polymerforschung. Denn viele Modelle der Gesteinsverwitterung beruhen oft auf experimentellen Untersuchungen in nicht bewegtem Wasser.

Mischa Bonn und sein Team ließen unterschiedlich saures und basisches Wasser zum einen über Kalziumdifluorid strömen. Dabei lösen sich bevorzugt negativ geladene Fluoridionen von der Oberfläche, während die positiven Kalziumionen dort verbleiben. Welche Ladung die Oberfläche dabei annimmt, hängt davon ab, ob diese in unbewegtem Wasser eine positive oder negative Ladung trägt und wie hoch diese ist. Denn wie Wissenschaftler bereits lange wissen, lädt sich eine mineralische Oberfläche auch auf, wenn sie von unbewegtem Wasser benetzt wird, weil sich dabei manche Ionen besser lösen als andere. Die Ladung hängt davon ab, ob das Wasser sauer oder basisch ist. Wenn die Forscher ihr Experiment mit Kalziumdifluorid in leicht basischem Wasser begannen, in dem die Oberfläche nur leicht negativ geladen ist, konnten sie die Oberfläche durch den Wasserstrom umpolen.

Zum anderen untersuchte das Forscherteam Siliziumdioxid, den Hauptbestandteil von Quarzglas, unter fließendem Wasser. In neutralem und basischem Wasser ist dessen Oberfläche negativ geladen. Bewegt sich das Wasser jedoch, verringert sich die negative Ladung, weil sich negativ geladene Ionen der Kieselsäure lösen. In neutralem Wasser entlädt sich die Oberfläche dabei besonders stark. Strömt saures Wasser über das Mineral, lösen sich ebenfalls Kieselsäure-Moleküle, allerdings ungeladene. So verändert sich die Ladung der Oberfläche nicht.

Geordnete Wassermoleküle als Indikatoren für die Oberflächenladung
Möglich wurde die Studie erst, weil Mischa Bonn und sein Team über ein probates Mittel verfügen, um die Ladung der Oberfläche unter Wasser zu untersuchen: Die Summenfrequenz-Spektroskopie. Dabei strahlen die Forscher zwei Laserpulse unterschiedlicher Farbe auf die Grenzfläche zwischen Wasser und Mineral. Die überlagerten Laserstrahlen wechselwirken mit den Wassermolekülen an der Oberfläche besonders stark, wenn sich diese dort akkurat anordnen und nicht so wild durcheinander wirbeln wie im flüssigen Wasser üblich. Genau das ist bei geladenen Oberflächen der Fall. Denn Wassermoleküle besitzen ein negatives und ein positives Ende und richten sich nach dem Prinzip von Anziehung und Abstoßung immer an der benachbarten Ladung aus. Treffen die überlagerten Laserpulse an der Oberfläche auf die geordneten Moleküle, erzeugen sie ein charakteristisches Signal. Das ist umso stärker, je mehr Moleküle an der Oberfläche zur Ordnung gerufen werden und mithin, wie stark geladen die Oberfläche ist.

„Unsere Methode gibt dabei auch Aufschluss über die Ordnung, die durch die elektrische Ladung verursacht wird“, sagt Mischa Bonn. „Daher können wir die Ladung direkt ‚vor Ort‘ bestimmen und gut interpretieren, was an der Oberfläche geschieht. Genau daran haperte es bei anderen Experimenten, bei denen die Ladung eben nicht direkt an der Mineraloberfläche gemessen werden kann“.

Jetzt aber hat er mit seinem Team die elektrische Spur entdeckt, die fließendes Wasser fast überall auf der Welt hinterlässt. Und weil sich mit der Oberfläche eines Minerals auch das fließende Wasser auflädt, handelt es sich bei jedem Fluss um einen Strom im doppelten Wortsinn.

Max-Planck-Institut für Polymerforschung
Das 1984 gegründete Max-Planck-Institut für Polymerforschung (MPI-P) zählt zu den international führenden Forschungszentren auf dem Gebiet der Polymerwissenschaft. Durch die Fokussierung auf so genannte weiche Materie und makromolekulare Materialien ist das Max-Planck-Institut für Polymerforschung mit seiner Forschungsausrichtung weltweit einzigartig. Mitarbeiterinnen und Mitarbeiter aus dem In- und Ausland arbeiten im Rahmen der Grundlagenforschung an der Herstellung und Charakterisierung von Polymeren und der Untersuchung ihrer physikalischen und chemischen Eigenschaften. Anfang 2014 sind insgesamt 518 Personen am MPI-P beschäftigt: Die Belegschaft setzte sich aus 121 Wissenschaftlern, 147 Doktoranden und Diplomanden, 76 Stipendiaten und 174 technischen und Verwaltungsangestellten sowie Hilfskräften zusammen.

Weitere Informationen:
http://www.mpip-mainz.mpg.de/news/energetisierte_minerale – die vollständige Pressemeldung und zusätzlichen Informationen
http://sciencemag.org/content/344/6188/1138.full#F1 – die Fachpublikation bei Science

Quelle: idw

(nach oben)


Mit beiden Augen liest man besser

Dr. Dietmar Gude Transfer- und Pressereferat
Leibniz-Institut für Arbeitsforschung an der TU Dortmund

Leibniz-Institut für Arbeitsforschung findet Zusammenhang zwischen beidäugigem Sehen und effizienter Textverarbeitung

>> Claudia hat eigentlich einen recht angenehmen Bürojob, bei dem sie überwiegend mit der Bearbeitung von Texten am Bildschirm beschäftigt ist. Trotzdem ist sie mental sehr erschöpft, wenn sie von der Arbeit nach Hause kommt. Ihr Arbeitsplatz wurde bereits von Fachleuten unter ergonomischen Gesichtspunkten optimiert, aber ohne durchschlagenden Erfolg. Am Leibniz-Institut für Arbeitsforschung wurden nun mit Methoden aus der Grundlagenforschung die Augenbewegungen beim Lesen eingehend untersucht. Dabei wurde festgestellt, dass das reibungslose Zusammenspiel der beiden Augen von zentraler Bedeutung ist, sowohl bei den elementaren Prozessen der Wahrnehmung also auch bei den darauf aufbauenden Prozessen der effizienten Textverarbeitung. <<

Der Computer ist heutzutage für viele Beschäftigte das wichtigste Arbeitsmittel. Und für diese Beschäftigten ist dann das Lesen die hauptsächliche Arbeitsaufgabe. Umso erstaunlicher ist es, dass diese Tätigkeit in der arbeitswissenschaftlichen Forschung bislang vergleichsweise wenig Beachtung findet. Zumeist beschränkt man sich auf das Naheliegende, insbesondere die Optimierung der Wahrnehmungsbedingungen durch Faktoren wie Schriftgröße oder Beleuchtung. Dabei geht man davon aus, dass die Prozesse beim Lesen quasi automatisch ablaufen und sich deshalb eine eingehendere Analyse erübrigt.

Am Leibniz-Institut für Arbeitsforschung (IfADo) hat – im Unterschied zu einem solchen pragmatisch-anwendungsorientierten Ansatz – die Grundlagenforschung einen besonderen Stellenwert. Dem liegt die Annahme zugrunde, dass substantielle Fortschritte häufig nur durch die Adaptation von innovativen Untersuchungsmethoden aus diesem Bereich erzielt werden können. Vor diesem Hintergrund begann die Forschungsgruppe „Individuelle Sehleistungen“ am IfADo, sich eingehender mit dem Lesen am Bildschirm zu beschäftigen. Stephanie Jainta baute eine Kooperation mit den Leseforscher/innen an der britischen Universität Southampton auf, die über eine spezielle technische Ausstattung verfügen. Damit können sie in ihrem Labor mit besonderer Präzision die Augenbewegungen aufzeichnen, die die Probanden während des Lesens ausführen. Im Rahmen der Kooperation wurde anhand dieser Augenbewegungen untersucht, welche Vorteile das beidäugige Lesen im Vergleich zum Lesen mit einem Auge hat. Die Ergebnisse dieses Experiments wurden nun in der weltweit sehr beachteten Zeitschrift Current Biology publiziert.

Bislang ging man davon aus, dass ein Vorteil des beidäugigen Lesens lediglich bei der Wahrnehmung als einer frühen Phase der menschlichen Informationsverarbeitung besteht, da ein und dasselbe Signal zweifach aufgenommen wird. Jainta und ihre britischen Kolleg/innen konnten jedoch zeigen, dass sich dieser Vorteil auf späteren Ebenen der Informationsverarbeitung fortsetzt, die für das Textverständnis wichtig sind. Denn der Vorteil zeigte sich insbesondere bei häufig vorkommenden Wörtern. Im Vergleich dazu wurden seltene Wörter grundsätzlich langsamer verarbeitet, so dass die verschiedenen Sehbedingungen keinen Einfluss auf die Lesegeschwindigkeit hatten.

Diese Ergebnisse verdeutlichen, dass ein eingehenderes Verständnis der menschlichen Informationsverarbeitung häufig nur durch den Einsatz von neuen und aufwändigen Untersuchungsmethoden aus der Grundlagenforschung erzielt werden kann. Die Verknüpfung mit Fragestellungen aus der Anwendung ist deshalb ein charakteristisches Merkmal der Arbeit am IfADo.

Ansprechpartnerin:
Dr. Stephanie Jainta
Telefon: +49 231 1084-272
E-Mail: jainta@ifado.de

Das IfADo – Leibniz-Institut für Arbeitsforschung an der TU Dortmund erforscht die Potenziale und Risiken moderner Arbeit auf lebens- und verhaltenswissenschaftlicher Grundlage. Aus den Ergebnissen werden Prinzipien der leistungs- und gesundheitsförderlichen Gestaltung der Arbeitswelt abgeleitet. Das IfADo hat mehr als 230 Mitarbeiter/innen aus naturwissenschaftlichen und technischen Disziplinen. Das Institut ist Mitglied der Leibniz-Gemeinschaft. Diese Wissenschaftsorganisation umfasst 89 Einrichtungen, die rund 17.200 Menschen beschäftigen, bei einem Jahresetat von 1,5 Milliarden Euro.

Quelle: idw

(nach oben)


Medikamenten-Entsorgung: Verbraucherwissen mangelhaft

Dr. Nicola Schuldt-Baumgart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Arzneimittelrückstände im Wasser sind ein weltweites Umweltproblem. Auch in Deutschland werden mehr als 150 verschiedene Wirkstoffe in nahezu allen Gewässern nachgewiesen, bis hin zum Grund- und Trinkwasser. Die Spurenstoffe aus Schmerzmitteln, Antibiotika, blutdrucksenkenden Mitteln oder Psychopharmaka stammen meist aus häuslichen Abwässern – doch viele Verbraucher wissen gar nicht, dass sie die Verursacher sind. Eine repräsentative Befragung des ISOE – Institut für sozial-ökologische Forschung hat große Wissenslücken im Umgang mit Arzneimitteln ausgemacht.

Es ist ein unerwünschter Nebeneffekt beim Gebrauch von Medikamenten: Der Wirkstoff wird nicht vollständig vom Körper abgebaut und über den Urin direkt oder als Abbauprodukt wieder ausgeschieden. Über das Abwasser fließen die Arzneimittelwirkstoffe in die Kläranlagen, wo die Vielzahl an chemischen Verbindungen nicht vollständig entfernt werden kann. Mit dem Ablauf aus den Kläranlagen in die Flüsse und Seen finden die Rückstände so wieder zurück in die Umwelt und den Wasserkreislauf. „Knapp der Hälfte der 2000 vom ISOE befragten Deutschen ist überhaupt nicht bekannt, dass allein schon durch die Einnahme von Medikamenten Spurenstoffe in den Wasserkreislauf gelangen“, sagt ISOE-Forscher Konrad Götz. „Erstaunt haben uns bei der Befragung aber vor allem die großen Wissenslücken bei der richtigen Entsorgung von flüssigen Medikamentenresten.“

Wissenslücke Arzneimittelrückstände – Risiken für die Umwelt
47 Prozent der Deutschen entsorgen flüssige Medikamentenreste falsch, nämlich über die Spüle oder die Toilette. „Damit hat sich die Wissenslücke bestätigt, die wir bei einer ähnlichen Befragung 2007 festgestellt haben“, sagt Konrad Götz. Laut einer Medienanalyse des ISOE werde der richtige Umgang mit Spurenstoffen zwar häufig thematisiert, beim Verbraucher komme das aber seit Jahren nicht richtig an. „Nur 15 Prozent der VerbraucherInnen entsorgen ihre Medikamente richtig, das heißt – entsprechend der von der Bundesregierung empfohlenen Praxis – über den Restmüll“, sagt Konrad Götz. Der Restmüll wird heute nicht mehr auf Deponien gelagert, sondern verbrannt. Dadurch ist die vollständige Zerstörung der Wirkstoffe gewährleistet. „Die Entsorgung über den Hausmüll ist deshalb derzeit zwar der umweltfreundlichste Weg – weil viele Verbraucher das nicht wissen, ist es aber genaugenommen nur der zweitbeste“, folgert Götz. „Am verbraucherfreundlichsten wäre es, zur alten Praxis zurückzukehren.“ Bis 2009 konnten Medikamente in den Apotheken zurückgegeben werden, wo sie professionell entsorgt wurden.

Patienten wünschen sich umweltfreundliche Alternativen
Denn wenn die Wirkstoffe in den Wasserkreislauf gelangen, können sie Tier- und Pflanzenwelt gefährlich werden: Hormonreste der „Pille“ haben nachweislich zur Verweiblichung männlicher Fische beigetragen. Auch sind Nierenschäden bei Fischen durch das schmerzstillende Mittel Diclofenac beobachtet worden sowie Verhaltensänderungen durch Psychopharmaka. „Um mögliche Gefahren für die Umwelt zu verhindern, muss endlich eine wirksame Informationskampagne zur Entsorgung durchgeführt werden“, ist sich ISOE-Forscher Götz sicher. Wichtig sei aber auch, dass sich Ärzte über die Problematik von Medikamentenresten im Wasser und über umweltfreundliche Medikamentenalternativen informieren. Vonseiten der Patienten sei die Bereitschaft da: Fast 90 Prozent der Befragten wünschen sich von ihrem Arzt – bei gleicher Wirksamkeit – umweltfreundliche Alternativangebote.

Die Repräsentativbefragung zur Medikamenten-Entsorgung wurde im Projekt „TransRisk – Charakterisierung, Kommunikation und Minimierung von Risiken durch neue Schadstoffe und Krankheitserreger im Wasserkreislauf“ durchgeführt. TransRisk wird vom Bundesministerium für Bildung und Forschung (BMBF) innerhalb des BMBF-Schwerpunktes „Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf“ (RiSKWa) gefördert. Die Projektleitung liegt bei Prof. Thomas Ternes, Bundesanstalt für Gewässerkunde, Koblenz.

ISOE – Institut für sozial-ökologische Forschung, Frankfurt am Main
Das ISOE gehört zu den führenden unabhängigen Instituten der Nachhaltigkeitsforschung. Seit 25 Jahren entwickelt das Institut wissenschaftliche Grundlagen und zukunftsfähige Konzepte für Politik, Zivilgesellschaft und Wirtschaft – regional, national und international. Zu den Forschungsthemen gehören Wasser, Energie, Klimaschutz, Mobilität, Urbane Räume, Biodiversität sowie Bevölkerungsentwicklung und Versorgung.

Ansprechpartner:
Dr. Konrad Götz
ISOE – Institut für sozial-ökologische Forschung
Tel. +49 69 707 69 19-21
goetz@isoe.de

Melanie Neugart (Pressekontakt)
Tel. +49 69 707 69 19-51
neugart@isoe.de

Neues vom ISOE unter https://twitter.com/isoewikom
ISOE-Newsletter: http://www.isoe.de/presse-aktuelles/newsletter/

Weitere Informationen:
http://www.isoe.de/projekte/aktuelle-projekte/wasserinfrastruktur-und-risikoanalysen/transrisk/

Anhang

Medikamenten-Entsorgung: Verbraucherwissen mangelhaft
http://idw-online.de/de/attachment36270

Quelle: idw

(nach oben)


Überraschend unpopulär – Fallstudie zur Akzeptanz einer einmaligen Besteuerung hoher Vermögen

Christian Wißler Mediendienst Forschung
Universität Bayreuth

Angesichts hoher Staatsschulden in den westlichen Industrieländern mehren sich die Stimmen, die einmalige Steuern auf hohe Vermögen fordern. Dadurch könnten der Schuldenabbau beschleunigt und neue öffentliche Investitionen ermöglicht werden. Aber ist eine solche Maßnahme volkswirtschaftlich zweckmäßig? Stößt sie auf gesellschaftliche Akzeptanz? Mit diesen Fragen befassen sich die Bayreuther Ökonomen Prof. Dr. David Stadelmann und Dr. Simon Loretz in einer kürzlich veröffentlichten Fallstudie. Sie greifen darin auf ein historisch weit zurückliegendes, aber spektakuläres Beispiel zurück, das – wie sie in ihrer Untersuchung zeigen – in heutigen politischen Diskussionen Beachtung verdient.

Klare Ablehnung einer einmaligen Vermögensabgabe in der Schweiz
Am 3. Dezember 1922 fand in der Schweiz, die sich nach dem Ersten Weltkrieg in einer wirtschaftlichen Krise befand, eine Volksabstimmung über eine einmalige Besteuerung hoher Vermögen statt. Es ging um die Frage, ob Vermögen ab einer Höhe von 80.000 Franken – was einem heutigen Wert von rund 1,7 Millionen Euro entspricht – progressiv besteuert werden sollten. Vorgesehen war eine einmalige Mindestabgabe von 6 Prozent, Vermögen von über 32,7 Millionen Franken sollten einmalig mit 60 Prozent besteuert werden. Die Maßnahme sollte helfen, den Staatshaushalt zu konsolidieren, und hätte insgesamt nur etwa 0,6 Prozent der Schweizer Bevölkerung betroffen. Umso überraschender war das Ergebnis der Volksabstimmung: Der Vorschlag wurde mit 87 Prozent Nein-Stimmen abgelehnt. Dabei war die Wahlbeteiligung mit 86,3 Prozent die höchste, die jemals in der Schweiz beobachtet wurde. „Uns ist historisch und aus verschiedenen Ländern kein anderer Fall bekannt, in dem eine einmalige Vermögensabgabe auf eine so klare gesellschaftliche Ablehnung stieß“, erklärt Prof. Stadelmann, Professor für Entwicklungsökonomik an der Universität Bayreuth.

Das Abstimmungsverhalten in der Schweiz war durchaus unterschiedlich: In städtischen Milieus und in Kantonen mit einer starken gewerblichen Wirtschaft gab es überdurchschnittlich viele Ja-Stimmen, was die Autoren mit dem höheren Arbeiteranteil in diesen Regionen erklären. In katholisch geprägten Kantonen mit zahlreichen landwirtschaftlichen Grundbesitzern war die Ablehnung besonders stark. In allen Kantonen aber lag die Zustimmung weit unter 50 Prozent. „Volksabstimmungen sind in einem demokratischen Rechtsstaat wie der Schweiz ein Test für gesellschaftliche Akzeptanz. Es kommt auch heute nicht selten vor, dass politische Forderungen auf diesem Weg den Anschein der Popularität verlieren“, meint Prof. Stadelmann und erinnert daran, dass erst vor kurzem ein Volksbegehren zur Einführung eines hohen Mindestlohns in der Schweiz gescheitert ist.

Ökonomische und sozialpolitische Sachargumente
Was waren 1922 die Gründe für die breite Ablehnung der Vermögensabgabe? Die Autoren der Studie verweisen zunächst einmal auf die gegnerische Plakat-Kampagne, die das Meinungsbild innerhalb der Bevölkerung vermutlich beeinflusst hat. Die Plakate ließen die Abgabe als eine drückende Last für Unternehmer und ihre Industriebetriebe erscheinen und betonten ihren Enteignungscharakter. Zudem zielten sie darauf ab, die behauptete Einmaligkeit der Abgabe als unglaubwürdig hinzustellen. Unabhängig von den Appellen, die hauptsächlich auf Ängste in der Bevölkerung zielten, gab es aber – wie die Bayreuther Ökonomen betonen – eine Reihe von Sachargumenten, die eine Ablehnung miterklären können:

• Eine hohe Steuer, die ausschließlich eine sehr kleine Minderheit trifft, verletzt den Grundsatz, dass Steuern und Abgaben möglichst alle Bürgerinnen und Bürger einbeziehen sollten.

• Die Besteuerung orientiert sich ausschließlich an der Höhe der Vermögen und lässt so die Tatsache außer acht, dass hohe Vermögenswerte nicht notwendigerweise mit überdurchschnittlich hohen Einkünften einhergehen. Von der Höhe der Einkünfte aber hängt die Leistungsfähigkeit der Bürgerinnen und Bürger wesentlich ab. Insofern verstößt die Vermögensabgabe gegen das Leistungsfähigkeitsprinzip.

• Eine Sonderabgabe auf Vermögen könnte dazu führen, dass der Faktor Kapital auf eine volkswirtschaftlich schädliche Weise überbelastet wird. Es wächst das Risiko, dass Vermögen ins Ausland verlagert werden und die Sparquote im Inland sinkt.

• Wie hoch die zu zahlende Abgabe ist, hängt davon ab, wie hoch das Vermögen an einem in der Vergangenheit liegenden Stichtag war. Diese Berechnungsgrundlage aber ist problematisch, weil zwischenzeitlich eingetretene Verluste und Gewinne gleichermaßen unberücksichtigt bleiben.

Plädoyer für eine ganzheitliche Steuer- und Abgabenpolitik
„Diese Gründe hat auch der Bundesrat der Schweizerischen Eidgenossenschaft in seinem Bericht zur Volksabstimmung angeführt. Sie dürften für die Schweizer Bevölkerung mit ausschlaggebend gewesen sein“, erläutert Prof. Stadelmann und fügt hinzu: „Es sind Argumente, die bis heute aktuell geblieben sind. Wichtig ist beispielsweise, dass Vermögensabgaben – selbst wenn sie als einmalige Maßnahmen konzipiert werden – nicht isoliert von der Gesamtheit aller Steuern und Abgaben betrachtet werden dürfen. Sie müssen sich auf ökonomisch verantwortungsbewusste Weise in die bereits existierende Steuer- und Abgabenlast der Bürgerinnen und Bürger einfügen lassen. Andernfalls besteht die Gefahr, dass der Wohlstand zahlreicher Bevölkerungsgruppen langfristig beschädigt wird.“

Die Autoren der Fallstudie bestreiten nicht, dass es einige – wenngleich nur wenige – historische Fälle gibt, in denen sich eine einmalige Vermögensabgabe als ökonomisch sinnvoll erwiesen hat. Ob sie gesellschaftlich akzeptiert waren, kann nicht mehr direkt festgestellt werden. Der Lastenausgleichsfonds in Deutschland aus dem Jahr 1952 bezog sich hauptsächlich auf Immobilienvermögen und half, die Wohnungsnot infolge von Krieg und Vertreibung zu überwinden. „Dies war allerdings eine Ausnahmesituation, von der die wirtschaftlichen und sozialen Strukturen in den westlichen Industrieländern heute sehr weit entfernt sind“, so Prof. Stadelmann.

Veröffentlichung:
Simon Loretz und David Stadelmann,
Zur gesellschaftlichen Akzeptanz von einmaligen Vermögensabgaben,
IHS – Policy Brief (Institute for Advanced Studies, Wien), Nr. 6, Mai 2014

Kontakt:
Prof. Dr. David Stadelmann
Entwicklungsökonomik
Universität Bayreuth
D-95440 Bayreuth
Tel.: +49 (0) 921 – 55 60 77
E-Mail: david.stadelmann@uni-bayreuth.de

Quelle: idw

(nach oben)


Wird das Christkind Dauergast? – Klimawandel könnte für einen permanenten El Niño sorgen

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Im Moment deuten viele Vorzeichen darauf hin, dass sich in den kommenden Monaten ein El Niño Ereignis entwickeln wird. Dies könnte im Zuge der zunehmenden Erderwärmung dauerhaft der Fall sein, auch wenn Beobachtungen der letzten Jahrzehnte bisher einen gegenläufigen Trend zeigen. Zu diesem Ergebnis kommt eine Vergleichsstudie, die ein internationales Forscherteam unter Leitung des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel durchgeführt hat. Die Ergebnisse sind in der internationalen Fachzeitschrift Climate Dynamics erschienen.

El Niño oder korrekter El Niño-Southern Oscillation (ENSO) ist die stärkste Klimaschwankung auf Zeitskalen von wenigen (2-7) Jahren. Den Namen erhielt das Phänomen durch peruanische Fischer, die häufig zur Weihnachtszeit (span. El Niño) eine starke Erwärmung des Ostpazifiks verbunden mit dem Ausbleiben von Fischschwärmen feststellten. Heute weiß man, dass es dabei um ein gekoppeltes Phänomen zwischen Ozean und Atmosphäre handelt, die ozeanische Komponente El Niño, charakterisiert durch die Erwärmung des Zentral und Ostpazifiks und das atmosphärische Pendant Southern Oscillation, ein Maß für den Druckunterschied über dem Pazifik und Indischem Ozean. Während eines El Niño verlagert sich das normalerweise über dem indonesischen Raum liegende Gebiet mit tiefen Luftdruck nach Osten über den Pazifik, was Überschwemmungen im Ostpazifik und Dürre im Nordaustralien zur Folge hat.

Die von den Autoren analysierten Modellstudien aus dem sogenannten CMIP (Coupled Model Intercomparison Projekt) Projekt, mit den Klimaprojektionen für die Klimazustandsberichte des Intergovernmental Panel on Climate Change (IPCC) gerechnet wurden, zeigen eine generelle Abschwächung und Ostwärtsverlagerung atmosphärischen, äquatorialen Zirkulationsmuster bis zum Jahr 2100, relativ zum mittleren Zustand der Jahre 1950-1979. Das Muster ähnelt einer schwachen, aber dauerhaften El Niño Situation.

Die Beobachtungen (ERA Interim Reanalyse 1979-2012) konnten diesen Trend allerdings bisher noch nicht bestätigen, sondern zeigen eine gegenteilige Entwicklung mit einer Westwärtsverlagerung und Verstärkung der atmosphärischen Zirkulation am Äquator. „Diesen vermeintlichen Widerspruch kann man durch interne Variabilität des Klimasystems erklären“, erläutert der Hauptautor der Studie, Dr. Tobias Bayr vom GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel. „Wir halten es für sehr unwahrscheinlich, dass die Modelle die Entwicklung falsch vorhersagen, da für die verwendeten Analysen mehr als 36 verschiedene Modelle mit einer Vielzahl von Modellläufen verwendet wurden“, so Bayr weiter. Mit Hilfe des für die Studie verwendeten Analyseverfahrens (Multi-model Ensemble) können sehr zuverlässig robuste Signale aus einer Vielzahl von Experimenten extrahiert werden. „Und die deutliche Mehrheit der Modelle sagt voraus, dass wir durch die Klimaerwärmung am Ende dieses Jahrhunderts einen leichten, mehr oder weniger dauerhaften El Niño Zustand bekommen werden“.

Alle Beobachtungen deuten auf eine Entwicklung eines El Niño in den kommenden Monaten hin. Ob dieser El Niño allerdings die Wende hin zu dem von den Modellen vorhergesagten Trend sein wird, steht jedoch noch in den Sternen.

Originalartikel:
Bayr, T., D. Dommenget, T. Martin, S. Power, 2014: The eastward shift of the Walker Circulation in response to global warming and its relationship to ENSO variability. Climate Dynamics, DOI 10.1007/s00382-014-2091-y

Ansprechpartner:
Dr. Tobias Bayr, tbayr@geomar.de

Weitere Informationen:
http://cmip-pcmdi.llnl.gov – Coupled Model Intercomparison Project
http://icdc.zmaw.de/era_interim.html – ERA Reanalysedaten
http://www.geomar.de – GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Quelle: idw

(nach oben)


Wie Gratis-Apps teuer werden können: Tools für mehr Sicherheit beim Smartphone-Betrieb

Dr. Julia Weiler Dezernat Hochschulkommunikation
Ruhr-Universität Bochum

Wer auf dem Smartphone eine App installiert, räumt ihr oft ungelesen die eingeforderten Rechte ein. Und öffnet damit potenziellen Angreifern Tür und Tor zu persönlichen Daten und kostenpflichtigen Diensten. Nicht selten fordern Apps Rechte, die sie für ihre Funktion gar nicht benötigen. Ein Sicherheitsrisiko, das auf Dauer teuer werden kann, sagt Dr. Christopher Wolf vom Horst Görtz Institut für IT-Sicherheit der Ruhr-Universität Bochum (RUB). Mit seinem Team entwickelt er Tools für mehr Sicherheit beim Smartphone-Betrieb.

Viele Apps fordern Rechte, die sie für ihre Funktion nicht benötigen
Die Emmy Noether-Gruppe für Langzeitsicherheit an der RUB programmierte eine Anwendung – „Permission Watcher“ genannt – , die alle auf einem Smartphone installierten Apps auf potenzielle Sicherheitsrisiken checkt. Generell problematisch ist es etwa, wenn eine App kostenpflichtige Dienste aktivieren, zum Beispiel 0190er-Nummern anrufen kann. Auch Zugriff auf das Adressbuch oder den genauen Standort benötigen die wenigsten Apps für ihre Funktion. „Aber eine Taschenlampen-App, die sich über Werbung finanziert und den genauen Standort des Nutzers kennt, kann viel Werbung zu deutlich höheren Preisen verkaufen. Sie sagt zum Beispiel: Da vorne ist ein Restaurant, willst du da nicht hin?“, veranschaulicht Wolf. „Oder eine App erntet einfach das gesamte Adressbuch und verkauft die persönlichen Daten.“ Der „Permission Watcher“ ist kostenlos und inzwischen über 10.000-mal im „Google Play Store“ heruntergeladen worden.

Ein weiteres potenzielles Sicherheitsrisiko: Pattern-Login bei Android
Android-Nutzer können ihr Smartphone mit einem Muster sperren, das sie auf einem Drei-mal-drei-Felder-Quadrat einzeichnen. Das soll zum Beispiel bei Diebstahl den Zugriff auf das Gerät verhindern. Wolfs Team testete, welchen Schutz diese Methode bietet. Das Fazit: maximal so viel Sicherheit wie eine dreistellige PIN. „Das ist okay, aber nicht so toll“, sagt der Bochumer IT-Sicherheitsforscher. Viele Nutzer wählen ähnliche Muster, bevorzugt solche, die am Rande des Drei-mal-drei-Felder-Quadrats verlaufen und zum Beispiel eine L-Form ergeben. Hinzu kommt, dass man in der Regel auf dem Display die Fingerspuren des Nutzers sehen und somit auf das Login-Muster schließen kann. Besser wäre es laut Christopher Wolf, wenn ein Nutzer eine Reihenfolge von Symbolen berühren müsste, um sein Handy zu entsperren, etwa blaues Quadrat, rotes Rechteck, grüner Kreis.

Vollständiger „RUBIN“-Beitrag im Netz
Ein ausführlicher Bericht zu den Forschungsprojekten der Emmy Noether-Gruppe für Langzeitsicherheit inklusive Bildmaterial findet sich im Internet unter: http://rubin.rub.de/de/gratis-apps-mit-folgekosten.

Mehr Technikthemen in „RUBIN“
Die aktuelle „RUBIN-Ausgabe“ beschäftigt sich nicht nur mit den Risiken moderner Technik, sondern auch mit möglichen neuen Anwendungsfeldern. RUB-Ingenieure wollen moderne Handys etwa für einen Test auf Produktechtheit einsetzen: http://rubin.rub.de/de/leuchtende-pigmente-gegen-produktpiraterie. Eine ausgefeilte Technik steckt auch in dem Roboteranzug „HAL“, der gelähmten Menschen zu mehr Beweglichkeit verhelfen soll. Mediziner der Ruhr-Universität testen ihn am Klinikum Bergmannsheil: http://rubin.rub.de/de/hilfe-vom-roboter.

Weitere Informationen
Dr. Christopher Wolf, Lehrstuhl für Kryptologie und IT-Sicherheit, Emmy Noether-Gruppe für Langzeitsicherheit, Horst Görtz Institut für IT-Sicherheit der Ruhr-Universität, 44780 Bochum, Tel. 0234/32-23265, E-Mail: christopher.wolf@rub.de

Angeklickt
„Permission Watcher“ im Google Play Store
https://play.google.com/store/apps/details?id=de.struse.apewatch&hl=de

Quelle: idw

(nach oben)


Bioenergie „made in Germany“ – DBFZ-Expertise stößt in China auf breites Interesse

Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Auf einer einwöchigen Reise durch China konnte das Deutsche Biomasseforschungszentrum (DBFZ), vertreten durch den wissenschaftlichen Geschäftsführer Prof. Dr. Michael Nelles, seine bestehenden Kontakte und Netzwerke weiter ausbauen. Es zeigte sich erneut, dass deutsche Expertise und gegenseitiger Wissenstransfer im Bereich der Bioenergieforschung im Reich der Mitte auf überaus breites Interesse stößt. Vor allem Technologie „Made in Germany“ steht im Fokus der chinesischen Bioenergie-Experten.

Investitionen von umgerechnet ca. 50-60 Mio. Euro sollen allein an der renommierten China-Petroleum University (CUP) in Peking für den Bau eines Bioenergie-Technikums getätigt werden, das im Rahmen der Kooperation mit dem DBFZ bis Ende 2015 errichtet werden soll. Mit fundiertem Wissen im Bereich der energetischen Verwertung von biogenen Abfällen und Reststoffen bringen die deutschen Experten aus Rostock und Leipzig hier ihre Kenntnisse bei der Entwicklung hochmoderner Bioenergieanlagen mit ein. Im Rahmen des Antrittsbesuchs von Prof. Nelles als Gastprofessor an der CUP wurden darüber hinaus der weitere Ausbau des gegenseitigen Wissenschaftleraustauschs vereinbart sowie gemeinsame F&E-Projekte vorbereitet.

„Es ist sehr beeindruckend wie in China Zukunftsthemen angegangen werden und die China-Petroleum University (CUP) in Peking ist als Eliteuniversität mit enger Industrieanbindung ein strategisch wichtiger Partner für den konsequenten Ausbau der China-Aktivitäten des DBFZ“, so Nelles.

Wie eng die Achse Peking-Rostock-Leipzig neben dem Technologie- auch hinsichtlich des gemeinsamen Wissenstransfers ist, zeigte sich bereits am 15./16. Mai 2014 auf der „5. International Conference on Environmental Technology and Knowledge Transfer (5. ICET)“, einer seit 2006 stattfindenden Umweltkonferenz. Die Universität Rostock und das DBFZ sind hier Mitveranstalter und Prof. Nelles koordiniert diese internationale Fachtagung als wissenschaftlicher Leiter. Mit rund 150 Teilnehmern aus Wissenschaft, Wirtschaft und Verwaltung stellt die Konferenz einen festen Termin für die einschlägigen Fachleute aus der Provinz Anhui (65 Mio. Einwohner) dar. Einen inhaltlichen Schwerpunkt bildete 2014 die integrierte energetische und stoffliche Verwertung von biogenen Abfällen und Reststoffen aus den privaten Haushalten, Landwirtschaft, Industrie und Gewerbe. Wie in den Jahren zuvor wird auch 2014 ein rund 500-seitiges Fachbuch entstehen, welches von den Abfallexperten der Provinz Anhui für die tägliche Arbeit genutzt wird.

Auch auf der IEexpo Conference „Sustainable Solid Waste Management“, die am 21./22. Mai 2014 im Rahmen der größten asiatischen Umwelttechnik-Messe in Shanghai stattfand, war das DBFZ neben vielen hochkarätigen Referenten aus Asien und Europa mit einem Beitrag von Prof. Nelles zur energetischen Verwertung von biogenen Abfällen und Reststoffen vertreten.

Hintergrund
Im Rahmen der internationalen Aktivitäten ist das DBFZ bereits seit seiner Gründung im Jahr 2008 in China aktiv und hat sich dort als unabhängiger praxisorientierter wissenschaftlicher Berater von Politik, Wissenschaft und Wirtschaft einen Namen gemacht. Prof. Dr. mont. Michael Nelles wurde insbesondere für seine abfallwirtschaftlichen Kooperationsprojekte in der Provinz Anhui (65 Mio. Einwohner) bereits 2011 in Peking mit der höchsten Auszeichnung der VR China für ausländische Experten, dem „Nationalen Freundschaftspreis“ ausgezeichnet. Darüber hinaus ist er Gastprofessor an verschiedenen Universitäten in der VR China (Hefei, Peking, Shanghai und Shenyang).

Forschung für die Energie der Zukunft – DBFZ
Das Deutsche Biomasseforschungszentrum arbeitet als zentraler und unabhängiger Vordenker im Bereich der energetischen Biomassenutzung an der Frage, wie die begrenzt verfügbaren Biomasseressourcen nachhaltig und mit höchster Effizienz zum bestehenden, vor allem aber auch zu einem zukünftigen Energiesystem beitragen können. Im Rahmen der Forschungstätigkeit identifiziert, entwickelt, begleitet, evaluiert und demonstriert das DBFZ die vielversprechendsten Anwendungsfelder für Bioenergie und die besonders positiv herausragenden Beispiele gemeinsam mit Partnern aus Forschung, Wirtschaft und Öffentlichkeit.

Weitere Informationen:
https://www.dbfz.de/web/presse/pressemitteilungen-2014/bioenergie-made-in-german…

Quelle: idw

(nach oben)


Wer tippt bei der Fußball-WM besser?

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Wer wird Fußball-Weltmeister in Brasilien? Darüber diskutieren im Vorfeld der WM eifrig die Fans. Ein Psychologe der Universität Bonn erforscht, ob Fußballkenner oder -laien erfolgreicher die siegreichen Mannschaften tippen. Er hat einen Fragebogen entwickelt, der von allen Interessierten im Internet aufgerufen und beantwortet werden kann. Die Daten werden selbstverständlich anonym erfasst und weiterverarbeitet.

Die Fußballweltmeisterschaft 2014 in Brasilien rückt näher: Von 12. Juni bis 13. Juli finden insgesamt 64 Spiele statt. Millionen von Zuschauern, darunter Fußballkenner und -laien, verfolgen dieses weltbewegende Sportereignis. In Tippgemeinschaften und bei professionellen Sportwetten wird eifrig über den Ausgang einzelner Spielpartien und über den Weltmeister spekuliert. Haben Fußballkenner im Vergleich zu Fußballlaien bessere Chancen, ein korrektes Ergebnis vorherzusagen? Mit dieser Frage beschäftigt sich Tobias Talanow, wissenschaftlicher Mitarbeiter am Institut für Psychologie der Universität Bonn. Er hat hierzu eine Online-Umfrage gestartet, deren Beantwortung nur etwa fünf Minuten dauert. „Die Umfrage dient ausschließlich akademischen Zwecken und verfolgt kein kommerzielles Interesse“, sagt Talanow. Selbstverständlich ist die Teilnahme anonym und die erhobenen Daten werden nach den aktuellen Datenschutzrichtlinien verarbeitet.

Helfen einfache Faustregeln beim erfolgreichen Tippen?
„Obwohl Fußball und Sportwetten weltweit sehr beliebt und wirtschaftlich erfolgreich sind, hat sich die Forschung bisher nur wenig mit dieser Thematik befasst“, sagt der Psychologe. Insgesamt wisse man nur sehr wenig darüber, ob Vorhersagen von Sportexperten besser sind als von Laien. Bisher veröffentlichte Studien kämen zu keinem eindeutigen Ergebnis. Die aktuelle Umfrage soll hier Licht ins Dunkel bringen. Talanow möchte zum Beispiel prüfen, ob Sportlaien genauso gut Ergebnisse vorhersagen können wie Sportexperten, wenn sie eine simple Faustregel im Hinterkopf haben: Angeblich können auch Laien zu erfolgreichen Prognosen kommen, wenn sie anhand des Fifa-Weltranglistenplatzes das Potenzial von Nationalmannschaften abschätzen. „Ob dies so zutrifft, möchte ich mit den Daten der Umfrage beantworten“, sagt Talanow.

Charaktereigenschaften von Fußballkennern und -laien
Außerdem möchte der Psychologe anhand der Fragebögen untersuchen, welche Persönlichkeitsmerkmale erfolgreiche Tippgeber auszeichnen. „Ein kühler Kopf und wohlüberlegtes Handeln führt möglichweise zu besseren Tippergebnissen als impulsives Vorgehen, dem vorschnelle Schlussfolgerungen und Entscheidungen zugeschrieben werden“, führt Talanow aus. Mit seinem kurzen Fragebogen will er auch erforschen, welche Persönlichkeiten sich für Fußball interessieren oder welche daran kein Interesse haben.

Weitere Informationen:
https://www.soscisurvey.de/Dein_Tipp_fuer_die_WM2014/ Umfrage im Internet

Quelle: idw

(nach oben)


Kohle-Doping für Biogasanlagen: Mit Biokohle zu höheren Gaserträgen

Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.

Wissenschaftler am Potsdamer Leibniz-Institut für Agrartechnik konnten zeigen, dass der Einsatz von Biokohle einen effektiven Ansatz zur Erhöhung der Biogasausbeute sowie zur Stabilisierung des Biogasprozesses bietet. Die in Biogasanlagen häufig auftretende Ammonium-Hemmung kann mit Biokohle reduziert werden. Biokohle, ein Produkt der thermochemischen Behandlung von Biomasse, kann aus den Gärresten der Biogasanlage selbst hergestellt werden und zwar so, dass sich die energetische Ausbeute steigern lässt. Die Ergebnisse wurden soeben in der renommierten Fachzeitschrift „Bioresource Technology“ veröffentlicht.

Biogas ist ein wichtiges Element für den Energie-Mix der Zukunft: Es kann je nach Bedarf und Nachfrage in Strom und Wärme umgewandelt werden und nach entsprechender Aufbereitung als Biomethan ins Erdgasnetz eingespeist werden. Um die Erzeugung von Biogas weiter ausbauen und kostengünstig halten zu können, sind Lösungen gefragt, die es ermöglichen, den Wirkungsgrad der Biogasanlagen zu steigern und bisher kaum genutzte Abfälle einzusetzen. Hierzu zählen stickstoffreiche Abfälle wie Geflügelmist. Aus organischem Stickstoff entsteht bei der Vergärung Ammonium, das die Mikroflora im Fermenter empfindlich stören kann. Je höher der Ammonium-Gehalt, desto langsamer verläuft die Biogasbildung und desto geringer ist die Ausbeute. Die sogenannte Ammonium-Hemmung gehört zu den verbreitetsten Problemen bei der Biogaserzeugung.

Wissenschaftler am Leibniz-Institut für Agrartechnik in Potsdam setzen bei ihrem Lösungsansatz auf Biokohle, ein kohlenstoff- und oberflächenreiches Material, das ähnlich der Holzkohle bei der Verschwelung von Biomasse entsteht und aus Gärresten der Biogasanlage selbst hergestellt werden kann. Aufgrund ihrer hohen biologischen Stabilität und großen Aufnahmefähigkeit für Wasser und Nährstoffe wird Biokohle insbesondere als Hilfsstoff zur Verbesserung von wenig fruchtbaren Böden und zur dauerhaften Bindung von Kohlenstoff (C-Sequestrierung) betrachtet. Aufgrund ihrer besonderen Eigenschaften ist Biokohle aber auch für eine Reihe weiterer Anwendungen interessant, wie die Reinigung von Abwässern oder die Katalyse biologischer oder chemischer Prozesse.

In ihrem in der renommierten Fachzeitschrift „Bioresource Technology“ erschienenen Artikel berichten die Potsdamer Wissenschaftler über den Einsatz von Biokohle im Biogasprozess. Demnach kann der Einsatz von Biokohle eine beginnende Ammonium-Hemmung unterbinden und darüber hinaus die Struktur der Mikroflora positiv beeinflussen. Die Ergebnisse zeigen einen erhöhten Anteil methanbildender Mikroorganismen nach der Zugabe von Biokohle. Biokohle kann zudem als direkte Nahrungsquelle für die Mikroorganismen dienen, wodurch der Ertrag an Biogas steigt.

Ausgangsmaterial für die Herstellung der Biokohlen im Versuch war zum einen Gärrest, zum anderen eine Abfallmischung aus Papiermühlenschlamm und Weizenspreu. Der feuchte Gärrest wurde durch hydrothermale Karbonisierung behandelt, die Abfallmischung mittels Pyrolyse zu Biokohle gewandelt. In Laborversuchen wurden die so erzeugten Biokohletypen bei unterschiedlichen Ammonium-Konzentrationen auf ihre Wirkung getestet. Dabei zeigte sich jedoch auch, dass mit steigender Ammoniumkonzentration die positive Wirkung der Biokohle abnimmt und ihre Wirkung bisher nicht an die von Zeolith, einem mineralischen Material mit hohem Bindungsvermögen für Ammonium, heranreicht. Bei Ammoniumkonzentration von 3,1 – 6,6 g N je kg Reaktorinhalt zeigten die Biokohlen keine Wirkung mehr, während Zeolithe bei 6,6 g N je kg noch bis zu 20 % der Hemmung aufheben konnten. Da die getesteten Biokohlen aber nicht gezielt für den Einsatz in Biogasanlagen entwickelt wurden, ist hier noch ein erhebliches Optimierungspotenzial zu erwarten.

Insbesondere Biokohlen, die mittels hydrothermaler Karbonisierung, einer milden und dadurch energieeffizienten Form der Biokohleerzeugung, hergestellt wurden, sind für den Einsatz in Biogasanlagen geeignet. Der HTC-Prozess findet im Wasser statt und bietet daher passende Bedingungen für die Verkohlung des feuchten Gärrests. Im kombinierten Verfahren Biogas-Biokohle kann das während der hydrothermalen Karbonisierung anfallende Prozesswasser als gut vergärbare Biomasse in den Biogasfermenter eingespeist und die Biokohle als Aufwuchsträger und zusätzliche Nahrung für die Mikroorgansimen genutzt werden. Im Gesamteffekt lässt sich dadurch der Biogasertrag vor allem aus schwer abbaubaren Bio-massen wie Stroh deutlich – bis auf das Doppelte – steigern.

„Biokohle kann genau dort wirken, wo die Biogaserzeugung an ihre Grenzen stößt: Beim Einsatz stickstoffreicher Biomassen, zur Erhöhung der Ausbeute aus schwer aufschließbaren Biomassen, zur Minderung von Stickstoffemissionen aus Gärresten und für die Versorgung des Bodens mit stabilem Kohlenstoff“, fasst Dr. Jan Mumme, Leiter des Projekts APECS am ATB, die in Aussicht stehenden positiven Effekte zusammen. „Aktuell arbeiten wir daran, die Biokohle noch wirkungsvoller in den Biogasprozess zu integrieren. Beispielsweise haben wir einen neuen Typ Biogasreaktor entwickelt und zum Patent angemeldet, der getrennte Bereiche für Biomasse und Biokohle aufweist. Unser Ziel ist es, das Gesamtverfahren zusammen mit Partnern aus Industrie und Landwirtschaft in die Pilot- und Demonstrationsphase zu bringen.“

Maja Werner, Doktorandin bei APECS, und Franziska Srocke, die derzeit an der kanadischen McGill University im Rahmen ihrer Promotion darüber forscht, wie Biokohle dazu beitragen kann, organische Schadstoffe in Böden schneller abzubauen, ergänzen die Positivliste: „Unsere Ergebnisse lassen vermuten, dass Biokohlen auch als Träger für nützliche Mikroorganismen Anwendung finden können, um diese gezielt zum Beispiel in Biogasanlagen oder auch zur Sanierung schadstoffbelasteter Böden einzusetzen.“

Die Projektgruppe „APECS – Anaerobic Pathways to Renewable Energies and Carbon Sinks“ wird seit 2009 vom BMBF im Rahmen von „Bioenergie 2021″ für die Dauer von fünf Jahren gefördert.

Literatur:
Mumme, J., Srocke, F., Heeg, K., Werner, M. (2014, im Druck): Use of biochars in anaerobic digestion. Bioresource Technology. (http://dx.doi.org/10.1016/j.biortech.2014.05.008)

Wirth, B., Mumme, J. (2013): Anaerobic digestion of waste water from hydrothermal carbonization of corn silage. Applied Bioenergy 1 (1), ISSN (Online) 2300-3553 , DOI: 10.2478/apbi-2013-0001, November 2013

Kontakt ATB:
Dr. Jan Mumme – Leiter der Nachwuchsgruppe APECS
Tel.: 0331 5699-913, E-Mail: jmumme@atb-potsdam.de

Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Max-Eyth-Allee 100, 14469 Potsdam
www.atb-potsdam.de

Die Forschung des Leibniz-Instituts für Agrartechnik Potsdam-Bornim e.V. (ATB) zielt auf die ressourceneffiziente Nutzung biologischer Systeme zur Erzeugung von Lebensmitteln, Rohstoffen und Energie in Anpassung an Anforderungen von Klimaschutz und Klimawandel. Zu diesem Zweck entwickelt das ATB verfahrenstechnische Grundlagen für eine nachhaltige Landbewirtschaftung und stellt innovative technische Lösungen für Landwirtschaft und Industrie bereit. Eine Querschnittsaufgabe ist die Analyse und Bewertung des Technikeinsatzes entlang der Wertschöpfungskette. Die im Rahmen von Bioraffinerie- und Kaskadennutzungskonzepten entwickelten Technologien sind ein Beitrag zur Schaffung einer biobasierten Stoff- und Energiewirtschaft.

Quelle: idw

(nach oben)


Bundestagspräsident wirft kritischen Blick auf Energiewende

Detlef Bremkens Dez. 3 KIT Kommunikation, Innovation, Transfer
Hochschule Bochum

Alumnitreffen der Hochschule Bochum: Prof. Dr. Norbert Lammert diskutiert über regenerative Energien

Von Rüdiger Kurtz
Das Gebäude, in dem das 5. Alumni-Jahrestreffen des Fachbereichs Wirtschaft stattfand, war Norbert Lammert noch aus eigenen Studientagen vertraut. „Hier war damals die Mensa der Ruhr-Universität“, erinnerte sich der amtierende Bundestagspräsident und RUB-Absolvent: „So schön wie heute sah es früher allerdings nicht aus.“ Das studentische Organisationsteam der Hochschule Bochum hatte den großen Saal der vor vier Jahren aufwändig renovierten „BlueBox“ dem Anlass entsprechend festlich geschmückt.

Der Einladung, sich mit Studierenden, Absolventinnen und Absolventen sowie Professorinnen und Professoren zum Thema „Regenerative Energien“ auszutauschen, war Norbert Lammert gerne gefolgt. Von 1983 bis 1989 hatte er als Lehrbeauftragter für Politikwissenschaft an der Wirtschaftsabteilung der Hochschule Bochum (damals noch Fachhochschule Bochum) gewirkt. Gleich zu Beginn der Talkrunde unter der Leitung von Wirtschaftsprofessor und Energieexperte Michael Häder wurde der Bundestagspräsident mit dem Eindruck konfrontiert, dass viele Erkenntnisse aus der Wissenschaft von den Parteien nicht entsprechend wahrgenommen und umgesetzt würden. Der erfahrene Politiker widersprach energisch. „Alles, was an gesellschaftlichem Wissen vorhanden ist und von Ihnen und Ihren Kolleginnen und Kollegen neu hinzukommt, wird in Berlin in die Diskussion eingebracht.“ Allerdings bringe es eine parlamentarische Demokratie mit sich, dass es zu unterschiedlichen Deutungen komme. „Jede Partei hat ihre Wahrheit, aber keine hat Recht“, so Lammert: „Und am Ende des Tages wird es so gemacht, wie es die Mehrheit für richtig hält.“ Das müsse dann nicht immer die beste Alternative sein, aber zum Glück könne man Fehlentscheidungen revidieren.
Gerade im Bereich Energie habe es in den letzten Jahren viele Änderungen gegeben. „Die Einstellung der Deutschen zur Kernenergie hatte sich schon mit der Katastrophe in Tschernobyl grundlegend geändert“, erinnerte Lammert: „Dennoch bedurfte es der weiteren Katastrophe in Fukushima, um den Druck so zu erhöhen, dass die Politik reagieren musste.“ Die Energiewende und die damit verbundene Stärkung der regenerativen Energien sieht Lammert durchaus skeptisch. „Die Schwankungen der zur Verfügung stehenden Energie aufgrund von Wind und Sonne bereiten mir dabei weniger Sorge als die steigenden Kosten“, so der gebürtige Bochumer: „Wenn die Kosten für den Einzelnen zu hoch werden, können die Mehrheiten für die Energiewende schnell zusammenbrechen.“ Die kontrovers geführte Diskussion bereitete dem „zweiten Mann im Staat“ sichtlich Freude. Auch nach dem Ende der offiziellen Talkrunde stand er den Alumni und Studierenden noch lange Rede und Antwort.

Das Thema Regenerative Energien zog sich als roter Faden durch das Alumni-Jahrestreffen des Fachbereichs Wirtschaft. Prof. Dr. Michael Häder hatte mit einer präzisen Situationsanalyse der Energiewende bereits zu Beginn der Veranstaltung die Grundlage für intensive Diskussionen gelegt. Im weiteren Verlauf sorgten Besuche bei den Weltrekordlern des Solarcar-Teams der Hochschule Bochum mit seinen vielfach ausgezeichneten Solarwagen sowie des ebenfalls auf dem Hochschulgelände liegenden Geothermiezentrums für einen beeindruckenden Praxisbezug. Auf den kurzweiligen Führungen konnten Studierende und Alumni einen Blick hinter die Kulissen werfen und ihr Wissen über Sonnenenergie und Erdwärmenutzung erweitern. Vier Teilnehmer durften nach Losentscheid und bei strahlendem Sonnenschein eine Runde mit dem aktuellen Sonnenwagen drehen. „Das war ein tolles Gefühl, ohne die gewohnten Geräusche eines Verbrennungsmotors dahinzugleiten“, freute sich Alumnus André Kreimer. „Allerdings“, so schränkte er augenzwinkernd ein, „merkt man, dass Gewicht gespart werden musste – der Komfort ist doch eher sportlich.“
Stärken konnten sich die Teilnehmer zwischen den verschiedenen Veranstaltungen mit typischer Ruhrgebietsküche direkt vom Imbisswagen sowie beim gemeinsamen Kaffeetrinken mit selbstgebackenen Kuchen des engagierten und stets präsenten studentischen Organisationsteams, das sich am Ende sehr über ein Gruppenfoto mit Bundestagspräsident Norbert Lammert freute. „Das war ein rundum gelungenes Event“, bescheinigte dann nicht nur Wirtschaftsdekanin Eva Waller: „Die gute Mischung aus Theorie und Praxis und natürlich unser Ehrengast haben das Alumni-Jahrestreffen 2014 zu einem beeindruckenden Erlebnis für alle Beteiligten gemacht.“

Weitere Informationen:
http://www.hochschule-bochum.de/fbw/alumni.html
BOwal, die Vereinigung der Wirtschaftsalumni der Hochschule Bochum.

Quelle: idw

(nach oben)


OP-Plan ohne Mondkalender

Dr. Uta von der Gönna Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Jena

Der Mond hat keinen Einfluss auf die Schmerzen nach Operationen. Das
ist das Ergebnis einer jetzt veröffentlichten Studie, für die Wissenschaftler des Jenaer
Universitätsklinikums über 12.000 Datensätze auswerteten, die im Rahmen des
internationalen Schmerzregisterprojektes PAIN OUT erhoben worden waren.

Warzen behandeln, Gemüse pflanzen, Haare schneiden oder Kinder gebären – es gibt kaum einen Lebensbereich, für den nicht Ratgeber die Beachtung der Mondphase empfehlen. Widerspricht man den Anhängern solcher Theorien, bekommt man nicht selten zu hören, die Erfahrung gebe ihnen Recht.

In einem Bereich liegen nun harte wissenschaftliche Fakten vor. Forscher am Universitätsklinikum Jena haben an einer großen Stichprobe von 12.224 Patienten von zehn Krankenhäusern aus neun europäischen Ländern untersucht, wie stark die Schmerzen nach einer Operation waren. Dabei verglichen sie Daten aus den vier Mondphasen Vollmond, abnehmender Mond, Neumond und zunehmender Mond miteinander. „Das Ergebnis ist eindeutig“, so Dr.-Ing. Marcus Komann, IT-Koordinator des Jenaer Schmerzregisterprojektes. „Postoperativer Schmerz wird von der Mondphase nicht beeinflusst. Geplante Operationen können also ohne Bedenken auf jeden beliebigen Tag gelegt werden.“

Die Ergebnisse sind ein interessantes „Nebenprodukt“ der Initiative PAIN OUT, die die weltweit umfangreichste Datensammlung zur Akutschmerztherapie beinhaltet. Sie wird als internationales Benchmark-Projekt zur Verbesserung der Akutschmerztherapie nach Operationen fortgesetzt. Das am Universitätsklinikum Jena koordinierte Register erfasst Daten von derzeit 30 Kliniken in 18 Ländern.

Originalliteratur:
Marcus Komann, Claudia Weinmann and Winfried Meissner: Howling at the moon? The effect of lunar phases on post-surgical pain outcome, British Journal of Pain, 2014, 72-77, DOI: 10.1177/2049463714522985
http://bjp.sagepub.com/content/8/2/72

PAIN OUT Homepage

Kontakt:
Dr.-Ing. Marcus Komann
Klinik für Anästhesiologie und Intensivmedizin, Universitätsklinikum Jena
Tel: 03641/9323298
E-Mail: Marcus.Komann@med.uni-jena.de

Weitere Informationen:
http://pain-out.med.uni-jena.de – PAIN OUT Homepage

Quelle: idw

(nach oben)


Feenkreise wohl doch nicht durch Termiten entstanden. Neue Studie erschienen

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Leipzig. Seit Jahrzehnten versuchen Wissenschaftler zu erklären, wie die auffälligen, vegetationsfreien Kreise in afrikanischen Graslandschaften zustande kommen. Nun haben Forscher verschiedene Theorien auf ihre Plausibilität getestet. Dazu haben sie zum ersten Mal genau analysiert, wie sich diese Feenkreise verteilen – und sind dabei auf ein erstaunlich regelmäßiges und flächendeckend homogenes Muster gestoßen. Das lasse sich am besten durch die Konkurrenz der Pflanzen um Wasser erklären, schreibt das Team im Fachjournal Ecography.

Es sieht aus wie eine Landschaft mit Sommersprossen. In einigen Regionen im Südwesten Afrikas ist das trockene Grasland übersät mit kahlen, runden Flecken. Manche sind nur ein paar Meter groß, andere erreichen Durchmesser bis zu zwanzig Metern. Und meistens haben sie einen Rand aus kräftigem Gras. Diese sogenannten Feenkreise laden zu Spekulationen geradezu ein: Wie können solche rätselhaften Strukturen entstanden sein? „Obwohl sich Wissenschaftler seit Jahrzehnten mit dieser Frage beschäftigen, ist sie immer noch nicht endgültig gelöst“, sagt Dr. Stephan Getzin vom Helmholtz-Zentrum für Umweltforschung (UFZ) in Leipzig. Denn bisher hat noch niemand die Entstehung eines Feenkreises vor Ort beobachten können.
Es gibt allerdings mehrere Theorien dazu. Die wohl populärste geht davon aus, dass die rätselhaften Flecken das Werk von Termiten sind. Solche Insekten knabbern demnach an den Wurzeln der Gräser und bringen diese so zum Absterben. Andere Forscher machen dagegen eher Kohlenwasserstoffe aus den Tiefen der Erde für das Phänomen verantwortlich. Wie in einem Schornstein sollen diese Gase an die Oberfläche steigen und dort die Vegetation abtöten.
Eine dritte Fraktion von Wissenschaftlern vermutet, dass die Gräser unter bestimmten Bedingungen ganz von selbst solche Flecken-Muster bilden. Auffällig ist nämlich, dass die Feenkreise nur in besonders trockenen Regionen im Übergangsbereich zwischen Grasland und Wüste auftreten. Dort herrscht unter den Gewächsen eine starke Konkurrenz um Wasser. Wird die Konkurrenz zu groß und die Feuchtigkeit zu knapp, kann das zur Entstehung eines kahlen Flecks mit kräftigem Grasrand ringsum führen.

Gemeinsam mit Kollegen aus Göttingen, Italien und Israel hat Stephan Getzin untersucht, welche dieser drei Theorien die wahrscheinlichste ist. „Wir haben dabei einen ganz neuen Forschungsansatz verwendet“, sagt der UFZ-Mitarbeiter, der sich seit 15 Jahren mit Feenkreisen beschäftigt. Die Studie beruht auf einer detaillierten Auswertung von Luftbildern, die repräsentative Gebiete mit Feenkreisen im Nordwesten Namibias zeigen. Mit deren Hilfe haben die Forscher zum ersten Mal genau analysiert, wie sich die kahlen Flecken in der Landschaft verteilen: Liegen sie einfach zufällig in der Gegend herum wie die Geldstücke, die aus einem Portemonnaie gefallen sind? Häufen sie sich in bestimmten Gebieten? Oder brauchen sie vielleicht einen bestimmten Mindestabstand zu ihren Nachbarn?
Mit bloßem Auge lässt sich das kaum entscheiden. Doch es gibt statistische Methoden, mit denen man die Eigenheiten des jeweiligen Verteilungsmusters auf verschiedenen Skalen sichtbar machen kann. Demnach sind die Feenkreise selbst über größere Gebiete erstaunlich regelmäßig und homogen verteilt. „Ein solches Muster ist in der Natur sehr ungewöhnlich“, sagt Stephan Getzin. „Da müssen besonders starke Ordnungskräfte am Werk sein“.
Das aber spricht seiner Ansicht nach gegen die populäre Termiten-Theorie. Eine Studie im Fachjournal Science hatte im Jahr 2013 zwar die Sandtermite Psammotermes allocerus als vermutliche Schöpferin der geheimnisvollen Kahlstellen präsentiert – allerdings vor allem mit dem Argument, dass die Art in allen damals untersuchten Feenkreisen vorkam. Niemand hat bisher beobachtet, dass diese Tiere tatsächlich Löcher ins namibische Grasland fressen – geschweige denn in einem so regelmäßigen Muster. „Es gibt bisher keinen einzigen Hinweis darauf, dass soziale Insekten großflächig so homogen verteilte Strukturen schaffen können“, betont Stephan Getzin. Im Gegenteil: Sämtliche Untersuchungen, die es über die Verteilung von Termiten und Ameisen in Trockengebieten gibt, berichten auf großen Skalen eher von unregelmäßigen, geklumpten Mustern. Auch die Gasaustritte aus dem Erdreich würden sich nach Ansicht der Forscher wohl kaum flächendeckend so homogen verteilen.
Bleibt also die Konkurrenz unter den Pflanzen. Und die kann durchaus ein homogenes Muster in eine Landschaft zaubern. Während zum Beispiel in einem jungen Wald die Pflanzen noch eng zusammenstehen, dünnt die Vegetation im Laufe der Jahrzehnte von selbst aus. Schließlich braucht jeder erwachsene Baum genügend Platz und Nährstoffe und kann daher nur mit genügend Abstand zu seinen Nachbarn richtig gedeihen. Ein ähnlicher Konkurrenz-Prozess um Ressourcen könnte auch zur Selbstorganisation des Feenkreismusters führen.
Mit einem Computermodell haben Stephan Getzin und seine auf solche Prozesse spezialisierten israelischen Kollegen die unterirdische Konkurrenz um Wasser und die dadurch entstehende Pflanzenverteilung simuliert. Tatsächlich tauchten auf dem Bildschirm ganz ähnliche Muster auf wie auf den realen Luftbildern aus Namibia. Und bei allen statistischen Analysen stimmten die Merkmale von simulierten und echten Feenkreisen nahezu deckungsgleich überein. Für den UFZ-Forscher ist das ein überzeugendes Indiz dafür, dass die geheimnisvollen Flecken tatsächlich durch eine Selbstorganisation der Gräser entstanden sein könnten: „Wir halten das derzeit für die überzeugendste Erklärung“.

Publikation:
Stephan Getzin, Kerstin Wiegand, Thorsten Wiegand, Hezi Yizhaq, Jost von Hardenberg, Ehud Meron (2014): Adopting a spatially explicit perspective to study the mysterious fairy circles of Namibia. Ecography. Early View, 20 MAY 2014. DOI: 10.1111/ecog.00911
http://onlinelibrary.wiley.com/doi/10.1111/ecog.00911/abstract

Weitere Informationen:
Dr. Stephan Getzin
Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341/235-1719
http://www.ufz.de/index.php?en=32734
oder über
Tilo Arnhold, Susanne Hufe (UFZ-Pressestelle)
Telefon: +49-(0)341-235-1635, -1630
http://www.ufz.de/index.php?de=640

Weiterführende Links:
Vegetationsdynamik in semi-ariden Gebieten / New methods for modelling systems in a changing world
http://www.ufz.de/index.php?de=17617

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg mehr als 1.100 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.http://www.ufz.de/

Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie sowie Luftfahrt, Raumfahrt und Verkehr. Die Helmholtz-Gemeinschaft ist mit 35.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,8 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des großen Naturforschers Hermann von Helmholtz (1821-1894). http://www.helmholtz.de/

Weitere Informationen:
http://www.ufz.de/index.php?de=32841

Quelle: idw

(nach oben)


WSI Tarifarchiv – Wer bekommt Urlaubsgeld und was sehen die Tarifverträge vor?

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

45 Prozent der Beschäftigten erhalten von ihrem Arbeitgeber ein Urlaubsgeld. Zu diesem Ergebnis kommt eine Online-Umfrage der Internetseite www.lohnspiegel.de, die vom Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) in der Hans-Böckler-Stiftung betreut wird. Rund 11.200 Beschäftigte haben sich an der Befragung beteiligt. Eindeutig profitieren die Beschäftigten von einer Tarifbindung ihres Arbeitgebers. Beschäftigte mit Tarifbindung erhalten zu 59 Prozent ein Urlaubsgeld, Beschäftigte ohne Tarifbindung dagegen nur zu 33 Prozent.

Männer bekommen häufiger ein Urlaubsgeld (50 %) als Frauen (38 %). Im Westen fällt der Anteil höher aus (48 %) als im Osten (32 %). In Kleinbetrieben unter 100 Beschäftigten gibt es seltener ein Urlaubsgeld (36 %) als in größeren Betrieben über 500 Beschäftigten (56 %). Von den Beschäftigten mit einem geringen Monatsverdienst (unter 1.000 €) erhält nur ein Viertel (26 %) ein Urlaubsgeld, von den Beschäftigten mit hohem Gehalt (5.000 – 6.000 €) dagegen gut die Hälfte (53 %).

Die Höhe der tariflich vereinbarten Urlaubsextras fällt je nach Branche sehr unterschiedlich aus: Zwischen 155 und 2.204 Euro bekommen Beschäftigte in der mittleren Vergütungsgruppe in diesem Jahr als tarifliches Urlaubsgeld (ohne Berücksichtigung von Zulagen/Zuschlägen, bezogen auf die Endstufe der Urlaubsdauer). Das zeigt die aktuelle Auswertung des WSI-Tarifarchivs für 22 Wirtschaftszweige (Stand: 20.4.2014). Am wenigsten Geld für die Urlaubskasse bekommen Beschäftigte in der Landwirtschaft und im Steinkohlenbergbau. Die höchsten Zahlungen erhalten Arbeitnehmerinnen und Arbeitnehmer unter anderem in der Holz- und Kunststoffverarbeitung, in der Druckindustrie sowie in der Metallindustrie (Branchendaten siehe Grafik und Tabellen in der pdf-Version dieser PM; Link unten).

Im Westen ist das Urlaubsgeld vielfach höher als in Ostdeutschland. Im öffentlichen Dienst und in der Stahlindustrie gibt es kein gesondertes tarifliches Urlaubsgeld. Es wird mit dem Weihnachtsgeld zu einer einheitlichen Jahressonderzahlung zusammengefasst. Im Bankgewerbe und in der Energiewirtschaft gibt es kein tarifliches Urlaubsgeld. Für Beamtinnen und Beamte existiert keine tarifliche Urlaubsgeldregelung. Hier gelten die unterschiedlichen gesetzlichen Regelungen der Beamtenbesoldung für den Bund und für die einzelnen Länder einschließlich der Gemeinden.

Gegenüber dem Vorjahr hat sich das tarifliche Urlaubsgeld in acht der untersuchten Branchen erhöht, und zwar zwischen 2,0 % (Textilindustrie Westfalen und Osnabrück), 3,0 % (Einzelhandel, Papierverarbeitung), 3,2 % (Versicherungsgewerbe), 3,4 % (Metallindustrie), 5,3 % (Gebäudereinigerhandwerk Ost o. Berlin) und bis zu 6,7 % (Textilindustrie Ost). In vielen Branchen gab es keine Erhöhung (z.B. Bauhauptgewerbe, Druck, Chemie, Großhandel, Süßwarenindustrie, Landwirtschaft). Grund dafür: Entweder fanden im Auswertungszeitraum keine Tarifverhandlungen statt, oder das Urlaubsgeld ist als Festbetrag vereinbart, der nicht verändert wurde.

Ansprechpartner in der Hans-Böckler-Stiftung:
Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 02 11-77 78-232
Fax: 02 11-77 78-250
E-Mail: Reinhard-Bispinck@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 02 11-77 78-150
Fax: 02 11-77 78-4150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/pdf/pm_ta_2014_05_21.pdf – Die PM mit Grafik und Tabellen

Quelle: idw

(nach oben)


RWI: Elterngeldmütter arbeiten häufiger und haben bessere Jobs

Katharina Brach Presse und Information
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.

Das Elterngeld hat den Anteil der arbeitenden Mütter signifikant erhöht. Gleichzeitig kehren die Mütter in höherem Maße zum gleichen Arbeitgeber zurück, bei dem sie vor der Geburt des Kindes tätig waren – was wiederum vom Arbeitgeber durch eine höhere Anzahl unbefristeter Verträge belohnt wird. Zu diesen Ergebnissen kommt eine aktuelle Studie des RWI, die erstmals die Beschäftigungssituation der Mütter bis zu 5 Jahre nach der Geburt des Kindes untersucht.

Durch das Elterngeld ist der Anteil der arbeitenden Mütter signifikant gestiegen. Dies ist eines der Ergebnisse einer aktuellen Studie des RWI, in der erstmals die Beschäftigungssituation der Mütter in der mittleren Frist – bis 5 Jahre nach der Geburt des Kindes – untersucht wird. Die Studie zeigt, dass über diesen längeren Zeitraum gesehen das Elterngeld das Arbeitsmarktverhalten der Mütter nachhaltig verändert hat. Unter anderem hat sich die Wahrscheinlichkeit, erwerbstätig zu sein, durch das Elterngeld um bis zu 10% erhöht.

Dieser ausgeprägte Effekt ergibt sich aus Zuwächsen in der Teilzeit-, nicht aber der Vollzeiterwerbstätigkeit. Gleichzeitig hat sich die angebotene Arbeitszeit innerhalb der Teilzeitberufstätigkeit in der Phase 3 bis 5 Jahre nach der Geburt erhöht: Elterngeldmütter arbeiten signifikant häufiger im oberen Teilzeitbereich von etwa 30 Stunden pro Woche als im Bereich von 15 bis 20 Wochenstunden.

Arbeitgeber belohnen die Rückkehr der Mütter
Das höhere Arbeitsangebot der Mütter in Folge des Elterngeldes trifft offenbar auf entsprechenden Bedarf bei den Arbeitgebern. Denn wie die Studie zeigt, kehren Elterngeldmütter signifikant häufiger zu dem Arbeitgeber zurück, für den sie vor der Geburt des Kindes tätig waren. Diese Rückkehr wird darüber hinaus vom Arbeitgeber belohnt – Elterngeldmütter haben eine signifikant erhöhte Wahrscheinlichkeit, einen unbefristeten Vertrag zu erhalten.

Insgesamt kommt die Studie zu dem Schluss, dass das Elterngeld die Beschäftigungssituation der Mütter fundamental verändert hat: Erstens arbeiten mehr Mütter als zuvor; zweitens leisten die arbeitenden Mütter längere Arbeitszeiten; drittens kehren sie in stärkerem Maße zu ihrem früheren Job zurück; viertens belohnt dies der Arbeitgeber durch unbefristete Verträge. Gleichzeitig zeigt sich, dass die Wahrscheinlichkeit von Elterngeldmüttern, innerhalb des 5-Jahres-Zeitraums ein weiteres Kind zu bekommen, geringfügig gesunken ist, insbesondere unter den jüngeren Müttern (29 Jahre oder jünger bei Geburt des betrachteten Kindes). Dieses Verhalten hängt vermutlich mit der Entscheidung zusammen, früher wieder in das Berufsleben zurückzukehren, spätere Geburten sind demnach nicht ausgeschlossen. Der Effekt auf die Gesamtfertilität (also insbesondere auch die Anzahl der Erstgeburten) ist empirisch nicht messbar.

Die Generosität des Elterngeldes prägt insbesondere das erste Jahr, so dass derart ausgeprägte Langzeiteffekte auf das Arbeitsmarktverhalten der Mütter nicht zu erwarten waren. Die Ergebnisse der Studie legen daher nahe, dass dies vor allem auf eine durch die Reform angestoßene fundamentale Neudefinition gesellschaftlicher Muster und Normen zurückzuführen ist: Das Elterngeld definiert mit seiner Bezugsdauer von 12+2 Monaten erstmals einen „Anker“ im Sinne eines gesellschaftlich akzeptierten, durch das Bezugsende präzise definierten Zeitpunkts, an dem Mütter wieder in das Erwerbsleben zurückkehren. Und dies scheint – wie das Zusammenspiel von Arbeitsangebots- und Nachfrageeffekten zeigt – sowohl Müttern als auch deren Arbeitgebern wichtige Planungssicherheit zu geben.

Studie umfasst etwa 11 600 Haushalte
Die Studie basiert auf Daten des Mikrozensus der Jahre 2006 bis 2011 und umfasst mehr als 11 600 Mütter, von denen knapp 5 900 in der Gruppe der Elterngeldbezieherinnen sind und rund 5 700 in der Vergleichsgruppe (Potentielle Bezieherinnen von Erziehungsgeld). Um den kausalen Effekt des Elterngeldes zu ermitteln, verwendet die Studie ein Stichtagsdesign rund um den 1. Januar 2007, an dem die Regelung in Kraft trat: Mütter in der Elterngeldgruppe bekamen ihre Kinder im ersten Quartal 2007, Mütter in der Vergleichsgruppe im letzten Quartal 2006 – da zum Zeitpunkt der Zeugung dieser Kinder die Eltern noch nichts von der Neuregelung wissen konnten, ist die verwendete Stichprobe frei von jeglichen Selektionsverzerrungen und kann somit die Auswirkungen des Elterngeldes präzise und stichhaltig messen.

——————

Ihre Ansprechpartner dazu:
Prof. Dr. Jochen Kluve, Tel.: (030) 2021 598-13
Katharina Brach (Pressestelle), Tel.: (0201) 8149-244

Dieser Pressemitteilung liegt das Ruhr Economic Paper #481 „Social Norms and Mothers‘ Labor Market Attachment: The Medium-Run Effects of Parental Benefits“ zugrunde.

Weitere Informationen:
http://www.rwi-essen.de/publikationen/ruhr-economic-papers/616/ – Ruhr Economic Paper #481 „Social Norms and Mothers‘ Labor Market Attachment: The Medium-Run Effects of Parental Benefits“

Quelle: idw

(nach oben)


Untersuchung möglicher gesundheitlicher Gefährdungen durch Drucker- und Kopierer-Emissionen

Dr. Ulrike Rockland Pressestelle
Bundesanstalt für Materialforschung und -prüfung (BAM)

Seit einigen Jahren wird immer wieder über Gesundheitsbeschwerden beim Umgang mit Laserdruckern berichtet. Messungen zeigen, dass viele Druckermodelle flüchtige organische Verbindungen und ultrafeine Partikel (kleiner als 0,1 µm) in unterschiedlichen Mengen ausstoßen.

Da es schwierig ist, unter den variablen Bürobedingungen einen ursächlichen Zusammenhang zu belegen, bietet sich eine experimentelle Überprüfung unter kontrollierten Bedingungen an. In einem von der Deutschen Gesetzlichen Unfallversicherung (DGUV) geförderten Forschungsvorhaben wurden daher von der Bundesanstalt für Materialforschung und -prüfung (BAM) in Berlin und dem Institut und der Poliklinik für Arbeits-, Sozial- und Umweltmedizin des Klinikums der LMU München Untersuchungen mit freiwilligen Versuchspersonen durchgeführt. An der Studie nahmen 23 gesunde Kontrollpersonen, 14 Probanden mit leichtem Asthma sowie 15 Betroffene teil, die über Beschwerden beim Umgang mit Laserdruckern berichteten.

Alle Probanden wurden unter standardisierten Bedingungen in einem speziellen Raum über jeweils 75 Minuten sowohl sehr hohen als auch sehr niedrigen Konzentrationen von ultrafeinen Partikeln ausgesetzt. Die beiden Expositionen erfolgten in zufälliger Reihenfolge an zwei verschiedenen Tagen. Hierbei war den Probanden nicht bekannt, welcher Tag welche Exposition umfasste. Die verwendeten Laserdrucker wurden aufgrund ihrer Partikelemissionsraten sowie der chemischen Zusammensetzung und Größenverteilung der erzeugten Partikel aus einem Pool von Geräten ausgewählt, den die BAM aufgebaut und hinsichtlich des Emissionsverhaltens charakterisiert hatte. Vor den Untersuchungen wurden die Expositionsbedingungen im Raum (Versuchskammer) umfassend getestet und standardisiert. Während der Expositionen der Probanden wurden wichtige Kenngrößen laufend erfasst, um die Vergleichbarkeit zu gewährleisten. Das hohe Konzentrationsniveau (100 000 Partikel/cm³) wurde von zwei Laserdruckern mit hoher Abgabe von ultrafeinen Partikeln erzeugt und stellte eine extreme („worst case“) Bürosituation dar. Die beiden Laserdrucker mit sehr niedriger Partikelemissionsrate lieferten keinen messbaren Beitrag zur Hintergrundbelastung im Raum durch die Außenluft (ca. 3000 Partikel/cm³).

Mögliche Effekte auf die Probanden wurden mit funktionellen, biochemischen, psychologischen und psychometrischen Methoden erfasst. Die Methoden waren so ausgewählt, dass sie möglichst viel von den Beschwerden abdeckten, die von betroffenen Personen typischerweise berichtet werden und anhand objektivierbarer Größen prüfbar sind. Die Messungen erfolgten jeweils vor sowie innerhalb eines Zeitraumes von etwa zwei Stunden Dauer nach den Expositionen.

Da die Studie ein Kurzzeitszenario abbildet, sind nur begrenzt Schlüsse auf eine Langzeitexposition erlaubt. Ebenso lässt sich keine Aussage darüber treffen, ob Auswirkungen auf Organsysteme bestehen, die in der Studie nicht untersucht wurden, oder verzögerte Effekte auftreten, die erst mit Tagen Abstand offenbar werden.

Die Ergebnisse dieser Studie sind aus klinischer Perspektive nicht als besorgniserregend einzustufen. Sie sprechen nicht dafür, dass hohe Partikelbelastungen aus Laserdruckeremissionen einen Krankheitsprozess auf den Weg bringen, der dem Spektrum der berichteten, auf Laserdrucker zurückgeführten Erkrankungen entspricht.

Ungeachtet dessen erscheinen Maßnahmen zur Expositionsreduktion und -vermeidung sinnvoll, um Belästigungen durch den Druckerbetrieb soweit als möglich zu verringern.

Kontakt:
Dr. rer. nat. Stefan Seeger
Abteilung 4 Material und Umwelt
E-Mail: Stefan.Seeger@bam.de

Quelle: idw

(nach oben)


Neue Informationsplattform zu Erde und Umwelt

Dipl.Met. Franz Ossing Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Aktuelle Forschungsergebnisse und fundiertes Hintergrundwissen zu den Themen „Auswirkungen des Klimawandels“, „Naturgefahren“ und „Ausbreitung von Schadstoffen in der Umwelt“.

Neue Informationsplattform zu Erde und Umwelt
Die Wissensplattform „Erde und Umwelt – Earth System Knowledge Platform“ ESKP geht heute online. Auf www.eskp.de präsentieren Wissenschaftler/innen aus acht Zentren der Helmholtz-Gemeinschaft aktuelle Forschungsergebnisse und fundiertes Hintergrundwissen zu den Themen „Auswirkungen des Klimawandels“, „Naturgefahren“ und „Ausbreitung von Schadstoffen in der Umwelt“.

Die Auswirkungen des Klimawandels, die Früherkennung und der Schutz vor geologischen Naturgefahren und wetterbedingten Extremereignissen sowie die Verbreitung von Schadstoffen in der Umwelt sind enorme Herausforderungen für unsere Gesellschaft. Diese vielschichtigen Aufgaben erfordern eine interdisziplinäre, zentrenübergreifende Zusammenarbeit, da für die Erstellung eines Lagebildes oftmals sehr unterschiedliche wissenschaftliche Expertisen zusammengeführt werden müssen. Dies gilt auch für langsam fortschreitende Prozesse, die mit dem Klimawandel einhergehen und unterschiedliche Folgeerscheinungen wie zum Beispiel ein verändertes Risiko von Sturmfluten an der Nordsee mit sich bringen könnten. Auch hier können Zusammenhänge und Konsequenzen nur durch die ganzheitliche Betrachtung und die Bündelung von Fachwissen umfassend erklärt werden.

ESKP ist ein Informationspool und eine zentrale Anlaufstelle für die Öffentlichkeit. Vorhandenes Wissen der an ESKP beteiligten Helmholtz-Zentren wird für verschiedene Zielgruppen (u. a. Behörden, Politik, Entscheidungsträger, Presse, Bevölkerung) verständlich aufgearbeitet. Das breite Informationsangebot umfasst Texte, Interviews, Echtzeitdaten, Grafiken, Bild- und Filmmaterial. Literaturhinweise auf Fachpublikationen aber auch allgemeinverständliche Broschüren ergänzen das Angebot. Darüber hinaus stehen für zusätzliche Fragen die Fachexperten der Forschungszentren zur Verfügung.

Das Projekt wird koordiniert durch das Deutsche GeoForschungsZentrum GFZ und das Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung (HZG). Darüber hinaus beteiligen sich das Alfred-Wegener-Institut – Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), das Deutsche Zentrum für Luft- und Raumfahrt (DLR), das Forschungszentrum Jülich (FZJ), das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, das Karlsruher Institut für Technologie (KIT) und das Helmholtz-Zentrum für Umweltforschung (UFZ) an der Helmholtz-Wissensplattform „Erde und Umwelt“.

Kontakt:

Dr. Ute Münch
Deutsches GeoForschungsZentrum GFZ
Telegrafenberg
14473 Potsdam
Tel: 0331-2881079

Mail: ute.muench@gfz-potsdam.de

Weitere Informationen:
http://www.eskp.de

Quelle: idw

(nach oben)


Warnung vor dem Wunderpulver

Gunnar Bartsch Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Wenn Patienten unter einer chronischen Erkrankung leiden, setzen sie häufig ihre Hoffnung auf vermeintlich pflanzliche Mittel. Solch ein „Wundermittel“ gegen Rheuma aus Vietnam haben Pharmazeuten der Universität Würzburg jetzt analysiert – mit einem alarmierenden Ergebnis.

Ein bräunliches Pulver, abgepackt zu Tagesdosen in kleinen Faltbriefchen und natürlich ohne Beipackzettel: Mit diesem angeblich rein pflanzlichen Wundermittel hatte sich vor kurzem eine Frau an Professorin Ulrike Holzgrabe, Inhaberin des Lehrstuhls für Pharmazeutische und Medizinische Chemie der Universität Würzburg, gewandt. Sie sei Rheumapatientin und beziehe regelmäßig ihre Arznei von einem vietnamesischen Heiler aus der Nähe von Ho-Chi-Minh-Stadt; manchmal fahre sie sogar persönlich nach Vietnam, um diese für ein paar Dollar dort zu kaufen, erzählte die Frau der Chemikerin. Die weite Reise sei ihr das Arzneimittel wert, da es ihr, im Gegensatz zu den Mitteln, die ihr der deutsche Arzt verschrieben hat, sehr gut helfe. Allerdings sei sie jetzt doch daran interessiert, die genauen Bestandteile dieser Substanz kennen zu lernen. Ob ihr die Universität Würzburg dabei helfen könne?

Viel Zimt und jede Menge Arznei
Kein Problem für die Labors im Institut für Pharmazie und Lebensmittelchemie. „Wir haben die Probe in einem ersten Schritt mikroskopisch untersucht“, erzählt Ulrike Holzgrabe. Dabei fanden sie und ihre Kollegin aus der Pharmazeutischen Biologie, Dr. Gabriele Gresser, vor allem Bestandteile der Zimtrinde. Weitere pflanzliche Spuren konnten sie nicht identifizieren, da das Pulver sehr fein verrieben war.

„In einem zweiten Schritt haben wir deshalb das Pulver massenspektrometrisch und mit Hilfe der Kernspinspektroskopie genauer untersucht“, schildert die Professorin. Dabei stießen die Wissenschaftler auf eindeutige Spuren: „Die Probe enthielt vor allem vier Komponenten: Paracetamol, Indometacin, Sulfamethoxazol und Trimethoprim“, so Holzgrabe. Oder anders formuliert: Das Wundermittel aus Vietnam enthielt ein Schmerzmittel, ein nicht-steroidales Antirheumatikum und ein Antibiotikum. Außerdem entdeckten Holzgrabe und ihr Doktorand Johannes Wiest bei weiteren Untersuchungen noch Phosphat sowie eine zusätzliche Komponente, die allerdings in so kleinen Mengen vorhanden war, dass sie nicht identifiziert werden konnte.

Hohe Dosen verschiedener Wirkstoffe
Nach dieser ersten Analyse war die Neugierde der Wissenschaftler allerdings noch nicht gestillt: „Uns interessierte, in welcher Menge die jeweiligen Substanzen in einer Tagesdosis dieses Pulvers vorlagen“, sagt Holzgrabe. Das Ergebnis war ebenfalls überraschend: In einem Briefchen mit 2,6 Gramm Pulver zeigte die Analyse 863 Milligramm Paracetamol, 262 Milligramm Sulfamethoxazol und 42 Milligramm Indometacin. Der Gehalt von Trimethoprim ließ sich nicht exakt bestimmten, da seine Menge zu gering war. Zum Vergleich: Die empfohlene Tagesdosis Paracetamol liegt bei etwa 300 bis 1000 Milligramm, die von Indometacin bei 25 bis 100 Milligramm; Sulfamethoxazol wird in Dosierungen von 200, 400 oder 800 Milligramm verschrieben, Trimethoprim mit 40, 80 und 160 Milligramm.

Von der Einnahme ist abzuraten
„Sämtliche Komponenten des Pulvers waren also in pharmakologischen Dosen vorhanden. Insofern wundert es natürlich nicht, dass die Rheumapatientin mit der Wirksamkeit des Pulvers zufrieden war“, fasst Holzgrabe das Ergebnis ihrer Untersuchungen zusammen. Aus medizinischer Sicht könne sie von der Einnahme allerdings nur abraten – und das gleich aus einer Vielzahl von Gründen:

„Eine dauerhafte Einnahme eines Antibiotikums ist gefährlich. Sie erhöht die Gefahr, dass sich resistente Erregerstämme entwickeln, die dann nur noch schwer zu bekämpfen sind“, warnt Holzgrabe. Die Einnahme des Schmerzmittels Paracetamol sei bei Rheuma ebenfalls nicht sinnvoll, da es keine entzündungshemmende Wirkung besitzt. Unbekannt sei auch, wie die verschiedenen Medikamente miteinander wechselwirken und welche Nebenwirkungen sie dann verursachen. Außerdem sei die Gefahr der Überdosierung gegeben, da viele Patienten – in dem Glauben ein rein pflanzliches Medikament anzuwenden – zusätzlich noch ihre regulär vom Arzt verschriebenen Arzneimittel einnehmen. Einzig Indometacin fällt in der Begutachtung der Pharmakologin nicht komplett durch: „Es kann zur Behandlung von rheumatischen Erkrankungen eingesetzt werden, auch wenn es heutzutage nicht mehr das Mittel der ersten Wahl darstellt“, sagt sie. Was allerdings nichts daran ändert, dass bis auf Paracetamol alle Substanzen in Deutschland rezeptpflichtig sind.

Illegal hergestellt und in Deutschland verboten
„Wir bekommen immer wieder Berichte von solch vermeintlich pflanzlichen Wunderheilmitteln“, sagt Ulrike Holzgrabe. Mal handele es sich dabei um gefälschte Traditional Chinese Medicines (TCM), oder um Pflanzenmischungen, die chemisch definierte Arzneistoffe enthalten. Besonders häufig tauche dabei der Name „Herbal Viagra“ auf. „Dessen Wirkung ist allerdings fast immer auf die typischen Wirkstoffe Sildenafil, Tadalafil, Vardenfil oder auf eines der davon abgeleiteten Derivate zurückzuführen“, erklärt die Wissenschaftlerin. Auch vor deren Einnahme warnt sie: „In der Regel sind die strukturverwandten ‘Viagra‘-Abkömmlinge nie einer toxikologischen Prüfung unterzogen.“ Ganz abgesehen davon, dass es sich in all diesen Fällen um illegal hergestellte Arzneimittel oder Arzneimittelfälschungen handelt. Und deren Erwerb ist in Deutschland verboten.

J. Wiest, C. Schollmayer, G. Gresser, U. Holzgrabe (2014) Identification and Quantification of the ingredients in a Counterfeit Vietnamese Herbal Medicine against rheumatic diseases. J. Pharm. Biomed. Anal., 97, 24-28 (2014)

Kontakt
Prof. Dr. Ulrike Holzgrabe, T: (0931) 31-85461, u.holzgrabe@pharmazie.uni-wuerzburg.de

Quelle: idw

(nach oben)


UDE: Durchschnittliche Stundenverdienste untersucht – Enorme Spanne zwischen Branchen

Katrin Koster Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Je nach Wirtschaftszweig verdienen Beschäftigte in Deutschland sehr unterschiedlich: In den Hochlohnbranchen – Energieversorgung oder Finanz- und Versicherungsdienstleistungen – liegen die Brutto-Stundenentgelte mehr als doppelt so hoch wie im Niedriglohnbereich, etwa im Gastgewerbe, Verkehr oder in der Lagerhaltung. Das zeigen aktuelle Berechnungen des Instituts Arbeit und Qualifikation (IAQ) der Universität Duisburg-Essen, die jetzt im Internetportal Sozialpolitik Aktuell veröffentlicht wurden.

Ein extremes Beispiel: Finanz- und Versicherungsdienstleister verdienen durchschnittlich 37,08 Euro pro Stunde; das ergaben Daten aus der Verdiensterhebung des Statistischen Bundesamtes im Jahr 2013. Im Gastgewerbe sind es hingegen nur 12,63 Euro. In allen Wirtschaftszweigen erhalten die Frauen deutlich weniger als die Männer. Die Spanne in der Finanz- und Versicherungsbranche ist besonders groß: Hier bekommen Frauen nur 68,6 Prozent der Männerverdienste.

„Die enorme Spannweite lässt sich nur teilweise durch unterschiedliche Qualifikationen und Tätigkeitsanforderungen erklären“, stellt Prof. Dr. Gerhard Bäcker fest. Eine zentrale Rolle spielten die Wirtschaftskraft einzelner Branchen wie auch institutionelle Faktoren, z.B. Tarifverträge. Erfassen diese nur wenige Beschäftigte und Betriebe in einem Wirtschaftsbereich oder enthalten sie lediglich Minimalkompromisse, dann sind geringere Löhne und eine Ausbreitung des Niedriglohnsektors wahrscheinlich – wie im Dienstleistungsbereich zu beobachten. „Dies kann zu großen Unterschieden zwischen gewerkschaftlich gut und weniger gut organisierten Branchen führen“, warnt Bäcker.

Die Verdienstunterschiede zwischen Männern und Frauen führt der IAQ-Forscher vor allem darauf zurück, dass berufliche Leistungen unterschiedlich bewertet werden. Während männertypische Tätigkeiten traditionell als anspruchsvoll gelten, werden frauentypische Arbeiten oft nur als „einfach“ eingestuft. Hinzu kommt das Problem der Vereinbarkeit von Beruf und Kindererziehung: Elternzeit oder zwischenzeitliche Teilzeitarbeit hemmen die Karriere und erschweren Frauen trotz gleicher Qualifikation den beruflichen Aufstieg. So gelangen sie seltener auf höhere und leitende Stellen, die oft als Vollzeitarbeitsplätze konzipiert sind. Die Tatsache, dass Frauen weniger in Führungspositionen zu finden sind, wirkt sich somit negativ auf den durchschnittlichen Bruttomonatslohn der Frauen aus.

Infografik und Analysen unter
http://www.sozialpolitik-aktuell.de/tl_files/sozialpolitik-aktuell/_Politikfelde…

Weitere Informationen:
Prof. Dr. Gerhard Bäcker, Tel. 0203/379-2573 oder 0177/5738596, gerhard.baecker@uni-due.de

Quelle: idw

(nach oben)


Blutdruck- und Fettsenker haben komplexe Wirkungen auf den Stoffwechsel

Dr. Nadja Becker Kommunikation
Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt

Medikamente, die den Blutdruck und die Blutfette senken, wirken nicht nur an ihrer Zielstruktur, sondern beeinflussen darüber hinaus vielfältige Stoffwechselwege. Hinweise darauf konnte ein Forscherteam des Helmholtz Zentrums München anhand von veränderten Stoffwechselprodukten bei Einnahme dieser Medikamente finden. Die Daten tragen zu einem umfassenderen Verständnis der Wirkweise dieser häufig verschriebenen Medikamentengruppen bei, berichten die Wissenschaftler in der Fachzeitschrift ‚European Journal of Epidemiology‘.

Die Wissenschaftler des Helmholtz Zentrums München führten bei über 1700 Teilnehmern der bevölkerungsbasierten KORA-Studie* Messungen verschiedener Stoffwechselprodukte (Zwischenprodukte wie Aminosäuren, Kohlenhydrate, Vitamine, Fettsäuren oder DNA-Bausteine) durch. Anschließend verglichen sie diese Daten mit der Einnahme von Medikamenten gegen einen erhöhten Blutdruck oder erhöhte Blutfettwerte. Auch andere Einflüsse auf den Stoffwechsel wie Alter, Geschlecht, Körpergewicht oder Lebensstil wurden bei der Auswertung berücksichtigt.

Medikamenteneinnahme beeinflusst Stoffwechselleistung
Auf der Grundlage der bevölkerungsbasierten Daten, die unter Alltagsbedingungen erhoben wurden, konnte das Team um Dr. Elisabeth Altmaier, Dr. Gabi Kastenmüller und Dr. Christian Gieger mögliche neue Zusammenhänge zwischen den Medikamenten und einer veränderten Stoffwechselleistung feststellen. „Die Medikamente beeinflussen den Stoffwechsel auf vielfältige Weise“, so Erstautorin Altmaier. „Unsere Ergebnisse liefern wichtige Einblicke in die komplexe Wirkweise dieser Medikamentengruppen, die über ihre blutdruck- bzw. fettsenkenden Effekte hinausgeht.“ So wurden beispielsweise bei Einnahme von Betablockern – Wirkstoffe, die den Blutduckt senken – erniedrigte Spiegel freier Fettsäuren im Blut beobachtet.

Kenntnis des gesamten Wirkspektrums ermöglicht individualisierte Therapie
Die untersuchten Wirkstoffe, wie z.B. Betablocker oder Statine, gehören zu den am häufigsten verschriebenen Medikamenten. Umfassende Erkenntnisse zu den beeinflussten Signalwegen ermöglichen es, Wirkungen sowie Nebenwirkungen abschätzen zu können. „Wenn wir das gesamte Wirkspektrum einer Substanz kennen, können wir Medikamente gezielter, das heißt im Sinne einer individualisierten Therapie einsetzen“, resümiert Altmaier.

Ziel des Helmholtz Zentrums München ist es, neue Ansätze für personalisierte Diagnose, Therapie und Prävention der großen Volkskrankheiten zu entwickeln.

Weitere Informationen
* Die Kooperative Gesundheitsforschung in der Region Augsburg (KORA) untersucht seit über 20 Jahren die Gesundheit tausender Bürger aus dem Raum Augsburg. Ziel ist es, die Auswirkungen von Umweltfaktoren, Verhalten und Genen zu verstehen. Kernthemen der KORA-Studien sind Fragen zu Entstehung und Verlauf von chronischen Erkrankungen, insbesondere Herzinfarkt und Diabetes mellitus. Hierzu werden Risikofaktoren aus dem Bereich des Gesundheitsverhaltens (u.a. Rauchen, Ernährung, Bewegung), der Umweltfaktoren (u.a. Luftverschmutzung, Lärm) und der Genetik erforscht. Aus Sicht der Versorgungsforschung werden Fragen der Inanspruchnahme und Kosten der Gesundheitsversorgung untersucht.

Original-Publikation:
Altmaier, E. et al. (2014). Metabolomics approach reveals effects of antihypertensives and lipid-lowering drugs on the human metabolism, European Journal of Epidemiology, doi: 10.1007/s10654-014-9910-7
Link zur Fachpublikation: http://link.springer.com/article/10.1007/s10654-014-9910-7

Das Helmholtz Zentrum München verfolgt als Deutsches Forschungszentrum für Gesundheit und Umwelt das Ziel, personalisierte Medizin für die Diagnose, Therapie und Prävention weit verbreiteter Volkskrankheiten wie Diabetes mellitus und Lungenerkrankungen zu entwickeln. Dafür untersucht es das Zusammenwirken von Genetik, Umweltfaktoren und Lebensstil. Der Hauptsitz des Zentrums liegt in Neuherberg im Norden Münchens. Das Helmholtz Zentrum München beschäftigt rund 2.200 Mitarbeiter und ist Mitglied der Helmholtz-Gemeinschaft, der 18 naturwissenschaftlich-technische und medizinisch-biologische Forschungszentren mit rund 34.000 Beschäftigten angehören. www.helmholtz-muenchen.de

Weitere Informationen:

http://www.helmholtz-muenchen.de/aktuelles/uebersicht/pressemitteilungnews/artic…

Quelle: idw

(nach oben)


Umweltlabor auf drei Rädern

André Zeppenfeld Presse- und Kommunikationsstelle
Universität Siegen

Die Uni Siegen startet das Projekt „Chem-trucking“ und weckt das Interesse von Schülerinnen und Schüler an Chemie und Natur.

Sie ist Italienerin, hat drei Räder und ihr Name ist „Biene“. Und ab sofort ist die Piaggio APE als mobiles Umweltlabor der Universität Siegen im Einsatz. Der kultige Lieferwagen ist Teil des neuen Projekts „Chem-trucking“. Hierbei können heimische Schulen im Rahmen des Unterrichts oder in Projektwochen umweltanalytische Messungen von Luft, Gewässern und Böden in der Umgebung vornehmen – mit einem mobilen Umweltlabor.

Hinter dem Projekt steht die Arbeitsgruppe Didaktik der Chemie von Prof. Dr. Martin Gröger. Die Naturwissenschaftlich-Technische Fakultät der Uni Siegen, das Umweltlabor HuK mit Sitz in Hünsborn, sowie die EU mit dem Europäischen Fonds zur Förderung der Regionalenwicklung bringen für die nächsten Jahre dazu 130.000 Euro auf. Dr. Peter Liese, EU-Abgeordneter der CDU für Nordrhein-Westfalen (NRW), war bei der Vorstellung des Projekts dabei: „Sehr spannend, Schülerinnen und Schüler lernen den praktischen Umgang mit Chemie und erforschen gleichzeitig die Natur und begeistern sich so für Umweltthemen. Ein tolles Projekt.“

Bei „Chem-trucking“ geht es um Themen, die Schülerinnen und Schüler aus ihrer Lebenswelt kennen interessieren. Die Wasserqualität im Deuzer Naturfreibad oder dem Biggesee zum Beispiel, die Kalkung von Waldböden oder die Luftqualität an einer Straßenkreuzung. Die Piaggio APE ist beladen mit Messkoffern, Sensoren, Schutzbrillen und Bänken – also allem, was zum Einsatz vor Ort nötig ist. Das mobile Labor hat die Klasse 8c der Olper St.-Franziskus-Schule (Fach: Chemie/Bio) intensiv am Biggesee ausgetestet. „Das ist spannender als in der Schule. Wir lesen nicht nur Formeln, hier kann man fühlen und riechen“, ist Schüler Josua Klur begeistert.

Prof. Dr. Martin Gröger leitet zusammen mit Doktorand Philipp Spitzer das Projekt. Gröger: „Uns geht es darum, Chemie und Natur zu verbinden. Es muss hier keinen Gegensatz geben. Wir möchten Schülerinnen und Schülern bewusst machen, dass sie durch ihr eigenes Handeln aktiv werden können und so ihr Umweltbewusstsein fördern.“ Darum kümmert sich das Uni-Team persönlich. Schulen aus der Region Siegen-Wittgenstein und Olpe können das mobile Labor „Chem-trucking“ anfragen, Doktorand Philipp Spitzer fährt mit der Piaggio APE zum Einsatzort, hilft bei allen Messungen, entwickelt Lehrmaterialien und experimentiert gemeinsam mit Schülerinnen und Schülern. Unterricht kann so direkt in der Natur stattfinden.

Gleichzeitig wird „Chem-trucking“ in die Lehre an der Uni Siegen eingebunden. Umweltanalytische Praktika ermöglichen es Studierenden, gemeinsam mit Schülerinnen und Schülern zu forschen und zu experimentieren, interessante Themen werden im Rahmen von Seminaren behandelt.

Das Projekt ist 2014 gestartet und hat eine Laufzeit bis 2020. „Chem-trucking“ ergänzt das zdi-Schülerlabor (Zukunft durch Innovation, NRW) der Naturwissenschaftlich-Technischen Fakultät, zu dem das Science-Forum, das Freilandlabor FLEX in Schönau sowie die Lernwerkstatt Naturwissenschaft gehören. Kooperationsschulen sind das Berufskolleg Technik Siegen-Wittgenstein, das Berufskolleg Olpe, die St.-Franziskus-Schule in Olpe, die Gesamtschule Eiserfeld sowie die Carl-Kraemer-Realschule in Hilchenbach.

Weitere Informationen:
http://www.uni-siegen.de/start/news/oeffentlichkeit/580454.html

Quelle: idw

(nach oben)


Neue Patienteninformationen zum Thema Nervenschädigungen bei Diabetes erschienen

Corinna Schaefer M.A. Presse- und Öffentlichkeitsarbeit
Ärztliches Zentrum für Qualität in der Medizin

Ab heute stehen im Internet neue Informationsmaterialien kostenlos bereit: Die PatientenLeitlinie „Nervenschädigungen bei Diabetes“ und die dazugehörige Kurzversion vermitteln, was Nervenschädigungen bei Diabetes sind, wie sie erkannt und behandelt werden.

Diabetes kann zu Schäden an den Nerven führen. Der Fachausdruck dafür ist „diabetische Neuropathie“. Diese Erkrankung kann verschiedene Beschwerden verursachen und die Funktion von inneren Organen beeinträchtigen. Wenn Nervenschäden rechtzeitig entdeckt und behandelt werden, lassen sich die Beschwerden jedoch lindern und ihr Fortschreiten verzögern.

In der neuen PatientenLeitlinie „Nervenschädigungen bei Diabetes“ erhalten Menschen mit Diabetes nun ausführliche Informationen darüber, welche Anzeichen, Untersuchungs- und Behandlungsmöglichkeiten es gibt. Außerdem erhalten sie Hinweise auf Beratungsstellen und weitere Informationsquellen. Zusätzlich wurde eine Kurzinformation erarbeitet. Diese fasst auf zwei Seiten leicht verständlich die wichtigsten Fakten zusammen und gibt Tipps zum Umgang mit der Erkrankung. Alle Materialien lassen sich als pdf-Dokument kostenlos downloaden.

Programm für Nationale VersorgungsLeitlinien – PatientenLeitlinien
PatientenLeitlinien übersetzen die wichtigsten Inhalte und Empfehlungen einer ärztlichen Leitlinie in eine laienverständliche Sprache. Die Broschüre „Nervenschädigungen bei Diabetes“ beruht auf den Handlungsempfehlungen der aktuellen Nationalen VersorgungsLeitlinie „Neuropathie bei Diabetes im Erwachsenenalter“ und damit auf dem besten derzeit verfügbaren medizinischen Wissen. Sie wurde zusammen mit Patientenvertretern und ärztlichen Experten entwickelt. Betreuung und Redaktion erfolgte durch das Ärztliche Zentrum für Qualität in der Medizin (ÄZQ). Ein Methodenreport dokumentiert ausführlich den gesamten Erstellungsprozess.

Das Programm für Nationale VersorgungsLeitlinien steht unter der Trägerschaft von Bundesärztekammer, Kassenärztlicher Bundesvereinigung und der Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften. Mit der Durchführung wurde das ÄZQ beauftragt. Zu ausgewählten Krankheitsbildern arbeiten Experten verschiedener Organisationen zusammen, um im Rahmen der strukturierten Versorgung chronisch kranker Menschen die angemessene und evidenzbasierte Patientenversorgung darzustellen.

Weitere Informationen:
http://www.versorgungsleitlinien.de/patienten/pdf/nvl-t2dm-neuropathie-patienten… – PatientenLeitlinie „Nervenschädigungen bei Diabetes“
http://www.patienten-information.de/mdb/downloads/kip/aezq-version-kip-diabetes-… – Kurzinformation für Patienten „Diabetes und Nerven“
http://www.versorgungsleitlinien.de/themen/diabetes2/dm2_neuro/pdf/nvl-t2dm-neur… – Report zur PatientenLeitlinie „Nervenschädigungen bei Diabetes“

Quelle: idw

(nach oben)


Gerät der Profifußball aus den Fugen?

Brigitte Kohlberg Pressestelle
Universität Bayreuth

An diesem Wochenende endet die Bundesliga-Saison 2013/14. Im Rückblick fordert der Bayreuther Sportökonom Markus Kurscheidt die Stärkung schwacher Vereine und eine veränderte Haltung gegenüber den Fans. Schon vor wenigen Wochen stand der FC Bayern München als Deutscher Meister fest. Prof. Dr. Markus Kurscheidt, Inhaber des Lehrstuhls Sportwissenschaft II der Universität Bayreuth, bezieht Stellung zu einigen vieldiskutierten Aspekten im deutschen Profifußball und fordert aus Wettbewerbsgründen geeignetes Handeln gegen ein ungezügeltes Auseinanderdriften der wirtschaftlichen Möglichkeiten der Profiklubs.

Es sei längst zum Allgemeinplatz geworden, so der Wissenschaftler, dass der Spitzenfußball ein Geschäft sei und die Spieler ausgebuffte „Millionarios“. Es sei halt so, wie die Trainer-Legende Otto Rehhagel formuliert habe: „Geld schießt Tore!“

„Ist nicht die aktuelle Bundesligasaison wieder Beweis genug dafür? Bereits sieben Spieltage vor Schluss holte Bayern München ungeschlagen mit unglaublichen 25 Punkten und 36 Toren Vorsprung auf den Zweiten Borussia Dortmund seinen 24. Titel“, erläutert Prof. Dr. Markus Kurscheidt. Trotz der schwächeren Auftritte danach und dem Ausscheiden der Oberbayern aus der Champions League mache sich Fußballdeutschland Sorgen um die Zukunft des sportlichen Wettbewerbs in der Spitzenliga. Nicht ohne Grund, sei doch der Rekordmeister in die Saison gestartet mit einem zehnmal größeren Spieleretat gegenüber dem ärmsten Klub Eintracht Braunschweig und immer noch fast doppelt so hohem Budget wie Schalke 04 mit der zweitteuersten Mannschaft.

Auseinanderdriften der wirtschaftlichen Möglichkeiten der Profiklubs stoppen
„Geeignetes Handeln gegen ein ungezügeltes Auseinanderdriften der wirtschaftlichen Möglichkeiten der Profiklubs ist aus Wettbewerbsgründen geboten“, fordert Prof. Dr. Markus Kurscheidt. Schon jetzt sei der FC Bayern derart dominant. „Das könnte für die Bundesliga in absehbarer Zeit zu einer Zerreißprobe werden“, befürchtet der Professor für Sport Governance und Eventmanagement des Bayreuther Instituts für Sportwissenschaft. Denn in wenigen Jahren werde der Branchenprimus auch sein Stadion abbezahlt haben und könne dann das frei gewordene Geld zusätzlich in die Mannschaft stecken. Das Ergebnis könnte sein, so Prof. Kurscheidt, dass die Münchner bald drei- oder viermal soviel Budget für Spieler zur Verfügung hätten wie ihre unmittelbaren Verfolger in der Liga.

„Wir hatten schon in dieser Spielzeit zwei Ligen in einer – die Bayern und der deutlich ärmere Rest“, führt der Bayreuther Sportökonom weiter aus. Klare Maßnahmen zum zukünftigen Umgang mit der Situation seitens der Deutschen Fußball-Liga DFL seien kaum erkennbar. Es seien eher die Länder und Städte, die den wirtschaftlich schwächeren Klubs unter die Arme griffen. „Ohne die Unterstützung der öffentlichen Hand wären die modernen Stadien bis runter in die dritte Liga nicht finanzierbar. Sie sind der Basisfaktor“, erläutert der Wissenschaftler, „der den Profifußball zu dem heutigen Hochglanzprodukt gemacht hat. Zuletzt haben diese Bauprojekte aber auch Traditionsvereine wie Alemannia Aachen oder Arminia Bielefeld in finanzielle Schieflage gebracht.“

Die positive Seite der Stärke des FC Bayern sei dagegen die internationale Wettbewerbsfähigkeit der Bundesliga. So habe der deutsche Profifußball seit 2007 in der Fünfjahreswertung der UEFA gegen den Trend der anderen europäischen Top-Ligen mächtig aufgeholt. „Symbolträchtig dafür war das rein deutsche Champions League-Finale im letzten Jahr, ausgerechnet in London. Hinter der englischen Premier League mit gut 3 Milliarden Euro Umsatz liegt nun die Bundesliga mit Einnahmen von fast 2,2 Milliarden Euro an zweiter Stelle in Europa. Als Dauergast im europäischen Oberhaus verhilft der Rekordmeister somit der gesamten Liga zu einer besseren Position“, schätzt der Wissenschaftler ein.

Prof. Dr. Markus Kurscheidt sieht den internationalen Aufschwung auch als einen Erfolg des restriktiven Ansatzes der Bundesliga. Die 50-plus-1-Regel sichere etwa die Mehrheit des eingetragenen Stammvereins an den Kapitalgesellschaften der Klubs. Dies schrecke allzu wagemutige und mitunter unseriöse Investoren ab. Auch habe die deutsche Spitzenliga seit Jahrzehnten das strengste Lizensierungs-verfahren, was das chronisch risikoreiche Finanzgebaren der Klubs in Grenzen halte. Dies setze Anreize für ein effizientes Klubmanagement. Das mache sich auch im modernen und attraktiven Fußball der oft recht jungen Teams bemerkbar.

Debatte zur Fangewalt gehe an der Realität vorbei
Kritisch bewertet der Bayreuther Wissenschaftler die Haltung und das Handeln gegenüber Fangruppierungen, wie den sogenannten Ultras: „Die Debatte um die Gewalt von Fußballfans in den letzten zwei Jahren war völlig überzogen und verfehlt.“ In Polittalks und Schlagzeilen werde die Situation unverantwortlich dramatisiert, was die problematische Klientel unter den Fans eher provoziere als zu einer Beruhigung der Lage beitrage. „Dafür, dass jedes Wochenende gut eine halbe Million Menschen in die Stadien der beiden Bundesligen strömen, passiert sogar verhältnismäßig wenig über die gesamte Saison gesehen“, stellt der Experte heraus.

Dass Geld nicht immer Tore schieße, beweise auch wieder diese Saison. Der FC Augsburg habe es mit dem drittkleinsten Spieleretat bis in den Kampf um die internationalen Plätze geschafft, während der wirtschaftsstarke Hamburger SV im Abstiegskampf um seinen Status als „Bundesliga-Dino“ fürchten müsse. „Eine gute Vereinsführung, Mannschaftsgeist und leidenschaftliche Fans können eben doch ein paar Millionen Euro wettmachen“, resümiert Prof. Dr. Markus Kurscheidt.

Für weitere Informationen steht gern zur Verfügung:
Prof. Dr. Markus Kurscheidt
Prüfungsausschussvorsitzender/Studiengangmoderator Sportökonomie
Lehrstuhlinhaber für Sport Governance und Eventmanagement
Institut für Sportwissenschaft
Kulturwissenschaftliche Fakultät
Universität Bayreuth
Universitätsstraße 30
D-95447 Bayreuth
Telefon (+49) 0921 / 55-3471
E-Mail sekretariat.sport2@uni-bayreuth.de
http://www.sport.uni-bayreuth.de
http://www.spoeko.uni-bayreuth.de

Quelle: idw

(nach oben)


BAuA informiert mit „Arbeitswelt im Wandel 2014″ über aktuelle Trends in der Arbeitswelt

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Dortmund – „Arbeitswelt im Wandel“ ist die regelmäßig erscheinende Broschüre der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA), die neueste Zahlen und Daten zu Sicherheit und Gesundheit bei der Arbeit liefert. Das 86 Seiten starke Heft, fasst die deutsche Arbeitswelt in Fakten zusammen. Themen wie Erwerbstätigkeit, Berufskrankheiten, Gefährdungsbeurteilung oder der demografische Wandel werden übersichtlich dargestellt. Diesjähriger Schwerpunkt ist das Thema „Atypische Beschäftigung“.

Die Ausgabe „Arbeitswelt im Wandel 2014″ stellt einen deutlichen Anstieg atypischer Beschäftigungen seit 1993 fest. Dabei ist mit über 41 Millionen in 2012 die Zahl der Erwerbstätigen auf ihrem höchsten Stand seit 1993. Davon befanden sich rund 7,9 Millionen in atypischen Beschäftigungsverhältnissen. Unter solche Beschäftigungsverhältnisse fallen laut Statistischem Bundesamt geringfügige Beschäftigungen, Teilzeitbeschäftigungen bis zu 20 Wochenarbeitsstunden, zeitlich befristete Beschäftigungen und Zeit- beziehungsweise Leiharbeit.

Arbeitswelt im Wandel 2014 zeigt, dass Teilzeitbeschäftigte und geringfügig Beschäftigte im Bereich „Handel, Instandhaltung und Kfz-Reparatur“ überrepräsentiert sind. Dagegen sind im Bereich „Erziehung und Unterricht“ eher befristet oder in Teilzeit Beschäftigte außerordentlich stark vertreten. Teilzeitstellen sind häufiger weiblich besetzt, Zeitarbeit ist eher eine Männerdomäne.

Außerdem liefert die BAuA-Broschüre aktuelle Zahlen zu verschiedenen Berufskrankheiten, zu Arbeitsbedingungen und zur Arbeitszeitgestaltung, die grafisch aufgearbeitet sind und übersichtlich dargestellt werden. Sie bietet Fachleuten die Möglichkeit, sich schnell über Entwicklungen, Trends und Zusammenhänge zu informieren, die auch für den eigenen Betrieb von Bedeutung sein können. Auch für die interessierte Öffentlichkeit bietet die Broschüre einen Überblick über die vielfältigen Themen des Arbeitsschutzes.

Die Broschüre „Arbeitswelt im Wandel – Ausgabe 2014″ kann im PDF-Format unter http://www.baua.de/publikationen heruntergeladen werden. Die Druckfassung gibt es gegen Versandkosten im Webshop der BAuA.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 600 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/5046798 Direkter Link zur Broschüre „Arbeitswelt im Wandel – Ausgabe 2014″

Quelle: idw

(nach oben)


Krafttraining – wie geht es richtig?

Blandina Mangelkramer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

FAU-Wissenschaftler untersuchen die Auswirkungen unterschiedlicher Trainingsprogramme auf die Gesundheit
Sport ist gesund – das dürfte sich herumgesprochen haben. Doch wie genau beeinflussen unterschiedliche Trainingseinheiten den menschlichen Körper? Ist eine zusätzliche Eiweißgabe nützlich? Und wie viele Durchgänge pro Übung wirken sich am günstigsten aus? Das haben Wissenschaftler am Lehrstuhl für Medizinische Physik der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) gemeinsam mit dem Institut für Radiologie der Universität in der PUSH-Kraftstudie untersucht. Für das Verhältnis von Fett und Muskulatur versprachen zwei Methoden den größten Erfolg: Das intensive Training mit mehreren Durchgängen pro Einheit – und das Training mit nur einem Durchgang, aber bei einer zusätzlichen Nahrungsergänzung mit hochwertigem Eiweiß.

Für die PUSH-Studie ließen die Forscher, unterstützt vom Verein Post SV Nürnberg, „Kieser Training“ Erlangen sowie der Staedtler-Stiftung, insgesamt 120 untrainierte Männer zwischen 30 und 50 Jahren fünf Monate lang trainieren – und zwar in vier Trainingsgruppen. Die erste absolvierte ein sogenanntes Einsatztraining – also lediglich ein Durchgang je Übung (bei 10 bis 12 Übungen) – und erhielt zusätzlich hochwertiges Eiweiß. Die zweite trainierte auf die gleiche Weise – aber ohne Nahrungsergänzung. Gruppe drei führte dagegen ein Mehrsatztraining ohne Eiweißgabe mit zwei bis drei Durchgängen je Übungseinheit durch, Gruppe vier bildete die Kontrollgruppe ohne Training und Proteingabe.

Alle Gruppen trainierten nach Ablauf eines vierwöchigen Konditionierungszeitraums an zwei, maximal drei Tagen je Woche über weitere 18 Wochen in einem hochintensiven Bereich mit weniger als 10 Wiederholungen je Übungsdurchgang, hohem Widerstand – also hoher Last – und verschiedenen „Ausbelastungsstrategien“ bis zur kompletten muskulären Ermüdung.

Im Anschluss nahmen die Wissenschaftler die Trainingsprotokolle unter die Lupe und prüften die Auswirkung des jeweiligen Trainingsprogramms auf die Körperzusammensetzung – also Muskelmasse und -dichte und Körperfettanteil – ebenso wie auf die Muskelkraft und das Herz-Kreislauf-Risiko. Die Ergebnisse bestätigen einmal mehr, dass der Gesundheitseffekt von sportlichem Training gar nicht hoch genug bewertet werden kann: Alle Trainingsarten zeigten hochrelevante und günstige Veränderungen der Muskelkraft, der Muskelmasse und -dichte, des Körperfettanteils und, besonders positiv, des Herz-Kreislauf-Risikos.

Mehrsatztraining und Eiweißgaben erweisen sich als nützlich
Im Detail allerdings ließen sich bei der umfangreicher trainierenden Mehrsatz-Trainingsgruppe sowie bei der Einsatz-Trainingsgruppe mit einer zusätzlichen Nahrungsergänzung mit hochwertigem Eiweiß die deutlich besten Ergebnisse für die Körperzusammensetzung ausmachen. Im Hinblick auf das Herz-Kreislauf-Risiko und die Herzgröße zeigten sich dagegen keine relevanten Unterschiede.

Insgesamt lässt sich von der PUSH-Studie klar ableiten, dass ein zeiteffizientes Einsatztraining (30 min/Trainingseinheit) an zwei bis drei Tagen pro Woche mit einer begleitenden Einnahme von hochwertigem Eiweiß bereits ausreicht, die Körperzusammensetzung hochrelevant zu beeinflussen und kardiale sowie metabolische Risikofaktoren deutlich zu reduzieren.

„Für den Schutz vor Herz-Kreislauf-Erkrankungen, aber auch Erkrankungen des Knochensystems wie Osteoporose hat sich Krafttraining längst als wichtiger Präventionsfaktor herauskristallisiert“, sagt Prof. Dr. Klaus Engelke, Medizinphysik-Professor am Lehrstuhl für Medizinische Physik. „Durch Untersuchungen wie diese gelingt es uns, noch besser zu verstehen, wie unterschiedliche Trainingsweisen auf die Körperzusammensetzung wirken – nur so können wir das Trainingsprogramm immer weiter feinjustieren.“ Prof. Dr. Wolfgang Kemmler, Sportwissenschaftler und ebenfalls Professor am Lehrstuhl für Medizinische Physik, ergänzt: „Gerade wenn Krafttraining nicht nur des sportlichen Vergnügens wegen, sondern gezielt zur Prävention eingesetzt wird, ist effizientes Training so wichtig – auch um die Motivation bei den Trainierenden aufrecht zu erhalten.“

Deutschlands erfolgreichste Osteologische Forschergruppe
Das Osteoporose-Forschungszentrum der FAU wurde jüngst von der Deutschen Akademie der osteologischen & rheumatologischen Wissenschaften (DAdorW) und dem Dachverband Osteologie (DVO) der Forschergruppenpreis als beste osteologische Forschergruppe der vergangenen drei Jahre verliehen. Ausschlaggebend für die Verleihung war neben der erfolgreichen Einwerbung von Drittmitteln die mit über 100 wissenschaftlichen Veröffentlichungen außergewöhnlich hohe Publikationsleistung und damit der eindrucksvollen Forschungserfolg der Forschergruppe um Professor Dr. Wolfgang Kemmler und Professor Dr. Klaus Engelke. Forschungsschwerpunkte der am Institut für Medizinische Physik beheimateten Abteilung sind die Entwicklung neuer bildgebender Verfahren und neuer Bildanalysetechniken zur Osteoporose-Diagnostik, aber auch die Durchführung oft mehrjähriger Trainingsstudien im Rahmen der Gesundheitsförderung für Menschen in höherem Lebensalter und/oder besonders gefährdete Personengruppen.

Ansprechpartner:
Prof. Dr. Wolfgang Kemmler
Dr. Simon von Stengel
Tel.: 09131-85-23999
wolfgang.kemmler@imp.uni-erlangen.de
simon.von.stengel@imp.uni-erlangen.de

Quelle: idw

(nach oben)


TH-Forschung aktuell: Drohnen für den Umwelt- und Katastrophenschutz

Dipl.-Ing. Bernd Schlütter Hochschulmarketing
Technische Hochschule Wildau [FH]

Naturkatastrophen und Großschadensereignisse wie Atom- und Chemieunfälle können eine Vielzahl von Menschenleben und die Umwelt gefährden. Um geeignete Rettungs- oder Abwehrmaßnahmen ergreifen zu können und die Gesundheit von Einsatzkräften zu schützen, ist eine schnelle und präzise Situationsanalyse erforderlich. Hierfür bieten unbemannte Luftfahrzeuge – so genannte Drohnen – den Vorteil, dass sie bei minimiertem Risiko vergleichsweise kostengünstig sind und wertvolle Daten zur Lagebeurteilung sammeln können. Derzeit existiert noch kein solches Fluggerät, das unter aggressiven Umweltbedingungen – wie beispielsweise in Vulkanaschewolken – Messungen durchführen kann.

Das Forschungsvorhaben „SAPODS – Smart Airborne Pollutants Detection System“ (Intelligentes Luftschadstoff-Erkennungssystem) der Technischen Hochschule Wildau wurde vom Bundesministerium für Bildung und Forschung (BMBF) als Projekt des Monats April 2014 im Rahmen des Förderprogramms „Forschung an Fachhochschulen mit Unternehmen“ ausgewählt. Dabei geht es um die Weiterentwicklung einer Flugmessdrohne für den Einsatz unter extremen Umweltbedingungen wie einem Vulkanausbruch.

Ziel der Arbeiten des Fachgebiets Luftfahrttechnik unter Leitung von Prof. Dr.-Ing. Wolfgang Rüther-Kindel ist es, die vorhandene Messdrohne ATISS – ein elektrisch angetriebener Motorsegler – für Flugeinsätze in belasteten Luftschichten umzurüsten und mit einer Technik zur Partikel- und Schadstoffmessung auszustatten. Start und Landung werden vom Boden manuell ferngesteuert, der Flug soll mittels Autopiloten weitestgehend autonom erfolgen. Da bei Einsätzen in belasteten Luftschichten das für den Autopiloten notwendige Satellitennavigationssystem nicht immer verfügbar ist, sind zusätzliche Sensoren zur Positionsbestimmung und eine verstärkte Funkverbindung zur Bodenstation für das Eingreifen per Fernsteuerung vorgesehen. Um mit der Drohne auch mehrstündige Flüge in ca. 5.000 Metern Höhe absolvieren zu können, muss das Antriebssystem (Propeller, Regler, Akkus und Motoren sowie insbesondere die Kühlung) den extremen Höhen- und Schadstoffbedingungen angepasst werden. Zum Testen der Flugtauglichkeit und der Schadstoffdetektoren sind Messflüge über Island geplant.

Das Projekt läuft noch bis August 2016 und wird vom BMBF mit rund 324.000 Euro gefördert.

Weitere Informationen:
http://www.th-wildau.de
http://www.bmbf.de/de/20730.php

Quelle: idw

(nach oben)


BAuA-Bericht: Kleine und mittlere Betriebe sollten vorbeugend im Arbeitsschutz handeln

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Auch kleine Unternehmen weisen der Sicherheit und Gesundheit bei der Arbeit eine hohe Bedeutung zu. Das zeigt eine repräsentative Befragung von rund 1.000 geschäftsführenden Personen und 2.000 Beschäftigten, die die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) in Auftrag gegeben hat. Untersucht wurden Kenntnisstand und betriebliches Handeln im Arbeitsschutz. Die Ergebnisse liegen jetzt als Bericht „Kenntnisstand von Unternehmen und Beschäftigten auf dem Gebiet des Arbeits- und Gesundheitsschutzes in KMU“ vor. Sie verdeutlichen den Kontrast zwischen dem Wissen über Arbeitsschutz und dem täglichen Handeln im Betrieb. Zugleich zeigt der Bericht Wege zur Wissensvermittlung auf.

„Hauptsache wir verstoßen nicht gegen Gesetze“ – dieses Handlungsmuster ist nach wie vor in den meisten Klein- und Kleinstbetrieben verwurzelt. Dennoch spielen Sicherheit und Gesundheit aus der Sicht der entscheidenden betrieblichen Akteure eine wichtige Rolle. Hingegen sind ihnen gesetzliche Arbeitsschutzregelungen weitgehend unbekannt, während sie die Verantwortung des Arbeitgebers weitgehend kennen.

In Sachen Arbeits- und Gesundheitsschutz besteht Informationsbedarf insbesondere zu den Themen Gesundheitsförderung, Unfallverhütung, Gestaltung von Arbeitsplätzen und Arbeitsstress. Um Sicherheit und Gesundheit zu verbessern, greifen die Unternehmen oft auf praktikable Verbesserungsvorschläge der Beschäftigten zurück. Es finden auch regelmäßige Gespräche über Gefahren und Risiken statt, die anschließend behoben werden. Regelmäßige Schulungen und anlassbezogene Unterweisungen sind dagegen keine Selbstverständlichkeit.

Informations- und Beratungsangebote, die einen starken Praxisbezug haben, bewerten Arbeitgeber und Beschäftigte am besten. Am liebsten wird am praktischen Beispiel gelernt. Aus den Ergebnissen der Befragung leiten die Experten Ansatzpunkte für Modelle und bedarfsgerechte Konzepte der Kompetenzerweiterung und -vertiefung ab. Die Verantwortlichen im Arbeitsschutz für die positiven Effekte von Prävention zu sensibilisieren, sollte dabei im Vordergrund stehen. Da die Unternehmen gern „aus der Praxis für die Praxis“ lernen, führt der Bericht Modelle wie die kollegiale Beratung, das Lernen in Netzwerken oder Pool- und Verbundberatung auf.

„Kenntnisstand von Unternehmen und Beschäftigten auf dem Gebiet des Arbeits- und Gesundheitsschutzes in KMU“; Dr. Cordula Sczesny, Sophie Keindorf, Patrick J. Droß, Dr. Gerda Jasper; 1. Auflage. Dortmund/Berlin/Dresden; Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2014; 329 Seiten, ISBN 978-3-88261-005-5

Eine Version im PDF-Format zum Herunterladen steht unter http://www.baua.de/publikationen.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 600 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/5047828 Direkter Link zum Bericht „Kenntnisstand von Unternehmen und Beschäftigten auf dem Gebiet des Arbeits- und Gesundheitsschutzes in KMU“

Quelle: idw

(nach oben)


Mikroorganismen filtern Uran aus Grundwasser

Simon Schmitt Kommunikation und Medien
Helmholtz-Zentrum Dresden-Rossendorf

In einem geplanten Endlager für hochradioaktiven Abfall aus Kernkraftwerken, das derzeit in Finnland errichtet wird, konnten Forscher des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) Bakterien entdecken, die in der Lage sind, gelöstes Uran in ihrer Zelle in Kristalle umzuwandeln. Auf diese Weise verhindern sie die mögliche Ausbreitung des radioaktiven Stoffes in der Umwelt.

„Der Einfluss von Mikroorganismen auf die Sicherheit von Endlagern für radioaktive Stoffe ist bislang noch nicht ausreichend erforscht“, beschreibt Dr. Evelyn Krawczyk-Bärsch vom Institut für Ressourcenökologie am HZDR den Stand der Wissenschaft. „Es ist jedoch bekannt, dass gewisse Bakterien die Korrosion von Kanistern mit den abgebrannten Brennelementen beschleunigen können. Durch solche Lecks gelangen möglicherweise Radionuklide in das Grundwasser.“ Eine spezielle Rolle spielen dort Biofilme – Schleimschichten, in denen Mikroorganismen, wie Bakterien, Algen oder Pilze, miteinander verbunden sind -, da sie wie ein natürlicher Schwamm in der Lage sind, gelöste Schwermetalle, zu denen auch das Element Uran zählt, „aufzufangen“.

„Diese mikrobiellen Lebensgemeinschaften bilden sich entlang von Klüften im Gestein“, erläutert Krawczyk-Bärsch. Die Geochemikerin überraschte es deswegen kaum, solche Biofilme auch im finnischen Onkalo-Tunnel, der voraussichtlich ab dem Jahr 2022 als Endlager für hochradioaktiven Abfall dienen soll, zu entdecken. Denn durch den dortigen Gneis ziehen sich zahlreiche Spalten, durch die Grundwasser sickert, das Mikroorganismen enthält. Diese setzen sich zum Teil an den Gesteinswänden fest und bilden dort die Biofilme. „Uns ging es nun darum, ob sie unter den gegebenen Umständen das gelöste Uran an sich binden können“, erklärt Krawczyk-Bärsch die Motivation für die Untersuchung der Schleimschichten.

Die Rossendorfer Forscherin simulierte deswegen gemeinsam mit Kollegen in einem Experiment den Fall eines leckenden Kanisters, aus dem Uran austritt. Dafür setzten sie eine Biofilm-Probe aus dem Tunnel in eine Flusszelle ein. Über diese ließen die Wissenschaftler anschließend in einem geschlossenen Kreislauf Wasser, das sie ebenfalls aus der finnischen Tiefe mitgebracht und im Labor mit dem radioaktiven Stoff versetzt hatten, laufen. „So konnten wir die Bedingungen vor Ort nachahmen“, beschreibt Krawczyk-Bärsch den Aufbau des Experiments. „Bereits nach 42 Stunden haben wir festgestellt, dass sich die Menge des radioaktiven Stoffes im Grundwasser verringert hat. Das lässt darauf schließen, dass das gelöste Uran immobilisiert wurde.“

Wie die Untersuchung gezeigt hat, formten sich im Zellplasma einiger Bakterien nadelähnliche Kristalle, die aus Uran bestanden. „Spektroskopische Verfahren bestätigten, dass es sich um ein Uranyl-Phosphat-Mineral handelt“, erklärt die Geochemikerin. „Die Mikroorganismen haben auf diese Weise die Bioverfügbarkeit – also die Wahrscheinlichkeit, dass der radioaktive Stoff in die Nahrungskette des Menschen gelangt – verringert.“ Denn die Bakterien haben das Uran aus dem Wasser gefiltert und im Biofilm gespeichert – ein möglicher Weitertransport in die Biosphäre wurde somit gestoppt.

Ob sich auf dieser Grundlage vielleicht eine Sanierungstechnologie aufbauen lässt, kann Krawczyk-Bärsch allerdings noch nicht sagen: „Theoretisch könnte es ein Ansatz sein, um urankontaminierte Gebiete zu säubern. Das ist dann aber eher eine technische Fragestellung. Uns geht es jedoch erst einmal darum herauszufinden, wie Mikroorganismen die Sicherheit von potentiellen Endlagern beeinflussen.“ Wie die Studie der Rossendorfer Forscher zeigt, können die kleinen Lebewesen eine entscheidende Rolle spielen. Die Kriterien zur Suche nach einem sicheren Endlager für hochradioaktive Stoffe muss somit um einen weiteren Punkt ergänzt werden.

—————
Weitere Informationen:
Dr. Evelyn Krawczyk-Bärsch
Institut für Ressourcenökologie am HZDR
Tel. +49 351 260-2076 | E-Mail: e.krawczyk-baersch@hzdr.de

Weitere Informationen:
http://www.hzdr.de/presse/bakterienfilter

Quelle: idw

(nach oben)


Biomasse zur bedarfsgerechten Stromerzeugung – FNR veröffentlicht Kurzstudie des DBFZ

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Wärme aus Biomasse wird in der Regel auf Nachfrage erzeugt – was für die meisten Verstromungsanlagen derzeit nicht gilt: Holzheizkraftwerke und Biogasanlagen produzieren Strom meist konstant und rund um die Uhr. Diese Grundlastfähigkeit wird als einer der Vorzüge für Strom aus Biomasse im Vergleich zu anderen erneuerbaren Stromlieferanten gesehen. Soll Biostrom bedarfsgerecht entstehen, um bspw. Lastspitzen aufzufangen oder Schwankungen bei Wind- und Solarenergie auszugleichen, müssen einige Anstrengungen unternommen werden.

Das Deutsche Biomasseforschungszentrum (DBFZ) legt dazu jetzt die Kurzstudie „Einsatz von Biomasse zur bedarfsgerechten Energieerzeugung“ vor, die es mit Förderung des Bundesministeriums für Ernährung und Landwirtschaft (BMEL) erarbeitet hat.

Die ambitionierten Klimaschutzziele der Bundesregierung erfordern langfristig einen weitgehenden Verzicht auf den Ausstoß von Klima relevanten Gasen bei der Stromproduktion. Bei gleichzeitigem Ausstieg aus der Kernenergie stehen künftig vor allem erneuerbare Energien für die Stromerzeugung bereit. Das erfordert auch den vermehrten Ausgleich von Schwankungen zwischen Stromangebot und -nachfrage.

Strom aus Biomasse steht grundsätzlich als flexible Energie zur Verfügung und kann Angebot und Nachfrage technisch vergleichsweise unproblematisch in Einklang bringen. Insbesondere gasbasierte Technologien, die auf Synthese- oder Biogas vorzugsweise mit Gasspeicherung im Erdgasnetz setzen, erlauben einen sehr flexiblen Einsatz bis hin zum Schnellstart. Aber auch auf Festbrennstoffe setzende Varianten genügen den Anforderungen der bedarfsgerechten Erzeugung.

Die Studie untersucht diesbezüglich alle marktfähigen technologischen Ansätze und stellt spezifische Vor- und Nachteile heraus. Während Biomethananlagen bereits heute ohne zusätzlichen Aufwand als bedarfsgerecht angesehen werden können, erfordern alle anderen Konzepte individuelle technische Anpassungen, die sich entsprechend auch in der Wirtschaftlichkeit niederschlagen. Dieser Mehraufwand betrifft zum einen die Stromerzeugung z. B. in Blockheizkraftwerken, für die entsprechende Kapazitäten vorgehalten und ggf. geringere Wirkungsgrade bei Teillastbetrieb in Kauf genommen werden müssen. Angepasste Konzepte sind aber auch für den sinnvollen Umgang mit den gleichzeitig entstehenden Wärmemengen und deren (Zwischen-) Speicherung erforderlich.

Die Kurzstudie „Einsatz von Biomasse zur bedarfsgerechten Energieerzeugung“ wurde vom DBFZ mit Mitteln des BMEL erstellt. In drei Arbeitspaketen untersuchten die Leipziger Forscher bestehende technologische Optionen sowie die bedarfsgerechte Integration des erzeugten Stroms in die Stromnetze und bewerten die möglichen Varianten.

Die Studie steht in der Schriftenreihe „Nachwachsende Rohstoffe“ der FNR als Band 32 in elektronischer Form unter mediathek.fnr.de zur Verfügung.

Quelle: idw

(nach oben)


Wasser im Web – Neues Portal online

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

Interaktive Webseite zeigt Wissenswertes und Überraschendes rund ums Wasser in Deutschland
Wie es um das Wasser in Deutschland steht, zeigt seit dieser Woche ein neues interaktives Internetportal auf der Seite http://www.bmbf.wasserfluesse.de. Anlässlich der IFAT, der Weltleitmesse für Umwelttechnologien in München vom 5.-9. Mai 2014, hat das Institut für ökologische Wirtschaftsforschung (IÖW) die Webseite veröffentlicht. Dort kann man Informationen abrufen etwa zur regionalen Verteilung von Niederschlägen und Verdunstung, Wassernutzungen durch Kraftwerke, Industrie und Haushalte sowie über Szenarien zur zukünftigen Wasserverfügbarkeit in Zeiten des Klimawandels. Das Portal eignet sich für alle, die ihr Wissen rund ums Wasser erweitern möchten, von Schulen über Weiterbildungsinstitutionen bis hin zu Fachleuten aus dem Wasserbereich.

Wasserbilanzen für über 300 Landkreise Deutschlands
Öffentlich präsentiert wird das Portal seit Montag auf dem IFAT-Messestand des Bundesministeriums für Bildung und Forschung (BMBF) in München. Dort können Besucherinnen und Besucher auf einem Touchscreen-Tisch spielerisch auf einer Deutschlandkarte auf Entdeckungsreise gehen und sich über die Wasserbilanzen der über 300 Landkreise und kreisfreien Städte in Deutschland aufklären lassen. Animationsfilme vermitteln Zusammenhänge rund um das Thema Wasser und machen Sachverhalte wie etwa regionale Knappheiten greifbar. Das Infoposter „Alles im Fluss – Eine deutsche Wasserbilanz“ zeigt eine Zusammenfassung der Ergebnisse. Es kann bei der Deutschen Vereinigung für Wasser, Abwasser und Abfall (DWA) bestellt werden oder im Internet kostenlos heruntergeladen werden.

Deutschland 86 Zentimeter unter Wasser
Die gesamten Jahresniederschläge ergießen sich über ganz Deutschland – von der Nordsee bis zu den Alpen steht das Wasser hüfthoch: 86 Zentimeter. So hoch stünde es tatsächlich, wenn es nicht abfließen und verdunsten würde. Dies ist eine der Filmszenen, mit denen eine Reihe animierter Filme auf der Webseite greifbar macht, wie viel Wasser in Deutschland wo zur Verfügung steht, wie viel davon wozu genutzt wird und welche Probleme sich daraus regional ergeben können.
Die interaktiven Info-Karten und die Animationsfilme wurden im Forschungsprojekt „Wasserflüsse in Deutschland“ unter Leitung des IÖW erarbeitet, das vom Bundesforschungsministerium im Schwerpunkt „Nachhaltiges Wassermanagement“ (NaWaM) gefördert wird. Projektpartner sind unter anderem die Bundesanstalt für Gewässerkunde (BfG) und die DWA.

Regionale Wasserknappheiten werden sichtbar
IÖW-Wasserexperte Jesko Hirschfeld und sein Team haben die Daten seit 2011 zusammengetragen und berechnet. „Auf dem Portal kann man sich klarmachen, was wir in Deutschland mit unserem Wasser anstellen“, so Hirschfeld. „In vielen Regionen haben wir reichlich davon, in anderen dagegen ist es knapp – und das könnte sich mit dem Klimawandel noch zuspitzen. Verschiedene interaktive Karten lassen schnell erkennen, welche Regionen am stärksten betroffen sind.“ Richard Harnisch, Leiter der Öffentlichkeitsarbeit des IÖW, hebt die spielerische Informationsvermittlung rund ums Wasser hervor: „Mit diesem bisher einzigartigen interaktiven Portal gehen wir neue Wege in der Informationsvermittlung, auch mit dem Ziel, junge Menschen für die Wissenschaft und ihre Ergebnisse zu begeistern.“

++++++++++++++++++++++++++++++++++++++

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. 45 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Ein Schwerpunktthema des Instituts befasst sich mit Wasser- und Landmanagement.
http://www.ioew.de

Weitere Informationen:
http://www.bmbf.wasserfluesse.de
http://www.dwa.de/shop

Quelle: idw

(nach oben)


Studie zeigt politischen Einfluss der Kirchen in der Öffentlichkeit

Viola van Melis Zentrum für Wissenschaftskommunikation
Exzellenzcluster „Religion und Politik“ an der Westfälischen Wilhelms-Universität Münster

Die christlichen Kirchen sind in Deutschland nach einer neuen Studie aus dem Exzellenzcluster „Religion und Politik“ konstant in politische Debatten und Prozesse eingebunden. „Sie bedienen sich seit Jahrzehnten professioneller politischer Instrumente und werden insbesondere in ethischen, sozial- und bildungspolitischen Debatten auch von nicht-religiösen Akteuren anerkannt – trotz voranschreitender Säkularisierung in der Gesellschaft“, sagt die Theologin und Soziologin Prof. Dr. Judith Könemann vom Exzellenzcluster der Uni Münster. Gerade in öffentlichen Auseinandersetzungen über Menschenwürde, Zuwanderung, Asyl, Integration oder Medizinethik seien die Kirchen mit mehrheitlich weltlichen Argumenten erfolgreich, so die Leiterin der Studie. „In fast 60 Prozent der untersuchten Äußerungen griffen Kirchenvertreter auf rein weltliche Begründungen zurück.“

In den Quellen zeige sich „ein starkes Selbstverständnis der Kirchen, die Welt in Politik und Gesellschaft mitzugestalten“, erläutert die Wissenschaftlerin. „Mit dem Bezug auf Jesus und Gott ist erst das neunthäufigste Argument der Kirchen in Debatten ausdrücklich religiös begründet.“ Zu den viel häufiger verwendeten Argumenten der religiösen Akteure gehören der Schutz des menschlichen Lebens, die Menschenwürde sowie soziale und rechtliche Maßnahmen, die auch von säkularen Kräften vorgebracht wurden, wie Prof. Könemann ausführt. Ihr Team untersuchte politische Stellungnahmen von Kirchenvertretern in rund 1.500 Medienberichten aus den Jahren 1970 bis 2004; der Schwerpunkt lag auf langjährigen Debatten über Abtreibung und Zuwanderung.

Fast alle politischen Formulierungen der Kirchen seien stark an den jeweils aktuellen Diskurs angepasst. Die Kirchen zeigten typische Handlungsmuster zivilgesellschaftlicher Akteure: die mediale Einflussnahme auf die öffentliche Meinung, das Auftreten als „Wächterrat“ und die Mobilisierung und Interessenvertretung gesellschaftlicher Gruppen. „Sie traten zum Beispiel immer wieder als Anwälte der Migranten ein.“

Tagung über Religion und Öffentlichkeit
Die Rolle der Religion in der Öffentlichkeit untersuchen Soziologen, Philosophen und Theologen auch auf einer Tagung des Exzellenzclusters und der Universität zu Köln am 8. und 9. Mai in Köln, zu der Prof. Könemann mit der Kölner Theologin Prof. Dr. Saskia Wendel einlädt. Erwartet wird auch der renommierte Religionssoziologe Warren S. Goldstein von der Harvard University. Zur Teilnahme an der kostenlosen öffentlichen Veranstaltung ist eine Anmeldung bis 30. April erforderlich.

In der neuen Studie konnten die Forscher für manche Gesetzesvorhaben den direkten Einfluss der Kirchen und ihre Einbindung in den demokratischen Prozess nachweisen. So arbeiteten Kirchenvertreter in der „Unabhängigen Kommission Zuwanderung“ des Bundesinnenministeriums zur Jahrtausendwende mit und trugen wesentlich zum Entwurf eines neuen Zuwanderungsgesetzes bei, der auf gesellschaftlichen Konsens stieß, wie Prof. Könemann darlegt. Auch hätten die Kirchen regelmäßig medial Themen gesetzt: Sie forderten in den 1980er Jahren eine Auseinandersetzung mit Fremdenfeindlichkeit und warben für die Einführung islamischen Religionsunterrichts an öffentlichen Schulen. „Die Kirchen leisteten dabei eine erstaunliche und komplexe Vermittlungsarbeit zwischen der Logik des politischen, religiösen und sozialen Bereichs.“

Streit über Kirchenasyl
Wenn die Kirchen sich nicht nur politisch äußerten, sondern sich ins Tagesgeschäft einmischten, setzten Politik und Öffentlichkeit ihnen schnell Grenzen, wie die Forscherin darlegt. Als Beispiel nennt sie einen Streit zwischen Kirche und Staat im Zuge des 1993 verschärften Asylrechts, das vermehrt zu Aufnahme von Flüchtlingen in Kirchgengemeinden führte. „Als Kardinal Karl Lehmann das Kirchenasyl als Recht der Christen vor ihrem Gewissen bezeichnete, kritisierte Bundesinnenminister Manfred Kanther dies harsch. Der Kardinal entschuldigte sich öffentlich und betonte, dass Kirchen kein eigenes Recht neben dem des Staates für sich in Anspruch nähmen.“

Die christlichen Konfessionen passten ihre Rolle mehrfach dem sozialen und politischen Wandel an, wie die Untersuchung anhand der Abtreibungsdebatte zeigt. „Mit der Betonung des Lebensschutzes lagen beide Kirchen, Bevölkerungsmehrheit und Recht zunächst nah beieinander.“ Nachdem das 1995 geänderte Gesetz fristgerechte Abtreibung bei staatlich anerkannter Beratung straffrei machte, ging der katholische und evangelische Weg jedoch auseinander. „Während die katholischen Beratungsorganisationen 1998 auf Geheiß von Papst Johannes II. die Schwangerenkonfliktberatung beendete, setzten die evangelischen ihre Arbeit fort.“

Die Studie entstand im Forschungsprojekt C17 „Die Rolle der christlichen Kirchen in der Öffentlichkeit“ des Exzellenzclusters. Das Team analysierte kirchliche Stellungnahmen in 500 Nachrichten und Berichten des Evangelischen Pressedienstes (epd), der Katholischen Nachrichtenagentur (KNA) und regionaler Kirchenzeitungen aus dem Zeitraum von 1970 bis 2004 sowie 1.000 Berichte aus Printmedien wie Der Spiegel, Süddeutsche Zeitung und Frankfurter Allgemeine Zeitung.

Weitere Informationen:
http://www.uni-muenster.de/Religion-und-Politik/aktuelles/2014/apr/PM_Politische…
http://www.uni-muenster.de/Religion-und-Politik/aktuelles/2014/mar/News_Tagung_R…

Quelle: idw

(nach oben)


Sauberes Wasser für die Zukunft – Semizentrales Ver- und Entsorgungszentrum startet in Qingdao

Marina Pabst M.A. Kommunikation
Technische Universität Darmstadt

Anlässlich der „World Horticulture Exposition 2014″ im chinesischen Qingdao wurde am 27. April das Ver- und Entsorgungszentrum Qingdao des Projekts SEMIZENTRAL eröffnet. Es ist die weltweit erste Referenzanlage des semizentralen, integrierten Infrastrukturansatzes. Sie entstand unter zentraler Beteiligung der TU Darmstadt und wird rund 12.000 Menschen versorgen.

Mit einem umfangreichen Programm und vielen hochrangigen chinesischen und deutschen Gästen aus Politik, Wirtschaft und Wissenschaft wird das Ver- und Entsorgungszentrum (VEZ) seiner Bestimmung übergeben. Die Anlage gilt als wichtiger Meilenstein deutsch-chinesischen Wissenstransfers mit globaler Wirkung. Sie ist auch das Ergebnis mehr als dreißigjähriger gleichberechtigter Zusammenarbeit der Tongji-Universität Shanghai und der Technischen Universität Darmstadt.

Die World Horticulture Exposition (WHE) mit ihrem Motto „From the Earth, for the Earth“ gilt als globale „Olympiade“ des Gartenbausektors. In der Zeit von April bis Oktober 2014 werden mehr als zwölf Millionen Besucher erwartet. Die Stadt in der nordöstlichen chinesischen Provinz Shandong unterstreicht mit der Ausrichtung der Weltgartenbauausstellung ihren Anspruch, ein „grünes“ Wachstum zu verwirklichen. Hieraus begründet sich auch die Motivation der Stadt Qingdao und des WHE-Konzerns, in zukunftsweisende Infrastrukturen zu investieren: Sowohl Investment als auch Betrieb des VEZ werden finanziell von chinesischer Seite getragen.

In der wirtschaftlich aufstrebenden Metropole leben derzeit rund acht Millionen Menschen. Die Bevölkerungszahl steigt enorm. Qingdao lebt außer von zwei überregional wichtigen Häfen von der Elektronikindustrie und klassischen Industriebranchen wie Chemie-, Metall- und Textilindustrie sowie dem Maschinenbau. In enger Kooperation insbesondere mit deutschen Partnern erfährt die Stadt gegenwärtig eine auf ökologischen und nachhaltigen Konzepten basierende Entwicklung, die nicht nur für vergleichbare Regionen in China, sondern auch weltweit richtungweisend sein dürfte.

Qingdao leidet seit Jahren unter großem Wassermangel. Je Einwohner ist lediglich rund ein Siebtel der Wassermenge verfügbar, die im Durchschnitt in China zur Verfügung steht. Wasser und Energie spielen hier wie in anderen Metropol-Regionen der Welt eine zentrale Rolle für die Siedlungsentwicklung. Basierend auf einer Idee von Prof. Dr.-Ing. Peter Cornel vom Fachgebiet Abwassertechnik (IWAR) der Technischen Universität Darmstadt hat sein Team gemeinsam mit Kooperationspartnern aus Wissenschaft und Industrie den Ansatz SEMIZENTRAL erarbeitet und fortentwickelt. Die Arbeit wurde und wird öffentlich und privatwirtschaftlich gefördert.

Mit dem zukunftsweisenden Infrastrukturansatz sinkt sowohl der Frischwasserbedarf als auch das Abwasseraufkommen im Einzugsgebiet um jeweils rund 30 bis 40 Prozent. Die Nutzung von Brauchwasser zum Beispiel zur Straßenreinigung, Bewässerung oder als Löschwasserreserve macht Einsparungen in deutlich größerem Maße möglich. Aus anfallendem Klärschlamm und zusätzlich gesammelten häuslichen Bioabfällen wird in der Anlage Biogas und daraus Energie erzeugt. Dadurch arbeitet das VEZ energieautark und weitgehend klimaneutral. Die Projektbeteiligten zeigen sich erfreut darüber, das Hauptziel des Projekts erreicht zu haben: eine anpassungsfähige, ressourceneffiziente Wasserinfrastruktur, die mit ihrer urbanen Umgebung flexibel mitwächst.

Für Dr.-Ing. Susanne Bieker, Leiterin des Forschungsprojektes SEMIZENTRAL an der TU Darmstadt, ist die Referenzanlage von SEMIZENTRAL ein Beispiel für die zukunftsweisende Technologie im nachhaltigen Umgang mit Wasser und Energie. SEMIZENTRAL in Qingdao sei nicht nur das Ergebnis langjähriger deutsch-chinesischer Partnerschaft in Forschung und Wissensaustausch. Es zeige auch die grundlegende Bedeutung integrativer und kooperativer Ansätze für eine lebenswerte Zukunft.

Weitere Informationen
Der Ansatz Semizentral wurde in den vergangenen 10 Jahren unter der Federführung des Fachgebietes Abwassertechnik des Institutes IWAR der Technischen Universität Darmstadt in enger Zusammenarbeit mit zahlreichen Industriepartnern in Deutschland, wie auch mit wissenschaftlichen Partner in Deutschland und China – mit Hilfe der Forschungsförderung des Bundesministeriums für Bildung und Forschung und des Ministry of Science and Technology der Volksrepublik China (MoST) – entwickelt.

Internet:
Zusätzliche Informationen wie Fragen und Antworten zu Semizentral, Kurzbiografien der Projekt-Beteiligten, ein Interview sowie weitere technische Informationen online unter
http://www.tu-darmstadt.de/vorbeischauen/aktuell/nachrichten_1/semizentral.de.js…

Quelle: idw

(nach oben)


Emscher Landschaftspark – weitergedacht

Beate Kostka M.A. Ressort Presse – Stabsstelle des Rektorats
Universität Duisburg-Essen

Von Duisburg bis Hamm reicht der Emscher Landschaftspark (ELP): auf 450 Quadratkilometern erschließt das vernetzte Grünzugsystem zahlreiche industriekulturelle Denkmäler für einheimische und auswärtige Besucher. Wie lässt sich dieser riesige Regionalpark im Herzen des Ruhrgebiets dauerhaft unterhalten? Und bietet er auch in Zukunft eine nachhaltige Nutzungsperspektive für weitere brachfallender Bergbauflächen? 

UDE-Prof. Dr. Bernd Sures: „Wir haben in den letzten drei Jahren verschiedene Themenfelder bearbeitet, wie eine nachhaltige Entwicklung in der schwerindustriell geprägten Metropole Ruhr aussehen sollte. Räumlich konzentriert hat sich dabei vieles auf den Emscher Landschaftspark als zentrale grüne Infrastruktur.“ Auf der Dialogveranstaltung geht es u.a. um die Rolle der urbanen Landwirtschaft in diesem regionalen Freiraumsystem und welche Perspektiven es für die energetische Nutzung der Biomasse aus der Grünflächenpflege gibt.

Diskutiert wird auch, wie bestehende und geplante Gewerbegebiete stärker mit dem ELP verknüpft werden können oder wie sich Straßen, Kanäle und Bahntrassen gestalterisch und funktional besser integrieren lassen. Prof. Sures: „Uns beschäftigt ebenso die Frage, wie das Management des ELP weiterentwickelt und neue Impulse gesetzt werden können.“

Weitere Informationen:
http://www.kularuhr.de
• Prof. Dr. Bernd Sures, Tel. 0201/183-2617, bernd.sures@uni-due.de
• Dr. Michael Eisinger, Tel. 0201/183-3890, michael.eisinger@uni-due.de

Quelle: idw

(nach oben)


Der CO2-Aufnahme durch den Ozean auf der Spur

Dr. Corinna Dahm-Brey Presse und Kommunikation
Carl von Ossietzky-Universität Oldenburg

Europäische Spitzenforschung: EU fördert Aufbau der Arbeitsgruppe Meeresoberfläche an der Universität Oldenburg mit 1,48 Millionen Euro

Der European Research Council (ERC) ist die Institution, mit der die Europäische Union exzellente Wissenschaftler mit unkonventionellen Ansätzen fördert. Zu ihnen gehört auch Dr. Oliver Wurl: Der Meereswissenschaftler hat einen mit 1,48 Millionen Euro dotierten sogenannten „Starting-Grant“ für Nachwuchsforscher erhalten – und sich entschieden, seine Forschungsidee an der Universität Oldenburg umzusetzen. Im Mittelpunkt von Wurls Projekt stehen Meeresoberflächen: Welche Rolle sie bei der CO2-Aufnahme durch den Ozean spielen, wie Mikroben sie besiedeln, welche Schadstoffe sich hier anreichern und sowohl die Nahrungskette als auch das Klima beeinflussen.

In dem hoch kompetitiven Wettbewerb der EU-Exzellenzförderung erfolgreich zu bestehen, sei eine herausragende Leistung, sagte die Kommissarische Universitätspräsidentin, Prof. Dr. Katharina Al-Shamery. „Oliver Wurl wird eine der ersten Forschergruppen weltweit aufbauen, die den Fokus auf die chemischen und biologischen Prozesse an der Meeresoberfläche richtet. Dass er sich dabei als Ort das Institut für Chemie und Biologie des Meeres (ICBM) ausgewählt hat, zeigt, welche hervorragenden Möglichkeiten er für seine Grundlagenforschung an der Universität Oldenburg findet.“

„Mit den verschiedenen Arbeitsgruppen am ICBM kann ich meine Forschungen zu Meeresoberflächen interdisziplinär vorantreiben. Die Arbeitsbedingungen sind ausgezeichnet, und der Standort des ICBM in Wilhelmshaven mit seiner direkten Anbindung an die Nordsee bietet ideale Voraussetzungen für meine Feldforschung“, erörtert Wurl seine Entscheidung.

Fast ein Drittel des durch den Menschen erzeugten Kohlenstoffdioxids nehmen die Weltmeere auf. Sie stehen damit im Zentrum des globalen CO2-Kreislaufs. Wurls Arbeitsgruppe wird sich auf diesen Kreislauf konzentrieren. „Kohlenstoffdioxid bildet in Verbindung mit Wasser schwache Säuren. Erste Anzeichen zur Ozeanversauerung sind bereits bekannt – mit erheblichen Auswirkungen auf die empfindlichen Ökosysteme. Daher ist es wichtig, den Prozess der CO2-Aufnahme durch den Ozean besser zu verstehen“, erklärt Wurl sein Forschungsvorhaben.

In früheren Untersuchungen konnte der Wissenschaftler bereits nachweisen: Meere sind größtenteils mit hauchdünnen Oberflächenfilmen bedeckt. Organische Verbindungen, die auf mikrobielles Leben im Meer zurückzuführen sind, reichern diese Filme an. „Die Filme bilden eine turbulenzschwache Grenzschicht, die nicht nur den Gasaustausch zwischen den Meeren und der Atmosphäre verlangsamt, sondern auch Mikroben Möglichkeiten bietet, sich in den nahrungsreichen Filmen anzusiedeln“, sagt Wurl. Zudem nehmen einige Mikroben CO2 auf, andere wiederum zersetzen organische Verbindungen zu Energie und CO2 und beeinflussen so den Kohlenstoffdioxid-Kreislauf. „Diese hochkomplexen Aktivitäten an der Meeresoberfläche werden in aktuellen Computermodellen zur Vorhersage von CO2-Tendenzen nicht berücksichtigt. Dabei sind die Vorgänge außerordentlich wichtig, um beispielsweise präzisere Auskünfte über den Klimawandel zu erhalten“, so Wurl.

In einem ersten Schritt plant Wurl nun die Zusammenarbeit mit der ICBM-Arbeitsgruppe Marine Sensoren, geleitet von Prof. Dr. Oliver Zielinski. Gemeinsam wollen sie einen neuartigen Forschungskatamaran entwickeln – der der Meeresoberfläche nicht nur Proben entnehmen, sondern sie auch durch neueste Sensorentechnik abscannen kann.

Zur Person:
Oliver Wurl, Jahrgang 1972, studierte an der Fachhochschule Hamburg Umwelttechnik und arbeitete anschließend vier Jahre in der Forschung und Industrie. 2006 promovierte er an der National University Of Singapore mit einer Arbeit zur Verteilung und zu den Kreisläufen von organischen Schadstoffen in der marinen Umwelt von Südostasien. Von 2008 bis 2012 folgten Forschungsaufenthalte am Institute Of Ocean Science des staatlichen Departments „Fisheries and Oceans“ in Kanada und an der US-amerikanischen Old Dominion University in Norfolk. In Kanada beschäftigte er sich damit, wie sich Oberflächenfilme auf dem Ozean global verteilen. Anschließend wechselte Wurl mit einer Förderung der Deutschen Forschungsgemeinschaft (DFG) an das Leibniz-Institut für Ostseeforschung Warnemünde.

Weitere Informationen:
http://www.icbm.de/

Quelle: idw

(nach oben)


Giftgas: Wer den Alliierten erstmals von Tabun erzählte, und warum sie dem Mann nicht glaubten

Dr. Ernst Guggolz Abteilung Öffentlichkeitsarbeit
Gesellschaft Deutscher Chemiker e.V.

Der Kampfstoff Tabun galt als Geheimwaffe im zweiten Weltkrieg – doch dass die Deutschen ihn besaßen, wussten die Alliierten schon lange, bevor er zum Einsatz kam. Verraten hatte es ihnen ein deutscher Kriegsgefangener mit chemischer Ausbildung, dessen Identität lange Zeit ein Rätsel blieb. Die „Nachrichten aus der Chemie“ berichten nun, wer der Mann war.

Der Kampfstoff Tabun ist ein Derivat der Phosphorsäure, eine Flüssigkeit mit fruchtigem Geruch. Die Substanz wirkt schon in kleinsten Mengen tödlich. Umso wichtiger war im Zweiten Weltkrieg die Information für die Alliierten, dass die Deutschen diesen Stoff besaßen. Verraten hatte es ihnen ein deutscher Kriegsgefangener, der nicht nur die Eigenschaften von Tabun kannte, sondern auch über dessen Produktion Bescheid wusste. Er sagte, er sei Chemiker, komme aus Berlin und habe dort an der Hochschule studiert. Doch die Alliierten waren skeptisch. Nicht nur war der Unteroffizier mit 22 Jahren zu jung für einen Chemiker, er konnte zudem einfachste chemische Fragen nicht beantworten. Das Resultat war klar: Sie nahmen ihn nicht ernst. Ein großer Fehler.

Bis vor kurzem war die Identität dieses Unteroffiziers nicht geklärt und somit auch weder seine Ausbildung noch sein Werdegang. Doch Henning Sietz berichtet nun in den „Nachrichten aus der Chemie“, wer der junge Mann war, woher er seine Kenntnisse hatte und wie falsch die Alliierten damit lagen, ihm keinen Glauben zu schenken. Die PDF-Datei des Beitrags gibt es bei der Redaktion der „Nachrichten aus der Chemie“ unter nachrichten@gdch.de.

Nahezu 80 000 anspruchsvolle Chemiker und Chemikerinnen aus Wissenschaft, Wirtschaft und Lehre informieren sich mit den „Nachrichten“ über Entwicklungen in der Chemie, in angrenzenden Wissenschaften sowie über gesellschaftliche und wirtschaftliche Aspekte. Kennzeichen der Zeitschrift der Gesellschaft Deutscher Chemiker sind das breite Spektrum der Berichte, das einmalige Informationsangebot an Personalien, Veranstaltungs- und Fortbildungsterminen sowie der große Stellenmarkt.

Weitere Informationen:
http://www.nachrichtenausderchemie.de „Nachrichten aus der Chemie“

Quelle: idw

(nach oben)


Hohes Herzrisiko für dicke Bäuche

Prof. Dr. Eckart Fleck Pressesprecher
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Männer mit einem Bauchumfang von 110 Zentimetern und mehr haben mit einer Wahrscheinlichkeit von 47 Prozent Diabetes, mit 90 Prozent Bluthochdruck und mit mindestens 95 Prozent ungünstige Blutfettwerte. Taillen von 110 Zentimeter geben zu 95 Prozent einen Hinweis auf einen Body-Mass-Index (BMI) von 30 und mehr, also einem Übergewicht, das in einem hohen Zusammenhang mit Herz-Kreislauf-Krankheiten steht. Das ist das Ergebnis einer Untersuchung von Prof. Dr. Andreas Schuchert (Neumünster) und seinem Team, das auf der 80. Jahrestagung der Deutschen Gesellschaft für Kardiologie in Mannheim vorgestellt wurde.

Die Forscher hatten die Daten von 4.918 Männern analysiert, die nach einem akuten Koronarsyndrom (ACS) oder einer Bypass-Operation ein kardiales Rehabilitationsprogramm absolvierten. Die analysierten Risikofaktoren waren Diabetes, Bluthochdruck, überhöhte Blutfettwerte, Rauchen und eine familiäre Vorbelastung. Die Ergebnisse zeigten, dass 24 Prozent der Patienten einen BMI von über 30 hatten. Es gab einen linearen Zusammenhang zwischen BMI und Bauchumfang mit Diabetes und Bluthochdruck, jedoch nicht mit Rauchen und einer familiären Vorbelastung.

Der BMI wird zur systematischen Einteilung des Körpergewichts verwendet. Die Formel dafür ist Kilogramm Körpergewicht dividiert durch das Quadrat der Körpergröße in Metern. Ein Mensch mit 100 Kilogramm Körpergewicht und einer Größe von 1,80 Meter hat demnach einen BMI von 31 (BMI = 100/1,82). Fettleibigkeit ist definiert als ein BMI von 30 und mehr und häufig mit koronarer Herzkrankheit assoziiert.

Im Vergleich zum Rechnen des BMI sei das Messen des Bauchumfangs einfacher und schneller und könne im Rahmen einer Untersuchung einfach bestimmt werden, so die Studienautoren. Das Wissenschaftlerteam ist davon ausgegangen, dass Bauchumfangmessungen das Identifizieren fettleibiger Patienten erleichtern können und direkte Hinweise auf die führenden Risiken Diabetes und Bluthochdruck geben.

Quelle: DGK Abstract V829, A. Schuchert et al, Waist circumference > 110 cm for the prediction of major cardiac risk factors in obese patients with coronary heart disease. Clin Res Cardiol 103, Suppl 1, April 2014

Informationen:
Deutsche Gesellschaft für Kardiologie
Pressesprecher: Prof. Dr. Eckart Fleck (Berlin)
Pressebüro während des Kongresses: 0621 4106-5005; 0621 4106-5002
Pressestelle: Kerstin Krug, Düsseldorf, Tel.: 0211 600692-43, presse@dgk.org
B&K Kommunikation, Roland Bettschart, Dr. Birgit Kofler, Berlin/Wien, Tel.: 030 700159676; Tel.: +43 1 31943780; kofler@bkkommunikation.com

Die Deutsche Gesellschaft für Kardiologie – Herz und Kreislaufforschung e.V. (DGK) mit Sitz in Düsseldorf ist eine wissenschaftlich medizinische Fachgesellschaft mit über 8500 Mitgliedern. Ihr Ziel ist die Förderung der Wissenschaft auf dem Gebiet der kardiovaskulären Erkrankungen, die Ausrichtung von Tagungen und die Aus-, Weiter- und Fortbildung ihrer Mitglieder. 1927 in Bad Nauheim gegründet, ist die DGK die älteste und größte kardiologische Gesellschaft in Europa.
Weitere Informationen unter www.dgk.org.

Weitere Informationen:
http://www.dgk.org/presse
http://ft2014.dgk.org

Quelle: idw

(nach oben)


Hocheffiziente Wasseraufbereitung mit Licht

Birgit Niesing Unternehmenskommunikation
Fraunhofer-Gesellschaft

Manche hartnäckigen Schadstoffe im Abwasser können auch von Kläranlagen nicht abgebaut werden. Fraunhofer-Forscher haben ein Reaktorsystem entwickelt, in dem sich Wasser mit Hilfe von UV-Licht zuverlässig und mit hohem Durchsatz aufbereiten lässt – ohne dass chemische Katalysatoren zugesetzt werden müssen.

n unserem Abwasser befindet sich so Einiges, was nicht unbedingt in die Umwelt gelangen soll – doch auch Kläranlagen entfernen nur einen Teil der Verunreinigungen. Insbesondere persistenten Stoffen – dazu zählen unter anderem sehr stabile Kohlenwasserstoff-Verbindungen wie Aromaten – können auch die Bakterien, die in der biologischen Aufbereitungsstufe üblicherweise eingesetzt werden, nichts anhaben. Die Folge: Rückstände von Reinigungs- und Pflanzenschutzmitteln oder auch von Pharmaka gelangen in die Gewässer. In der Nordsee etwa ist heute eine Belastung mit solchen Schadstoffen deutlich messbar.

Schadstoffe mit Photolyse abbauen
Forscher des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB in Stuttgart haben in Zusammenarbeit mit internationalen Industriepartnern ein neues Reaktorsystem entwickelt, das solche hartnäckigen Schadstoff-Moleküle gründlich und effizient abbaut – ohne dass Chemikalien wie etwa Wasserstoffperoxid zugesetzt werden müssen. Stattdessen nutzen die Forscher die »Selbstheilungskräfte« des Wassers mit Hilfe der Photolyse. Das Prinzip basiert auf der Spaltung von Wasser-Molekülen durch Photonen. Je kürzer dabei die Wellenlänge des Lichts ist, umso höher ist die Photonenenergie. Die Forscher setzen in ihrer Anlage daher ausschließlich Lichtquellen ein, die UV-Licht im Wellenlängenbereich von 172 Nanometern – also extrem energiereiche Photonen – emittieren. Sobald diese Photonen ins Wasser eintreten, spalten sie dort H2O-Moleküle auf und in Folge bilden sich hochreaktive Hydroxylradikale. »Diese Wasserstoff-Sauerstoffverbindungen haben ein noch höheres Reaktionspotenzial als beispielsweise atomarer Sauerstoff. Dadurch sind sie in der Lage, auch die sehr stabilen Kohlenwasserstoff-Verbindungen von Schadstoffrückständen aufzubrechen«, erklärt Dipl. Ing. Siegfried Egner, Abteilungsleiter Physikalische Prozesstechnik am IGB.

Die Herausforderung: Der beschriebene Prozess erfolgt nur in unmittelbarer Umgebung des UV-Strahlers – einem rechteckigen, flachen Glaskörper, der im Reaktorbehälter platziert wird. In eingeschaltetem Zustand bildet sich an der Glasaußenfläche eine etwa 50 Mikrometer dünne Reaktionsschicht, in der die Hydroxylradikale entstehen. Damit auch alle Kohlenwasserstoff-Verbindungen aufgebrochen werden, muss das Wasser im Reaktor kontrolliert durch diese Grenzschicht geleitet werden – eine echte Tüftlerarbeit: Einerseits gilt es sicherzustellen, dass der gesamte Reaktorinhalt aufbereitet wird. Anderseits möchten die Forscher nach Möglichkeit dafür sorgen, dass jedes einmal gebildetes Hydroxylradikal auch für eine chemische Reaktion genutzt wird. Die Verbindung besitzt eine extrem kurze Lebensdauer. Wenn sich in dieser Zeit kein »frisches« Schadstoff zum Reagieren findet, verpufft ihre Energie ungenutzt. Den Stuttgarter Experten ist es gelungen, die Wasserbewegung so exakt zu steuern, dass der gesamte Reaktorinhalt zuverlässig und höchst effizient gereinigt wird.

Der erste industrielle Prototyp, den die Forscher zusammen mit den Industriepartnern auf der Messe zeigen werden, hat einen Durchsatz von bis zu 2,5 Kubikmetern pro Stunde. »Gewisse Schwankungen sind aber normal, denn die Geschwindigkeit hängt natürlich auch vom jeweiligen Verschmutzungsgrad ab«, erläutert Egner. Damit das Wasser auch wirklich erst abgelassen wird, wenn seine Qualität einwandfrei ist, verfügt die Anlage über einen weiteren Sicherheitsmechanismus: Direkt am Abfluss befindet sich ein Messsystem, das Schadstoffbelastung des Wassers kontrolliert. Erst wenn ein Minimalwert unterschritten ist, wird es abgelassen. Die gesamte Anlagentechnik arbeitet vollautomatisch und lässt sich sehr flexibel betreiben – etwa, indem man sie abhängig vom Angebot an elektrischer Energie kurzfristig zu- und abschaltet.

Quelle: idw

(nach oben)


Wie sozial ist digital? – Freundschaften im digitalen Zeitalter

Dorothee Menhart Presse- und Öffentlichkeitsarbeit
Wissenschaft im Dialog

Wissenschaftliches Nachtcafé im Wissenschaftsjahr 2014 – Die digitale Gesellschaft

Der Vorteil digitaler Netzwerke liegt auf der Hand: Mit einem Klick lassen sich alle Freunde auf einmal zur nächsten Party einladen. Doch jungen Menschen, die sich Internetdiensten wie Facebook oder WhatsApp verschließen, droht der soziale Ausschluss. Was bedeuten daher Begriffe wie „Freunde“ oder „Freundschaft“ heute? Wie verändern neue Medien das soziale Miteinander? Um diese und weitere Fragen geht es im Wissenschaftlichen Nachtcafé in Braunschweig am Dienstag, den 13. Mai 2014, um 19 Uhr im Haus der Wissenschaft, Raum Veolia (Pockelsstraße 11, 38106 Braunschweig). Der Eintritt ist frei.

Mit dem Publikum diskutieren Dr. Gerald Fricke, Experte für Informationsmanagement an der Technischen Universität Braunschweig, und Philipp Bode, Experte für Medienphilosophie der Leibniz Universität Hannover. Moderiert wird die Veranstaltung von Susanne Neuß vom NDR.

Mit den Wissenschaftlichen Nachtcafés bringt WiD Interessierte mit Expertinnen und Experten aus der Wissenschaft zu aktuellen und kontroversen Themen ins Gespräch. Nach einführenden Vorträ-gen ist das Publikum gefragt: In angenehmer Caféhaus-Atmosphäre diskutieren die Interessierten das Thema zunächst in kleiner Runde an ihren Tischen. Dort entwickeln sich Fragen und Ideen, die im Anschluss in großer Runde diskutiert werden.

Die Positionen der Expertinnen und Experten werden bereits vor der Veranstaltung auf der Online-Plattform www.wissenschaft-kontrovers.de zur Debatte gestellt. Dort können anschließend auch die Ergebnisse eingesehen und kommentiert werden.

Das Wissenschaftliche Nachtcafé ist Teil der Diskussionsreihe „Wissenschaft kontrovers“. Wissen-schaft im Dialog (WiD) organisiert die Veranstaltung gemeinsam mit der Nationalen Akademie der Wissenschaften Leopoldina und dem Haus der Wissenschaft Braunschweig. Die Diskussionsreihe und Online-Plattform „Wissenschaft kontrovers“ ist ein Projekt im Wissenschaftsjahr 2014 – Die digitale Gesellschaft und wird vom Bundesministerium für Bildung und Forschung gefördert.

Weitere Informationen:
http://www.wissenschaft-kontrovers.de

Quelle: idw

(nach oben)


Krafttraining senkt Bluthochdruck

Christin Hasken Referat für Presse- und Öffentlichkeitsarbeit
Hochschule Rhein-Waal

Forschungsstudie an der Hochschule Rhein-Waal belegt positiven Einfluss von Krafttraining auf Bluthochdruck

Die Studierende Heike Holtappel der Fakultät Life Sciences analysierte im Rahmen einer Studie an der Hochschule Rhein-Waal gemeinsam mit Prof. Dr. Robert Renner den Einfluss eines Krafttrainings auf leichten bis mittelschweren Bluthochdruck. Als Ergebnis dieser Studie konnte ein gesenkter Blutdruck und ein verbessertes, körperliches Wohlbefinden verzeichnet werden.

Kleve/Kamp-Lintfort, 25. April 2014: Die Studierende Heike Holtappel aus dem Studiengang „Bio Science and Health“ der Fakultät Life Sciences der Hochschule Rhein-Waal untersuchte im Rahmen ihrer Bachelorarbeit die Auswirkungen eines angepassten Krafttrainings auf den Gesundheitszustand von Personen mit leichtem bis mittelschwerem Bluthochdruck. Dieser ist weit verbreitet und kann unbehandelt zu schwerwiegenden Konsequenzen wie Herzinfarkt und Schlaganfall führen. Dass regelmäßige sportliche Aktivität und Bewegung positive Effekte auf den Gesundheitszustand von Menschen mit hohem Blutdruck hat, ist erwiesen und stellt heute einen wesentlichen Bestandteil in der nicht- medikamentösen Therapie dar. Neu ist die Erkenntnis, dass nicht nur Ausdauersportarten wie Walken oder Joggen, sondern auch ein angepasstes Krafttraining zur Senkung des Blutdrucks führen kann. Deshalb rückt gezieltes Krafttraining zunehmend in den Fokus der Wissenschaft.

Die Studierende konnte unter der Leitung von Prof. Dr. Robert Renner, Professor für Gesundheitsförderung und Ernährung an der Hochschule Rhein-Waal, zahlreiche interessierte Bürgerinnen und Bürger aus der Region zur Teilnahme an dieser Bluthochdruckstudie gewinnen. Bevor die Gruppe jedoch mit dem Training begann, wurde eine Teilnahme an der Studie anhand gesundheitlicher Aspekte durch gezielte Untersuchungen bestätigt. So wurde neben der Erhebung des Blutdrucks unter anderem auch die Analyse des Körperfettes und der Muskelmasse sowie die Bestimmung der Blutfettwerte ermittelt. Um einen Vergleich ziehen zu können, wurden alle Teilnehmerinnen und Teilnehmer in zwei Gruppen eingeteilt: Eine Gruppe, die in den folgenden acht Wochen das Krafttraining absolviert sowie eine Kontrollgruppe, die sich dem Krafttraining nicht anschließt.

Im Anschluss der Eingangsuntersuchungen begannen die Teilnehmer mit dem Training im Forstgarten Kleve. Zweimal wöchentlich standen Kraftübungen mit dem eigenen Körpergewicht auf dem Programm, unterstützt wurde dieses Training durch Dipl. Sportwiss. Gregor Akkermann. Das Training ohne zusätzliche Hilfsmittel oder Gewichte stellte somit die häusliche und selbstständige Umsetzung der Übungen sicher. Motivation und Spaß am Training steigerte schrittweise die Trainingsintensität. Während der gesamten Studiendauer ermittelte die Studierende bei den Teilnehmern der Trainingsgruppe regelmäßig die Blutdruckwerte, sodass am Ende der Studie eine aussagekräftige Menge an Daten vorlag.

Heike Holtappel stellte nach Auswertung aller Daten Hinweise auf einen blutdrucksenkenden Effekt fest. Ein zusätzlicher positiver Effekt ist die Verbesserung der Beweglichkeit und des Kraftzunahme bei allen Mitgliedern der Trainingsgruppe. Diese Verbesserung des Gesundheitszustandes stützt vor allem die Kraftbelastungen im Alltag, die beispielsweise das Heben schwerer Gegenstände besser bewältigen lässt. Außerdem bestätigten alle Teilnehmer der Trainingsgruppe ein gesteigertes körperliches Wohlbefinden. „Zusammenfassend lässt sich sagen, dass Forschung auf diesem Gebiet sinnvoll und vielversprechend ist und neben einer möglichen Senkung des Blutdrucks zusätzliche positive Effekte durch ein angepasstes Krafttraining erreicht werden können“, erklärt Heike Holtappel.

Weitere Informationen:
http://www.hochschule-rhein-waal.de

Quelle: idw

(nach oben)


Tasse oder Kännchen? Mit Koffein gegen die Alzheimer-Krankheit

Dr. Christian Leibinnes Presse- und Öffentlichkeitsarbeit
Alzheimer Forschung Initiative e.V.

Koffein zählt zu den weltweit am häufigsten konsumierten psychoaktiven Substanzen. Es ist in Kaffee und Tee enthalten oder Süßgetränken zugesetzt. Seit einiger Zeit gibt es Hinweise darauf, dass Kaffee- und Tee-Trinker in höherem Alter bessere Gedächtnisleistungen zeigen und ein verringertes Risiko aufweisen, an Alzheimer zu erkranken.

Im Rahmen eines deutsch-französischen Forschungsprojekts konnte ein Team um Prof. Dr. Christa E. Müller von der Universität Bonn und Dr. David Blum (Inserm U837, Lille) nun erstmals zeigen, dass sich Koffein positiv auf Tau-Ablagerungen bei der Alzheimer-Krankheit auswirkt. Das zweijährige Projekt wurde mit 30.000 Euro von der gemeinnützigen Alzheimer Forschung Initiative e.V. (AFI) und mit 50.000 von der französischen Partnerorganisation LECMA unterstützt. Erste Ergebnisse wurden in der Online-Ausgabe des Fachmagazins „Neurobiology of Aging“ veröffentlicht. Weitere Publikationen sind in Planung.

Tau-Ablagerungen zählen zusammen mit Beta-Amyloid-Plaques zu den charakteristischen Merkmalen der Alzheimer-Krankheit. Die beiden Eiweißablagerungen stören die Kommunikation der Nervenzellen im Gehirn und tragen dadurch zu deren Degeneration bei. Bislang gibt es trotz intensiver Forschung keinen Wirkstoff, der dies verhindern kann. Durch die Ergebnisse von Christa Müller und ihrem Team könnte nun eine neue Klasse von Medikamenten entwickelt werden.

Koffein blockiert im Gehirn als Adenosinrezeptor-Antagonist verschiedene Rezeptoren, die von Adenosin aktiviert werden. Erste Ergebnisse des Forscherteams hatten bereits darauf hingedeutet, dass besonders die Blockade des Adenosinrezeptor-Subtyps A2A eine wichtige Rolle spielen könnte. Christa Müller und ihre Kollegen entwickelten zunächst einen A2A-Antagonisten in hochreiner und wasserlöslicher Form (MSX-3). Dieser hat weniger Nebenwirkungen als Koffein, da er nur A2A-Rezeptoren blockiert, und ist zugleich deutlich effektiver. Anschließend behandelten die Forscher über mehrere Wochen genetisch veränderte Mäuse mit dem A2A-Antagonisten. Die Mäuse hatten ein verändertes Tau-Protein, das ohne Therapie zu einer frühen Ausbildung von Alzheimer-Symptomen führt.

Im Gegensatz zu einer Kontrollgruppe, die nur ein Placebo verabreicht bekam, erzielten die behandelten Tiere in Gedächtnistests deutlich bessere Ergebnisse. Insbesondere auf das räumliche Erinnerungsvermögen hatte der A2A-Antagonist positive Auswirkungen. Auch im Hippocampus, also dem Sitz des Gedächtnisses der Nagetiere, konnte eine Verbesserung der krankmachenden Prozesse gezeigt werden.

„Wir sind einen guten Schritt vorangekommen“, sagt Christa Müller. „Die Ergebnisse der Studie sind wirklich vielversprechend, denn wir konnten erstmals zeigen, dass A2A-Antagonisten in einem Tiermodell, das der Krankheit sehr ähnlich ist, tatsächlich sehr positive Wirkungen haben. Und die Nebenwirkungen sind gering.“

Die Forscher wollen den A2A-Antagonisten nun in weiteren Tiermodellen einsetzen. Wenn die Ergebnisse positiv sind, könnte sich eine klinische Studie anschließen. „Bis zur Zulassung von A2A-Adenosinrezeptor-Antagonisten als neue Alzheimer-Therapeutika ist also noch etwas Geduld gefragt. Ich bin aber optimistisch, dass klinische Studien durchgeführt werden“, sagt Christa Müller.

Originalpublikation:
Laurent, C., Eddarkaoui, S., Derisbourg, M., Leboucher, A., Demeyer, D., Carrier, S., Schneider, M., Hamdane, M., Müller, C.E., Buee, L. & Blum, D. (2014). Benefical effects of caffeine in a transgenic model of Alzheimer’s disease-like Tau pathology. Neurobiology of Aging.
http://www.neurobiologyofaging.org/article/S0197-4580%2814%2900284-X/abstract

Weitere Informationen zum Forschungsprojekt von Prof. Dr. Christa E. Müller:
http://www.alzheimer-forschung.de/forschung/index.htm?showid=3513&showyear=2…

Weitere Informationen:
http://www.neurobiologyofaging.org/article/S0197-4580%2814%2900284-X/abstract – Abstract der Publikation in „Neurobiology of Aging“
http://www.alzheimer-forschung.de/forschung/index.htm?showid=3513&showyear=2… – Weitere Informationen zum Forschungsprojekt

Quelle: idw

(nach oben)


Materialwissenschaftler forscht an nachhaltiger Entsalzungsmethode für Wasser

Thorsten Mohr Pressestelle der Universität des Saarlandes
Universität des Saarlandes

Eine verbesserte Entsalzungsmethode, die über 95 Prozent Wirkungsgrad aufweist und dabei ohne Chemie auskommt: Daran forscht Volker Presser, Junior-Professor an der Universität des Saarlandes und Juniorforschungsgruppenleiter am Leibniz-Institut für Neue Materialien. Zusammen mit anderen kapazitiven Technologien, die ähnlich funktionieren, könnte so ein wirklich grüner Weg entstehen, um regenerative Energie zu speichern und die Wasserversorgung dezentral zu organisieren.

Es klingt nach einer Technologie, die eigentlich zu schön ist, um wahr zu sein: Bei der kapazitiven Entionisierung wird aus Brackwasser oder Salzwasser Trinkwasser gewonnen. Außerdem dient die Technologie in etwas abgewandelter Form auch als Grundlage für die hocheffiziente Energiespeicherung aus regenerativen Quellen wie zum Beispiel Solaranlagen. Und es ist sogar möglich, aus einem Konzentrationsgefälle hiermit Energie zu erzeugen. Ist das etwa die eierlegende Wollmilchsau der modernen Technologie? Nicht ganz, aber nah dran. „Kapazitive Technologien sind vielversprechend, stecken aber noch in den Kinderschuhen“, erklärt Volker Presser, der an der Saar-Uni und am INM – Leibniz-Institut für Neue Materialien auf dem Saarbrücker Uni-Campus an neuen Energie-Materialien forscht. „Aber es ist eine extrem energieeffiziente und wirklich grüne Technologie“, erklärt der junge Forscher.

Das Grundprinzip, das seinem Versuchsaufbau zugrunde liegt, kommt ganz ohne chemische Reaktionen aus. Zwischen zwei Elektroden aus poröser Aktivkohle, an die eine Spannung angelegt wird, fließt Brack- oder Salzwasser. Die positiv geladene Elektrode zieht dabei die negativ geladenen Ionen aus dem Wasser, die gegenüberliegende negativ geladene Elektrode hingegen zieht die positiv geladenen Teilchen aus dem Wasser. Es werden also nur die Bestandteile aus dem Wasser herausgeholt, die nicht drinnen sein sollen. Gespeichert werden die geladenen Teilchen in den Poren der Aktivkohle, am Ende der Strecke fließt schließlich frisches Süßwasser heraus. Bis zu 80 Prozent Wirkungsgrad hat diese Technologie. Kombiniert man dieses simple physikalische Prinzip mit einer Membran, die zwischen Wasser und Kohlenelektrode platziert wird und die entweder nur negativ oder nur positiv geladene Teilchen durchlässt, erhöht sich der Wirkungsgrad der Anordnung sogar auf über 95 Prozent. „Durch eine solche Membran kann man also deutlich mehr ‚Salz pro investierter Energie‘ herausfiltern als ohne Membran“, erklärt Materialforscher Volker Presser. Ist eine Elektrode „voll“, also mit Ionen gesättigt, lässt sie sich ganz einfach wieder ausspülen, und man erhält eine hochkonzentrierte Salzlösung.

Doch die Technologie ist nicht nur auf Salz beschränkt. Dies verdeutlicht Volker Presser an einem Beispiel: „China und Südafrika forschen intensiv an dieser Technologie. Interessant ist das in diesen Ländern vor allem wegen der Aufbereitung des Grubenwassers im Bergbau. Zum einen wird das Abwasser viel sauberer, zum anderen kann die hochangereicherte Flüssigkeit als Rohstoff dienen – denken Sie an mit Edelmetallen angereichertes Wasser, das für die Industrie noch wertvolle Rohstoffe enthalten kann.“

Volker Pressers Ansatz für eine Nutzung dieser Technologie ist jedoch sehr breit ausgelegt. „In Kombination mit Solarzellen und kapazitiven Energiespeichern – so genannte Superkondensatoren – könnte damit eine ‚Island Technology‘ entstehen“, erklärt er. Haushalte könnten damit ihren Sonnenstrom selbst speichern und ihr eigenes Trinkwasser gewinnen. „Dadurch ist eine unabhängige, vollständig regenerative Versorgung mit Energie und Wasser für einzelne Haushalte möglich“, erklärt er. Superkondensatoren als Energiespeicher sind ein anderer Teil der Forschungen des jungen Saar-Forschers.
Noch steckt die Technologie zur Wasseraufbereitung im Experimentierstadium. Es gibt zwar schon einige wenige Anbieter, die Entsalzungsanlagen anbieten. Diese sind aber noch sehr selten und sehr teuer. Volker Presser hält die Technologie dennoch für zukunftsträchtig: „Wenn die Frage nach den Erfolgsaussichten dieser so neuartigen Technologie gestellt wird, halte ich es mit Winston Churchill, der gesagt haben soll: ‚Welchen Sinn hat ein neugeborenes Baby?‘ Die Zeit wird zeigen, was die Technologie wirklich leisten kann.“

Kontakt:
Jun.-Prof. Dr. Volker Presser
Tel.: (0681) 9300177
E-Mail: volker.presser@inm-gmbh.de

Quelle: idw

(nach oben)


Den Geheimnissen der Kakaobohne auf der Spur

Kristina Logemann Communications & Public Relations
Jacobs University Bremen

Ein zentrales Merkmal der Jacobs University ist die gelebte Transdisziplinarität in Forschung und Lehre. Mit einem mehrjährigen Forschungsprojekt baut die Jacobs University nun ihre bestehende Kooperation mit dem weltweit führenden Schokoladen- und Kakaoproduzenten Barry Callebaut aus. Ziel des auf sechs Jahre angelegten Projekts namens COMETA* ist es, die rund 10.000 chemischen Inhaltsstoffe der Kakaobohne genau zu analysieren. Dabei werden insbesondere der Einfluss von Sorte, Ursprung, Anbaumethode und Ernteprozess auf die chemische Zusammensetzung der Bohne untersucht.

Am Ende der Kooperation im Jahr 2020 sollen eine einzigartige Datenbank und neue Schnelltests zur Kakaoklassifizierung, Verarbeitung und Bedarfsplanung von Rohmaterial zur Verfügung stehen. Barry Callebaut finanziert das sechsjährige Projekt mit insgesamt 3,7 Mio. Euro.

Peter Boone, Chief Innovation Officer Barry Callebaut: „Barry Callebaut arbeitet seit Jahren mit verschiedenen Universitäten zusammen. So erhalten wir Zugang zu den weltweit besten Experten sowie zu Know-how, das auf dem neuesten Stand ist. Diese Expertise könnten wir in-house niemals selber aufbauen. Mit der Jacobs University arbeiten wir seit drei Jahren zusammen. Sie ist dabei für uns ein verlässlicher Partner für unsere Forschung geworden. Die Qualität der Ergebnisse ist herausragend und entscheidend für die Wettbewerbsfähigkeit unserer Produkte. Deshalb haben wir nun auch die Vertiefung unserer Zusammenarbeit beschlossen.“

Prof. Dr.-Ing. Katja Windt, Präsidentin der Jacobs University: „Die Kooperation mit Barry Callebaut ist wegweisend für die zukünftige Ausrichtung unserer Universität. Die Fragestellungen des Projektes greifen technische, wirtschaftliche und soziale Aspekte auf. Diese Transdisziplinarität ist Kennzeichen aller Studiengänge und Forschungsprojekte an der Jacobs University. Die Kooperation ist ein ideales Beispiel für unseren neuen Schwerpunkt „Health – focus on bioactive substances“, im Rahmen dessen wir die Inhaltsstoffe bioaktiver Substanzen erforschen, in diesem Fall von Nahrungsmitteln wie der Kakaobohne. Wir sind ganz besonders froh, unsere Zusammenarbeit mit Barry Callebaut jetzt ausbauen zu können. Diese Kooperation zeigt exemplarisch, wie die künftige Zusammenarbeit der Jacobs University mit führenden internationalen Unternehmen aufgestellt sein wird.“

Dr. ir. Gino Vrancken, Program Manager Cocoa Science bei Barry Callebaut: „Kakao-Forschung ist einer der fünf Hauptforschungsbereiche unserer globalen Innovationsstrategie. Bis heute war die Kakaobohne so etwas wie eine Blackbox. Die Kooperation mit der Jacobs University bringt uns einen großen Schritt voran, das Potenzial jeder Bohne zu entschlüsseln. Wir gewinnen zuverlässiges Know-how darüber, wie wir Schokoladen- und Kakaoprodukte mit spezifischen Eigenschaften bezüglich Geschmack, Aussehen oder Verarbeitung entwickeln können. Dieses neu erworbene Wissen bedeutet für uns ein wichtiges Differenzierungsmerkmal am Markt, indem wir unsere Kunden noch zielgerichteter bedienen und ihnen ein noch präziser abgestimmtes Produkt liefern können.“

Prof. Dr. Matthias Ullrich, Professor of Microbiology an der Jacobs University: „Bisherige Analysen basierten vornehmlich auf dem Fermentationsprozess, dem die Kakaobohne unterzogen werden muss, um ihren schokoladigen Geschmack zu entwickeln. Die genaue biochemische Bestimmung der Tausenden von Bausteinen einer Kakaobohne erlaubt es uns vorherzusagen, welche Auswirkungen Wasser oder Bodenbeschaffenheit auf die Produktion haben werden. Wir können dann genau prognostizieren, welche Bohne das tiefste Braun oder den intensivsten Geschmack hervorbringen wird“.

In einem ersten Schritt werden das sogenannte Metabolom (alle Stoffwechselprodukte), alle Enzyme und Peptide sowie die Gesamtheit der Fette des Rohmaterials bestimmt. Dabei werden Kakaobohnen unterschiedlichster Herkunft, Qualität und Fermentierungsverfahren erforscht.

Die Ergebnisse der Untersuchungen werden unter anderem mit den an der Jacobs University entwickelten massenspektrometrischen Methoden generiert und in einer großen Datenbank gespeichert. Auf Basis der Datensätze können so neue Methoden und Schnelltests zur detaillierten Klassifizierung und Qualitätskontrolle der verschiedensten Kakaobohnen entwickelt werden, die Barry Callebaut in der Produktion verwendet.

COMETA wird koordiniert von Matthias Ullrich, Professor of Microbiology an der Jacobs University, Nikolai Kuhnert, Professor of Chemistry und Dr. ir. Gino Vrancken, Program Manager Cocoa Science bei Barry Callebaut. Desweiteren forschen Marc-Thorsten Hütt, Professor of Computational Systems Biology und Elke Nevoigt, Professorin of Biotechnology, an dem Projekt.

Die Zusammenarbeit zwischen Barry Callebaut und der Jacobs University begann 2011. Das Schweizer Unternehmen veranstaltet regelmäßig Career Events auf dem Campus in Bremen-Nord und hat bisher fünf Absolventen der privaten Bremer Universität für sein Graduierten-Trainingsprogramm rekrutiert. Vor zwei Jahren begann Prof. Nikolai Kuhnert gemeinsam mit zwei Doktoranden mit der Arbeit an einem ersten Forschungsprojekt für Barry Callebaut.

* COMETA steht für COcoa METAbolomics

Fragen zum COMETA Projekt beantwortet:
Prof. Dr. Matthias Ullrich | Professor für Mikrobiologie
Tel: +49 (0) 421 200 3245 | Email: m.ullrich@jacobs-university.de
Prof. Dr. Nikolai Kuhnert | Professor für Analytische Chemie
Tel: +49 (0) 421 200 3120 | Email: n.kuhnert@jacobs-university.de

Über die Jacobs University
Als Deutschlands führende englischsprachige Campusuniversität bildet die Jacobs University Bremen wissenschaftlichen Nachwuchs aus aller Welt aus. Das Profil der 2001 eröffneten, staatlich anerkannten Privathochschule sind höchste Ansprüche in Forschung und Lehre, Interkulturalität und systematische, disziplinenübergreifende Zusammenarbeit mit dem Ziel, die Absolventen als Weltbürger optimal auf verantwortungsvolle Aufgaben in einer zunehmend globalisierten Arbeitswelt vorzubereiten. Die Jacobs University bietet Bachelor-, Master- und PhD-Abschlüsse für ein breites Spektrum der Ingenieurs-, Natur-, Geistes- und Sozialwissenschaften an. Aktuell leben und lernen rund 1.400 junge Menschen aus über 100 Nationen auf dem Campus.

Über Barry Callebaut
Mit einem Jahresumsatz von rund CHF 4,9 Milliarden (EUR 4,0 Milliarden / USD 5,2 Milliarden) für das Geschäftsjahr 2012/13 ist die in Zürich ansässige Barry Callebaut der weltweit größte Hersteller von hochwertigen Schokoladen- und Kakaoprodukten – von der Beschaffung und Verarbeitung der Kakaobohnen bis zur Herstellung der feinsten Schokoladen, einschließlich Füllungen, Dekorationen und Schokoladenmischungen. Das Unternehmen unterhält weltweit über 50 Produktionsstandorte und beschäftigt eine vielfältige und engagierte Belegschaft von mehr als 9.000 Mitarbeiterinnen und Mitarbeitern. Barry Callebaut steht im Dienst der gesamten Nahrungsmittelindustrie, von industriellen Nahrungsmittelherstellern bis zu gewerblichen und professionellen Anwendern wie Chocolatiers, Confiseuren, Bäckern, Hotels, Restaurants oder Cateringunternehmen. Diese Gourmet-Kunden bedient das Unternehmen mit den zwei globalen Marken Callebaut® und Cacao Barry®. Barry Callebaut setzt sich mit seiner Initiative «Cocoa Horizons» für eine nachhaltige Kakaoproduktion ein und hilft, die künftige Versorgung mit Kakao sicherzustellen sowie das wirtschaftliche Auskommen der Bauern zu verbessern.

http://www.barry-callebaut.com

Quelle: idw

(nach oben)


TU Berlin: Studie eröffnet neue Wege in der Biowasserstoff-Forschung

Stefanie Terp Stabsstelle Presse, Öffentlichkeitsarbeit und Alumni
Technische Universität Berlin

Wissenschaftlern der TU Berlin ist es mit Forschern der Freien Universität Berlin, der Charité und der Humboldt-Universität zu Berlin gelungen, die Funktionsweise eines molekularen Schalters in Biomolekülen aufzuklären.

Die Studie wurde kürzlich in der angesehenen Fachzeitschrift „Nature Chemical Biology“ veröffentlicht. Die neuen Erkenntnisse sind nicht nur für die Grundlagenforschung, sondern auch für die technische Anwendung der biologischen Wasserstoffumwandlung von großer Bedeutung, denn die Kenntnis der molekularen Struktur der Hydrogenasen ebnet den Weg für die Synthese von chemischen Modellverbindungen zur Produktion des alternativen Energieträgers Wasserstoff.

Der elektronische Schalter ist zentraler Bestandteil einiger Eiweiße, die in der Lage sind, Wasserstoff entweder zu produzieren oder diesen zur Energiegewinnung zu spalten. Aufgrund dieser Eigenschaften stehen diese Biokatalysatoren – genannt Hydrogenasen – weltweit im Fokus der Forschung. Dabei sind diejenigen Hydrogenasen von besonderem Interesse, die durch den Sauerstoff in der Luft nicht inaktiviert werden. Gerade für diese ungewöhnliche Eigenschaft der Sauerstoffverträglichkeit spielt der neuartige Schalter eine Schlüsselrolle. Es handelt sich dabei um einen Cluster aus Eisen und Schwefelatomen, welcher Elektronen leiten oder wahlweise auch speichern kann. Die Eigenschaft, zwei Elektronen gleichzeitig aufnehmen oder abgeben zu können, unterscheidet diesen Cluster von nahezu allen bislang bekannten Eisen-Schwefel-Zentren. „Aufgrund ihrer transdisziplinären Methodik konnte unsere Forschergruppe entschlüsseln, wie der elektronische Schalter es der Hydrogenase ermöglicht, den schädlichen Sauerstoff zu entgiften, und gleichzeitig gewährleistet, dass weiterhin Energie aus Wasserstoff gewonnen wird“, sagt der Mikrobiologe Dr. Oliver Lenz vom Institut für Chemie der TU Berlin, der gemeinsam mit Dr. Patrick Scheerer von der Charité-Universitätsmedizin Berlin die Koordination des Forschungsprojekts übernahm.

Die im hohen Maße interdisziplinäre Studie profitierte von der exzellenten Wissenschaftslandschaft in Berlin. Sie wurde durch den Zusammenschluss von sieben Forschungsgruppen verschiedener Fachrichtungen innerhalb des Exzellenzclusters „Unifying Concepts in Catalysis“ (UniCat) ermöglicht. UniCat ist ein im Rahmen der Exzellenzinitiative des Bundes und der Länder gegründeter Exzellenzcluster, in dem etwa 240 Wissenschaftler und Wissenschaftlerinnen aus Chemie, Physik, Biologie und Verfahrenstechnik aus vier Universitäten und zwei Max-Planck-Instituten aus Berlin und Potsdam das volkswirtschaftlich wichtige Feld der Katalyse erforschen.

Weitere Informationen erteilen Ihnen gern:
Dr. Oliver Lenz, TU Berlin, Institut für Chemie, E-Mail: oliver.lenz@tu-berlin.de

Dr. Patrick Scheerer, Charité-Universitätsmedizin Berlin, Institut für Medizinische Physik und Biophysik, E-Mail: patrick.scheerer@charite.de

Quelle: idw

(nach oben)


Eine Stadtführung durch das mittelalterliche Frankfurt zum Herunterladen

Ulrike Jaspers Marketing und Kommunikation
Goethe-Universität Frankfurt am Main

FRANKFURT. Heute ist Frankfurt vor allem durch seine Bankentürme, den Römer und die Buchmesse bekannt. Im späten Mittelalter wurde den Einwohnern und Besuchern der Stadt eine Attraktion ganz anderer Art geboten: Ähnlich wie heute in Oberammergau wurde rund alle sieben Jahre die Leidensgeschichte Christi unter freiem Himmel aufgeführt – gleichzeitig als öffentliches Theaterstück und religiöses Ereignis. Mit einer von Studierenden der Goethe-Universität entwickelten App kann man sich ab Mitte April auf die Spuren der spätmittelalterlichen Passionsfrömmigkeit begeben – und auch auf den Weg ihrer negativen Kehrseite, einem ausgeprägten Antijudaismus.

In Kooperation mit verschiedenen städtischen Institutionen entstand an der Goethe-Universität eine historische Stadtführung, die pünktlich zur Karwoche kostenlos in allen App-Stores heruntergeladen werden kann. An zwölf Stationen erzählen Studierende der Geschichts- und Literaturwissenschaft Geschichten von Gewalt, Verrat und Hinrichtung, aber auch von Tanz, Prozessionen und Wundertaten. Die mittelalterliche Spurensuche beginnt am Römerberg im Jahr 1492 und endet am ehemaligen Galgentor, das heute mitten im Bankenviertel liegt.

Zahlreiche Kunstdenkmäler und historische Stätten zeugen noch heute von der vormodernen Spieltradition und den Aufführungen, an denen sich die ganze Stadt beteiligte. Dazu gehören die Kreuzigungsgruppe von Hans Backoffen im Frankfurter Dom, die Wandbilder von Jörg Ratgeb im ehemaligen Karmeliterkloster, der für die Dominikanerkirche entworfene Altar Hans Holbeins d. Ä. im Städel, die Alte Brücke mit dem goldenen „Briggegiggel“ und das Museum Judengasse. Der Spieltext wurde damals von dem Frankfurter Gerichtsschreiber Johannes Kremer aufgezeichnet, der die Passionsaufführung auf dem Römerberg 1492 geleitet hatte.

Vorgestellt wird die Stadtführungs-App in der Karwoche von den beiden Projektleiterinnen, Dr. Stephanie Dreyfürst (Schreibzentrum) und PD Dr. Regina Toepfer (Institut für deutsche Literatur und ihre Didaktik):

Die Entwicklung der App wurde finanziert durch die Dr. Marschner-Stiftung, Microsoft, den Förderfonds Lehre und die Vereinigung von Freunden und Förderern der Goethe-Universität Frankfurt.

Informationen: Dr. Stephanie Dreyfürst, Schreibzentrum Goethe-Universität, Campus Westend Tel. (069) 798 32845, dreyfuerst@lingua.uni-frankfurt.de

Quelle: idw

(nach oben)


Adipositas: Die Gene sind schuld

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Das für die Speichel-Amylase (Enzym) kodierende Gen AMY1 ist beim Menschen mehrfach vorhanden und kann zwischen einer und zwanzig Kopien von Mensch zu Mensch variieren. Je geringer die Zahl von Genen für das Stärke spaltende Speichelenzym Amylase, umso höher ist das Risiko für Fettleibigkeit.

Demnach besteht ein enger Zusammenhang zwischen der Zahl von Genen eines bestimmten Verdauungsenzyms und dem Risiko, an Fettleibigkeit zu erkranken. Zu diesem Ergebnis, das am 30. März 2014 in der Fachzeitschrift Nature Genetics veröffentlicht wurde, kam ein internationales Forscherteam um Prof. Philippe Froguel vom Labor für Genomik und Stoffwechselerkrankungen (CNRS / Universität Lille 2/Institut Pasteur in Lille).

Etwa 5% der stark übergewichtigen Menschen tragen eine Mutation eines Appetit kontrollierenden Gens in sich, das bei ihnen zu Übergewicht führt. Dank aktueller pangenomischer DNA-Microarray Analysen konnten 70 Gene für Übergewicht identifiziert werden, die jedoch nur geringe Auswirkungen haben und nur einen kleinen Teil des genetischen Risikos erklären (4%).

Die französischen und britischen Forscher gingen noch einen Schritt weiter und untersuchten das Erbgut von schwedischen Familien mit unterschiedlichen Veranlagungen für Fettleibigkeit. Sie analysierten das Genom und die Gene im Fettgewebe, die bei übergewichtigen und normalgewichtigen Menschen unterschiedlich exprimiert werden. Sie untersuchten eine Region auf dem Chromosom 1, die in ihrer Art einzigartig ist, da sie ein Gen (AMY1) enthält, das das Speichelenzym Amylase kodiert und nur beim Menschen in dieser einzigartigen Form vorkommt. Jeder Mensch hat in der Regel zwei Kopien dieses Gens (eine vom Vater und eine von der Mutter). Die Kopienanzahl des AMY1-Gen variiert jedoch zwischen eins bis zwanzig. Mit der Entwicklung der Landwirtschaft vor 10.000 Jahren stieg auch die Anzahl der Kopien des AMY1-Gens, als Ausdruck der natürlichen Selektion und der menschlichen Evolution: Amylasen (Enzyme) spalten Stärke in Zucker auf, wodurch Individuen mit verstärkter Amylase-Produktion einen selektiven ernährungsbedingten Vorteil haben. Die Forscher fanden heraus, dass Menschen mit nur wenigen Kopien (und somit wenigen Amylasen) bis zu 10 Mal häufiger unter Übergewicht leiden. Jede fehlende AMY1-Kopie steigert das Risiko für Fettleibigkeit um 20%. Allein über diese Region des Genoms lassen sich fast 10% des genetischen Risikos erklären.

Es gibt zwei Arten von Amylasen: die eine wird von der Bauchspeicheldrüse produziert, die andere von den Speicheldrüsen. Allein letztere scheint bei einem Mangel mit Adipositas in Verbindung gebracht werden zu können. Die Ursache dafür ist jedoch noch unbekannt. Es gibt zwei Hypothesen: Einerseits könnte durch das Kauen und der damit bereits im Mund beginnenden Verdauung der Nahrung eine hormonelle Wirkung den Sättigungseffekt bewirken, der bei einem AMY1-Mangel reduziert wäre. Andererseits könnte eine schlechte Verdauung von Stärke die Darmflora verändern und somit indirekt zur Fettleibigkeit bzw. Diabetes beitragen, wie bereits frühere Untersuchungen des Stoffwechsels bei Menschen mit hoher bzw. niedriger Speichel-Amylasen-Produktion nahelegen. Menschen mit geringer Speichel-Amylase haben einen ungewöhnlich hohen Blutzuckerspiegel, wenn sie Stärke essen.

Diese Ergebnisse eröffnen eine völlig neue Sicht auf die genetische Veranlagung für Übergewicht aufgrund der Verdauung von komplexen Kohlenhydraten und ihrer Wirkung auf die Darmflora. Sie bieten neue Möglichkeiten der wirksameren Prävention und Behandlung von Fettleibigkeit unter Berücksichtigung der Verdauung und der Darmflora.

Kontakt:
Philippe Froguel – Tel.: +33 3 20 87 79 54/06 07 89 30 92 – E-Mail: philippe.froguel@good.ibl.fr

Quelle:
Pressemitteilung des CNRS – 30.03.2014 – http://www2.cnrs.fr/presse/communique/3487.htm

Quelle: idw

(nach oben)


Tannen im Stresstest

Johannes Scholten Pressestelle
Philipps-Universität Marburg

Forschung zum Klimawandel: Terahertz-Strahlen eignen sich dazu, die Änderung des Wassergehalts von Blättern zu ermitteln, ohne diese zu zerstören. Das demonstrieren Marburger Biologen und Physiker in einer aktuellen Veröffentlichung, die in einer Sonderausgabe der Fachzeitschrift „Plant Physiology“ erscheint. In den Messungen des Teams führte ein verringerter Wassergehalt zu erhöhter Durchlässigkeit der Blätter für Terahertz-Wellen, schreiben die Autorinnen und Autoren. Das neue Verfahren erlaubt die genaue Beobachtung von Stressreaktionen an vielen Einzelpflanzen über lange Zeiträume hinweg.

Der globale Treibhauseffekt lässt für die Zukunft extreme Witterungsbedingungen im Mittelmeerraum und in Zentraleuropa erwarten, etwa ausgeprägte Dürreperioden. „Die meisten Baumarten reagieren sehr empfindlich auf den Trockenstress, der durch Wassermangel ausgelöst wird“, erläutert der Marburger Naturschutzbiologe David Behringer, Mitverfasser der aktuellen Publikation. Will man die Überlebenschancen von Pflanzen unter veränderten Umweltbedingungen abschätzen, muss man die genetischen und physiologischen Hintergründe der Trockenstresstoleranz bei verschiedenen Pflanzen möglichst genau kennen.

„Bislang fehlte jedoch ein Verfahren, mit dem sich die Stressreaktionen von Pflanzen gezielt untersuchen lassen“, ergänzt Professorin Dr. Birgit Ziegenhagen, Leiterin der Arbeitsgruppe Naturschutzbiologe und Koautorin der Studie: „Die verfügbaren Messmethoden bewerten den Trockenstress entweder nur über indirekte Vorgänge, oder die Messung führt zur Zerstörung des Pflanzenmaterials.“

Die Wissenschaftler nutzten daher Terahertz-Strahlen, das sind elektromagnetische Wellen im Spektrum zwischen Mikrowellen und infrarotem Licht. Die Biologen konnten hierfür auf das Know-how ihrer Kollegen aus dem Fachgebiet Experimentelle Halbleiterphysik zurückgreifen. „Es hat sich gezeigt, dass Wasser die Terahertz-Wellen ausgesprochen stark absorbiert, während diese viele Feststoffe ungehindert durchdringen“, erklärt der Physiker Professor Dr. Martin Koch, der ebenfalls an der aktuellen Veröffentlichung beteiligt ist. Die Forscher machten sich einen weiteren Vorteil der Terahertz-Wellen zunutze, wie Koautor Norman Born aus Kochs Arbeitsgruppe ausführt: „Da die Terahertz-Wellen eine viel kürzere Wellenlänge als Mikrowellenstrahlung haben, wird es überhaupt erst möglich, die dünnen Tannennadeln zu messen.“

Die Autoren testeten ihr Verfahren an Weißtannensämlingen, da Nadelbäume mit ihren kleinen Blattoberflächen besonders schwer zu untersuchen sind, wenn man die bislang üblichen Methoden anwendet. Tannen sieht man nicht ohne Weiteres an, wie stark sie unter Trockenstress leiden – im Gegensatz zu manch anderen Pflanzenarten, die bei Wassermangel schon mal die Blätter hängen lassen.

Die Wissenschaftler überwachten erstmals viele Pflanzensämlinge über einen Zeitraum von mehreren Wochen hinweg mit der neuen Technik, um Stressreaktionen direkt zu beobachten, zu vergleichen und zu bewerten. Hierfür bestrahlten sie eine Reihe von Pflänzchen immer wieder mittels eines präzise gesteuerten Messkopfs mit Terahertz-Wellen, so dass sie die Veränderung des Wassergehalts in den Tannennadeln genau und in Echtzeit aufzeichnen konnten. Dies war erst durch die in Marburg entwickelte Bauform des dafür angewendeten Terahertz-Spektrometers machbar.

Die zerstörungsfreien Langzeitmessungen gestatten genaue Prognosen, wie lange eine Pflanze unter bestimmten Bedingungen Trockenheit ertragen kann. „Dank der neuen Technik ist es zum Beispiel möglich, Pflanzen verschiedener Genotypen dem gleichen Stress auszusetzen, um abweichendes Verhalten in der Reaktionszeit, der Heftigkeit der Reaktion oder der Widerstandsfähigkeit zu charakterisieren“, sagt Naturschutzbiologe und Mitautor Dr. Sascha Liepelt. Außerdem erlaubt die Methode, bestimmte Stresslevel zu definieren, die eine Pflanze noch verkraftet, und gezielt nach den verantwortlichen Genen für die Stressantwort zu fahnden. Martin Koch kann sich als Leiter der Experimentellen Halbleiterphysik auf die Fortsetzung der Forschungstätigkeit freuen: Die „Johannes-Hübner-Stiftung“ unterstützt die weitere Arbeit durch ein Promotionsstipendium, um das System auch für andere Pflanzenarten zu adaptieren und tiefer gehende Studien durchzuführen.

Originalveröffentlichung: Norman Born, David Behringer & al.: Monitoring plant drought stress response using terahertz time-domain spectroscopy, Plant Physiology 2014, S. 113.233601v1-113.233601, Online-Zugang/DOI: http://dx.doi.org/10.1104/pp.113.233601

Weitere Informationen:
Ansprechpartner:
Norman Born,
Fachgebiet Experimentelle Halbleiterphysik
Tel.: 06421 28-24156
E-Mail: norman.born@physik.uni-marburg.de

Homepage:
http://www.uni-marburg.de/fb13/forschung/experimentelle-halbleiterphysik/agkoch

David Behringer,
Fachgebiet Naturschutzbiologie
Tel.: 06421 28-23489
E-Mail: david.behringer@biologie.uni-marburg.de

Homepage:
http://www.uni-marburg.de/fb17/fachgebiete/naturschutz/naturschutzbiologie/

Pressemitteilung zur Waldökologie-Forschung:
http://www.uni-marburg.de/aktuelles/news/2013d/1213b

Quelle: idw

(nach oben)


BfG registrierte an Fischaufstiegsanlage Koblenz 30.000 Fische

Dipl.-Met. Alfred Hommes Referat Öffentlichkeitsarbeit
Bundesanstalt für Gewässerkunde

An der Moselstaustufe in Koblenz wurde im Jahr 2011 eine neue Fischaufstiegsanlage eröffnet. Wie gut funktioniert diese Fischtreppe und welche Fische nutzen die Anlage zum Aufstieg? Zur Untersuchung dieser Frage hat die Bundesanstalt für Gewässerkunde (BfG) in der Anlage einen automatischen Fischzähler installiert. Nun hat die BfG erstmals für die Jahre 2012 und 2013 detaillierte Zahlen zu den beobachteten Fischen vorgelegt.

Seit der Eröffnung am 30. September 2011 sind etwa 30.000 aufsteigende Fische in der neuen Fischtreppe erfasst worden (s. Tabellen). Dabei wurden 32 verschiedene Arten detektiert, meldet die Bundesanstalt für Gewässerkunde weiter. Stark dominant waren hierbei die Rotaugen, aber auch Flussbarsche und Brassen waren häufig vertreten. Mithilfe des Fischzählers konnten erfreulicherweise auch sehr seltene Arten nachgewiesen werden, wie z.B. Meerneunauge oder Quappe und Maifisch (die BfG berichtete). Vom Meer aufsteigende Großsalmoniden wie Lachs und Meerforelle wurden ebenfalls erfasst. Seit Eröffnung der Fischtreppe wurden 102 Meerforellen und 8 Lachse gezählt.

Bei den Aufstiegszahlen ist zu beachten, dass bisher nur Fische ab 2,5 cm Höhe und 15 cm Länge erfasst werden. Daher können Jung- und Kleinfische sowie die schlanken Flussneunaugen und Steigaale bisher nur selten beobachtet werden. Die eigentlichen Aufstiegszahlen werden daher deutlich höher sein. Beobachtungen aufsteigender Fische an den Sichtfenstern des „Mosellum – Erlebniswelt Fischpass Koblenz“ zeigen dies eindrücklich.

Im Jahr 2013 wurden allerdings auch die Grenzen der Erfassung mittels des automatischen Fischzählers deutlich. Ungewöhnlich häufige und ausgeprägte Hochwässer führten während der Hauptaufstiegsphase von April bis Juni oft zu derart trübem Wasser, dass eine kontinuierliche Detektion von Fischen nicht möglich war.

Der Fischzähler in Koblenz ist eine in seiner Größe und Ausführung weltweit einzigartige Installation (Abb. 1). Es handelt sich hierbei um einen kurzen beleuchteten Tunnel, 45 cm breit und 110 cm hoch, welchen in der Fischtreppe aufsteigende Fische passieren müssen. Den Eingang des Tunnels bilden zwei Platten mit Infrarotsensoren, die passierende Fische automatisch scannen und vermessen (Abb. 2). Während der Passage werden die Fische außerdem durch zwei übereinander liegende Videokameras gefilmt. Auf diese Weise ist eine sichere Artbestimmung gewährleistet. Nur bei sehr trübem Wasser kann man – wie bei jedem videobasierten System – keine Fische bestimmen.

Die ursprünglichen Einsatzgebiete des „River Watcher Fish Counters“ liegen in den klaren Lachsflüssen Nordeuropas und Nordamerikas. Für den Einsatz in Bundeswasserstraßen müssen daher spezielle Anpassungen z. B. an trüberes Wasser, Treibgut oder lichtscheue nachtwandernde Arten realisiert werden. Die Entwicklung dieser Anpassungen erfolgt parallel zur laufenden Erfassung und in Zusammenarbeit mit der isländischen Herstellerfirma Vaki. Hierdurch werden sich die Detektionszeiten und Sensitivitäten des Gerätes weiter verbessern.

Die Aufstiegssaison 2014 hat in Koblenz Ende März bei Wassertemperaturen von knapp unter 10 °C begonnen. Typischerweise sind die Nasen die ersten großen Fische, die schwarmweise die Laichwanderung beginnen, dicht gefolgt von Rotaugen. Es wurden seitdem schon über tausend Individuen gezählt. Bei dem momentan schönen Wetter und steigenden Wassertemperaturen sind in den nächsten Wochen zahlreiche weitere Sichtungen zu erwarten.

Die kontinuierliche Erfassung der aufsteigenden Fische ist für die Dokumentation und Bewertung der Fischaufstiegsanlage Koblenz sowie der gewässerökologischen Maßnahmen an der Mosel und ihren Zuflüssen von großer Bedeutung. Insbesondere für die Wiederansiedlung des Lachses im Rahmen des IKSR Programms Lachs2020 liefert diese Anlage wertvolle Informationen.

Der automatische Fischzähler der BfG hat gegenüber einer klassischen Reuse einige Vorteile. So kann eine kontinuierliche Erfassung von wandernden Fischen erfolgen, ohne diese fangen zu müssen. Eine ungehinderte stressfreie Passage ohne Verletzungsrisiko ist zielführend für eine tierfreundliche Vorgehensweise. Außerdem liefert das System z. B. Daten über bevorzugte Tages- oder Nachtzeiten des Fischaufstiegs, welche eine Reuse nicht liefern kann. Auf das System kann durch die BfG jederzeit per PC zugegriffen werden, wodurch stets eine aktuelle Momentaufnahme des Fischaufstiegs verfügbar ist, ohne vor Ort sein zu müssen.

Möglich wurde der Einbau des BfG-Fischzählers durch die erfolgreiche Zusammenarbeit mit der Struktur- und Genehmigungsdirektion (SGD Nord), welche für Planung und Bau der gesamten Aufstiegsanlage verantwortlich war, sowie dem Kraftwerksbetreiber RWE, auf dessen Gelände der Zähler installiert wurde.

Weitere fachliche Informationen:
Bernd Mockenhaupt, Bundesanstalt für Gewässerkunde, Am Mainzer Tor 1, 56068 Koblenz, Fon 0261/1306 5941, Mail: mockenhaupt@bafg.de

Die Bundesanstalt für Gewässerkunde ist das zentrale wissenschaftlich eigenständige Institut des Bundes für die wissenschaftlich-technische Versuchs- und Forschungsarbeit und die praxisbezogene Beratung der Wasser- und Schifffahrtsverwaltung in den Fachgebieten Hydrologie und Gewässernutzung, Gewässerbeschaffenheit sowie Ökologie und Gewässerschutz. Sie unterstützt das Bundesministerium für Verkehr und digitale Infrastruktur sowie andere Bundesressorts in fachspezifischen Fragestellungen zu Bundeswasserstraßen und deren Einzugsgebiete und vertritt diese auch international.

Weitere Informationen:

http://www.bafg.de/DE/Service/presse/presse_node.html – BfG-Pressemitteilungen
http://www.bafg.de/DE/Home/durchgaengigkeit.html – Ökologische Durchgängigkeit der Bundeswasserstraßen
http://www.mosellum.de – Mosellum – Erlebniswelt Fischpass Koblenz

Anhang
Tabelle der Aufstiegszahlen 2012 und 2013
http://idw-online.de/de/attachment35454

Quelle: idw

(nach oben)


Die Psychologie des Elfmeters

Sabine Maas Presse und Kommunikation
Deutsche Sporthochschule Köln

Das Institut für Kognitions- und Sportspielforschung (IKS) der Deutschen Sporthochschule Köln erhält eine DFG-Förderung für ein Projekt, das Sportwissenschaft und Psychologie vereint.

Kann ein Torwart den Elfmeterschützen dazu verleiten, in eine bestimmte Ecke zu schießen? Ja, das funktioniert! Steht der Torwart zum Beispiel nur minimal näher am rechten Pfosten, verleitet er den Schützen – ohne dass es ihm bewusst wird – eher dazu, in die linke Ecke zu zielen, da diese für ihn „offener“ aussieht.

Ein Projekt des Instituts für Kognitions- und Sportspielforschung (IKS) der Deutschen Sporthochschule Köln untersucht diesen psychologischen Ansatz der Wahrnehmung und Entscheidungsfindung. Die Deutsche Forschungsgesellschaft (DFG) fördert das Projekt für zwei Jahre; es ist bereits der zweite Antrag des IKS in diesem Jahr, den die DFG unterstützt. „Wir sind sehr glücklich, dass wir in so kurzer Zeit ein zweites DFG-Projekt genehmigt bekommen haben, insbesondere deshalb, weil es in der stark kompetitiven Mutterwissenschaft Psychologie erfolgt ist“, sagt Institutsleiter Univ.-Prof. Dr. Daniel Memmert.

In Kooperation mit der Universität Paderborn (Prof. Dr. Matthias Weigelt) und der VU Universität Amsterdam (Dr. John Van der Kamp) entwickelten die Wissenschaftlerinnen und Wissenschaftler des IKS ein feldnahes Elfmeter-Paradigma. Das Projekt untersucht, inwiefern bewusste und unbewusste Hinweise, Gesten oder die Position des Torwarts auf der Torlinie den Elfmeterschützen beeinflussen. Damit lassen sich grundlagenwissenschaftliche und anwendungsorientierte Fragestellungen der Psychologie und Sportwissenschaft beantworten. Erste, bereits im Journal of Cognitive Psychology publizierte Ergebnisse zeigen, dass jeder Torhüter durch sein eigenes Verhalten den Schützen so beeinflussen kann, dass zumindest die Wahrscheinlichkeit eines gehaltenen Elfmeters steigt.

Das IKS beabsichtigt, eine bereits bestehende Einteilung verschiedener Bewusstseinsebenen der Informationsverarbeitung für Wahrnehmung und Entscheidungsfindung (Dehaene, et al. (2006)) in stärker repräsentativen und natürlichen Umgebungen zu testen, insbesondere bei Elfmeterschützen im Fußball. Ziel ist, subjektive und objektive Grenzwerte bei der Verarbeitung von Informationen zu analysieren, und zu untersuchen, wie sich zum Beispiel die Aufgabenanforderung, Instruktionen oder Ermüdung und Angst auf die Grenzwerte auswirken.

Kontakt für weitere Infos:
Univ.-Prof. Dr. Daniel Memmert
Institut für Kognitions- und Sportspielforschung
Deutsche Sporthochschule Köln
Tel.: +49 221 4982-4330
E-Mail: memmert@dshs-koeln.de

Univ.-Prof. Dr. Matthias Weigel
Sport Psychology Research Group
Universität Paderborn
Tel.: +49 5251 60-3200
E-Mail: matthias.weigelt@uni-paderborn.de

Weitere Informationen:
http://www.dshs-koeln.de

Quelle: idw

(nach oben)


Und er bewegt sich doch – Tinnitusfrequenz lässt sich durch Neuro-Musiktherapie verändern

Natascha Schettler-Brox Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Ergebnisse einer vom Deutschen Zentrum für Musiktherapieforschung in Heidelberg durchgeführten Untersuchung bestätigen aussagekräftige Veränderungen der Tinnitusfrequenz durch die Neuro-Musiktherapie

Seit rund zehn Jahren wird die Neuro-Musiktherapie nach dem Heidelberger Modell als eine sehr effektive Behandlungsmethode bei chronischem Tinnitus eingesetzt. Durchschnittlich 80% der behandelten Patienten erreichen eine zuverlässige Verbesserung. Entscheidend für die Wirksamkeit der Therapie ist, dass chronischer Tinnitus im Gehirn entsteht, und nicht beispielsweise auf Ebene der Ohren oder des Hörnervs. In der fünftägigen Kompakttherapiewoche ist es demnach das Ziel, die festgefahrenen Bahnen im Gehirn, die den Tinnitus produzieren, zu beeinflussen und damit die Tinnitusbelastung nachhaltig zu reduzieren.

In einer aktuellen Untersuchung wurde nun nachgewiesen, dass durch die Musiktherapie eine zuverlässige Verbesserung der Tinnitusfrequenz (Tonhöhe der Ohrgeräusche) erreicht wird. Bei insgesamt n=204 Probanden wurde die Tinnitusfrequenz im Therapieverlauf täglich ermittelt.
Obwohl die Patienten im Vorfeld ihren Tinnitus als sehr gleichbleibend beschrieben, konnte durch die Musiktherapie eine rasche und eindeutige Bewegung in den Tinnitus gebracht werden: Insgesamt veränderte sich die Tinnitusfrequenz während der Therapiewoche um knapp zwei Oktaven. Dabei war im Durchschnitt ein deutlicher Abwärtstrend der Tonhöhe zu verzeichnen.
Weiterhin kam es bei rund 15% der Patienten im Laufe der Therapiewoche zu „Aussetzern“ des Tinnitus, bei dem der Tinnitus über einen Zeitraum von mehreren Stunden oder gar Tagen nicht mehr hörbar war.

Diese Ergebnisse untermauern die Erkenntnisse aus den bildgebenden Verfahren, dass eine schnell eintretende Veränderung der festgefahrenen Tinnitus-Netzwerke im Gehirn durch die Musiktherapie möglich ist.

Die Tinnitusambulanz bietet laufend Kompakttherapien für Patienten mit chronischem und nun auch akutem Tinnitus an. Weitere Informationen für Patienten und Ärzte sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM das größte musiktherapeutische Forschungsinstitut in Europa und vereint Forschung, Praxis und Lehre unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmittel. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehört eine Tinnitusambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 32/1
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 83 38 74
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Weitere Informationen:
http://www.dzm-heidelberg.de

Quelle: idw

(nach oben)


Umwelthormone – kleine Mengen mit großer Wirkung

Tobias Steinhäußer Unternehmenskommunikation
Fraunhofer-Gesellschaft

Leere Fangnetze und weniger Fischarten – Umwelthormone werden für den Rückgang von Fischzahlen verantwortlich gemacht. Doch wie schädlich sind diese Substanzen wirklich? Studien, die ein komplettes Fischleben abbilden, geben Aufschluss.

Man kann sie nicht sehen, riechen oder schmecken – dennoch sind Umwelthormone Bestandteile vieler Materialien und Produkte. Sie finden sich beispielsweise in Farben, Pflanzenschutzmitteln, Kosmetika, Kunststoffen und in Pharmazeutika. Umwelthormone sind Moleküle, die sich wie Hormone verhalten, weil sie diesen in ihrer Struktur ähneln. Man vermutet, dass die Substanzen, die über die Luft, die Haut, Lebensmittel und Medikamente in den Organismus gelangen, das Fortpflanzungssystem des Menschen beeinflussen und beispielsweise eine sinkende Spermienqualität und damit eine abnehmende Fruchtbarkeit bewirken. Die Tierwelt ist ebenfalls betroffen: Neben anderen Faktoren werden die Umwelthormone für den Rückgang von Fischpopulationen verantwortlich gemacht.

Lebenszyklusstudie mit Süßwasserfisch
Ob die Bestände von Fischen und Amphibien tatsächlich durch eine mögliche Belastung von Gewässern mit hormonaktiven Substanzen bedroht werden, diskutieren Experten und Wissenschaftler seit über zwei Jahrzehnten kontrovers, denn tatsächlich sind die Wirkungen der Umwelthormone nur unzureichend geklärt. Licht ins Dunkel wollen Forscher des Fraunhofer-Instituts für Molekularbiologie und Angewandte Oekologie IME in Schmallenberg bringen. Um die Auswirkungen von hormonaktiven Substanzen auf Fische zu untersuchen, haben die Wissenschaftler Lebenszyklusstudien mit dem Zebrabärbling, einem Süßwasserfisch, etabliert und stetig weiterentwickelt. »Mit dem Lebenszyklustest können wir in einem überschaubaren Zeitrahmen alle relevanten Leistungen eines Fischlebens abbilden«, sagt Matthias Teigeler, Ingenieur in der Abteilung Ökotoxikologie am IME. »Dazu gehören das Wachstum, die Embryonal- und insbesondere die Sexualentwicklung sowie die Reproduktionsfähigkeit der Tiere. Das sind alles Faktoren, die empfindlich gegenüber hormonaktiven Substanzen reagieren.«

In einer Durchflussanlage werden Fischgruppen gleicher Größe potenziell hormonaktiven Substanzen ausgesetzt, die in verschiedenen Konzentrationen dosiert werden. Eine Kontrollgruppe, in der die Fische in unbelastetem Wasser gehalten werden, dient zum Vergleich, um mögliche Auswirkungen auf die exponierten Tiere erkennen zu können. »Ein Lebenszyklustest beginnt mit dem Einsatz von befruchteten Eiern, die von unbelasteten Elterntieren gewonnen werden. Nach drei Tagen schlüpfen die Fischembryos. Wir bestimmen die Anzahl der überlebenden Tiere und messen die Körperlänge am Computer. Nach etwa drei Monaten sind die Tiere soweit gereift, dass sie sich fortpflanzen können. Die Reproduktionsfähigkeit lässt sich sehr gut über die Anzahl der gelegten Eier belegen. In der Laichphase entnehmen wir täglich Eier aus den Testbecken und zählen sie. Da sie durchsichtig sind, kann man untersuchen, ob sie befruchtet wurden oder nicht«, erläutert Teigeler.

Tatsächlich konnten die Forscher nachweisen, dass Zebrabärblinge unter der Zugabe von sehr kleinen Konzentrationen von Ethinylestradiol, einem synthetischen Östrogen, das Bestandteil der Antibabypille ist, nicht mehr fähig waren, sich fortzupflanzen – Balz und Eiablage blieben aus. Negative Wirkungen beobachteten sie auch bei weiteren Prüfsubstanzen: So führten Tests mit dem synthetischen Sexualhormon Trenbolon zu einer Vermännlichung der Tiere. Das Geschlechterverhältnis verschob sich eindeutig, 100 Prozent der Fische entwickelten nach Zugabe der Prüfsubstanz ein männliches Geschlecht. Dies konnte auch für Aromatasehemmer beobachtet werden, die als Antipilzmittel im Pflanzenschutz eingesetzt werden. Zum Vergleich: In der unbelasteten Kontrollgruppe würden die Forscher ein Geschlechterverhältnis von 50 Prozent Männchen zu 50 Prozent Weibchen erwarten. »Einige bekannte Substanzen beeinflussen das Hormonsystem negativ. Für den Rückgang von Fischarten werden neben den hormonaktiven Substanzen aber auch weitere Faktoren wie schlechte Gewässerstruktur und der Klimawandel diskutiert«, sagt Teigeler.

Verschärfte Zulassungsanforderungen für Pflanzenschutzmittel und Co.
Hersteller von Pflanzenschutzmitteln sehen sich inzwischen mit einem Verbot konfrontiert, wenn sich herausstellt, dass ein Wirkstoff das hormonelle System von Mensch und Tier nachhaltig stört. Inzwischen muss auch die Pharmaindustrie Daten zur Wirkung von hormonartigen Substanzen in Gewässern erheben, wenn sie in Europa ein neues Präparat auf den Markt bringen will. Das Testsystem des Fraunhofer IME genießt sowohl in der Industrie als auch bei den Zulassungsbehörden hohe Akzeptanz. Darüber hinaus unterstützen die IME-Forscher mit ihrer Expertise beim Durchführen von Lebenszyklustests, ihren Studien und Testergebnissen die Gremien der OECD, der EU und ihrer Mitgliedstaaten, die Fischtest-Richtlinien entwickeln und Testergebnisse bewerten müssen. Sie helfen, Antworten auf die Fragen zur Problematik hormonaktiver Substanzen in der Umwelt zu finden.

Weitere Informationen:

http://www.fraunhofer.de/de/presse/presseinformationen/2014/April/umwelthormone….

Quelle: idw

(nach oben)


InduKOCH: Wissenschaftler machen Induktionsherde energiesparender und preiswerter

Kai Uwe Bohn Pressestelle
Universität Bremen

Wissenschaftler der Universität Bremen haben daran mitgewirkt, dass Induktionsherde schon bald preiswerter und noch energieeffizienter werden. Die Elektrotechniker vom Institut für elektrische Antriebe, Leistungselektronik und Bauelemente (IALB) arbeiteten dafür im Forschungsprojekt „InduKOCH“ zusammen mit Mitarbeitern der E.G.O.-Gruppe – einem weltweit tätigen Zulieferer für Hersteller von Haushaltsgeräten – und dem Halbleiter-Produzenten Infineon Technologies, der das Projekt leitete.

„Es ist uns gelungen, die Anzahl der notwendigen Komponenten in Induktionsherden zu verringern“, erläutert Professor Nando Kaminski vom IALB das Ergebnis des dreijährigen Forschungsprojekts. „Die Vorteile für Verbraucher: Ein Standard-Induktionsherd ist in Zukunft kaum teurer als ein herkömmlicher Elektroherd. Außerdem hat er eine geringere Verlustleistung, so dass das schon heute sehr energiesparsame Induktionsverfahren zukünftig noch weniger Strom benötigt.“

Induktionsbeheizungen- und herde, die auf InduKOCH-Technologie basieren, verbrauchen jährlich zwischen 20 und 100 Kilowattstunden (kWh) weniger Strom als Elektroherde – ein aktiver Beitrag zum Klimaschutz. In Deutschland ließe sich so pro Jahr eine CO2-Menge einsparen, die dem Ausstoß von 100.000 Autos entspricht (bei durchschnittlicher Fahrleistung von jährlich 13.000 km). Voraussetzung dafür ist, dass künftig doppelt so viele Haushalte wie bisher Induktionsherde verwenden und bei der Anschaffung auf die energiesparenden und preiswerteren Herde setzen. Schon 2014 könnten sie von der Neuentwicklung profitieren, denn dank InduKOCH lohnt sich der Austausch des Elektroherds noch mehr als bisher.

Neue Chips und neues Innenleben für Induktionsherde
Um Induktionsherde sparsamer und preiswerter zu machen, hat der Halbleiter-Hersteller Infineon die so genannten IGBT-Chips (Insulated Gate Bipolar Transistor) weiterentwickelt. Die IGBTs schalten im Induktionsherd die hochfrequenten Ströme der Induktionsspulen, deren elektromagnetisches Feld die Kochhitze in den Töpfen erzeugt. Die neuen IGBTs werden bis zu 40 Prozent effizienter sein als ihre Vorgänger zu Projektbeginn. Die E.G.O.-Gruppe, die als einer der weltweit führenden Zulieferer für Heiz- und Steuerelemente für Hersteller von Hausgeräten gilt, konnte dank der neuen IGBT-Leistungshalbleiter von Infineon das elektronische und mechanische Innenleben der Induktionsbeheizungen optimieren. Das IALB der Universität Bremen wiederum unterstützte hier tatkräftig: „Wir haben die Modellierung und Simulation der hochfrequenten Schaltvorgänge erforscht. Unsere Computermodelle haben sehr schnell die unterschiedlichen Varianten der IGBT-Komponenten und der Schaltungsumgebung durchgerechnet“, so Nando Kaminski. „Das war die Basis für die Bestimmung des optimalen Gesamtsystems durch die InduKOCH-Forscher – ohne langwierige und teure Experimente durchführen zu müssen.“

Im Rahmen der Hightech-Strategie der Bundesregierung und des Programms „Informations- und Kommunikationstechnologie 2020″ (IKT 2020) förderte das Bundesministerium für Bildung und Forschung (BMBF) das Forschungsprojekt InduKOCH über drei Jahre mit einem Betrag von etwa 1,2 Millionen Euro. InduKOCH steht für „Innovative Schaltungskonzepte und Bauelemente zur Steigerung der Energieeffizienz beim Kochen durch den Einsatz von Induktionsherden“. Das Projekt lief seit Mai 2010 und wurde am 31. Januar 2014 mit Übergabe des Forschungsberichts an das BMBF abgeschlossen.

Induktionsverfahren in deutschen Haushalten
Mit einem Induktionsherd sind heute etwa 17 Prozent der insgesamt mehr als 40 Millionen Haushalte in Deutschland ausgestattet. Bis zu 25 Prozent an elektrischer Energie lassen sich beim Kochen einsparen, wenn nicht der herkömmliche Elektroherd eingeschaltet wird, sondern das Induktionsverfahren zum Einsatz kommt, bei dem nur Töpfe und Pfannen erwärmt werden und nicht die Herdplatte.

Das am Projekt beteiligte Institut für elektrische Antriebe, Leistungselektronik und Bauelemente (IALB) der Universität Bremen wurde 1994 gegründet. Es forscht und lehrt auf den Gebieten der elektrischen Antriebe, der Mechatronik und der erneuerbaren Energien sowie im Bereich der Leistungshalbleiterkomponenten und ihrer Anwendung. Bei den Halbleiterkomponenten stehen alternative Halbleitermaterialien, Materialgrundlagen, Bauelementkonzepte, Simulation, Packaging und der Einfluss von parasitären Komponenten im Vordergrund.

Weitere Informationen:
Universität Bremen
Institut für elektrische Antriebe, Leistungselektronik und Bauelemente (IALB)
Prof. Dr.-Ing. Nando Kaminski
Tel.:0421/218 -62660
nando.kaminski@uni-bremen.de
www.ialb.uni-bremen.de

Quelle: idw

(nach oben)


Frauen bewerben sich nicht auf „männliche“ Stellenausschreibung

Dr. Ulrich Marsch Corporate Communications Center
Technische Universität München

Schon die Formulierung der Stellenausschreibung kann entscheidend sein, ob eine Frau oder ein Mann den Job bekommt – weil sich Frauen im Zweifel gar nicht erst bewerben. Sie fühlen sich von häufig verwendeten Begriffen wie „zielstrebig“ und „durchsetzungsstark“ weniger angesprochen, weil diese mit männlichen Stereotypen verbunden sind. Das hat ein Forschungsprojekt gezeigt, bei dem Wissenschaftlerinnen der TU München die Auswahl und Beurteilung von Führungskräften untersucht haben. Wichtige Erkenntnisse haben sie auch über die Rolle von Emotionen gewonnen: Sie entlarvten das Klischee, dass Führungskräfte erfolgreicher sind, wenn sie gegenüber ihrem Team regelmäßig Ärger zeigen.

„Wir haben so wenig Frauen auf Führungspositionen, weil wir so wenige gute Bewerbungen bekommen“. Immer häufiger hört man diese Klage aus Unternehmen. Nur eine Ausrede? Wissenschaftlerinnen der TU München haben nun einen Grund gefunden, der Frauen tatsächlich von einer Bewerbung abhält, obwohl sie qualifiziert sind: die Texte der Stellenausschreibungen.

Die Forscherinnen zeigten rund 260 Testpersonen fiktive Anzeigen. Ausgeschrieben wurde dort beispielsweise ein Platz in einem Qualifizierungsprogramm für angehende Führungskräfte. Waren in der Ausschreibung viele Eigenschaften genannt, die mit Männern in Verbindung gebracht werden, fühlten Frauen sich weniger angesprochen und wollten sich seltener bewerben. Zu diesen Eigenschaften zählen etwa „durchsetzungsstark“, „selbstständig“, „offensiv“ und „analytisch“. Stärker angesprochen fühlten sich Frauen von Wörtern wie „engagiert“, „verantwortungsvoll“, „gewissenhaft“ und „kontaktfreudig“. Für männliche Testpersonen machte der Ausschreibungstext dagegen keinen Unterschied.

Frauen schätzen ihre eigene Führungskompetenz niedriger ein
„Eine sorgfältig formulierte Stellenausschreibung ist die Voraussetzung für eine optimale Personalauswahl“, sagt Studienleiterin Prof. Claudia Peus, vom Fachgebiet für Forschungs- und Wissenschaftsmanagement. „Es macht zwar meist keinen Sinn, alle männlich besetzten Formulierungen einfach wegzulassen. Aber ohne ein zumindest ausgewogen formuliertes Profil rauben sich Organisationen die Chance auf gute Bewerberinnen. Denn die Stereotype wirken trotz aller gesellschaftlichen Veränderungen fast unverändert weiter.“

Dass die traditionellen Wahrnehmungsmuster nicht zuletzt hinsichtlich Führungskräften gelten, haben die Forscherinnen gemeinsam mit der New York University gezeigt. In einer Befragung hielten rund 600 US-Amerikanerinnen und -Amerikaner Frauen und Männer zwar für grundsätzlich gleich kompetent, produktiv und effizient. Doch die Führungskompetenz der Männer stuften sie höher ein. Auch Frauen trauten sich selbst und anderen Frauen in diesem Bereich durchschnittlich weniger zu als Männer sich selbst und ihren Geschlechtsgenossen.

Verärgerte Chefs müssen mit Illoyalität rechnen
Ob Frauen überhaupt der Wille zur Führung zugetraut wird, hängt stark von den Emotionen ab, die sie zeigen. So lautete eines der Ergebnisse bei der Zwischenpräsentation des Projekts im vergangenen Jahr. Inzwischen haben die Wissenschaftlerinnen die Rolle von Emotionen bei der Beurteilung von Führungskräften weiter untersucht:

Chefs sollten ab und zu Ärger zeigen um sich zu behaupten – so lautet eine weit verbreitete Vorstellung. Um das Klischee zu prüfen, zeigten die Wissenschaftlerinnen mehr als 500 Testpersonen Videos oder Szenarien in Text und Bild, in denen eine Führungskraft ein negatives Geschäftsjahr vor den Mitarbeitern zusammenfasst. Die Vorgesetzten zeigten entweder Ärger, Trauer oder keine Emotion.

Die verärgerten Führungskräfte zogen ihre Macht nach Einschätzung der Testpersonen vor allem aus der Androhung von Strafen und durch die Betonung ihres Status. Weniger als diejenigen Führungskräfte, die Trauer oder Emotionen zeigten, erlangten sie Macht, indem sie anderen ihre Wertschätzung zeigten. Ärgerliche Vorgesetzte verloren also zwischenmenschlich. Die Konsequenz: Die Probanden wären als Mitarbeiter gegenüber den verärgerten Bossen weniger loyal und würden sie eher sabotieren.

Dank ans Team führt zu Zufriedenheit mit den Chefs
„Harter Tonfall gleich Autorität – diese Gleichung ist ein Trugschluss“, sagt Studienleiterin Prof. Isabell M. Welpe vom Lehrstuhl für Strategie und Organisation. „Die Machtposition der Führungskräfte, die ihren Ärger an den Mitarbeitern auslassen, wird zwar grundsätzlich anerkannt. Aber langfristige Loyalität erreichen sie nicht – im Gegenteil riskieren sie, bei nächster Gelegenheit hintergangen zu werden.“

Dass sich Empathie der Chefs positiv auswirkt, bestätigte eine weitere Studie. Die Forscherinnen befragten mehr als 400 Testpersonen nach ihrem eigenen Arbeitsleben oder ließen sie ein fiktives Team-Gespräch nach einem erfolgreichen Kundentermin beurteilen. Im Mittelpunkt stand jeweils, ob die Führungskräfte Dankbarkeit gegenüber den Mitarbeitern oder Stolz auf die eigene Leistung zeigten.

Das Ergebnis: Ein „Danke“ bringt nicht nur im „richtigen“, sondern auch im Arbeitsleben viele Vorteile: Je häufiger es die Vorgesetzen aussprachen, desto zufriedener waren die Mitarbeiter sowohl mit ihren Chefs als auch generell mit ihrem Job. Stolz der Führungskräfte steigerte zwar auch die allgemeine Arbeitszufriedenheit. Doch die Bosse selbst sanken im Ansehen – als zu egoistisch.

Projekt „AuBeFühr“:
Im dreijährigen Projekt „Auswahl und Beurteilung von Führungskräften in Wirtschaft und Wissenschaft (AuBeFühr)“ haben der Lehrstuhl für Strategie und Organisation sowie die Professur für Forschungs- und Wissenschaftsmanagement wissenschaftlich fundierte Handlungsempfehlungen entwickelt, die nun in Schulungen weitergegeben werden können. Vom 1. bis 3. April stellen die Wissenschaftlerinnen ihre Ergebnisse auf einer Abschlusstagung in München vor. Das Projekt wurde gefördert vom Bundesministerium für Bildung und Forschung sowie dem Europäischen Sozialfond der Europäischen Union.

Publikationen / Konferenzbeiträge:
Hentschel, T., Braun, S., Peus, C., & Frey, D. (2014, August). Wording of advertisements influences women’s intention to apply for career opportunities. Angenommen für das 74. jährliche Meeting der Academy of Management, Philadelphia, USA

Hentschel, T., Heilman, M. E., & Peus, C. (2013, Januar). Have gender stereotypes changed?: Ratings of women, men and self. Poster präsentiert auf dem 14. Kongress der Society for Personality and Social Psychology (SPSP), New Orleans, LA, USA

Schwarzmüller, T., Brosi, P., Spörrle, M., & Welpe, I. M. (2014, August). More than just power: Differential effects of anger displays on the bases of power. Accepted for presentation at the 2014 Annual Meeting of the Academy of Management, Philadelphia, PA, USA. Accepted for AOM Best Paper Proceedings 2014.

Ritzenhöfer, L., Brosi, P., Spörrle, M., & Welpe, I. M. (2014, August). Effects of leaders‘ expressions of gratitude and pride on followers‘ leader and job satisfaction. Accepted for presentation at the 2014 Annual Meeting of the Academy of Management, Philadelphia, PA, USA.

Kontakt:
Teilprojekt Wirtschaft (Studien zu Emotionen der Führungskräfte):
Dipl.-Psych. Tanja Schwarzmüller
Technische Universität München
Lehrstuhl für Strategie und Organisation (Prof. Dr. Isabell M. Welpe)
Tel: +49 89 289 24820
t.schwarzmueller@tum.de

Teilprojekt Wissenschaft (Studien zu Stellenausschreibungen sowie Wahrnehmung der Führungskompetenz):
Prof. Dr. Claudia Peus
Technische Universität München
Professur für Forschungs- und Wissenschaftsmanagement
Tel: + 49 89 289 22779 (Pressestelle)
claudia.peus@tum.de

Weitere Informationen:
http://www.abf.wi.tum.de/ Projektseiten
http://www.tum.de/die-tum/aktuelles/pressemitteilungen/kurz/article/30864/ Frühere Ergebnisse des Projekts

Quelle: idw

(nach oben)


EU-Studie: Schlechte Mundgesundheit und unregelmäßige Zahnarztbesuche steigern Krebsrisiko

Meike Mossig Pressestelle
Universität Bremen

Eine Untersuchung an Patienten mit Krebs der oberen Luft-und Speisewege zeigt, dass eine schlechte Mundgesundheit und unregelmäßige Zahnarztbesuche eine Rolle bei der Krebsentstehung spielen. Außerdem gibt es Hinweise, dass der exzessive Gebrauch von Mundwasser möglicherweise eine weitere Ursache für diese bestimmte Krebsform ist.

Das ist das Ergebnis einer europaweiten Verbundstudie, an der das Leibniz-Institut für Präventionsforschung und Epidemiologie (BIPS) an der Universität Bremen mitgearbeitet hat. Die Studie hat das Internationale Institut für Krebsforschung (International Agency for Research on Cancer) der Weltgesundheitsorganisation (WHO) koordiniert. Leiter der Studie in Bremen war Wolfgang Ahrens, Professor für epidemiologische Methoden.

Die beteiligten Wissenschaftler identifizierten neue Risikofaktoren für Krebs der oberen Luft- und Speisewege (Mundhöhle, Kehlkopf, Rachen und Speiseröhre). Die Studie, die 1.962 Patienten mit Mundhöhlen- und Kehlkopfkrebs und weitere 1.993 gesunde Vergleichspersonen umfasste, wurde in 13 Zentren in neun Ländern durchgeführt und durch Mittel der Europäischen Union (EU) finanziert.

Nicht nur Rauchen und Alkohol sind Ursachen für Krebs
In der Fachwelt als erwiesen gilt, dass Rauchen und Alkoholkonsum – besonders in Kombination – die Entstehung von Mundhöhlen- und Kehlkopfkrebs verursacht. Auch ein niedriger sozioökonomischer Status ist ein anerkannter Risikofaktor für die Krebsentstehung. Wolfgang Ahrens, stellvertretender Institutsdirektor des BIPS und Professor für epidemiologische Methoden an der Universität Bremen, fasst es so zusammen: „Diese Ergebnisse sind sehr wichtig. Bisher war nicht klar, ob diese zahnmedizinischen Risikofaktoren unabhängig von den bereits bekannten Risikofaktoren wie Rauchen, Alkohol und niedrigem sozioökonomischen Status wirken.“

Erstmals sei es durch die methodische Vorgehensweise und die große Teilnehmerzahl gelungen, den Einfluss der einzelnen Risikofaktoren wie Rauchen, Alkoholkonsum und niedrigem sozioökonomischen Status voneinander zu trennen. Und obwohl mehrere Risikofaktoren in Kombination natürlich die Wahrscheinlichkeit für die Krebsentstehung erhöhen, fanden die Forscher heraus, dass schlechte Mundgesundheit und unregelmäßige Zahnpflege als unabhängige Einflussfaktoren zu betrachten sind. Als Anzeichen für schlechte Mundgesundheit wurden in der Studie unter anderem häufiges Zahnfleischbluten und das Tragen von Zahnersatz angesehen. Als Anzeichen für eine schlechte Zahnpflege wurden insbesondere seltenes Zähneputzen und seltene Zahnarztbesuche bewertet.

„Wer eine Prothese trägt, sollte auch regelmäßig zur zahnärztlichen Kontrolle gehen“
Menschen, die Prothesen tragen und keine eigenen Zähne mehr haben, sollten nicht glauben, Zahnarztbesuche seien überflüssig“, sagt Dr. David Conway, Dozent an der Zahnklinik der Universität Glasgow und Mitautor der Studie. „Im Gegenteil, wer eine Prothese trägt sollte trotzdem regelmäßig zur zahnärztlichen Kontrolle gehen“, so der Wissenschaftler weiter. Die Häufigkeit der Zahnarztbesuche sollte vom Zahnarzt festgelegt werden. Bei Patienten mit niedrigem Risiko reicht einmal im Jahr, bei höherem Risiko kann hingegen ein halbjährlicher Besuch notwendig sein.

Exzessiver Gebrauch von Mundwasser erhöht Krebsrisiko
„Die ursächliche Rolle von Mundspülung bei der Krebsentstehung muss noch weiter untersucht werden“, so der Bremer Professor Wolfgang Ahrens. In der Studie konnte gezeigt werden, dass exzessiver Gebrauch von Mundwasser – mehr als dreimal pro Tag – mit einem erhöhten Risiko für Mundhöhlen- und Kehlkopfkrebs verbunden war. Es konnte allerdings nicht ermittelt werden, ob eine bestimmte Sorte von Mundwasser für die Risikoerhöhung verantwortlich ist. Dr. Conway empfiehlt Mundwasser nicht täglich zu benutzen. Das wichtigste sei das regelmäßige Zähneputzen und die Verwendung von Zahnseide in Kombination mit regelmäßigen Zahnarztbesuchen.

Ergebnisse veröffentlicht, Forschungen gehen weiter
Die internationale Forschergruppe mit Wissenschaftlern aus Deutschland, Estland, Schweiz, Griechenland, Großbritannien, Tschechien, Italien, Norwegen, Spanien, USA, Kroatien, Irland und Frankreich hat jetzt weitere Fördermittel erhalten, um die Forschung an der Krebsentstehung in den oberen Luft- und Speisewegen fortzuführen.

Ein wissenschaftlicher Artikel ist kürzlich im englischsprachigen Journal Oral Oncology unter dem Titel „Oral health, dental care and mouthwash associated with upper aerodigestive tract cancer risk in Europe: the ARCAGE (Alcohol-Related Cancers and Genetic-susceptibility in Europe) study“ erschienen.
www.oraloncology.com/article/PIIS1368837514000657/abstract

Weitere Informationen:
Universität Bremen
Fachbereich Mathematik/Informatik
Leibniz-Institut für Präventionsforschung und Epidemiologie (BIPS)
Prof. Dr. Wolfgang Ahrens
Telefon: 0421 218-56820
Mobil: 0172 408-8706
E-Mail: ahrens@bips.uni-bremen.de

Weitere Informationen:
http://www.oraloncology.com/article/PIIS1368837514000657/abstract

Quelle: idw

(nach oben)


Effizienter Betrieb von Kläranlagen

Simon Schmitt Kommunikation und Medien
Helmholtz-Zentrum Dresden-Rossendorf

Die Deutsche Bundesstiftung Umwelt (DBU) gibt den Startschuss für ein wegweisendes Projekt. Dafür entwickelt das Helmholtz-Zentrum Dresden-Rossendorf (HZDR) ausgeklügelte Mess-Sonden. Neben dem HZDR und der TU Dortmund beteiligen sich auch drei Industriepartner an dem Projekt. Ziel ist, die Mikroben der biologischen Reinigungsstufen effizienter mit Sauerstoff zu versorgen. Das beschleunigt den Reinigungsvorgang und spart Energie.

Wie Spielzeug-U-Boote treiben die Sensoren des Helmholtz-Zentrums Dresden-Rossendorf (HZDR) durch die trübe Brühe. Alle zwanzig Sekunden messen sie den Umgebungsdruck, die Temperatur und über einen Beschleunigungssensor, mit welcher Stärke und in welche Richtung sie von der Strömung im Becken des Klärwerks hin- und hergerissen werden. Aus den Daten können die Wissenschaftler schließen, wie gut das Abwasser vermischt ist und die darin enthaltenen Bakterien mit Sauerstoff versorgt werden. In einem von der Deutschen Bundesstiftung Umwelt (DBU) geförderten Pilotprojekt soll dieses pfiffige Messverfahren nun erstmals an bestehenden Kläranlagen eingesetzt werden.

In so genannten Belebtschlammbecken verdauen Mikroben die organischen Abfälle unserer Abwässer. Dafür benötigen sie Sauerstoff. Deswegen pressen die Klärwerksbetreiber Luft von unten in den Schlamm und verquirlen das Ganze. Das braucht viel Energie. Auch aus diesem Grund zählt die kommunale Abwasserbehandlung zu einem der größten Energiefresser in den Kommunen. Weltweit werden ungefähr acht Prozent des jährlichen Strombedarfs für Transport und Behandlung von Wasser und Abwasser benötigt, schätzt beispielsweise die UN. Wegen des wachsenden Kostendrucks sind die Gemeinden daher bemüht, hier deutlich besser zu werden.

Doch wie genau sich die Luftblasen im Abwasser bewegen und verteilen, ist nicht bekannt; oft sind einige Zonen exzellent versorgt, während andere noch unter Sauerstoffmangel leiden. Dort können die Mikroben nicht richtig arbeiten. Um auf der sicheren Seite zu sein, rühren und begasen die Betreiber daher lieber eher zu viel als zu wenig. Das frisst unnötig viel Energie und verursacht entsprechend hohe Kosten.

Eine Arbeitsgruppe des Helmholtz-Zentrums Dresden-Rossendorf hat nun so etwas wie kleine „U-Boote“ entwickelt. Die sehen etwa so aus wie die Plastikbehälter aus den Schokoladen-Überraschungseiern – nur etwas größer und in weiß. „Unser soeben promovierter Doktorand Sebastian Reinecke hat sie zunächst für Bioreaktoren entworfen“, sagt Uwe Hampel, AREVA-Stiftungsprofessor für Bildgebende Messverfahren der Energie- und Verfahrenstechnik an der Technischen Universität Dresden sowie Abteilungsleiter im HZDR-Institut für Fluiddynamik.

Die batteriebetriebenen Sensoren sind wasserdicht und werden dem Abwasser beigemengt. Da die Wissenschaftler sie genau so schwer machen wie das Abwasser, das sie verdrängen, schweben sie darin umher und folgen der Strömung. Nach einiger Zeit fischen die Wissenschaftler sie aus dem Becken und lesen die Daten aus. Mit ihnen können sie auf die Dynamik der Strömung zurückschließen und die Erkenntnisse in genauere Simulationsrechnungen einfließen lassen, die den Klärwerksbetreibern dann sagen, wie stark sie rühren sollen. Für die Computersimulationen, im Fachjargon heißt der Code „Computational Fluid Dynamics“, ist die Arbeitsgruppe von Prof. Peter Ehrhard an der TU Dortmund zuständig. „Im nächsten Schritt wollen wir die Sensoren so ausrüsten, dass wir sie auch von außen orten und auslesen können“, sagt Hampel. Die pfiffige Idee begeistert nicht nur Abwasserexperten. Die Helmholtz-Ingenieure erhielten auf der Energiefachmesse „enertec“ für ihren autonomen Sensor für Biogasanlagen bereits einen Innovationspreis.

Das Rätsel der Luftblasen
Es klingt erstaunlich. Aber bis heute weiß tatsächlich niemand, wie genau sich eine Luftblase in einer Flüssigkeit bewegt – erst recht nicht, wenn sie sich im Wasser verformt, sich in der Flüssigkeit auflöst oder mit anderen Blasen vereinigt. „Mit Hilfe unseres selbst entwickelten Röntgentomographen wollen wir auch das genau im Labor untersuchen“, erklärt Hampel. Mit einer Geschwindigkeit von bis zu 10.000 Bildern pro Sekunde ermöglicht der Tomograph tiefe Ein- und Rundumblicke – selbst in trübste Brühen und in 3-D.

Ein Ziel des Projektes ist, die vom Abwasser aufgenommene Sauerstoffmenge von derzeit rund zwölf Prozent pro Meter, den die Blasen aufsteigen, auf deutlich über zwanzig Prozent zu steigern. Zudem wollen die Forscher von HZDR und TU Dortmund prüfen, ob die Klärwerksbetreiber ganz auf Rührwerke verzichten können. Für die Durchmischung sorgt dann allein die in das Becken gepresste Luft sowie eine angepasste Geometrie des Beckens, in dem sich beispielsweise zusätzlich angebrachte Bleche befinden können. „Die Ideen sind nicht neu“, erklärt Hampel, „aber bislang konnte noch keiner vorher simulieren, ob und was die vorgeschlagenen Neuerungen bringen.“ Darüber hinaus kommen in diesem Projekt auch neuartige Kanülenbegaser der Firma IWEB zum Einsatz. Mit diesen kann in Kombination mit moderner Messtechnik und Computersimulation ein bis heute nicht erreichter bedarfsgenauer Eintrag von Sauerstoff erzielt werden.

Das Konsortium besteht neben dem Helmholtz-Zentrum Dresden-Rossendorf (HZDR) aus dem Institut für Wasser & Energie Bochum GmbH (IWEB), der TU Dortmund, der Süd-Oberlausitzer Wasserversorgungs- und Abwasserentsorgungsgesellschaft mbH (SOWAG) sowie der Ruhrverband AG. Die Konsortialpartner haben für das Projekt knapp 370.000 Euro beantragt, davon entfallen rund 160. 000 Euro auf das HZDR. Die Laufzeit ist auf drei Jahre angelegt. Nun liegt die Bewilligung für das erste Jahr in Höhe von knapp 140.000 Euro (davon HZDR 55.600 Euro) vor.

Weitere Informationen:
Prof. Uwe Hampel
Institut für Fluiddynamik am HZDR und
AREVA-Stiftungsprofessur für Bildgebende Messverfahren für die Energie- und Verfahrenstechnik
an der Technischen Universität Dresden
Tel. +49 351 260 – 2772
E-Mail: u.hampel@hzdr.de

Weitere Informationen:
https://www.hzdr.de/presse/minisensoren

Quelle: idw

(nach oben)


DGVS besorgt über rückläufige Teilnehmerquoten – Frühe Darmkrebsvorsorge rettet Leben

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Berlin – Bei fast sieben Prozent der Versicherten, die zur vorsorglichen Darmspiegelung gehen, finden Gastroenterologen „Adenome“ in der Darmschleimhaut. Die Ärzte entfernen diese gefährlichen Polypen, die eine Vorstufe von bösartigen Tumoren darstellen, unmittelbar bei der Untersuchung. Leider nutzen Versicherte über 55 Jahre die Vorsorgekoloskopie immer seltener, obwohl die Kosten von den Krankenkassen übernommen werden. Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wirbt daher ausdrücklich dafür, die Aufklärungsaktivitäten zu verstärken und das Vorsorgeprogramm auszuweiten.

„Die Koloskopie ist die einzige Früherkennungsmaßnahme, die einen bösartigen Tumor nicht nur frühzeitig zu entdecken, sondern auch zu verhindern vermag“, sagt DGVS-Sprecher Professor Dr. med. Christian Trautwein, Direktor der Klinik für Gastroenterologie, Stoffwechselerkrankungen und Internistische Intensivmedizin (Medizinische Klinik III) an der Uniklinik RWTH Aachen. Deshalb sei es besorgniserregend, dass immer weniger Menschen die Darmspiegelung wahrnehmen, obwohl sie im Rahmen von Vorsorgeprogrammen der Gesetzlichen Krankenkassen kostenlos angeboten wird. Daher müsse das Programm effektiver werden, um die Zahl der Darmkrebsfälle nachhaltig zu senken und den bisherigen Erfolg nicht zu gefährden.

Der Experte beruft sich auf die Ergebnisse des aktuellen Gutachtens der DGVS „Gastroenterologische Kernleistungen unter gesundheitsökonomischen Aspekten“. Die Autoren stellen darin fest, dass die Bereitschaft zur Durchführung des Krebsfrüherkennungsprogramms zurückgeht. Nach Aussagen der Gutachter ist es außerdem wichtig, bei genetisch gefährdeten Patienten bereits vor dem gesetzlich empfohlenen Alter von 55 Jahren eine Darmspiegelung durchzuführen. Der Eingriff solle im Abstand von zehn Jahren wiederholt werden. Darüber hinaus empfehlen die Autoren, das bereits existierende Angebot zu nutzen, das ab einem Alter von 50 Jahren eine Beratung und einen Stuhltest vorsieht. „Die DGVS setzt große Hoffnungen auf das neue Einladungsverfahren zur Darmkrebsvorsorge, bei dem die Krankenkassen ihre Versicherten in Zukunft aktiv kontaktieren und die Teilnahme am Programm empfehlen werden“, so Professor Trautwein.

Jährlich erkranken rund 69 000 Menschen in Deutschland an Darmkrebs. Sowohl bei Frauen als auch bei Männern ist das „Kolonkarzinom“ die zweithäufigste Krebsart. Da die Krankheit zunächst kaum Symptome verursacht, wird die Diagnose häufig zu spät gestellt. „Trotz Fortschritten bei der Behandlung leben fünf Jahre nach einer Darmkrebs-Operation nur noch etwa die Hälfte der Patienten“, erläutert DGVS-Präsident Professor Dr. med. Markus Lerch, Direktor der Klinik für Innere Medizin A am Universitätsklinikum Greifswald. Der Nutzen der präventiven Koloskopie ist daher unumstritten: Erkennt der Arzt bei der Untersuchung gefährliche Polypen in der Darmschleimhaut, kann er diese direkt entfernen und den Patienten so vor einem schweren Krebsleiden bewahren. Und selbst wenn der Arzt Karzinome, also bereits entartete Tumore, findet: Oft wird die Krankheit durch die Darmspiegelung frühzeitig erkannt, und die Patienten haben viel bessere Heilungschancen als bei Diagnosestellung im Spätstadium. „Es ist unsere Aufgabe, die Bevölkerung noch stärker über das Thema Darmkrebsprävention aufzuklären“, so Lerch.

Quelle:
Gastroenterologische Kernleistungen unter gesundheitsökonomischen Aspekten – Gutachten im Auftrag der Deutschen Gesellschaft für Verdauungs- und Stoffwechselkrankheiten
Professor Dr. Eberhard Wille und Dr. Michael Popp, Oktober 2013

Die Deutsche Gesellschaft für Gastroenterologie, Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen ist der DGVS die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.

Weitere Informationen:
http://www.dgvs.de

Quelle: idw

(nach oben)


Entscheidungsfindung: Sind Hunde Individualisten oder Gruppentiere? Psychologen starten Hunde-Studie

Isa Lange Pressestelle
Stiftung Universität Hildesheim

Psychologen der Universität Hildesheim untersuchen in einer Studie, wie das Verhalten anderer Hunde die Entscheidungen eines einzelnen Hundes beeinflusst: Was ist einem Hund wichtiger, ein Leckerli oder die Gemeinschaft mit anderen Hunden? Und welche Rolle spielt dabei seine „Persönlichkeit“? Die Sozialpsychologen kennen sich aus mit Entscheidungen in Gruppen. So untersuchen die Forscher etwa, wie der Informationsaustausch und Entscheidungsprozesse in politischen Gremien ablaufen und verbessert werden können. In einer aktuellen Studie fanden Andreas Mojzisch und Markus Germar heraus, dass bereits basale Wahrnehmungsprozesse durch die Meinung von anderen Menschen beeinflusst werden können.

Sind Hunde Individualisten oder Gruppentiere – das wollen Andreas Mojzisch, Professor für Sozialpsychologie, und Markus Germar herausfinden. Es gibt bereits viele Studien, die zeigen, dass Hunde voneinander lernen können. Hunde können demnach das Verhalten anderer Hunde nutzen, um Probleme zu lösen. So können sie etwa per Beobachtung von anderen lernen, wie sie an verstecktes Futter herankommen, sagt Markus Germar. Bisher wurde aber nicht untersucht, ob Hunde andere Hunde auch aus ausschließlich sozialen Gründen nachahmen. Folgt ein Tier seiner eigenen Erfahrung, oder schließt es sich der Gruppe an? Spielt dabei die „Persönlichkeit“ des Hundes eine Rolle? Diese Fragen untersuchen die Psychologen nun erstmals wissenschaftlich. Dabei arbeiten die Forscher, gemeinsam mit der Hundetrainerin Amira Sultan, mit Verhaltensexperimenten, etwa jenem: Der Hund steht vor der Wahl, einen Raum durch die linke oder die rechte Tür zu verlassen. Hinter der einen liegt immer ein Leckerli. Nun beobachtet der Hund, wie drei andere Hunde eine Entscheidung treffen, sie wählen stets die rechte Tür – hinter der kein Leckerli versteckt ist. Wie reagiert der Hund, folgt er seiner eigenen Erfahrung – oder schließt er sich der Mehrheit an?

Die Arbeitsgruppe „Sozialpsychologie“ der Universität Hildesheim kennt sich aus mit Entscheidungen in Gruppen. So untersuchen die Forscher etwa, wie der Informationsaustausch und Entscheidungsprozesse in politischen Gremien ablaufen und verbessert werden können. In der Politik sei das „Streben nach Einmütigkeit, das Schließen der Reihen“ weit verbreitet, doch es verstellt den Blick für eine kritische Analyse, sagt Andreas Mojzisch. Er forscht zu Gruppenentscheidungen und Gruppenurteilen. Von Abweichlern und Querdenkern könnten Gruppen profitieren. Gremien, die mehr oder weniger einer Meinung sind, können etwa auf den „Advocatus Diaboli“ zurückgreifen und Meinungsdissens künstlich erzeugen. „Meinungsvielfalt bringt allerdings wenig, wenn die Gruppenmitglieder sich nicht trauen, abweichende Meinungen zu äußern“, sagt Mojzisch. Dafür sei Vertrauen nötig.

In einem weiteren Forschungsprojekt, gefördert von der Volkswagenstiftung, untersucht der Hildesheimer Psychologe mit Forschern aus Oxford und London, warum Menschen und Affen fehlerhafte Entscheidungen unter sozialem Einfluss treffen. Dabei gehen die Forscher von der Annahme aus, dass Urteile anderer einen erheblichen Einfluss auf das eigene Verhalten und Denken haben. In einer aktuellen Studie fanden Andreas Mojzisch und Markus Germar heraus, dass bereits basale Wahrnehmungsprozesse durch die Meinung von anderen Menschen beeinflusst werden können. In eine Reihe von Experimenten konnten sie zeigen, dass die Meinung einer Mehrheit dazu führte, dass einzelne Personen vor allem das wahrnahmen, was für die Mehrheitsmeinung sprach (Germar, Schlemmer, Krug, Voss & Mojzisch, 2014, http://psp.sagepub.com/content/40/2/217.long).

Teilnehmer gesucht
Die Forscher suchen nun Hundehalter, die Lust haben mit ihren Hunden an der Studie teilzunehmen. Während eine Hundetrainerin mit dem Hund ein kleines Verhaltensexperiment durchführt, möchten die Psychologen bei Kaffee und Kuchen von den Besitzern erfahren, was ihren Hund individuell ausmacht. Die Studie ist für die Hunde absolut stressfrei, da die Hundetrainerin nur mit positiver Verstärkung (d.h. ohne Bestrafung) arbeitet. Es können allerdings nur Hunde teilnehmen, die keine massiven Verhaltensauffälligkeiten zeigen, wie etwa aggressives Verhalten. Die Studie läuft von Mitte März bis Ende Mai 2014. Nach Abschluss der Studie sind alle Teilnehmer zu einer Vortragsreihe über die Forschungsergebnisse eingeladen.

Kontakt für Hundebesitzer:
Interessierte Hundebesitzer können sich bei Markus Germar, Amira Sultan und Prof. Dr. Andreas Mojzisch melden (unter 05121.883-10932 oder germar@uni-hildesheim.de). Weitere Informationen online: http://evaluation.uni-hildesheim.de/befragungen/sl/hundestudie.

Weitere Informationen:
http://www.uni-hildesheim.de/fb1/institute/psychologie/arbeitsgruppen/sozialpsyc… – Arbeitsgruppe Sozialpsychologie der Uni Hildesheim
http://psp.sagepub.com/content/40/2/217.long – Studienergebnisse der Uni Hildesheim: Wie basale Wahrnehmungsprozesse durch die Meinung anderer Menschen beeinflusst werden

Anhang
attachment icon Pressemitteilung als PDF / Sind Hunde Individualisten oder Gruppentiere / Entscheidungsfindung in Gruppen bei Mensch und Tier / Sozialpsychologie Uni Hildesheim
http://idw-online.de/de/attachment34839

Quelle: idw

(nach oben)


Wie Stroh zu Gold: Energiegewinn aus Abwärme

Stephan Thomas M.A. Presse- und Öffentlichkeitsarbeit
Hochschule für Technik, Wirtschaft und Kultur Leipzig

Stirlingmotor zur Ausnutzung niedriger Temperaturdifferenzen (schon etwa 35 Kelvin) wird von Wissenschaftlern der HTWK Leipzig auf der Hannover Messe 2014 präsentiert

Wissenschaftler der Hochschule für Technik, Wirtschaft und Kultur Leipzig (HTWK Leipzig) präsentierten auf der Hannover Messe 2014 erstmals ein Modell des von ihnen entwickelten Stirling-Motors, der Abwärme effizient in elektrische Energie umwandeln kann. Abwärme (ein „Zuviel“ an Wärme) fällt z.B. in metallverarbeitenden Betrieben wie Gießereien an und geht momentan meist verloren. Die von den Maschinenbau-Ingenieuren entwickelte Maschine wandelt die Abwärme unter Verwendung der Formgedächtnis-Legierung Nitinol in Bewegung um, aus der mithilfe eines Generators elektrische Energie erzeugt wird.

Die Maschinenbau-Absolventen Eric Timmermann, Alexander Knut und Heiko Engelhardt stellen erstmals die Ergebnisse ihres seit 2011 laufenden Forschungsprojekts auf einer Messe vor. Heiko Engelhardt: „Überschüssige Wärme fällt in vielen Betrieben an. Besonders in der metallverarbeitenden Industrie, die ihre Werkstoffe erhitzen muss, um damit zu arbeiten. Die eingesetzte Wärme wird anschließend nicht mehr benötigt und ungenutzt an die Umgebung abgegeben. Hier setzt unser Projekt an. Das Ziel ist, bereits geringe Temperaturdifferenzen von etwa 35 Kelvin ausnutzen zu können, da ein Großteil der Abwärme auf einem geringen Temperaturniveau vorliegt.“

Dafür nutzen die Ingenieure die Formgedächtnis-Legierung Nitinol, die aus Nickel und Titan besteht. Formgedächtnis-Legierungen lassen sich verbiegen, können jedoch unter Temperatureinfluss ihre alte Form wieder annehmen – sich „erinnern“. Diese Eigenschaft machen die Wissenschaftler sich zunutze: Sie ordneten mehrere Nitinoldrähte auf einem Rad an und lassen dieses durch mit Abwärme gewärmtes Wasser drehen. Dabei verformt sich der verwendete Nitinol-Draht durch die Wärmeeinwirkung in die eine, bei Abkühlung in die andere Richtung. Durch die so entstandene Bewegung wird ein Generator angetrieben und elektrischer Strom erzeugt.

Projektmitarbeiter Alexander Knut: „Ziel war die Optimierung der von uns konzipierten Nitinol-Maschine. Aber während der Forschungen haben wir festgestellt, dass die Effizienz, also der Wirkungsgrad, eine untergeordnete Rolle spielt. Abwärme steht schließlich in großer Menge zur Verfügung. Es kommt hingegen darauf an, dass die Wärmekraftmaschine wartungsarm ist und möglichst wirtschaftlich arbeitet – also maximal Energie produziert, aber in der Anschaffung minimal kostet.“

Das Projekt „STIRTAC“ (Leitung: Prof. Klaus Wozniak, wissenschaftliche Leitung: Prof. Detlef Riemer) wird vom Bundesministerium für Bildung und Forschung im Rahmen des Programms „IngenieurNachwuchs“ vom 01.08.2011 – 31.07.2014 gefördert.

Download unter: http://www.htwk-leipzig.de/fileadmin/prorektorw/news/2014/2014_04_03_HTWK_Leipzi…

Ansprechpartner:
Prof. Dr.-Ing. habil. Klaus Wozniak, Tel. +49 341 3076-4135, klaus.wozniak@htwk-leipzig.de
Prof. Dr.-Ing. Detlef Riemer, Tel. +49 341 3076-4116, detlef.riemer@htwk-leipzig.de

Weitere Informationen:
http://www.htwk-leipzig.de/de/hochschule/aktuelles/nachrichten/nachrichten-detai…

Quelle: idw

(nach oben)


Prof. Dr. Klemperer ist Eckart von Hirschhausen der OTH Regensburg

Dipl. Journalistin, MBA Diana Feuerer Hochschulkommunikation und Öffentlichkeitsarbeit
Ostbayerische Technische Hochschule Regensburg

Er ist der Eckart von Hirschhausen der Ostbayerischen Technischen Hochschule Regensburg (OTH Regensburg): David Klemperer, Professor an der Fakultät für Angewandte Sozialwissenschaften, Internist und Sozialmediziner, kann allgemeinverständlich und anschaulich medizinische Sachverhalte erklären – und das tut er in seinem neuen Lehrbuch „Sozialmedizin – Public Health – Gesundheitswissenschaften“.

Ein Standardwerk – freilich nicht aus dem Bereich Comedy, sondern vielmehr aus dem der evidenzbasierten Medizin. Das Buch ist eine Neuauflage von Klemperers überaus erfolgreichem Erstlingswerk, von dem deutschlandweit mehr als 5000 Exemplare verkauft wurden – eine beachtliche Zahl in dieser Sparte der Fachliteratur. „Das Buch richtet sich an alle, die sich professionell mit Gesundheit und Krankheit befassen, einschließlich Patientenvertretern, Selbsthilfegruppen und Journalisten“, definiert Prof. Dr. Klemperer seine Zielgruppe.

Dabei hat er insbesondere auch seine Studierenden im Blick. „Meine Aktivitäten im Beruf, vor allem aus den zwölf Jahren Lehrtätigkeit an der OTH Regensburg sind in das Buch eingeflossen.“ Die Quintessenz daraus ist in seinem Buch nachzulesen: „Es soll den Blick dafür schärfen, wann Medizin nützlich für einen selbst ist und wann nicht. Ein Mehr an Medizin kann, muss aber nicht in jedem Fall besser sein, und kann sogar schlechter sein -das gilt zum Beispiel für manche Formen der Krankheitsfrüherkennung“, sagt Prof. Dr. David Klemperer. Das A und O dabei sei, dass Patienten die Gelegenheit erhalten, sich über den Sinn und Nutzen einer Behandlung eine eigene Meinung zu bilden.

Und dazu brauchen sie Information – Information, die David Klemperer immer wieder auch für die breite Öffentlichkeit aufbereitet: Im „Stern“ klärte er in einer mehrteiligen Serie unter der Rubrik „Machen Sie sich schlau“ (http://tinyurl.com/oefmdyj) Patienten auf, zu Themen wie Arztgespräch oder Beipackzettel – übrigens genau das Thema von Eckart von Hirschhausen in seiner Kolumne für das aktuelle AOK-Magazin. Leseproben des Lehrbuchs finden sich auf der Website zum Buch: www.sozmad.de

Quelle: idw

(nach oben)


Geplante EEG-Neuregelungen lassen fast keinen wirtschaftlichen Betrieb von neuen Bioenergieanlagen

Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

62 Forschungspartner aus der Bioenergiebranche warnen vor den negativen Auswirkungen der EEG-Novelle auf die Nutzung von Reststoffen und Abfällen

In den letzten Jahren wurden in vielen Forschungsvorhaben vielfältige Konzepte und Verfahren zur energetischen Nutzung von biogenen Reststoffen und Abfällen untersucht und erfolgreich demonstriert. So laufen bereits heute Pilotanlagen für die Nutzung von Landschaftspflegematerial, Stroh, Pferdemist und weiteren bisher ungenutzten Reststoffen, die auf Nachahmer warten. Würden die aktuellen Forderungen in der EEG-Novelle (BMWi Referentenentwurf Stand 04.03.14) umgesetzt, würden diese vielversprechenden Ansätze bereits im Keim erstickt.

62 Wissenschaftler aus 36 unterschiedlichen Forschungseinrichtungen aus dem Bereich der Bioenergie zeigen sich besorgt über den jetzt vorliegenden Vorschlag zur Novelle des EEG im Bioenergiebereich. In den vergangenen Jahren entstand ein dichtes Forschungsnetzwerk für den Bereich der Bioenergie. Gefördert wurde das Netzwerk unter anderem durch das BMUB-Förderprogramm „Energetische Biomassenutzung“.

Viele Pilot- und Demonstrationsvorhaben mit hohem Marktpotenzial für die Erschließung von biogenen Rest- und Abfallstoffen sind in diesem und anderen Forschungsvorhaben entwickelt worden.

Die entwickelten Konzepte und Anlagen leisten durch hohe Effizienz und/oder hoher Treibhausgasreduktionswirkung einen Beitrag zur Transformation des Energiesystems. Dies wird durch die Substitution fossiler Energieträger, hohe Verstromungswirkungsgrade bei gleichzeitiger Wärmenutzung, Erhöhung der Substratflexibilität oder auch durch Regelbarkeit für eine bedarfsgerechte Stromerzeugung erreicht. Bisher haben 90 Verbundprojekte bzw. 225 Einzelprojekte mit Wissenschaftlern und Praxispartnern aus ca. 60 Klein- und Mittelständischen Unternehmen bereits vielversprechende am Markt orientierende Konzepte für die Umsetzung der Ziele auf den Weg gebracht.

Mit den Forschungsprojekten konnten in vielen Bereichen wie Emissionsminderung bei Kleinfeuerungs- und Biogasanlagen, Energieerzeugung aus Reststoffen und der zunehmend wichtigeren Flexibilisierung der Stromerzeugung und neuer Wärmeerzeuger kontinuierlich Verbesserungen erreicht werden. Die Wissenschaftler im Förderprogramm „Energetische Biomassenutzung“ zeigen sehr besorgt über den jetzt vorliegenden Vorschlag zur Novelle des EEG im Bioenergiebereich. Mit den geplanten deutlichen Kürzungen ist keine weitere Entwicklung im Bereich der Stromerzeugung aus Biomasse mehr zu erwarten.

Zum Hintergrund: Mit dem EEG 2012 wurde für die Biomasse bereits die erkannte Überförderung abgebaut. Die Vielzahl der Boni wurde abgeschafft, die Anforderungen an die Anlagen erhöht und die Vergütung stark gekürzt. Die detaillierte Analyse der Effekte des EEG 2012 liegt der Bundesregierung in der Form des EEG-Monitoringberichtes zur Stromerzeugung aus Biomasse vor. Die Einspeiseregelungen des EEG 2012 geben bereits vor, dass die untersuchten Anlagenkonzepte für Biogas, Biomethan und Festbrennstoffe (Holzvergasungsanlagen im untersten Leistungsbereich) nur unter ausgewählten günstigen Randbedingungen wirtschaftlich sind.

Der derzeitige Referentenentwurf zum EEG 2014 (Stand 04.03.14) sieht die Streichung der Einsatzstoffvergütungsklassen (gezielte Förderung erwünschter Biomassesubstrate) und des Einspeisebonus für Biogas in das Erdgasnetz sowie höhere Anforderungen an einen flexiblen Betrieb vor. Die Einspeisevergütung der typischerweise bisher betriebenen Bioenergieanlagen würde damit um rund 35 % reduziert*.

Für den Biogasbereich lässt sich zusammenfassen, dass mit den Regelungen für Neuanlagen – abgesehen von sehr vereinzelten kleinen Gülleanlagen ein wirtschaftlicher Betrieb der verschiedenen Anlagenkonzepte nicht mehr möglich ist.

Landwirtschaftliche Reststoffe und Nebenerzeugnisse, aber auch andere Reststoffe können mit der geringeren Einspeisevergütung nicht erschlossen werden. Effiziente und umweltorientierte Konzepte zur Verwertung von Abfällen und Nebenprodukten werden damit verhindert.

Die vom Koalitionsvertrag und vom Eckpunktepapier anvisierte Erschließung von Rest- und Abfallstoffen wird damit sicher verfehlt. Dies hat dramatische Auswirkungen für die Branche, aber auch für die Forschung und Entwicklung in diesem Bereich. Die technologische Weiterentwicklung von Bioenergiekonzepten bleibt damit auf halbem Wege stehen.

Auch im Bereich der energetischen Holznutzung bedeutet die Streichung der Einsatzstoffklassen, dass ein Zubau von Neuanlagen unwahrscheinlich ist. Besonders die gerade neuetablierte Vergasertechnologie im kleinen Leistungsbereich wäre betroffen.

Mit den geplanten Neuregelungen dürfte der gesamten Bioenergiebranche, die sich mit der gekoppelten Strom und Wärmeproduktion beschäftigt, die Existenzgrundlage entzogen werden. Die weitere Erschließung internationaler Märkte mit deutschen Technologien sowie internationale Forschungskooperationen können dadurch nicht weiterentwickelt werden.

In der Branche ist daher mit massivem Stellenabbau zu rechnen.

Die Experten fordern daher die Bundesregierung auf die vollständige Streichung der zusätzlichen Einsatzstoffvergütungen zu überdenken, da dadurch das einzige in der bisherigen EEG-Systematik effiziente Instrumentarium zur Erschließung der politisch gewünschten Reststoffe und Abfälle wie Landschaftspflegematerial, Gülle und Stroh aus der Hand gegeben wird!

Die Forschungspartner weisen darauf hin, dass die Erforschung wirtschaftlich tragfähiger Lösungen von Industrie, Entwicklern und Planern auf vielen Ebenen verfolgt wird. Anstehende Veränderungen, wie zum Beispiel zukünftig von Anreizen wie dem EEG unabhängig zu werden, brauchen mehr Vorlaufzeit – verbunden mit kontinuierlicher Forschung und Entwicklung. Übergangsregelungen für Systemänderungen sind eine weitere wichtige Notwendigkeit, die in der gegenwärtigen EEG-Debatte nicht ausreichend berücksichtigt wird. Auch die Weiterentwicklung des Bestandes, die durch die derzeitige Flexibilitätsprämie im Biogasbereich sinnvoll angeregt wird, wird unter den jetzt zur Diskussion stehenden Neuregelungen hinter den Möglichkeiten zurückbleiben.

Die neue Flexibilitätsprämie für Biogas- Bestandsanlagen (§32 c) setzt nur für wenige große Anlagen Anreize für einen flexiblen Betrieb. Die Neuregelung verhindert, dass die bereits aufgebauten Produktionskapazitäten umfassend für die Flexibilisierung genutzt werden können.

* Beispiel: Flexible Biogasanlage 1.000 kWel installierte Leistung und 455 kW Bemessungsleistung mit 60 % GPS und 40 % Rindergülle. Vergütung EEG 2012 inkl. Flexibilitätsprämie nach §33i 21,0 ct/kWh. Vergütung nach Referentenentwurf EEG 2014 13,4 ct/kWh.

Die Unterzeichner

Folgende 62 führende deutsche Bioenergieforscher, die im Förderprogramm „Energetische Biomassenutzung“ an der Weiterentwicklung der Bioenergietechnologien arbeiten, unterzeichnen die obige Forderung:

1.) Dr.-Ing. Wilhelm Althaus (Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT)

2.) Dr.-Ing. Siegfried Bajohr (Akademischer Oberrat, Engler-Bunte-Institut, Bereich Chemische Energieträger – Brennstofftechnologie)

3.) Prof. Dr. Dr. h.c. Albrecht Bemmann (Technische Universität Dresden, Professur für Forst- und Holzwirtschaft Osteuropas)

4.) Dipl.-Ing. Samir Binder (Fraunhofer UMSICHT, Institutsteil Sulzbach-Rosenberg)

5.) Dipl.-Ing. Manuel Brehmer (Technische Universität Berlin, Fakultät III – Prozesswissenschaften – Institut für Prozess- und Verfahrenstechnik – Fachgebiet Verfahrenstechnik)

6.) Dr.-Ing. Dominic Buchholz (DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie (KIT))

7.) Dipl.-Ing. agr. Peter Deumelandt (Institut für Nachhaltige Landbewirtschaftung e.V.)

8.) Vw. M. A. Matthias Edel (Deutsche Energie-Agentur GmbH (dena))

9.) Dr. sc. agr. Ludger Eltrop (Universität Stuttgart, IER Institut für Energiewirtschaft und Rationelle Energieanwendung)

10.) Dr.-Ing. Burkhardt Fassauer (Fraunhofer-Institut für Keramische Technologien und Systeme (IKTS), Abtlg. Biomassetechnologien und Membranverfahrenstechnik)

11.) Dipl.-Phys. Uwe Fritsche (IINAS-Internationales Institut für Nachhaltigkeitsanalysen und -strategien GmbH)

12.) Prof. Dr. Roger Gläser (Universität Leipzig, Institut für Technische Chemie)

13.) Prof. Dr.-Ing. Markus Goldbrunner (Institut für neue Energie-Systeme, Technische Hochschule Ingolstadt)

14.) Dr.-Ing. Frank Graf (DVGW-Forschungsstelle am Engler-Bunte-Institut des Karlsruher Instituts für Technologie (KIT))

15.) Dr.-Ing. Ingo Hartmann (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

16.) Prof. Dr. Bernd Hirschl (IÖW – Institut für ökologische Wirtschaftsforschung gGmbH)

17.) Dipl. Ing. (FH) Uwe Holzhammer (Gruppenleiter: Bedarfsorientierte Energieproduktion am Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES)

18.) Dr.-Ing. Stefan Junne (Technische Universität Berlin, Fakultät III – Prozesswissenschaften, Institut für Biotechnologie, Fachgebiet Bioverfahrenstechnik)

19.) Prof. Dr. agr. habil. Norbert Kanswohl (Universität Rostock, Agrar- und Umweltwissenschaftliche Fakultät)

20.) Prof. Dr.-Ing. Alfons Kather (Technische Universität Hamburg-Harburg, Institut für Energietechnik (IET))

21.) Dr.-Ing. Anne Kleyböcker (Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ, Zentrum für CO2-Speicherung, Mikrobielles Geoengineering)

22.) Prof. Dr.-Ing. Thomas Kolb (Institutsleiter Engler-Bunte-Institut, Bereich Chemische Energieträger – Brennstofftechnologie)

23.) Dr.-Ing. Marco Klemm (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

24.) Dr.-Ing. Bernd Krautkremer

25.) Dipl. Geogr. Alexander Krautz (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

26.) Prof. Dr.-Ing. Isabel Kuperjans (FH Aachen, Campus Jülich – NOWUM-Energy)

27.) Dr.-Ing. Volker Lenz (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

28.) Dipl.-Phys. Christian Leuchtweis (C.A.R.M.E.N. e.V.)

29.) Dr.-Ing. Jan Liebetrau (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

30.) Dipl.-Biol. Tobias Lienen (Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ, Zentrum für CO2-Speicherung, Mikrobielles Geoengineering)

31.) Dipl.-Ing. Stefan Majer (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

32.) Dr. rer. nat. Dietrich Meier (TI – Johann Heinrich von Thünen-Institut Bundesforschungsinstitut für Ländliche Räume, Wald und Fischerei, Institut für Marktanalyse und Agrarhandelspolitik)

33.) Prof. Dr. Michael Mertig (Kurt-Schwabe-Institut)

34.) Dr.-Ing. Franziska Müller-Langer (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

35.) Prof. Dr. mont. Michael Nelles (DBFZ Deutsches Biomasseforschungszentrum gGmbH, Universität Rostock, Lehrstuhl für Abfall – und Stoffstromwirtschaft)

36.) Prof. Dr. Peter Neubauer (Technische Universität Berlin, Fakultät III – Prozesswissenschaften, Institut für Biotechnologie, Fachgebiet Bioverfahrenstechnik)

37.) Dipl.-Ing. Yves Noel (RWTH Aachen, Lehr- und Forschungsgebiet Technologie der Energierohstoffe)

38.) Dr. sc. agr. Oechsner (Universität Hohenheim, Landesanstalt für Agrartechnik und Bioenergie )

39.) Dipl.-Ing. Maik Orth (1. Vorsitzender des IBZ Hohen Luckow e.V. IBZ Innovations- und Bildungszentrum Hohen Luckow e.V.)

40.) Dr.-Ing. Jürgen Pröter (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

41.) Dipl.-Ing. Thomas Raussen (Witzenhausen-Institut für Abfall, Umwelt und Energie GmbH)

42.) Prof. Dr.-Ing. Ulrich Riebel (Brandenburgische Technische Universität – Fakultät Umweltwissenschaften und Verfahrenstechnik)

43.) Dr. Ulf Roland (Helmholtz-Zentrum für Umweltforschung (UFZ), Department für Umwelttechnologie)

44.) M.A. Sandra Rostek (Deutsche Energie-Agentur GmbH (dena))

45.) Dr. Chantal Ruppert-Winkel (Zentrum für Erneuerbare Energie, Albert-Ludwig-Universität Freiburg)

46.) Dr. agr. Swantje Schlederer (Universität der Bundeswehr)

47.) Dr. Matthias Schlegel (Universität Rostock, Agrar- und Umweltwissenschaftliche Fakultät)

48.) Dipl.-Ing. Tim Schulzke (Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT)

49.) PD Dr. Thomas Senn (Universität Hohenheim, Institut für Lebensmittelwissenschaft und Biotechnologie)

50.) M.Phil. Matthias Sonnleitner (Institut für neue Energie-Systeme, Technische Hochschule Ingolstadt)

51.) Prof. Dr.-Ing. Herbert Sonntag (Technische Fachhochschule Wildau – University of Applied Science)

52.) Prof. Dr.-Ing. Daniela Thrän (DBFZ Deutsches Biomasseforschungszentrum gGmbH, Helmholtz-Zentrum für Umweltforschung GmbH)

53.) Dr. Christoph Trinkl (Institut für neue Energie-Systeme, Technische Hochschule Ingolstadt)

54.) Dipl.-Volksw. Marcus Trommler (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

55.) Dr. Armin Vetter (Thüringer Landesanstalt für Landwirtschaft (TLL) – Thüringer Zentrum Nachwachsende Rohstoffe)

56.) Prof. Dr. Winfried Vonau (Kurt-Schwabe-Institut)

57.) Prof. Dr. Christof Wetter (Fachhochschule Münster – Abt. Steinfurt – Fachbereich Energie – Gebäude – Umwelt)

58.) Dr.-Ing. Janet Witt (DBFZ Deutsches Biomasseforschungszentrum gGmbH)

59.) Dr. Andreas Zehnsdorf (Helmholtz-Zentrum für Umweltforschung (UFZ), Umwelt- und Biotechnologisches Zentrum (UBZ))

60.) Prof. Dr.-Ing. Tobias Zschunke Hochschule Zittau/Görlitz, FB Maschinenwesen (FH Zittau, FB Maschinenwesen)

61.) Prof. Dr.-Ing. Wilfried Zörner (Institut für neue Energie-Systeme, Technische Hochschule Ingolstadt)

62.) Dr. Jens Zosel (Kurt-Schwabe-Institut)

Weitere Informationen:
https://www.dbfz.de/web/presse/pressemitteilungen-2014/geplante-neuregelungen-im…
http://www.energetische-biomassenutzung.de

Quelle: idw

(nach oben)


Mit NIR zu biobasierten Wertstoffen nach Maß: Neuer Ansatz für die hydrothermale Biomassewandlung

Dipl.-Ing. agr. Helene Foltan Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.

Wissenschaftler am Potsdamer Leibniz-Institut für Agrartechnik und am Fraunhofer-Institut für Chemische Technologie ICT Pfinztal konnten zeigen, dass der Einsatz von Nah-Infrarot(NIR)-Spektroskopie für Prozesse der hydrothermalen Umwandlung von Biomasse einen effektiven Ansatz zur zielgerichteten Erzeugung unterschiedlichster Wertstoffe bietet. Mit Hilfe der NIR lassen sich die im Prozess entstehenden Produkte zeitnah, robust und kostengünstig erfassen. Damit ist die Grundlage geschaffen, den ansonsten schwer zu kontrollierenden Konversionsprozess gezielt und energieeffizient auf die gewünschten Stoffe auszurichten, während die Entstehung von Schadstoffen unterbunden oder vermindert wird.

Stoffe und Materialien aus nachwachsenden Rohstoffen gewinnen durch die Endlichkeit fossiler Rohstoffe und deren klimaschädigende Wirkung zunehmen an Bedeutung. Die Verfahren zu ihrer Herstellung beruhen in der Regel auf biologischen oder thermochemischen Prozessen. Das thermochemische Verfahren der hydrothermalen Stoffwandlung nutzt ein wässriges Reaktionsmedium und kann so auch feuchte Biomasse verwerten. Je nach Prozessgestaltung lassen sich auf diese Weise sowohl flüssige, feste als auch gasförmige Produkte erzeugen. Wie bei allen thermochemischen Prozessen ist die Produktbildung jedoch wenig selektiv, so dass neben den gewünschten Produkten eine hohe Anzahl unerwünschter Stoffe entsteht, die zum einen die Ausbeute verringern und zum anderen die Aufreinigung verteuern.

Im Fokus der Kooperation von ATB und ICT stand die Frage, wie der Prozess der hydrothermalen Carbonisierung (HTC) effizienter gestaltet werden kann. Hauptprodukt hierbei ist Biokohle, ein kohlenstoff- und energiereicher Feststoff. Biokohle kann als Energieträger Verwendung finden, wird aber darüber hinaus für eine Reihe weiterer Anwendungsbereiche geprüft: von der Bodenverbesserung bis zur Elektrotechnik. Die Carbonisierung findet bei Temperaturen von 180 bis 250°C und Drücken zwischen 20 und 50 Bar statt. Der HTC-Prozess liefert zunächst einen Kohleschlamm, der anschließend entwässert werden muss. In der Regel ist sowohl die Kohle als auch die Flüssigkeit hochgradig mit einer breiten Palette an chemischen Verbindungen belastet, die eine Nachbereitung erforderlich machen.

In ihrem in der renommierten Fachzeitschrift „Bioresource Technology“ erscheinenden Artikel berichten die Wissenschaftler über den Einsatz von Nah-Infrarot (NIR) zur spektroskopischen Ermittlung der sich im Prozess bildenden HTC-Produkte. Demnach eignet sich die NIR zur Bestimmung der Kohlequalität einschließlich der Verunreinigungen, die durch Begleitstoffe wie Phenol entstehen. Darüber hinaus ermöglicht das NIR-Monitoring auch die Bestimmung potentieller Wertstoffe in der Prozessflüssigkeit, wie Hydroxymethylfurfural, einer als Kraftstoff nutzbaren Chemikalie. Hierzu wurden die Rohdaten der NIR Messungen durch PLS (Partial Least Squares) Regression in Modelle überführt.

Ausgangsmaterial für diese Arbeiten war Maissilage. Als nächstes planen die Wissenschaftler, die Anwendbarkeit auch für andere Biomassen zu erproben. Wirtschaftlich interessant sind dabei vor allem wasserreiche Reststoffe wie Klärschlamm, Gärreste und Exkremente aus der Tierhaltung. Die NIR-Spektroskopie hat das Potenzial, als industrietaugliches Messverfahren zur Steuerung einer HTC-Anlage eingesetzt zu werden. An einem möglichen Konzept wird derzeit gearbeitet.

Zu den möglichen Anwendungen für eine NIR-gesteuerte HTC gehört die Erzeugung hochwertiger, schadstoffarmer Biokohle aus Gärresten, einem Arbeitsschwerpunkt der am ATB ansässigen Nachwuchsgruppe APECS. „HTC-Biokohle besitzt sowohl in Industrie als auch Landwirtschaft hohes Anwendungspotenzial“, hebt Projektleiter Dr. Jan Mumme den Mehrwert dieses Materials hervor. „Neben der Kohle können durch die HTC eine Reihe wirtschaftlich sehr interessanter Plattformchemikalien“ gewonnen werden, ergänzt Dr. Toufiq Reza, der Chemieingenieur des Teams. „Nach unserer Überzeugung kann die NIR-basierte Steuerung hydrothermaler Verfahren wesentlich dazu beitragen, entsprechende Anlagen für eine breite Palette von Anwendungen zu rüsten und deren Attraktivität für Investoren und Anwender entscheidend zu erhöhen.“

Der am ICT tätige Wissenschaftler Dr. Wolfgang Becker befasst sich seit vielen Jahren mit der Anwendung spektroskopischer Messverfahren für chemische Prozesse. „Die NIR-Spektroskopie als gut etabliertes, robustes und kostengünstiges Messprinzip kann den Prozess der HTC besser beherrschbar und im Ergebnis kosteneffizienter machen“, so der Wissenschaftler.

Die Projektgruppe „APECS – Anaerobic Pathways to Renewable Energies and Carbon Sinks“ wird seit 2009 vom BMBF im Rahmen von „Bioenergie 2021″ für die Dauer von fünf Jahren gefördert.

Literatur:
M. Toufiq Reza, Wolfgang Becker, Kerstin Sachsenheimer, Jan Mumme: Hydrothermal Carbonization (HTC): Near infrared spectroscopy and partial least-Squares regression for determination of selective components in HTC solid and liquid2h products derived from maize silage. Bioresource Technology 2014, DOI: 10.1016/j.biortech.2014.03.008

Kontakt ATB:
Dr. Jan Mumme – Leiter der Nachwuchsgruppe APECS
Tel.: 0331 5699-913, E-Mail: jmumme@atb-potsdam.de
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Max-Eyth-Allee 100, 14469 Potsdam
www.atb-potsdam.de

Kontakt ICT:
Dr. Wolfgang Becker – Gruppenleiter Werkstoff- und Prozessanalyse
Tel.: 0721 4640-154, E-Mail: Wolfgang.Becker@ict.fraunhofer.de
Fraunhofer Institut für Chemische Technologie (Fh-ICT)
Energetische Systeme
Joseph-von-Fraunhoferstr. 7, 76327 Pfinztal
www.ict.fraunhofer.de

Die Forschung des Leibniz-Instituts für Agrartechnik Potsdam-Bornim e.V. (ATB) zielt auf die ressourceneffiziente Nutzung biologischer Systeme zur Erzeugung von Lebensmitteln, Rohstoffen und Energie in Anpassung an Anforderungen von Klimaschutz und Klimawandel. Zu diesem Zweck entwickelt das ATB verfahrenstechnische Grundlagen für eine nachhaltige Landbewirtschaftung und stellt innovative technische Lösungen für Landwirtschaft und Industrie bereit. Eine Querschnittsaufgabe ist die Analyse und Bewertung des Technikeinsatzes entlang der Wertschöpfungskette. Die im Rahmen von Bioraffinerie- und Kaskadennutzungskonzepten entwickelten Technologien sind ein Beitrag zur Schaffung einer biobasierten Stoff- und Energiewirtschaft.

Das Fraunhofer-Institut für Chemische Technologie ICT forscht und entwickelt in den Bereichen Energetische Materialien, Energetische Systeme, Angewandte Elektrochemie, Umwelt Engineering und Polymer Engineering. Unsere Expertise reicht von der Konzeption und Auslegung von Prozessen, über Materialentwicklung, -charakterisierung und -verarbeitung, bis hin zu Konzeption, Aufbau und Betrieb von Pilotanlagen. In der Vertragsforschung bearbeitet das Institut vorwiegend kunststoffbezogene Aufgaben wie Werkstoffentwicklung und -auswahl, Produktentwicklung und Bauteilauslegung sowie die Verarbeitungstechnik, insbesondere im Hinblick auf die Weiterentwicklung von Direktverfahren. Kreislaufwirtschaft und Nachhaltigkeit bestimmen die Unternehmensstrategien der kommenden Generation. Das Fraunhofer ICT gehört dabei zu den insbesondere in der Umwelttechnik, zu den profiliertesten Forschungseinrichtungen. Die Entwicklung der Umweltsimulation wurde maßgeblich vom Fraunhofer ICT mitgestaltet. Hier werden die Wirkungen von Umwelteinflüssen auf Werkstoffe und technische Erzeugnisse untersucht. Das Institut ist seit mehr als 40 Jahren Sitz der renommierten Gesellschaft für Umweltsimulation GUS.

Quelle: idw

(nach oben)


Klimawandel: Erwärmung führt bereits zu deutlichen Veränderungen der Weltmeere

Ralf Röchert Kommunikation und Medien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung

Der aktuelle und projizierte Klimawandel verändert die Lebensbedingungen in den Ozeanen schneller als während vergleichbarer Ereignisse in den zurückliegenden 65 Millionen Jahren.

Zu dieser Einschätzung kommt AWI-Biologe Prof. Dr. Hans-Otto Pörtner, der ab morgen an der Abstimmungsrunde zum zweiten Teil des fünften Weltklimaberichtes im japanischen Yokohama teilnehmen wird. Der Experte vom Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), hat gemeinsam mit seinem US-amerikanischen Kollegen David Karl die Arbeiten zum Kapitel „Ozeanische Systeme“ geleitet. Es fasst das Wissen über die bereits beobachteten und künftigen Folgen des Klimawandels für das Leben in den Weltmeeren zusammen.

„Es ist das erste Mal, dass der Weltklimarat IPCC dem Thema Ozeane so viel Beachtung schenkt. Gleich zwei Kapitel des fünften Sachstandsberichtes, Teil zwei, widmen sich den klimabedingten Veränderungen der Weltmeere und deren Folgen. Das von uns koordinierte Kapitel 6 betrachtet den Wandel und mögliche Anpassungsoptionen aus der globalen Perspektive, Kapitel 30 beschreibt die Veränderungen in ausgewählten Ozeanregionen“, sagt Hans-Otto Pörtner.

Fast dreieinhalb Jahre lang haben er und ein internationales Autorenteam die gesamte Forschungsliteratur zum Thema gesichtet. Sie haben Datensätze, Methoden und Ergebnisse miteinander verglichen, die Aussagekraft der wissenschaftlichen Argumente und Prognosen überprüft und bewertet, Risiken definiert sowie Unsicherheiten und Wissenslücken herausgearbeitet.

„Infolge des Klimawandels wirken drei Faktoren, welche die Lebensbedingungen für Fische, Säugetiere, Algen und andere Meeresbewohner verändern. Der stärkste Treiber ist momentan die Meereserwärmung. Sie führt schon jetzt zu deutlichen Veränderungen. So beobachten wir zum Beispiel, dass Fischarten wie der Kabeljau ihren Lebensraum polwärts verlagern. Der zweite Faktor, die Ozeanversauerung, wird den Prognosen zufolge in den nächsten Jahrzehnten an Bedeutung gewinnen und deutliche Auswirkungen auf globaler Ebene und in einzelnen Ökosystemen haben. An dritter Stelle folgt die zunehmende Sauerstoffarmut. Ihre Folgen spüren wir zum Beispiel in den Küstenregionen, wo die Zahl extrem sauerstoffarmer Zonen deutlich zugenommen hat“, sagt Hans-Otto Pörtner.

Im 5. IPCC-Sachstandsbericht, der am 31. März 2014 um 9 Uhr Ortszeit in Yokohama veröffentlicht wird, werden die Wissenschaftler Zahlen und Fakten für diese Veränderungen nennen, Prognosen abgeben und aufzeigen, welche Risiken und Kosten der Wandel mit sich bringen wird. Zuvor aber geht es für die führenden IPCC-Autoren in der morgen beginnenden Abstimmungsrunde darum, die von ihnen geschriebene „Zusammenfassung für politische Entscheidungsträger“ gemeinsam mit Regierungsvertretern Zeile für Zeile abzustimmen. „Wir streben in der Diskussion einen Konsens zwischen Regierungen und Wissenschaft an“, so Hans-Otto Pörtner.

AWI-Hintergrundmaterial:
Verständlich aufbereitetes Hintergrundmaterial zu den Folgen des Klimawandels für die Weltmeere allgemein sowie für den Arktischen Ozean, das Südpolarmeer und die Nordsee im Speziellen finden Sie in unseren AWI-Fact Sheets unter: http://www.awi.de/de/aktuelles_und_presse/hintergrund/ipcc/

Helmholtz-Experten im Interview:
Mit dem AWI-Biologen Hans-Otto Pörtner und dem Agrarökologen Dr. Josef Settele vom UFZ in Leipzig stellt die Helmholtz-Gemeinschaft gleich zwei koordinierende Leitautoren des 5. IPCC-Sachstandsberichtes, Teil 2. Ein gemeinsames Interview der beiden Wissenschaftler finden Sie hier: http://www.helmholtz.de/artikel/wir-stehen-vielleicht-am-anfang-einer-evolutionaeren-krise-2363/

Folgen Sie dem Alfred-Wegener-Institut auf Twitter und Facebook. So erhalten Sie alle aktuellen Nachrichten sowie Informationen zu kleinen Alltagsgeschichten aus dem Institutsleben.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: idw

(nach oben)


DBFZ veröffentlicht Hintergrundpapier zu Auswirkungen der Novellierung des EEG 2014

Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Im politischen Diskurs wurden mit Blick auf die geplante Novellierung des Erneuerbare-Energien-Gesetz 2014 (EEG) deutliche Einschnitte für die Bioenergie angekündigt. Im aktuell vorliegenden Entwurf sind die Streichung der Rohstoffvergütungen, die Mengenbegrenzung des jährlichen Ausbaus sowie deutliche Veränderungen im Hinblick auf eine Flexibilisierung des Anlagenbestandes zentrale Punkte für den Bioenergiesektor. Nur die bisher begrenzt effektiven Vergütungen für spezielle Anlagen zur Behandlung von Rest- und Abfallstoffen sollen beibehalten werden.

Das nun vom DBFZ veröffentlichte Hintergrundpapier spricht die Schwachpunkte der geplanten Novellierung an, skizziert deren Auswirkungen und gibt Empfehlungen zur Anpassung der gegenwärtig vorliegenden Vorschläge.

Das EEG hat seit dem Jahr 2000 erfolgreich den Ausbau und die Nutzung der erneuerbaren Energien unterstützt. Der Bestand Bioenergieanlagen in Deutschland umfasste Ende 2013 ca. 9.800 Anlagen mit einer installierten Gesamtleistung von rd. 5.480 MWel. Gemessen an der Endenergiebereitstellung aus erneuerbaren Energien in Deutschland nimmt die Biomasse mit einem Anteil von rund 65% eine bedeutende Rolle ein. Rund 1/3 der Strombereitstellung aus erneuerbaren Energien wird derzeit aus Biomasse bereitgestellt. Die Stromerzeugung erfolgt dabei überwiegend in Form der Kraft-Wärme-Kopplung (KWK), sodass neben Strom auch erneuerbare Wärme bereitgestellt wird. Nach einem Boom in den Jahren 2009 bis 2011 wurde der Zubau durch die Neustrukturierung und Vergütungsabsenkungen des EEG 2012 deutlich gedrosselt. Außerdem wurden mit dem EEG 2012 durch die Einführung der Markt- und Flexibilitätsprämie wichtige Weichen für die zukünftigen Anforderungen an die Bioenergie gestellt. Der dadurch erreichte, gegenüber den Vorjahren deutlich reduzierte, Zubau an Bioenergieanlagen liegt in einem Bereich, der ein maßvolles, nachhaltiges und notwendiges Wachstum zulässt – und notwendig ist.

Mit der geplanten Novellierung im Sommer 2014 läuft die Politik Gefahr, den moderaten Ausbau der Stromerzeugung aus Biomasse weitgehend zu beenden. Für die in den letzten Jahren so erfolgreich etablierten Technologielinien besteht das Risiko eines kompletten Ausbau- und damit auch Entwicklungsstopps. Für den bereits existierenden umfangreichen Anlagenbestand zeigt der aktuelle Entwurf keine Perspektive auf und setzt die bisher geleistete Entwicklung aufs Spiel. Auf diesen Sachverhalt wurde bereits von 65 Forschungsnehmern des Förderprogrammes „Energetische Biomassenutzung“ des BMWi in einem gemeinsamen Statement hingewiesen. Weitere Informationen hierzu finden sich unter dem folgenden Link:
https://www.dbfz.de/web/presse/pressemitteilungen-2014/geplante-neuregelungen-im…

Bioenergie ist ein wichtiger Baustein im derzeitigen und zukünftigen System der Energieversorgung aus erneuerbaren Energien. Mit der seit 2012 beginnenden Ausrichtung zur zunehmenden Flexibilisierung kann Bioenergie zukünftig einen Teil der fluktuierenden erneuerbaren Energien wie Wind- und Solarenergie ausgleichen. Durch ihre Regelbarkeit kommt der Bioenergie eine besondere Bedeutung zu, sie nimmt dadurch eine Vorreiterrolle im Energiesystem ein. Um diesen Status Quo erhalten zu können, sind folgende Anpassungen unbedingt notwendig:

– Beibehaltung der Rohstoffvergütung für ökologisch erwünschte Substrate/Brennstoffe
sowohl zur Biogaserzeugung als auch für Festbrennstoffe
– Beibehaltung der Flexibiliätsprämie des EEG 2012 als kostengünstiges effizientes
Anreizsystem
– Klärung des Anlagenbegriffs für Biomethan und Biogas-Satelliten-BHKW
– Sicherstellung des Zubaus flexibler Kapazitäten durch Bezug des Ausbaukorridors auf
die Stromerzeugung aus Biomasse anstelle der installierten Leistung
– Klare Regelungen beim Emissionsminderungsbonus und beim
Landschaftspflegebonus für Bestandsanlagen

Weitere Informationen:
https://www.dbfz.de/web/presse/pressemitteilungen-2014/dbfz-veroeffentlicht-hint…
https://www.dbfz.de/web/fileadmin/user_upload/Presseinformationen/2014/Hintergru…

Quelle: idw

(nach oben)


Darmkrebs – Wie kann ich mich schützen?

Dr. Annette Tuffs Unternehmenskommunikation
Universitätsklinikum Heidelberg

Der Dickdarmkrebs ist in Deutschland die zweithäufigste Todesursache durch Krebs: Jährlich erkranken etwa 70.000 Menschen, rund 30.000 sterben jedes Jahr an den Folgen der Erkrankung. Doch im Gegensatz zu anderen Tumorarten ist Darmkrebs bei frühzeitiger Feststellung heilbar. Auch vorbeugende Maßnahmen in Bezug auf Ernährung oder Sport gewinnen in den letzten Jahren zunehmend an Bedeutung.

Im Rahmen einer Initiative der Stiftung Lebensblicke informieren Experten des Universitätsklinikums Heidelberg und des Nationalen Centrums für Tumorerkrankungen Heidelberg (NCT) über Vorbeugung und Früherkennung des Dickdarmkrebses. Die Veranstaltung fand am Mittwoch, den 26. März 2014 von 18 bis 19 Uhr im großen Hörsaal der Medizinischen Universitätsklinik, Im Neuenheimer Feld 410, 69120 Heidelberg, statt.

Können mangelnde Bewegung und ungesunde Ernährung Darmkrebs verursachen? Wie gefährlich ist der Verzehr von rotem Fleisch? Und stimmt es, dass die Einnahme von Aspirin vor Darmkrebs schützen kann? Um neue Wege in der Vorbeugung von Darmkrebs geht es in dem Vortrag von Professor Dr. Cornelia Ulrich, Sprecherin des Programmbereichs Prävention und Krebskontrolle im Nationalen Centrum für Tumorerkrankungen Heidelberg (NCT). Privatdozent Dr. Tom Ganten, Geschäftsführender Oberarzt der Abteilung für Gastroenterologie der Medizinischen Universitätsklinik Heidelberg, spricht über die verschiedenen Möglichkeiten der Früherkennung wie Stuhltests und Darmspiegelung.

Nach den beiden Vorträgen gibt es für die Besucher ausreichend Gelegenheit zur Diskussion. Die Bevölkerung ist herzlich eingeladen, der Eintritt ist frei. Es moderiert Professor Dr. Wolfgang Stremmel, Ärztlicher Direktor der Inneren Medizin IV, Abteilung für Gastroenterologie, Infektionskrankheiten und Vergiftungen.

Weitere Informationen im Internet:

Über die Abteilung für Gastroenterologie, Infektionskrankheiten und Vergiftungen:
http://www.klinikum.uni-heidelberg.de/IV-Gastroenterologie-Infektionen-Vergiftun…

Informationen zum kolorektalen Karzinom:
www.klinikum.uni-heidelberg.de/Kolorektales-Karzinom.4403.0.html

Über die Abteilung Medizinische Onkologie des Nationalen Centrums für Tumorerkrankungen (NCT):
http://www.nct-heidelberg.de/de/nct/abteilungen/praeventive-onkologie/index.php

Ansprechpartner:
Privatdozent Dr. med. Tom M. Ganten
Gechäftsführender Oberarzt
Abteilung für Gastroenterologie, Infektionskrankheiten
und Vergiftungen
Innere Medizin IV
Im Neuenheimerfeld 410
69120 Heidelberg
Telefon: 06221 / 56 6538 (Sekretariat)

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang

Das Universitätsklinikum Heidelberg ist eines der bedeutendsten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international renommierten biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung innovativer Diagnostik und Therapien sowie ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiterinnen und Mitarbeiter und engagieren sich in Ausbildung und Qualifizierung. In mehr als 50 klinischen Fachabteilungen mit ca. 2.200 Betten werden jährlich rund 118.000 Patienten voll- bzw. teilstationär und rund 1.000.000 mal Patienten ambulant behandelt. Das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland. Derzeit studieren ca. 3.500 angehende Ärztinnen und Ärzte in Heidelberg.

http://www.klinikum.uni-heidelberg.de

Besuchen Sie das Universitätsklinikum Heidelberg auch bei:
Facebook: http://www.klinikum.uni-heidelberg.de/facebook
Twitter: http://www.klinikum.uni-heidelberg.de/twitter
Youtube: http://www.klinikum.uni-heidelberg.de/youtube

Quelle: idw

(nach oben)


Biogas zu Biomethan aufbereiten

Dr. Torsten Gabriel Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

FNR aktualisiert Leitfaden zur Biogaseinspeisung

Biogas lässt sich in Form von Biomethan besonders effizient nutzen. Was bei der Aufbereitung zu beachten ist, beschreibt der Leitfaden „Biogasaufbereitung und -einspeisung“, den die Fachagentur Nachwachsende Rohstoffe e.V. (FNR) jetzt als umfassend aktualisierte 5. Auflage herausgibt. Mit ihm stellt die FNR ein wertvolles Grundlagenwerk für Planer und Betreiber von Aufbereitungs- und Einspeiseanlagen, aber auch für Nutzer von Biomethan zur Verfügung.
Die fachliche Überarbeitung erfolgte durch das Deutsche Biomasseforschungszentrums gGmbH (DBFZ) zusammen mit externen Autoren.

Als der Leitfaden zur Biogasaufbereitung 2006 erstmals erschien, nahmen die ersten drei Biogas-Aufbereitungsanlagen gerade den Betrieb auf. Heute erzeugen rund 130 Anlagen Biomethan und decken knapp 1 Prozent des Erdgasverbrauchs in Deutschland. In diesem Zuge sind auch die Aufbereitungstechnologien deutlich effizienter und umweltfreundlicher geworden und neue Verfahren – wie zuletzt das Membrantrennverfahren – erlangten die Marktreife.
Das über das Erdgasnetz gespeicherte und verteilte Biomethan wird heute überwiegend in KWK-Anlagen genutzt; in kleineren Mengen kommt Biomethan jedoch auch als Kraftstoff oder zur direkten Wärmebereitstellung zum Einsatz.
Der Leitfaden „Biogasaufbereitung und -einspeisung“ stellt die anspruchsvolle Thematik detailliert dar: Die verschiedenen Verfahren werden von der Substratbereitstellung bis zur Abgasnachbehandlung und Anlagensicherheit beschrieben. Das Kapitel „Vermarktung“ stellt die Verwertungspfade Kraft-Wärme-Kopplung, Wärmemarkt und Kraftstoff gegenüber, zudem erläutert der Leitfaden die Projektplanung und -umsetzung, ökonomische Aspekte, die Gaseinspeisung sowie die Potenziale.
Die Betrachtung der rechtlichen Rahmenbedingungen erfolgte durch die Rechtsanwaltskanzlei Schnutenhaus und Kollegen.
Die künftige technologische Entwicklung sollte u. a. den Weg für den wirtschaftlichen Betrieb kleinerer Einspeiseanlagen ebnen. Auch für Vor-Ort-Verstromungsanlagen ohne sinnvolles Wärmekonzept wäre die Umstellung auf die Biomethanproduktion interessant, sofern sich hier angepasste Anlagenkonzepte realisieren lassen.
Die Überarbeitung und Veröffentlichung des neuen Leitfadens „Biogasaufbereitung und
-einspeisung“ wurden vom Bundesministerium für Landwirtschaft und Ernährung (BMEL) über den Projektträger FNR gefördert. Der Leitfaden kann über mediathek.fnr.de kostenlos bestellt oder als PDF heruntergeladen werden.

Nr. 2014-17
Weitere Informationen:
http://mediathek.fnr.de/broschuren/bioenergie/biogas.html
http://mediathek.fnr.de/media/downloadable/files/samples/l/e/leitfaden_biogasein…

Quelle: idw

(nach oben)


Das wohlschmeckendste Rindfleisch der Welt

Norbert K. Borowy Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Nutzierbiologie (FBN)

Dummerstorfer Wissenschaftler beraten Wagyu-Zuchtverband

Es gibt nur etwa 600 Wagyu-Rinder in Deutschland, deren Fleisch bis zu 200 Euro je Kilo kostet. Das fein marmorierte Fleisch gilt als Delikatesse und das „beste Fleisch der Welt“. Warum das so ist und was daraus für die allgemeine Rinderzucht abgeleitet werden kann, untersuchen seit vielen Jahren Wissenschaftler vom Leibniz-Institut für Nutztierbiologie in Dummerstorf. Prof. Steffen Maak, Leiter des Instituts für Muskelbiologie und Wachstum, berät darüber den 2009 gegründeten Wagyu-Verband Deutschland e.V. (http://www.wagyuverband.com).

„Wagyu“ heißt „japanisches Rind“ und steht für eine besondere Rinderasse japanischen Ursprungs, die besser unter dem Namen „Kobe-Rinder“ bekannt ist. Die Japaner schützen jedoch ihr heiliges Kulturgut, so dass die Zucht nur durch ein paar wenige Tiere ermöglicht wurde, die zu wissenschaftlichen Zwecken Mitte der 90er Jahre in die USA exportiert wurden. In Australien, den USA und Kanada gibt es mittlerweile die größten reinrassigen Wagyu-Herden. Seit 2006 werden auch in Deutschland auf wenigen Höfen Wagyu-Rinder gehalten, die meist schwarz aussehen und etwas leichter als ihre europäischen Artgenossen sind.

Gutes Fleisch braucht seine Zeit

„Der außerordentlich aromatisch-würzige Geschmack ist auf das intramuskuläre Fettgewebe zurückzuführen“, erklärte der Dummerstorfer Wissenschaftler, Prof. Steffen Maak. „Während die heute weit verbreiteten Fleisch-Rinderrassen, von denen in Deutschland rund 50 Rassen gezüchtet werden, seit Jahrzehnten auf fettarmes Muskelfleisch ausgerichtet worden sind, konnte sich das japanische Rind ohne derartige Eingriffe entwickeln.“ Das Muskelfleisch ist durch eine feingefaserte Marmorierung durchzogen, die das Steak vom Wagyu viel saftiger und zarter macht. Auch die hochwertige Ernährung der Kühe ohne Stress, an freier Luft und die doppelt so lange Mastzeit mit etwa 30 Monaten wirkt sich stark auf die Qualität des Fleisches aus. Nachweislich verfügt das Fleisch zudem über einen höheren Anteil an ungesättigten Fettsäuren im Vergleich zu anderen Rinderrassen. Diese Eigenschaften haben Produkte aus der Wagyu-Zucht für die Spitzengastronomie attraktiv gemacht. Da der Trend aber generell hin zu hochwertigem Fleisch bei reduziertem Konsum geht, erobert die einzigartige Wagyu-Qualität zunehmend auch den Premiumbereich der Supermärkte. „Insbesondere die überschaubaren Zuchtbestände außerhalb Japans und die deutlich aufwändigere Haltung sind für die hohen Fleischpreise verantwortlich“, so Maak.

Seit über zehn Jahren Austausch mit der Kyushu-Universität

Die Dummerstorfer Forscher haben schon vor mehr als zehn Jahren Kontakt zur südjapanischen Kyushu-Universität aufgenommen, um die Unterschiede zwischen Koberindern und europäischen Rindern zu ergründen. Die Wissenschaftler haben insbesondere die Wagyu-Rassen Japanese Black und Japanese Brown untersucht und mit dem Holstein-Rind verglichen. „Die Differenzen waren sehr groß und sichtbar“, erklärte Maak. Der extrem hohe intramuskuläre Fettgehalt wird durch die energiereiche Fütterung und die Mast auch von Ochsen erreicht. Ein Vergleich der genetischen Potenziale zeigte, dass die Holstein-Kühe bei gleicher Ernährung und unter identischen Haltungsbedingungen weniger Fett im Muskelfleisch einlagern können.

„Aktuell untersuchen wir, welches Erbgut beider Rassen für die beobachteten deutlichen Unterschiede verantwortlich sein könnte“, erläuterte der Muskelbiologe. Gleichzeitig wächst in Japan angesichts der Notwendigkeit des effizienteren Umgangs mit den Ressourcen auch das Interesse an der Erzeugung hochqualitativen Fleisches mittels der europäischen Grünlandfütterung. „Das Wagyu-Rind ist ein äußerst wertvolles Tier, um grundlegende Zusammenhänge des Wachstums beim Rind zu erforschen. Diese Arbeit werden wir fortsetzen“, so Maak abschließend.

Hintergrund

Im Forschungsbereich Muskelbiologie und Wachstum werden mit modernen Methoden aus Biochemie, Zellbiologie und Molekulargenetik Prozesse untersucht, die für die Entstehung des Lebensmittels Fleisch von Bedeutung sind. Dabei geht es um die Entwicklung von Muskelfasern, Fettzellen und Bindegewebe einschließlich ihrer Wechselwirkungen bei landwirtschaftlichen Nutztieren mit dem Ziel einer ressourcenschonenden und tiergerechten Erzeugung von Fleisch als hochwertigem Nahrungsmittel.

Die Leibniz-Gemeinschaft verbindet 86 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen, u. a. in Form der Wissenschaftscampi, mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 16.500 Personen, darunter 7.700 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,4 Milliarden Euro.

75 Jahre Nutztierforschung in Dummerstorf

Gemeinsam mit der Landesforschungsanstalt für Landwirtschaft und Fischerei MV (LFA) und der Agrar- und Umweltwissenschaftliche Fakultät (AUF) der Universität Rostock begeht das Leibniz-Institut für Nutzierbiologie Dummerstorf (FBN) in diesem Jahr sein 75-jähriges Jubiläum. Anlässlich des Jubiläums findet vom 16. bis 19. September 2014 eine Festwoche in Dummerstorf statt (s. http://www.idw-online.de/de/news575413).

Linktipp:
http://www.planetopia.de/nc/archiv/news-details/datum/2013/12/16/festessen-der-luxusklasse-wagyu-fleisch-aus-deutschland.html

Ansprechpartner
Institut für Muskelbiologie und Wachstum
Leiter: Prof. Dr. Steffen Maak
T +49 38208 68-850/851
E maak@fbn-dummerstorf.de

Leibniz-Institut für Nutztierbiologie (FBN)
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
Wissenschaftsorganisation Dr. Norbert K. Borowy
Wilhelm-Stahl-Allee 2, 18196 Dummerstorf
T +49 38208-68 605
E borowy@fbn-dummerstorf.de
http://www.fbn-dummerstorf.de

Quelle: idw

(nach oben)


Publikation: Deutsches Biomasseforschungszentrum veröffentlicht den Jahresbericht 2013

Paul Trainer Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Der Jahresbericht 2013 des Deutschen Biomasseforschungszentrum (DBFZ) bietet einen detaillierten Überblick über die Aktivitäten des vergangenen Jahres und zeigt die thematische Vielfalt der wissenschaftlichen Arbeiten im Bereich der energetischen Biomassenutzung anhand zahlreicher aktueller Arbeits- und Projektergebnisse. Darüber hinaus bietet die Broschüre eine Übersicht über die personelle, organisatorische und infrastrukturelle Entwicklung der Leipziger Forschungseinrichtung.

Zahlreiche interessante Forschungsthemen im Bereich der energetischen Biomassenutzung haben die wissenschaftliche Arbeit am Deutschen Biomasseforschungszentrum im Jahr 2013 bestimmt. Das Thema der „Hydrothermalen Carbonisierung (HTC)“ zählte hier ebenso zu den Top-Themen wie die „Flexibilisierung von Biogasanlagen“ oder die politische Entwicklung rund um das Erneuerbare-Energien-Gesetz. Auf insgesamt 116 Seiten stellt der jetzt veröffentlichte Jahresbericht das breite Forschungsspektrum der wissenschaftlichen Arbeit am DBFZ vor, beschreibt die Entwicklung der bereichsübergreifenden Kompetenzfelder sowie der wissenschaftlichen Stabsstellen und gibt einen Überblick über die personelle, finanzielle und organisatorische Entwicklung des Forschungszentrums.

Neben der wissenschaftlichen Arbeit haben sich 2013 auch in infrastruktureller Hinsicht zahlreiche Neuerungen auf dem rund 35.000 m2 großen Gelände des DBFZ in Leipzig-Schönefeld ergeben. So konnten die 2011 begonnenen Sanierungsmaßnahmen weitestgehend abgeschlossen und gleichzeitig neue infrastrukturelle Projekte in Angriff genommen werden. Der Neubau einer betriebsinternen Kindertagesstätte auf dem DBFZ-Gelände ist hier eben zu nennen wie die erfolgreiche Ausschreibung für den Bau eines neuen Technikums mit angeschlossenem Bürogebäude. Mit einer Bruttogeschossfläche von etwa 11.000 qm2 und Kosten von 28,1 Millionen Euro zzgl. Außenanlagen, Erschließung und der Erstausstattungskosten stellt dies die größte Neubaumaßnahme am DBFZ seit Bestehen der Forschungseinrichtung dar und wird voraussichtlich ab Mitte 2014 mit ersten Maßnahmen realisiert.

Weitere Informationen zu diesen und anderen Themen findet man im DBFZ-Jahresbericht 2013. Der Bericht kann kostenlos über die Website des DBFZ (www.dbfz.de) als PDF-Download bezogen oder auf Anfrage postalisch versendet werden.

Weitere Informationen:
https://www.dbfz.de/web/referenzen-publikationen/jahresberichte.html

Quelle: idw

(nach oben)


Weltwassertag 2014: Wasser und Energie – Abwasser als Ressource nutzen

Dr. Nicola Schuldt-Baumgart Wissenskommunikation und Öffentlichkeitsarbeit
ISOE – Institut für sozial-ökologische Forschung

Der Weltwassertag stand in diesem Jahr unter dem Motto „Wasser und Energie“. Beide Themen sind eng miteinander verbunden. Ein Beispiel für eine nachhaltige Nutzung der Wechselbeziehung von Wasser und Energie ist die Wärmerückgewinung aus häuslichem Abwasser, wie sie aktuell im Forschungsprojekt netWORKS 3 in Frankfurt am Main umgesetzt wird.

Die Idee, dem häuslichen Abwasser Wärme zu entziehen und diese Energie zu nutzen, ist nicht neu. Das Forschungsprojekt netWORKS 3 geht jedoch einen Schritt weiter. „Wir untersuchen das Wärmepotenzial der unterschiedlichen Abwasserströme aus den Haushalten“, sagt Projektleiter Jörg Felmeden vom ISOE – Institut für sozial-ökologische Forschung. Dazu gehören das Grauwasser (häusliches Abwasser ohne Toilettenwasser) und das Toilettenwasser. „Mit dieser Energie kann dann zum Beispiel das Trinkwasser im Gebäude erwärmt werden“, sagt Felmeden.

Die Erkenntnisse fließen direkt zurück in die Praxis: Im Frankfurter Stadtteil Bockenheim entsteht derzeit ein Passivhaus mit 70 Wohnungen und einer Kindertagesstätte. Hier wird den unterschiedlichen Abwasserströmen Wärme entzogen und das Trinkwasser im Gebäude erwärmt. Das durch seinen geringen Energiebedarf für die Raumheizung ohnehin schon ressourcenschonende Passivhaus wird dadurch noch energieeffizienter. „Mit der Wärmerückgewinnung durch das Abwasserrecycling können wir das letzte ‚Energieloch‘ im Passivhaus schließen“, sagt Felmeden. Bislang ging diese Wärme ungenutzt verloren. Gleichzeitig ist ein Grauwasserrecycling geplant, bei dem das nur leicht verschmutzte Abwasser zunächst vom restlichen Schmutzwasser getrennt wird. Es wird mit Hilfe von Mikroorganismen behandelt und durch UV-Strahlung desinfiziert, und der Hälfte der Wohnungen für die Toilettenspülung wieder zugeführt. Der Feldversuch ist der erste seiner Art in Frankfurt und zählt deutschlandweit zu den größten Umsetzungen im Gebäude überhaupt.

Zukunftsfähige Abwassersysteme sparen Wasser und Energie

Die Wärmerückgewinnung direkt im Gebäude bietet gegenüber der zentralen Lösung deutliche Vorteile. Wird die Wärme im Abwasserkanal zurückgewonnen, bedarf es der Abstimmung zwischen Gebäude- und Kanalbesitzer. „Im Gebäude selbst lässt sich das ohne solche Abstimmungsprozesse regeln“, sagt Jens Libbe vom Deutschen Institut für Urbanistik (Difu), Kooperationspartner in netWORKS 3. „Außerdem ist die Energieausbeute deutlich höher, da hier keine Wärme auf dem Weg in den Kanal verloren geht und somit nicht mehr nutzbar ist.“

Ergebnisse aus einem Berliner Grauwasserrecycling-Projekt des Ingenieurbüros Nolde & Partner zeigen, dass 1.000 Liter Grauwasser eine Wärmeenergie von 10 bis 15 Kilowattstunden liefern, also rund 13.000 Kilowattstunden pro Jahr. Das entspricht dem jährlichen Energieverbrauch von vier 3-Personenhaushalten. Der Leistungskoeffizient liegt im Mittel bei 50, das heißt, dass 50 Prozent der Wärmeenergie aus dem Grauwasser genutzt werden können.

Mit geringen Investitionskosten die wertvolle Ressource Trinkwasser schonen

Diese innovativen Abwassersysteme schonen die Trinkwasserressourcen. „Das recycelte Wasser lässt sich auch noch in anderen Haushaltsbereichen einsetzen, in denen keine Trinkwasserqualität notwendig ist,“ sagt Felmeden. Es biete sich zum Beispiel für die Bewässerung von Zimmerpflanzen und Garten und die Waschmaschine an. Die zusätzlichen Investitionskosten für das dezentrale Recycling seien dabei mit etwa 10 Euro pro Quadratmeter Wohnfläche verhältnismäßig gering. Zudem halbiere sich der private Trinkwasserbezug. Die jährlichen Berliner Energieeinsparungen sind vielversprechend: Sie lassen sich mit einer Solarthermie-Anlage in der Größe von 35 Quadratmetern vergleichen.

Bauträger des Pilotprojekts in Frankfurt am Main in der Salvador-Allende-Straße sind die ABG FRANKFURT HOLDING und ABGnova; beide sind Praxispartner in dem Projekt. Der Baubeginn ist für Sommer 2014 geplant. Für die Umsetzung werden Erfahrungen aus ähnlichen Projekten in Berlin genutzt und weiterentwickelt. Dazu ist die Kooperation mit dem Ingenieurbüro Nolde & Partner vorgesehen.

Das ISOE – Institut für sozial-ökologische Forschung koordiniert das Projekt „netWORKS 3: Intelligente wasserwirtschaftliche Systemlösungen in Frankfurt am Main und Hamburg“. Forschungs- und Projektpartner sind das Deutsche Institut für Urbanistik (Difu), Berlin, das Fachgebiet Wirtschafts- und Infrastrukturpolitik (WIP) an der Technischen Universität Berlin sowie COOPERATIVE – Infrastruktur und Umwelt, Reinheim. Praxispartner im Ver¬bund sind die ABG FRANKFURT HOLDING und ABGnova GmbH sowie die Hamburger Stadtentwässerung AöR (HSE), ein Unternehmen von HAMBURG WASSER.

netWORKS 3 wird vom Bundesministerium für Bildung und Forschung (BMBF) innerhalb der Fördermaßnahme „Intelligente und multifunktionelle Infrastruktursysteme für eine zukunftsfähige Wasserversorgung und Abwasserentsorgung (INIS)“ gefördert. Mit netWORKS 3 werden die Ergebnisse aus den beiden vorangegangenen Projekten des Forschungsverbunds netWORKS weiterentwickelt und umgesetzt.

Ansprechpartner:
Dr. Jörg Felmeden (Projektleitung ISOE)
felmeden@isoe.de
Tel.: +49 69 707 69 19 – 28

Melanie Neugart (Presse ISOE)
neugart@isoe.de
Tel.: +49 69 707 69 19 – 51

Weitere Informationen:

http://www.networks-group.de Webseite des Forschungsverbunds

Quelle: idw

(nach oben)


Eine schlafende Zeitbombe

Sabine Ranke-Heinemann Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Schlafmangel wird mit einem hohen Cholesterinspiegel, Übergewicht und Depressionen in Verbindung gebracht. Nun sagen australische Forscher, dass Schlafmangel auch das Gehirn schädigen kann.

Zwei führende europäische Forscher für Schlaf- und Atemwegsstörungen haben zusammen mit der RMIT University, Melbourne, an einer gemeinsamen Studie über den Zusammenhang zwischen Alzheimer und obstruktiver Schlafapnoe (OSA) gearbeitet. Professor Thorarinn Gislason und Professor Bryndís Benediktsdóttir, ein Forscherehepaar der University of Iceland, gewährten der RMIT University Zugang zu ihrer Hirngewebsprobensammlung von Personen, die an OSA gestorben sind – bei den Proben handelt es sich um die vermutlich weltweit einzige Sammlung dieser Art.

Das Forscherduo arbeitet zusammen mit Professor Stephen Robinson von der gesundheitswissenschaftlichen Fakultät am Bundoora Campus der RMIT University an dem Langzeitprojekt. „Die neuere Forschungsliteratur lässt vermuten, dass das Vorkommen des Schlafapnoe-Syndroms bei Patienten mit Alzheimer bei etwa 80 % liegt, wobei die Schlafapnoe in vielen Fällen nicht diagnostiziert wird und unbehandelt bleibt,“ so Professor Robinson, Stellvertretender Leiter der Forschungsfakultät. „Wir suchen nach Beweisen, dass OSA alzheimerähnliche Veränderungen im Gehirn verursachen kann.“

Obstruktive Schlafapnoe ist eine gefährliche – und manchmal fatale – Schlafkrankheit, die das Weichgewebe im hinteren Rachenraum nachts kollabieren lässt, wodurch die Atemwege versperrt und die Sauerstoffzufuhr unterbrochen werden. Patienten können im Schlaf bis zu 30 Sekunden lang aufhören zu atmen und wachen oft nach Luft schnappend auf.

Es wird angenommen, dass einer von fünf Menschen an einer Form dieser Krankheit leidet. Viele sind sich ihrer Krankheit jedoch gar nicht bewusst und führen ihre Müdigkeit, Niedergeschlagenheit und Reizbarkeit auf schlechten Schlaf zurück. „Offiziellen Schätzungen zufolge liegt der Anteil der Bevölkerung, der an OSA leidet, bei etwa 5%. Einige Forscher sagen jedoch, dass das Vorkommen weit unterschätzt wird und tatsächlich bei 10% bis 20% liegt, besonders im mittleren Alter, “ meint Professor Robinson.

Neueste Forschungsergebnisse zeigen, dass Schlafapnoe weitaus schlimmere Folgen haben kann als die täglichen Konzentrationsschwierigkeiten und schlechte Laune, welche Schlafmangel mit sich bringt. Laut Professor Robinson trägt eine unbehandelte Schlafapnoe maßgeblich zur Entwicklung von Diabetes, Bluthochdruck und Herz-Kreislauf-Erkrankungen bei, und somit zu einem deutlich erhöhten Risiko für Herzinfarkt und Schlaganfall. „Wir vermuten, dass Menschen, die im mittleren Alter unter dem Schlafapnoe-Syndrom leiden, im späteren Leben ein erhöhtes Risiko haben, an Alzheimer zu erkranken und wir versuchen zu verstehen, warum dem so ist,“ so Professor Robinson.

Das Forscherteam wird im Rahmen der Gemeinschaftsstudie basierend auf den 60 bereits vorhandenen Hirngewebsproben untersuchen, wie die Schlafstörung das Gehirn schädigen und den degenerativen Alterungsprozess beschleunigen kann. Die Forscher hoffen, das Langzeitprojekt auf einige Hundert Patienten ausweiten zu können.

Während man lange davon ausging, dass hauptsächlich Übergewicht für die Entstehung von obstruktiver Schlafapnoe verantwortlich ist, meint Professor Robinson, dass die Schlaf- und Atmungsstörung Menschen jeden Alters betreffen könne. Über 50-Jährige haben ein erhöhtes Risiko, am Schlafapnoe-Syndrom zu erkranken, aber auch bei Kindern mit Entwicklungsstörungen kommt dieses vor, so sind etwa 80% der Kinder mit Down-Syndrom von Schlafapnoe betroffen. Männer leiden doppelt so oft unter der Störung wie Frauen. Die Forschung bringt OSA auch mit Nachtschweiß, Schlaflosigkeit, unruhigen Beiden, Bruxismus (Zähneknirschen), nächtlichem gastroösophagealen Reflux (Sodbrennen) und asthmaähnlichen Symptomen in Verbindung.

Weitere Informationen:
Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle
Friedrichstr. 9
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder
RMIT University
News Center
Email: news@rmit.edu.au

Das Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund ist das gemeinnützige Studierendensekretariat aller australischen und neuseeländischen Universitäten in Europa, zuständig für Wissens- und Forschungstransfer, Forschungsförderung sowie Studenten- und Wissenschaftleraustausch und für die Betreuung von Studierenden und Schülern, die ein Studium Down Under vorbereiten.

Weitere Informationen:
http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: idw

(nach oben)


Weltwassertag: Neues Poster zeigt Wissenswertes und Überraschendes rund ums Wasser in Deutschland

Richard Harnisch Öffentlichkeitsarbeit und Kommunikation
Institut für ökologische Wirtschaftsforschung GmbH, gemeinnützig

IÖW-Poster präsentiert viele Wasser-Fakten auf einen Blick: Wo ist in Deutschland Wasser knapp? // Jeder vierte deutsche Haushalt abhängig von Fernwasserleitungen // Warum verbrauchen wir Wasser in Spanien? // Wo gefährdet die Landwirtschaft das Grundwasser? // Wie wirkt sich der Klimawandel aus?

Deutschland ist ein wasserreiches Land, doch regional ist es sehr unterschiedlich, wie viel Wasser verfügbar ist und genutzt wird. Wo Wasser vor Ort knapp ist und wo sich Knappheiten mit dem Klimawandel noch verschärfen können, zeigt das Poster „Alles im Fluss – eine deutsche Wasserbilanz“, das das Institut für ökologische Wirtschaftsforschung (IÖW) zum Weltwassertag am 22. März in einer neuen, aktualisierten Auflage auf Deutsch und Englisch herausgibt. Es kann ab sofort über die Deutsche Vereinigung für Wasserwirtschaft, Abwasser und Abfall e. V. (DWA) bezogen werden. Das Poster eignet sich für alle, die ihr Wissen rund ums Wasser erweitern möchten, von Schulen über Weiterbildungsinstitutionen bis hin zu Fachleuten aus dem Wasserbereich.

Das Poster setzt die natürlichen, künstlichen und virtuellen Wasserflüsse in Deutschland unmittelbar zueinander in Beziehung. Es zeigt etwa, welche Ballungsräume vor Ort nicht genügend Wasser gewinnen können und auf den Transport über teilweise mehr als hundert Kilometer lange Fernwasserleitungen angewiesen sind. Weiterhin informiert es darüber, wo die Landwirtschaft durch intensive Düngepraxis lokal sauberes Wasser verknappt oder wie viel virtuelles Wasser Deutschland über Agrarprodukte aus aller Welt importiert. Das Poster wurde im Forschungsprojekt „Wasserflüsse in Deutschland“ unter Leitung des IÖW erstellt, das vom Bundesministerium für Bildung und Forschung (BMBF) im Schwerpunkt „Nachhaltiges Wassermanagement“ (NaWaM) gefördert wird. Projektpartner waren die Bundesanstalt für Gewässerkunde (BfG) und „keep it balanced“.

Warum würde Stuttgart ohne den Bodensee auf dem Trockenen sitzen?

IÖW-Wasserexperte Jesko Hirschfeld: „Mit dem Faltposter kann man spielerisch auf Entdeckungsreise gehen und sich klarmachen, was wir in Deutschland mit dem Wasser anstellen. In vielen Regionen haben wir reichlich davon, in anderen dagegen ist es knapp – und das könnte sich mit dem Klimawandel zuspitzen. Wenn Sie das Poster aufklappen, sehen Sie sofort, welche Regionen am stärksten betroffen sind.“ Auch beantwortet das Poster zum Beispiel die Fragen, warum Stuttgart ohne den Bodensee auf dem Trockenen sitzen würde, wie viel Wasser wir durch Tomatenimporte in Spanien verbrauchen oder warum wir mit Mandeln graues und mit Soja grünes virtuelles Wasser importieren.

Die Wasserbilanz informiert anschaulich darüber, wie viel Wasser in Deutschland natürlich, künstlich und virtuell fließt. Hirschfeld: „Wassermengen stellen wir als Kugeln dar und machen sie so direkt miteinander vergleichbar: Wie viel Wasser hier verfügbar ist, wie viel wir davon nutzen und welche Mengen wir im Ausland in Anspruch nehmen, das wird dadurch unmittelbar greifbar.“ Das Poster kann als Papierversion bestellt werden oder auf der Seite http://www.bmbf.wasserfluesse.de heruntergeladen werden.

+++++++++++++++++++++++++++++++++++

Mehr Informationen zum Projekt und Download des Posters: http://www.bmbf.wasserfluesse.de

Bestellung des Posters: http://www.dwa.de/shop

Das Institut für ökologische Wirtschaftsforschung (IÖW) ist ein führendes wissenschaftliches Institut auf dem Gebiet der praxisorientierten Nachhaltigkeitsforschung. 45 Mitarbeiterinnen und Mitarbeiter erarbeiten Strategien und Handlungsansätze für ein zukunftsfähiges Wirtschaften – für eine Ökonomie, die ein gutes Leben ermöglicht und die natürlichen Grundlagen erhält. Das Institut arbeitet gemeinnützig und ohne öffentliche Grundförderung. Ein Schwerpunktthema des Instituts befasst sich mit Wasser- und Landmanagement.
http://www.ioew.de

Weitere Informationen:
http://www.bmbf.wasserfluesse.de

Quelle: idw

(nach oben)


Wissenschaftliche Belege für Wirkung der Umweltzone

Tilo Arnhold Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.

Leipzig. Umweltzonen können die gesundheitlich problematischsten Bestandteile des Feinstaubes deutlich reduzieren. Zu diesem Ergebnis kommt eine Studie des Sächsischen Landesamtes für Umwelt, Landwirtschaft und Geologie (LfULG) und des Leibniz-Instituts für Troposphärenforschung (TROPOS), die die Umweltzone in Leipzig mit Sondermessungen untersuchen. Ruß und ultrafeine Partikeln gelten als bedeutendes Gesundheitsrisiko. Für beide Faktoren sei ein deutlich abnehmender Trend festzustellen, schreiben die Wissenschaftler im Fachblatt Gefahrstoffe – Reinhaltung der Luft.

Erste Zwischenergebnisse der Messungen wurden von der Stadt Leipzig anlässlich einer Bilanz zu zwei Jahren Umweltzone bereits im März 2013 vorgestellt. Die inzwischen veröffentlichte Studie ist jedoch die erste wissenschaftliche Publikation zu Umweltzonen in Deutschland, die sowohl Ruß als auch ultrafeine Partikel beleuchtet. LfULG und TROPOS hatten anlässlich der Einführung der Umweltzone ihre bisherigen Messungen entsprechend ausgeweitet. Beide Indikatoren sind bisher kein Bestandteil des gesetzlichen Luftüberwachungsprogrammes, das sich bislang auf die Gesamtmasse aller Partikel unterhalb von 10 Mikrometern (PM10) bzw. 2,5 Mikrometern (PM2.5) beschränkt.

Wie meist in anderen Orten konnte auch in Leipzig nach Einführung der Umweltzone kein deutlicher Rückgang der PM10-Massenkonzentration festgestellt werden. „Wird die Wirksamkeit einer Umweltzone nur an der Gesamtmasse des Feinstaubes gemessen, dann ist die Kritik an dieser Maßnahme nachzuvollziehen. Unsere Messungen aber belegen, dass die Konzentrationen bestimmter Feinstaubbestandteile wie Ruß, die maßgeblich vom Verkehr emittiert werden, sich seit Einführung der Umweltzone deutlich verringert haben“, erklärt Dr. Wolfram Birmili vom TROPOS.

Von 2010 bis 2011 nahm die Rußbelastung an der Messstelle Leipzig-Mitte um etwa ein Drittel ab. Dies entspricht etwa einem Mikrogramm weniger Ruß pro Kubikmeter Luft. Die Messstation in der Nähe des Leipziger Hauptbahnhofes liegt an einem der verkehrsreichsten Plätze Sachsens: Im Schnitt passieren an Werktagen hier 48 000 Fahrzeuge die Kreuzung am Innenstadtring. Die Messstation Leipzig-Eisenbahnstraße ist mit rund 12 000 Fahrzeugen pro Werktag weniger stark frequentiert, liegt aber dagegen in einer schlecht durchlüfteten Straßenschlucht im Osten Leipzigs. Aber auch hier sank die Masse des gemessenen Rußes immerhin noch um zirka 20 Prozent. „Die Abnahmen von Ruß und ultrafeinen Partikelnsind Folge des abnehmenden Verkehrs und sauberer Fahrzeuge im Gebiet der Umweltzone. In Leipzig wurden überdurchschnittlich viele alte Dieselfahrzeuge stillgelegt und 3-mal so viele PKW und 8-mal so viele leichte Nutzfahrzeuge als in Dresden mit Dieselpartikelfiltern nachgerüstet“, erläutert Dr. Gunter Löschau von LfULG.

Die Daten aus Leipzig sind auch in eine Überblickstudie von Umweltmedizinern des Helmholtz-Zentrums München um Dr. Josef Cyrys eingeflossen, die Studien zu zehn Umweltzonen in Deutschland ausgewertet hatte. Dabei kommen sie zu dem gleichen Fazit: Die PM10-Feinstaubwerte sagen wesentlich weniger über die Gesundheitseffekte einer Umweltzone aus als die Rußwerte. Es sei daher wahrscheinlich, dass die Effekte der Umweltzonen sich deutlicher auf die Gesundheit auswirken würden als es die PM10-Feinstaubwerte zeigen.

In Leipzig wurde zum 1. März 2011 eine Umweltzone der höchsten Regulierungsstufe eingeführt. Leipzig ist dabei die erste Stadt in Deutschland, die direkt eine Umweltzone der höchsten Regulierungsstufe eingeführt hat. Seitdem dürfen nur noch Fahrzeuge mit grüner Plakette in das Gebiet einfahren, das rund zwei Drittel der Stadtfläche bis an den Autobahnring umfasst und damit größer als Umweltzonen in anderen Städten ist. Für diese Maßnahme wurde die Stadt Leipzig damals heftig kritisiert. Umweltzonen sind Teil der Maßnahmenpakete, mit denen Stadtverwaltungen versuchen, die Anforderungen der EU-Luftqualitätsrichtlinie von 2008 zu erfüllen, die vorschreiben, dass die PM10-Massenkonzentration den Wert von 50 Mikrogramm pro Kubikmeter an höchstens 35 Tagen pro Jahr überschreiten darf. Ab 1. Januar 2015 wird es auch für Feinstaub bis zur Größe von 2,5 Mikrometern (PM2.5) einen verbindlichen Grenzwert geben. Die Massenkonzentration darf dann im Jahresmittel für PM2.5 den Wert von 25 Mikrogramm pro Kubikmeter nicht überschreiten. Die Festsetzung des bisher in der EU-Luftqualitätsrichtlinie angegebenen „Richtgrenzwert“ 20 Mikrogramm pro Kubikmeter ab 2020 wird im Rahmen der anstehenden Novellierung überprüft.

Die Leipziger Messungen zum Ultrafeinstaub stehen im Zusammenhang mit weiteren, breiter angelegter Forschungsarbeiten. Eine europäische Querschnittsstudie verglich für den Zeitraum 2008 bis 2010 die Konzentrationen an Ultrafeinstaub zwischen 8 und 700 Nanometern Größe in Helsinki, Stockholm, Kopenhagen und Leipzig. Die Anzahl der Partikel lag dabei zwischen 1700 pro Kubikzentimeter im ländlichen Finnland und 23 000 pro Kubikmeter an der Marylebone Road, einer verkehrsreichen Ausfallstraße in London, die pro Tag über 80 000 Fahrzeuge passieren. Die Messergebnisse aus der Leipziger Eisenbahnstraße betrugen zwar mit rund 13 000 Partikel pro Kubikzentimeter nur etwa die Hälfte der Werte aus der Londoner Marylebone Road, lagen wiederum aber deutlich über den Werten aus Helsinki, Stockholm und Kopenhagen. In einer Stadt kann sich die reale Belastung mit Ultrafeinstaub jedoch innerhalb weniger Meter stark unterscheiden. Zu diesem Ergebnis kamen Versuche des TROPOS und der Fachhochschule Düsseldorf, die im Sommer 2011 mit mobilen Geräten die Partikelkonzentrationen rund um den Leipziger Hauptbahnhof gemessen hatten, wo in den engen Straßenschluchten im Größenbereich zwischen 25 und 300 Nanometern teilweise Spitzenwerte von bis zu 50 000 Partikeln pro Kubikzentimeter registriert wurden. Zusammen mit Kollegen aus Helsinki, Stockholm, Kopenhagen und Athen arbeiten die Leipziger Troposphärenforscher nun an verbesserten Modellen zur Vorhersage von Feinstaubkonzentrationen in europäischen Städten.
Tilo Arnhold

Weitere Infos:
Dr. Wolfram Birmili, Prof. Alfred Wiedensohler,
Leibniz-Institut für Troposphärenforschung (TROPOS)
Tel. +49-341-2717-7067, -7062
http://www.tropos.de/institut/ueber-uns/mitarbeitende/wolfram-birmili/
http://www.tropos.de/institut/ueber-uns/mitarbeitende/
und
Dr. Gunter Löschau
Sächsisches Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG)
Tel. +49-351-2612-5102
http://www.smul.sachsen.de/lfulg/index.html
oder via
Tilo Arnhold, TROPOS-Öffentlichkeitsarbeit
Tel. +49-341-2717-7060
http://www.tropos.de/aktuelles/pressemitteilungen/
und
Karin Bernhardt, LfULG-Pressestelle
Tel. +49-351-612-9002
http://www.smul.sachsen.de/lfulg/6446.htm

Publikationen:
zur Umweltzone Leipzig
Rasch, F.; Birmili, W.; Weinhold, K.; Nordmann, S.; Sonntag, A.; Spindler, G.; Hermann, H.; Wiedensohler, A.; Löschau, G. (2013): Signifikante Minderung von Ruß und der Anzahl ultrafeiner Partikel in der Außenluft als Folge der Umweltzone in Leipzig. Gefahrstoffe- Reinhaltung der Luft, 11-12/2013, Seite 483-489.
http://www.gefahrstoffe.de/gest/currentarticle.php?data[article_id]=76016
Die Untersuchungen wurden vom Bundesministerium für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMU) im Rahmen des German Ultrafine Aerosol Network (GUAN) gefördert sowie vom Sächsischen Landesamt für Umwelt, Landwirtschaft und Geologie (LfULG) unterstützt.

Josef Cyrys, Annette Peters, Jens Soentgen & H.-Erich Wichmann (2013): Low Emmission Zones Reduce PM10 Mass Concentrations and Diesel Soot in German Cities, Journal of the Air & Waste Management Association, DOI: 10.1080/10962247.2013.868380
http://dx.doi.org/10.1080/10962247.2013.868380

Löschau, Gunter; Wiedensohler, Alfred; Birmili, Wolfram; Rasch, Fabian; Spindler, Gerald; Müller, Konrad; Wolf, Uwe; Hausmann, Andrea; Böttger, Mathias; Anhalt, Mario; Herrmann, Hartmut (2013): Umweltzone Leipzig. Teil 2: Immissionssituation 2011. LfULG, 02.05.2013. https://publikationen.sachsen.de/bdb/artikel/18590

Löschau, G.; Wiedensohler, A.; Birmili, W.; Rasch, F.; Spindler, G.; Müller, K.; Wolf, U.; Hausmann, A.; Herrmann, H. (2012): Umweltzone Leipzig. Teil 1: Ausgangsbeurteilung. LfULG, 11.05.2012. https://publikationen.sachsen.de/bdb/artikel/14411

zu Ultrafeinstaub:
Bjarke Mølgaard, Wolfram Birmili, Sam Clifford, Andreas Massling, Kostas Eleftheriadis, Michael Norman, Stergios Vratolis, Birgit Wehner, Jukka Corander, Kaarle Hämeri, Tareq Hussein (2013): Evaluation of a statistical forecast model for size-fractionated urban particle number concentrations using data from five European cities. Journal of Aerosol Science, Volume 66, December 2013, Pages 96-110. http://dx.doi.org/10.1016/j.jaerosci.2013.08.012
Die Untersuchungen wurden vom Finnish Centre of Excellence der Academy of Finland gefördert.

Clemens von Bismarck-Osten, Wolfram Birmili, Matthias Ketzel, Andreas Massling, Tuukka Petäjä, Stephan Weber (2013): Characterization of parameters influencing the spatio-temporal variability of urban particle number size distributions in four European cities. Atmospheric Environment, Volume 77, October 2013, Pages 415-429. http://dx.doi.org/10.1016/j.atmosenv.2013.05.029
Die Messungen in Dänemark wurden von der Danish Environmental Protection Agency gefördert.

Birmili, W., Rehn, J., Vogel, A., Boehlke, C., Weber, K., and Rasch, F. (2013): Micro-scale variability of urban particle number and mass concentrations in Leipzig, Germany, Meteorolog. Z., 22(2), 155-165, April 2013. http://dx.doi.org/10.1127/0941-2948/2013/0394
Open Access:
http://www.schweizerbart.de/papers/metz/detail/22/80285/Micro_scale_variability_…
Die Untersuchungen wurden teilweise vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

Links:
Studie von LfULG und TROPOS zur Wirkung der Umweltzone in Leipzig
http://www.tropos.de/forschung/atmosphaerische-aerosole/langzeit-prozess-und-tre…

German Ultrafine Aerosol Network (GUAN)
http://wiki.tropos.de/index.php/GUAN
Gunter Löschau (LfULG): Umweltzone Leipzig – Flop oder Top? (39. Verkehrsplanerisches und Verkehrsökologisches Kolloquium an der Technischen Universität Dresden, Fakultät Verkehrswissenschaften am 13. November 2013):
http://tu-dresden.de/die_tu_dresden/fakultaeten/vkw/ivs/oeko/dateien/vortraege_k…
Saubere Luft – (k)eine Selbstverständlichkeit!
http://www.umwelt.sachsen.de/umwelt/luft/index.asp
Umweltzone Leipzig
http://www.leipzig.de/umwelt-und-verkehr/luft-und-laerm/umweltzone/
Interview mit Prof. Dr. Alfred Wiedensohler (detektor.fm vom 07.02.2012):
http://detektor.fm/politik/feinstaub-in-umweltzonen-auch-2011-zu-hohe-werte/

bisherige Pressemitteilungen zum Thema:
Erste gesundheitsrelevante Effekte durch die seit zwei Jahren bestehende Umweltzone nachgewiesen (Pressemitteilung vom 06.03.2013):
http://idw-online.de/pages/de/news522458
Strafminderung für Umweltzonenverstöße wäre ein falsches Signal (Pressemitteilung vom 16.02.2012):
https://idw-online.de/pages/de/news463727
Umweltzonen können Sinn haben, selbst wenn sie ihren eigentlichen Zweck nicht erfüllen (Pressemitteilung vom 29.09.2011):
http://www.tropos.de/news/pms/PM_%20Feinstaub_Notfalleinsaetze-Leipzig_STOTEN_11…

Das Leibniz-Institut für Troposphärenforschung (TROPOS) ist Mitglied der Leibniz-Gemeinschaft, die 89 selbständige Forschungseinrichtungen verbindet. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.
Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u.a. in Form der WissenschaftsCampi – , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam. Die Leibniz-Institute beschäftigen rund 17.200 Personen, darunter 8.200 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.
http://www.leibniz-gemeinschaft.de

Weitere Informationen:
http://www.tropos.de/aktuelles/pressemitteilungen/details/wissenschaftliche-bele…
http://www.tropos.de/forschung/atmosphaerische-aerosole/langzeit-prozess-und-tre…

Quelle: idw

(nach oben)


IHK NRW trifft Fraunhofer: Wir in NRW für die Energiewende

Dipl.-Chem. Iris Kumpmann Abteilung Public Relations
Fraunhofer-Institut für Umwelt-, Sicherheits- und Energietechnik UMSICHT

Steigende Energiepreise bringen die Wirtschaft in Nordrhein-Westfalen an ihre Belastungsgrenze. Bei einer gemeinsamen Veranstaltung mit der Fraunhofer-Gesellschaft diskutierten mehr als 100 Teilnehmer aus Wirtschaft und Wissenschaft mögliche Beiträge von Industrie und Forschung zum Gelingen der Energiewende. Der Informationsabend fand am 20. März im Oberhausener Fraunhofer-Institut UMSICHT statt.

»Trotz der Belastungen stellen sich die Unternehmen den Herausforderungen der Energiewende, und wollen den eingeschlagenen Weg konstruktiv begleiten«, sagte Jutta Kruft-Lohrengel, Präsidentin der IHK zu Essen: »Neben einer umweltverträgliche Energieversorgung ist die nationale und internationale Wettbewerbsfähigkeit für unsere Betriebe von zentraler Bedeutung. Daher benötigen wir innovative Lösungen.«

Energiewende – Lösungen aus Industrie und Forschung

Professor Dr. Alfred Gossner, Vorstand Finanzen, Controlling und IT der Fraunhofer-Gesellschaft betonte: »Die Energiewende stellt eine gewaltige Herausforderung dar, die aber auch ein erhebliches Chancenpotenzial für die deutsche Wirtschaft aufweist. Insbesondere der starke Mittelstand in Deutschland kann mit innovativen Lösungen davon profitieren und einen Beitrag für eine nachhaltige Energieversorgung der Zukunft leisten.«

Wie Unternehmen von der anwendungsnahen Forschung bei Fraunhofer profitieren und so ihre Wettbewerbsfähigkeit stärken können, zeigten Wissenschaftler des Fraunhofer-Instituts IMS aus Duisburg und von Fraunhofer UMSICHT. Gemeinsam mit Transferpartnern aus der Industrie stellten sie Möglichkeiten zur effizienteren Energienutzung vor. Chancen bieten leistungsfähige elektrische Energiespeicher zur Eigenstromnutzung, wie Redox-Flow-Batterien, aber auch thermische Speicher für ungenutzte Abwärme. Zusätzlich präsentierten sie Lösungen zur Verbesserung des Raumklimas.

»Die Praxisbeispiele zeigen, wie Technologietransfer heute funktioniert: Die Wirtschaft liefert die Fragestellungen, die Forschung die passenden Antworten,« erklärte Michael F. Bayer, der die Veranstaltung als innovationspolitischer Sprecher von IHK NRW moderierte. Bayer ist sich sicher: »Wenn Wissenschaftler eng mit regionalen Unternehmen kooperieren, und wenn Forschungsergebnisse der Wirtschaft schnell und effizient zur Verfügung gestellt werden, dann können wir in NRW ein entscheidenden Beitrag zum Gelingen der Energiewende leisten.«

Weitere Informationen:
http://www.umsicht.fraunhofer.de/de/presse-medien/2014/nrw-energiewende-ihk.html

Quelle: idw

(nach oben)


Neuer Schnelltest für Fluorid-Nachweis im Trinkwasser (BAM-Pressemitteilung Nr. 2/2014)

Dr. Ulrike Rockland Pressestelle
Bundesanstalt für Materialforschung und -prüfung (BAM)

Der Zusatz von Fluorid zum Trinkwasser oder Zahncreme ist weit verbreitet und dient vor allem der Zahngesundheit und als vorbeugende Maßnahme gegen Knochenkrankheiten. Doch eine zu hohe Konzentration an Fluorid kann zu gesundheitlichen Problemen führen. Markantes Zeichen dieser Fluorose, die vor allem in Entwicklungsländern auftritt, sind bräunlich-gelbe Flecken auf den Zähnen. Nicht überall ist das fluorierte Trinkwasser auch unter ständiger Überwachung, so dass besonders Kinder zu viel Fluorid zu sich nehmen können.

Ein von der BAM Bundesanstalt für Materialforschung und -prüfung entwickelter sehr einfacher Farbschnelltest kann in Zukunft helfen, die Fluoridkonzentration leichter festzustellen.

Ähnlich wie der Lackmustest zur Bestimmung des pH-Wertes sieht man auf einem Papierstreifen mittels Farbveränderung, ob und wie viel Fluorid im Wasser gelöst ist. Die Konzentration wird durch gelb-grüne Punkte angezeigt. Je dunkler der Spot ist, desto mehr Fluorid liegt vor. Zum Einsatz kommt ein von der BAM entwickelter Farbstoff. „Dieser BODIPY-Amidothioharnstoff-Farbstoff wird als kleiner Punkt auf einen Streifen Nitrocellulose aufgebracht“, berichtet Pichandi Ashokkumar, der zu¬sammen mit Knut Rurack den Test entwickelt hat.

Der Papierstreifen wird dann zum Beispiel in ein Wasserglas getaucht. Anhand der Veränderung des Farbeindrucks kann der Tester die Konzentration ablesen. Aufgrund des gewählten chemischen Farbstoffes ist der Teststreifen auch wiederverwendbar. Doch so einfach das klingt, so schwierig gestaltete sich die Umsetzung. Denn das Fluorid lagert sich mittels Wasserstoffbrückenbindung an den Thioharnstoff an. Durch die Bindung kommt es zu einem Elektronentransfer, der die Fluoreszenz des Farbstoffs abschwächt, das heißt, der Farbstoff erscheint dann dunkler. „Der Trick war nun, ein Verfahren zu entwickeln, dass trotz der wässrigen Umgebung das Fluorid immer noch an den Thioharnstoff bindet und nicht der Sauerstoff des Wassers“, sagt Projektleiter Knut Rurack. Wie Tests zeigen, ist dies den Wissenschaftlern gelungen. Um das Ablesen der Farbveränderung noch besser als mit dem menschlichen Auge auswerten zu können, kann der Teststreifen auch mit der eingebauten Kamera eines Mobiltelefons erfasst werden.

Die Fluorierung von Trinkwasser ist eine verbreitete Praxis. In Europa wird dies beispielsweise in Großbritannien, Irland und der Schweiz praktiziert. Auch die USA fluoriert ihr Trinkwasser. Erst im Jahr 2011 hatte die US Environmental Protection Agency (EPA) den Richtwert für Fluorid in Trinkwasser von 1 auf 0,7 Parts per Million (ppm) reduziert und sich damit anderen Ländern angeschlossen. Die Nachweisgrenze des neuen Fluoridtests liegt bei 0,2 ppm. Der Test wurde mit verschiedenen Wasserproben getestet, unter anderem mit Leitungs- und Meerwasser. „Der Test wird durch andere Ionen, die im Leitungs- oder Salzwasser vorkommen, nicht gestört“, berichtet Rurack. Probleme können allerdings zu hohe Phosphatkonzentrationen bereiten, wie sie beispielsweise in einigen Zahncremes zu finden sind. Ein mögliches Einsatzgebiet ihres Testes sehen die Wissenschaftler vor allem in Asien und Afrika.

Kontakt:
Dr. rer. nat. Knut Rurack
Abteilung 1 Analytische Chemie, Referenzmaterialien
E-Mail: Knut.Rurack@bam.de

„Fluorometrischer Nachweis von Fluorid in wässriger Lösung mittels Teststreifen und einem BODIPY-Wasserstoffbrückenrezeptor-Konjugat“, Pichandi Ashokkumar, Hardy Weißhoff, Werner Kraus und Knut Rurack, Angew. Chem. 2014, 126, 2257-2261

Quelle: idw

(nach oben)


Website zum KfW-Programm „Energetische Stadtsanierung“ gestartet

Christian Schlag Stab Direktor
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

Eine neue Website des Bundesbauministeriums und des Bundesinstituts für Bau-, Stadt- und Raumforschung (BBSR) informiert über das KfW-Programm 432 „Energetische Stadtsanierung“.

Interessierte Kommunen und Projektakteure erhalten darin zahlreiche Anregungen zu Quartierskonzepten und dem Sanierungsmanagement. Informationen gibt es zu Fördermöglichkeiten, den Pilotprojekten des Programms und zur Begleitforschung. Die Website wird fortlaufend um Hinweise aus der Praxis erweitert.

Mit dem 2011 gestarteten KfW-Programm wird der energetische Sanierungsprozess vom Einzelgebäude hin zum Quartier erweitert. Gebäudesanierung, Energieversorgung und der Einsatz erneuerbarer Energien werden in integrierten Konzepten verknüpft. Das Programm ermöglicht flexible Strategien, die sich in vielen Gebieten umsetzen lassen – von historischen Altstädten über große Wohnsiedlungen bis hin zu Quartieren am Stadtrand. Kommunen, Wohnungswirtschaft, private Eigentümer, Mieter und Energieversorger ziehen an einem Strang und arbeiten gemeinsam an der Umsetzung.

Städtebauliche Labore

„Um die ambitionierten Klimaschutzziele zu erreichen, müssen wir die energetische Sanierung auf eine breite städtebauliche Basis stellen. Die Erfahrungen der Pilotprojekte sind sowohl für die Weiterentwicklung des Förderprogramms als auch für die kommunale Praxis besonders wichtig. Die auf der Website vorgestellten Beispiele machen deutlich, was schon jetzt möglich ist“, erklärt BBSR-Direktor Harald Herrmann.

Die Pilotprojekte wurden im Rahmen der Einführung des KfW-Programms „Energetische Stadtsanierung“ 2011 auf Vorschlag der Bundesländer ausgewählt. Bundesweit sind heute 61 Quartiere an der Erstellung integrierter energetischer Quartierskonzepte und der Einführung von Sanierungsmanagements beteiligt. Das BBSR begleitet die Projekte wissenschaftlich, unterstützt den Ergebnistransfer und erarbeitet Handlungsempfehlungen für die Weiterentwicklung des Programms.

Weitere Informationen: http://www.energetische-stadtsanierung.info

Kontakt:
Christian Schlag
Stab Direktor und Professor
Tel. :+49 228 99401-1484
christian.schlag@bbr.bund.de

+++

Das Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung (BBR) ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Umwelt, Naturschutz, Bau und Reaktorsicherheit (BMUB). Es berät die Bundesregierung bei Aufgaben der Stadt- und Raumentwicklung sowie des Wohnungs-, Immobilien- und Bauwesens.

Quelle: idw

(nach oben)


Weltwassertag 2014: Abwasser als regenerative Energiequelle?

Dr.-Ing. Bodo Weigert Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Kompetenzzentrum Wasser Berlin erforscht seit einigen Jahren, wie Prozesse der Wassergewinnung und Abwasserbehandlung energieeffizienter gestaltet oder sogar Energie erzeugen können.

Der von den Vereinten Nationen jedes Jahr zum 22. März ausgerufene Weltwassertag steht in diesem Jahr unter dem Motto „Wasser und Energie“.
Die UN möchten die Aufmerksamkeit darauf lenken, dass die Bereitstellung von Trinkwasser und auch die Behandlung von Abwasser immer mit der Verfügbarkeit und Verbrauch von Energie verbunden ist. Die UN schätzt, dass weltweit ungefähr 8 % des jährlichen Strombedarfs für Transport und Behandlung von Wasser und Abwasser benötigt wird. Gleichzeitig ist die Produktion von Strom in thermischen Kraftwerken immer von der Verfügbarkeit von Wasser zur Kühlung abhängig. Nicht zuletzt wird über 15 Prozent der weltweiten Stromversorgung in Wasserkraftwerken erzeugt.

Tatsächlich ist nach der Energiewende in Deutschland gerade der Zusammenhang von Wassernutzung und Energieverbrauch immer mehr in den Fokus gerückt. Die kommunale Abwasserbehandlung zählt zu den größten Energieverbrauchern in Kommunen. Wegen des wachsenden Kostendrucks, aber auch zur Erfüllung der Klimaziele ist man daher intensiv bemüht, hier besser zu werden.

Aus diesem Grund arbeitet das Kompetenzzentrum Wasser Berlin in mehreren Projekten daran, die Prozesse der Trinkwassergewinnung und Abwasserbehandlung effizienter zu gestalten. Beispielsweise konnten wir im gerade abgeschlossenen Projekt CARISMO zeigen, dass Klärwerke mit neuer Verfahrensführung sogar einen Energieüberschuss produzieren könnten durch konsequente Nutzung der im Abwasser enthaltenen chemischen Energie. Diese Energiemenge beträgt rund 4 Kilowattstunden pro Kubikmeter Abwasser, die in herkömmlichen Klärwerken im Belebungsbecken durch Zufuhr von Luftsauerstoff von Mikroorganismen zu Kohlendioxid „veratmet“ und damit vernichtet wird. In CARISMO wurde der klassische Klärprozess versuchsweise so umgestaltet, dass ein Großteil der im Rohabwasser enthaltenen energiereichen Stoffe bereits im Zulauf der Kläranlage abgefangen und direkt in die Schlammfaulung geschickt wird. Ergebnisse einer umfassenden Energiebilanz zeigen, dass das CARISMO-Konzept den Biogasertrag im Vergleich zu Referenzverfahren um 80% steigern kann, ohne die Reinigungsleistung, das Hauptziel der Abwasserreinigung, zu verschlechtern.

Bei konsequenter Umsetzung dieses Verfahrens könnte sich Abwasser zu einer neuen regenerative Energiequelle entwickeln.

Weitere Informationen zu unseren Projekten sind auf unserer Homepage oder in unserer Presseinformation „Wasserwirtschaft in der Energiewende“ zu finden.

Weitere Informationen:
http://www.kompetenz-wasser.de

Quelle: idw

(nach oben)


Netzwerk „Wasser&Technik“ sucht Verstärkung

Christian Colmer Pressestelle
ttz Bremerhaven

Das ttz Bremerhaven baut ein Innovations-Netzwerk für Wasser- und Abwassertechnik auf. Interessierte Unternehmen und Kommunen können dem Netzwerk ab sofort beitreten.

Thales von Milet lehrte, der Ursprung aller Dinge sei das Wasser. Darüber kann man streiten. Unbestreitbar hingegen ist, dass das nasse Element Ausgangspunkt für das Netzwerk Wasser&Technik ist. Denn die technische Beherrschung von Wasser wirft Fragen auf, die nur im Verbund gelöst werden können. Das unabhängige Forschungsinstitut ttz Bremerhaven bildet deshalb ein Konsortium aus Unternehmen und Kommunen, das bereits im April 2014 die Arbeit aufnehmen soll. Für weitere Teilnehmer ist das Netzwerk offen.

Das Wasser&Technik-Netzwerk wird sich inhaltlich mit verschiedenen Themen der Wasseraufbereitung in unterschiedlichen Branchen auseinandersetzen. In thematischen Arbeitsgruppen sollen aktuelle Fragestellungen diskutiert und konkrete Lösungen für maritime Akteure, die Aquakulturbranche, Städte und Kommunen, die Lebensmittelindustrie und Energiewirtschaft sowie für landwirtschaftliche Endnutzer erarbeitet werden. Die Gründungsmitglieder kommen aus dem gesamten Bundesgebiet, die Netzwerkleitung wird das ttz Bremerhaven übernehmen.

Das Netzwerk ist grundsätzlich für Unternehmen jeder Größe offen und lebt von der Heterogenität seiner Mitglieder. Durch den Zusammenschluss verschiedener Kompetenzbereiche und Unternehmensphilosophien unter einer Dachorganisation können Schnittstellen zwischen den beteiligten Unternehmen und ihren Arbeitsbereichen optimal genutzt werden. Vor allem für kleine und mittelständische Unternehmen (KMU) stellt Ressourcenmangel in Bezug auf Kapital, Personal und Infrastruktur eine große Hürde hinsichtlich der Durchführung eigener Forschungs- und Entwicklungs-Leistungen dar. KMU sollen deshalb durch die Einbindung in ein Kompetenz-Netzwerk gezielt unterstützt werden.

Im Februar fand bereits ein erstes Treffen mit einem Großteil der zukünftigen Mitgliedsunternehmen statt; ein weiteres Treffen ist für Ende Mai geplant. Mit Wasser&Technik stellt das ttz Bremerhaven seine aktuellen Netzwerk-Aktivitäten im Rahmen einer Langfrist-Strategie auf eine deutlich breitere Basis. Das Fundament bilden dabei vor allem die in den vergangenen Jahren in den Netzwerken MS INNOVATION (http://www.ms-innovation.net) und AQUZENTE (http://www.aquzente.net) gewonnenen Erfahrungen.

Zur Co-Finanzierung der Aktivitäten werden derzeit Fördermittel des Bundesministeriums für Wirtschaft und Technologie (BMWi) im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) beantragt.

Das ttz Bremerhaven ist ein unabhängiges Forschungsinstitut und betreibt anwendungsbezogene Forschung und Entwicklung. Unter dem Dach des ttz Bremerhaven arbeitet ein internationales Experten-Team in den Bereichen Lebensmittel, Umwelt und Gesundheit. Seit mehr als 25 Jahren begleitet es Unternehmen jeder Größenordnung bei der Planung und Durchführung von Innovationsvorhaben und der Akquisition entsprechender Fördermittel auf nationaler und europäischer Ebene. http://www.ttz-bremerhaven.de

Fachliche und organisatorische Fragen zum Netzwerk Wasser&Technik beantwortet gerne:
Dipl.-Wi.-Ing. Birte Ostwald
Teamleiterin Wasser-, Energie- und Landschaftsmanagement
ttz Bremerhaven
Wasser-, Energie- und Landschaftsmanagement
An der Karlstadt 6
D-27568 Bremerhaven (Germany)
Phone: +49 (0)471 80934 103
Mobil: +49 (0)175 1866 260
FAX: +49 (0)471 80934 199
bostwald@ttz-bremerhaven.de

Weitere Informationen:
http://www.ttz-bremerhaven.de
http://www.ms-innovation.net
http://www.aquzente.net

Quelle: idw

(nach oben)


Rohrleitungen umweltschonender verlegen

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Neues Verfahren benötigt weniger Platz und spart Kosten

Die oberflächennahe Verlegung von Rohrleitungen bedeutet meist einen massiven Eingriff in die Umwelt. Sie kann bis zu 50 Meter breite Trassen verursachen. Das BINE-Projektinfo „Expressbau für Pipelines“ (04/2014) stellt ein Verfahren vor, das weniger als ein Fünftel der üblichen Breite benötigt. Die Stahl- oder Betonrohre können für Wärmenetze genutzt werden und weiter entfernt liegende Kunden schneller und umweltschonender anbinden.

Bisher entstehen für den Bau von Gräben, Bodenzwischenlagerungen, Materialtransport und Materiallager Korridore auf einer Breite von bis zu 50 Metern über die gesamte Trassenlänge. Die Folgen für die Umwelt sind trotz Rekultivierungen auch nach Jahren noch sichtbar. Mit dem Pipe-Express-Verfahren ist es nicht mehr erforderlich, Gräben aufwendig auszuheben. Da der Aufwand für Maßnahmen zur Renaturierung sich reduziert, können Kosten gespart werden.

Beim „Pipe Express“ bohrt sich eine Tunnelbohrmaschine durch den Boden. Eine Abbaueinheit löst diesen und fördert ihn direkt an die Oberfläche. Für den nötigen Vorschub sorgt ein verankertes Presselement (Pipe Thruster). Es schiebt die Rohrleitung simultan in das horizontal erzeugte Bohrloch. Ein Fahrer im Operatorfahrzeug überwacht und steuert die Anlage entlang der Trasse. Über die so verlegten Pipelines können Fern- und Nahwärme, Kommunikations- und Datenleitungen, Stromkabel, Öl, Gas sowie Wasser übertragen oder transportiert werden. Für die Einbindung von Geothermiekraftwerken in die Wärmeversorgung von Siedlungen kann das Pipe-Express-Verfahren zukünftig eine größere Rolle spielen.

Das Pipe-Express-Verfahren wurde von der Herrenknecht AG entwickelt und aus Mitteln des Bundesumweltministeriums gefördert.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:

http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Ein Fluss fließt – und was, wenn nicht?

Karl-Heinz Karisch Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Temporäre Fließgewässer – also Bäche und Flüsse, die nur zeitweise Wasser führen – machen einer Untersuchung von Wissenschaftlern unter Beteiligung des Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) und der Freien Universität Berlin (FU) mehr als die Hälfte des globalen Flussnetzwerkes aus. In den politischen Managementstrategien der meisten Länder finden sie dennoch keine Berücksichtigung.

Die wichtigsten wissenschaftlichen Informationen zur Bedeutung dieser Ökosysteme haben internationale Wissenschaftler, darunter Klement Tockner vom IGB und von der FU, nun in den aktuellen Ausgaben der Zeitschriften Science und BioScience veröffentlicht. Denn, auch wenn es ungewöhnlich klingt, natürlich trockenfallende Gewässer sind Zentren der biologischen Vielfalt und übernehmen für den Menschen wichtige Funktionen.

Unterhalb des 60. Breitengrades führen sogar 70 Prozent aller Flüsse nur zwischenzeitlich Wasser. Für die lokale Bevölkerung sind diese temporären Gewässer von hoher Bedeutung: Sie dienen dem Fischfang, der Bewässerung von Feldern und speisen das Grundwasser. Durch Übernutzung fallen jedoch mehr und mehr Flüsse zeitweise trocken, darunter so bekannte Ströme wie der Nil, der Rio Grande und der Colorado River. Aber auch in Deutschland trocknen den Erkenntnissen zufolge bisher permanent wasserführende Gewässer vermehrt aus, besonders in den östlichen Bundesländern, wo kleine Änderungen im Niederschlag oder im Grundwasserstand massive Auswirkungen auf den Oberflächenabfluss haben können. Begünstigt wird das Trockenfallen durch Entwässerungen und Begradigungen.

Fehlendes oder schlechtes Management beeinträchtigt nicht nur die temporären Gewässer selbst, sondern kann sich schwerwiegend und irreversible auf die Wasserquantität und -qualität von Seen, Trinkwasserspeichern und Meeresküsten auswirken. So können die hohen Mengen an Nährstoffen und organischem Material während Starkregenereignissen zu massiven Fischsterben in flussabwärts gelegenen Gewässern führen.

Unterschiedliche Länder – unterschiedliche Ansätze
Die Debatte, wie diese Gewässer in der Umweltpolitik zu behandeln sind, wird in vielen Ländern geführt – gerade auch angesichts des Klimawandels, der die Wasserverfügbarkeit stark verändern wird. In der Europäischen Union werden temporäre Gewässer je nach „Typologie“ als Gewässer anerkannt, oder eben auch nicht. Die Definition wird von den Gesetzgebungen der EU-Staaten unterschiedlich ausgelegt. In Australien jedoch, wo ein Großteil der Flüsse nur zeitweise Wasser führt, werden diese bereits als Gewässer klassifiziert und daher auch bei Managementmaßnahmen berücksichtigt. In den USA steht derzeit ein geplantes Gesetz des dortigen Umweltbundesamtes (US-EPA) zum Schutz von temporären Gewässern in Diskussion. Es geht um die grundlegende Frage, ob ein umfassender Schutz dieser Ökosysteme zu kostspielig wäre, oder ob temporäre Gewässer als ökologisch besonders wertvoll und zugleich gefährdet einzustufen seien. Mit den vorliegenden Arbeiten werden grundlegende Informationen bereitgestellt, um eine solche Entscheidung von hoher politischer Bedeutung zu unterstützen.

Ein junges Forschungsgebiet mit neuen Perspektiven
Die Ökologie von temporären Flüssen ist noch ein relativ junges Forschungsgebiet. Neue Sensoren und Messmethoden ermöglichen Wissenschaftlern genauere Aussagen zu deren Ausbreitung und Funktion. Die biologische Vielfalt dieser Lebensräume wurde bislang jedoch vernachlässigt. Dabei zeigt sich, dass natürlicherweise trockenfallende Gewässer eine einzigartige terrestrische Fauna beherbergen und die Artenvielfalt oft deutlich höher als entlang stabiler Abschnitte ist.

Hingegen sind Gewässer die durch menschlichen Einfluss austrocknen, zumeist artenarm, da diese zugleich durch andere Stressoren wie Verschmutzung und Verlust an Lebensräumen belastet sind.

„Temporäre Gewässer sind weltweit verbreitet und Teil unserer natürlichen Umwelt. Daher müssen sie bei Managementmaßnahmen entsprechend berücksichtigt und über Ländergrenzen hinweg einheitliche Regelungen gefunden werden. Wir können nicht die Hälfte aller Fließgewässer ignorieren und dabei riskieren, wichtige Lebensräume für Mensch und Natur zu verlieren. Die Folgekosten können langfristig weitaus höher ausfallen als für den Schutz dieser Gewässer benötigt werden“, betont Klement Tockner.

Quellen:
Acuña V, Datry T, Marshall J, Barceló D, Dahm CN, Ginebreda A, McGregor G, Sabater S, Tockner K, Palmer MA (2014) Why should we care about temporary water ways? Science 343: 1080-1081 (publiziert am 7. März 2014).
Datry T, Larned S, Tockner K (2014) Intermittent rivers: a challenge for freshwater ecology. BioScience In press.

Kontakt:
Prof. Dr. Klement Tockner
Direktor des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) und Wissenschaftler der Freien Universität Berlin
E-Mail: tockner@igb-berlin.de
Tel.: +49 (0)30 64181 601

Angelina Tittmann
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB)
E-Mail: tittmann@igb-berlin.de
Tel.: + 49 (0)30 64181 631

Weitere Informationen zum IGB:
Forschen für die Zukunft unserer Gewässer: Das ist die wesentliche Aufgabe des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB), das bundesweit größte Forschungszentrum für Binnengewässer. Es gehört zum Forschungsverbund Berlin e. V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft.
Die Arbeiten des IGB verbinden Grundlagen- mit Vorsorgeforschung als Basis für die nachhaltige Bewirtschaftung der Gewässer. Das IGB untersucht dabei die Struktur und Funktion von aquatischen Ökosystemen unter naturnahen Bedingungen und unter der Wirkung multipler Stressoren. Forschungsschwerpunkte sind unter anderem die Langzeitentwicklung von Seen, Flüssen und Feuchtgebieten bei sich rasch ändernden globalen, regionalen und lokalen Umweltbedingungen, die Entwicklung gekoppelter ökologischer und sozioökonomischer Modelle, die Renaturierung von Ökosystemen und die Biodiversität aquatischer Lebensräume.

Die Arbeiten erfolgen in enger Kooperation mit den Universitäten und Forschungsinstitutionen der Region Berlin/Brandenburg und weltweit.

Weitere Informationen:
http://www.igb-berlin.de

Quelle: idw

(nach oben)


Neue Wege in der Therapie von Schlafstörungen

Henning Zuehlsdorff Pressestelle
Leuphana Universität Lüneburg

Erholsamer Schlaf läßt sich erlernen – Forscher der Leuphana Universität Lüneburg haben das erste Onlinetraining in Deutschland entwickelt, mit dem gestresste Berufstätige gezielt trainieren können, besser zu schlafen. Vom 10. bis 14. März 2014 stellen sie ihr „GET.ON Regenerations-Training“ auf der weltgrößten Computermesse CeBIT in Hannover auf dem Gemeinschaftsstand des Landes Niedersachsen (C28 in Halle 9) vor.

Menschen mit Schlafproblemen können mit der neuen Methode in sechs Wochen via Internet wirksame Techniken zur Erholung insbesondere von beruflicher Belastung erlernen. Erste Tests belegen den Erfolg des Angebotes: 80 Prozent der Testpersonen gaben an, ihre Schlafprobleme hätten sich deutlich verbessert, fast 40 Prozent waren sogar komplett symptomfrei.

„Regeneration funktioniert über die drei Bausteine gedankliches Abschalten, erholsamer Schlaf und aktives Erholen“, erklärt Dr. Dirk Lehr von der Leuphana-Forschergruppe „GET.ON GesundheitsTraining.Online“. Der erholsame Schlaf habe in diesem Zusammenhang die größte Bedeutung.

Im GET.ON Regenerations-Training absolvieren die Teilnehmer jede Woche eine etwa einstündige Übungseinheit mit Videos, Texten und Aufgaben. Eingeübt werden dabei nachweislich wirksame Schlafregeln wie „Schlafen Sie nicht tagsüber!“ oder „Benutzen Sie das Bett ausschließlich zum Schlafen!“. Außerdem trainieren die Teilnehmer Techniken, die eine gedankliche Distanzierung von beruflichen Problemen fördern, etwa mit Hilfe eines „Dankbarkeits-Tagebuchs“. Es dient dazu, jeden Abend fünf positive Begebenheiten zu notieren. „In unserem Training legen wir großen Wert darauf zu vermitteln, wie es gelingt, dass nach der Arbeit auch die Gedanken Feierabend machen. Denn erholsamer Schlaf kann sich nur einstellen, wenn der Kopf zur Ruhe kommt“, betont die Erholungsforscherin Hanne Thiart. Sie gehört ebenfalls zum Team von Dirk Lehr.

Ab April 2014 wird das Training mit Unterstützung der Unfallkasse NRW im Rahmen einer großen Studie kostenlos unter www.geton-training.de im Netz angeboten. „Das GET.ON Regenerationstraining schließt eine Lücke“, sagt Dr. Heinz Hundeloh, Bereichsleiter Bildungseinrichtungen der Unfallkasse. „Denn bislang bestand in Deutschland eine Unterversorgung an wirksamen Angeboten für Menschen mit stressbedingten Schlafstörungen.“ Dabei ist jeder zehnte Deutsche betroffen. Kennzeichen der als Krankheit eingestuften Insomnie sind Einschlafprobleme, nächtliche Ruhelosigkeit, Früherwachen und beeinträchtigte Leistungsfähigkeit. „Internet-Gesundheitstrainings sind wegweisend, weil sie zeit- und ortsunabhängig verfügbar sind, eine niedrige Einstiegsschwelle haben und von vielen Menschen gleichzeitig genutzt werden können“, sagt Hundeloh.

Das neue Training ist eines von neun psychologischen Online-Therapieprogrammen, die die Psychologen und Gesundheitswissenschaftler der Forschergruppe „GET.ON GesundheitsTraining.Online“ im Innovations-Inkubator der Leuphana Universität Lüneburg derzeit entwickeln und erproben. Die Arbeit der Lüneburger Forscher stößt auf großes Interesse: Bis Februar dieses Jahres hatten sich bereits mehr als 11.000 Menschen zur Teilnahme an einer der Studien angemeldet. Besserer Schlaf wird neben Stressbewältigung am stärksten nachgefragt.

Kontakt
Leuphana Universität Lüneburg
Dr. Dirk Lehr
Psychologischer Psychotherapeut und operativer Projektleiter
GET.ON GesundheitsTraining.Online
Fon 04131-677-7635
Email dirk.lehr@inkubator.leuphana.de

Weitere Informationen:
http://www.geton-training.de

Quelle: idw

(nach oben)


Bioabfälle zu Biomethan: Konzepte für fünf europäische Städte

Uwe Krengel Pressestelle
Fraunhofer Institut für Windenergie und Energiesystemtechnik IWES

Das Abfallmanagement stellt viele europäische Regionen noch immer vor Probleme. Dabei kann organischer Müll durchaus nachhaltig weiter verarbeitet werden. Das Projekt „UrbanBiogas“, dessen Ergebnisse das Kasseler Fraunhofer-Institut für Windenergie und Energiesystemtechnik (IWES) heute auf dem „Europäischen Biomethanworkshop“ in Brüssel vorstellt, zeigt, wie Kommunen und Städte ihre Bioabfälle zu Biomethan aufbereiten und damit einer nachhaltigen Nutzung zuführen.

„Wir sehen in der Biogasproduktion aus Abfällen eine zukunftsweisende Technologie, um Müllentsorgungsprobleme vor allem in Städten zu lösen und die Erreichung der europäischen Zielvorgaben zur Abfallreduktion und Nutzung erneuerbarer Energien zu unterstützen“, betont Uwe Hoffstede, am IWES Leiter der Biogasanlagentechnik. Deswegen unterstütze das im Rahmen des EU-Programms „Intelligent Energy for Europe“ geförderte Projekt „UrbanBiogas“ den Ansatz „Abfall zu Biomethan“ (Waste to Biomethan – WtB). Ziel sei es, für die am Projekt beteiligten Städte Abrantes (Portugal), Gydnia (Polen), Graz (Österreich), Zagreb (Kroatien) und Valmiera (Lettland) ein jeweils individuelles und tragfähiges WtB-Konzept zu entwickeln und auf den Weg zu bringen.

Technik zur Biogasaufbereitung zuverlässig
„Die Technik zur Biogasaufbereitung steht zur Verfügung und arbeitet zuverlässig“, erklärt der IWES-Experte für Gasaufbereitung und Gaseinspeisung, Michael Beil. Im Rahmen von „UrbanBiogas“ haben die IWES-Wissenschaftler die für die Energieversorgung und Müllentsorgung Verantwortlichen in den fünf Partnerstädten gezielt geschult. Zum Trainingsprogramm gehörten nicht nur technologische Verfahren und Betriebskonzepte der Produktion und Aufbereitung von Biogas, sondern auch Finanzierungswege und die Mechanismen der Wertschöpfungskette. „Gemeinsam mit den Arbeitsgruppen unserer Projektpartner ist es uns gelungen, Konzepte zu entwickeln, die die Reststoffpotenziale in der jeweiligen Region ausschöpfen und die sowohl technisch als auch wirtschaftlich umsetzbar sind“, zieht Beil nach dreijähriger Projektarbeit eine positive Bilanz.

Partnerstädte in Portugal, Polen, Österreich, Kroatien und Lettland
Alle fünf Partnerstädte wollen diese Konzepte nun in die Praxis umsetzen und damit einen wertvollen Beitrag zum Klimaschutz und zur Erreichung der von der Europäischen Union vorgegebenen Ausbauziele für die erneuerbaren Energien leisten. So will unter anderem die lettische Stadt Valmiera noch in diesem Jahr mit der Bauplanung für eine Biogasanlage beginnen und für dieses Projekt rund 1,5 Millionen Euro in die Hand nehmen. Ziel ist es, die rund 7000 Tonnen, die hier jährlich an organischen Reststoffen anfallen, und die rund 3000 Tonnen Grünschnitt pro Jahr energetisch für die direkte Verstromung zu nutzen statt diese Bioabfälle wie bislang zu kompostieren. Experten gehen davon aus, dass mit dieser Menge ca. 3000 MWh Strom erzeugt werden können. Dies würde den Jahresbedarf von rund 800 privaten Haushalten decken.

Europäischer Biomethanworkshop informiert über Ergebnisse
Im Rahmen des „Europäischen Biomethanworkshops“ informierten die IWES-Wissenschaftler in Brüssel ihre europäischen Kollegen über die Erkenntnisse aus dem Projekt „UrbanBiogas“. Im Fokus stand hierbei die Entwicklung des Biomethanmarktes in Europa, seine Wertschöpfungskette und die effiziente Biomethannutzung in den beteiligten Partnerländern. „Nach unserer Einschätzung stehen die Hersteller von Biogasanlagen in den Startlöchern, um ihre Anlagen nach dem Einbruch des deutschen Marktes europaweit zu vermarkten“, sagt Beil. Weitere Schwerpunkte der Veranstaltung waren die Biomethanprojekte „GreenGrasGrids“ und „Biomaster“.

Projektseite „UrbanBiogas“ http://s.fhg.de/HmL
Veranstaltungsseite: http://european-biogas.eu/events/biomethane-workshop/

Fachansprechpartner:
Dipl.-Ing. Uwe Hoffstede
Gruppenleiter Biogasanlagentechnologie
Telefon +49 561 7294-438
uwe.hoffstede@iwes.fraunhofer.de

Dipl.-Ing. Michael Beil
Gruppenleiter Gasaufbereitung, -einspeisung und -netze
Telefon +49 561 7294-421
michael.beil@iwes.fraunhofer.de

Weitere Informationen:
http://www.iwes.fraunhofer.de

Quelle: idw

(nach oben)


Arbeitskosten: Normalisierung nach lange unterdurchschnittlicher Entwicklung

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Die Arbeitskosten in der deutschen Privatwirtschaft sind nach neuen Daten des Statistischen Bundesamtes im Jahr 2013 um 2,4 Prozent gestiegen. Im dritten Quartal 2013, für das Vergleichsdaten vorliegen, war der Anstieg stärker als in anderen EU-Staaten. Doch dem steht eine langjährige gegenläufige Entwicklung gegenüber. Das zeigt der europäische Arbeitskostenreport des Instituts für Makroökonomie und Konjunkturforschung (IMK) in der Hans-Böckler-Stiftung*: Von 2000 bis zum Ausbruch der Finanz- und Wirtschaftskrise 2008 wuchsen die Arbeitskosten in Deutschland im Jahresdurchschnitt um lediglich 1,8 Prozent, während es im Mittel der Währungsunion 3 und im Durchschnitt der EU 3,6 Prozent waren. Selbst im Mittel der Jahre 2008 bis 2012 lag der Anstieg in Deutschland mit 2,2 Prozent geringfügig unter der Entwicklung in Eurozone und EU (je 2,3 Prozent) – trotz zum Teil drastischer Rückgänge in den Euro-Krisenstaaten, die die Durchschnittswerte nach unten ziehen.

Im gesamten Zeitraum zwischen 2000 und 2012 nahmen die Arbeitskosten der deutschen Privatwirtschaft um durchschnittlich 1,9 Prozent pro Jahr zu. Im Euroraum waren es hingegen 2,8 Prozent und in der gesamten EU 3,2 Prozent. Der gleiche Trend einer lediglich langsamen Annäherung zeigt sich bei den Lohnstückkosten, welche die Arbeitskosten ins Verhältnis zur Produktivität setzen.

Der stärkere Anstieg der deutschen Arbeitskosten in den vergangenen Jahren sei daher lediglich eine nachholende Normalisierung, betont Prof. Dr. Gustav A. Horn, der wissenschaftliche Direktor des IMK. „Die Arbeitskostenentwicklung spiegelt wider, dass die Löhne endlich wieder etwas stärker steigen. Es wäre gesamtwirtschaftlich positiv, wenn sich diese Entwicklung noch verstärkt“, so Horn. Eine durch Lohnzuwächse gestützte stärkere Binnennachfrage trage dazu bei, das Wirtschaftswachstum in Deutschland auf eine breitere Basis zu stellen und die nach wie vor erheblichen Ungleichgewichte im Euroraum zu reduzieren. „Die internationale Wettbewerbsfähigkeit der deutschen Wirtschaft ist trotz etwas höherer Arbeitskosten nach wie vor sehr groß, wie nicht zuletzt die Rekordüberschüsse im vergangenen Jahr gezeigt haben.“

Alexander Herzog-Stein, Heike Joebges, Ulrike Stein, Rudolf Zwiener: Arbeitskostenentwicklung und internationale Wettbewerbsfähigkeit in Europa. Arbeits- und Lohnstückkosten in Europa in 2012 und im 1. Halbjahr 2013, IMK Report Nr. 88, Dezember 2013

Ansprechpartner in der Hans-Böckler-Stiftung

Prof. Dr. Gustav Horn
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Gustav-Horn@boeckler.de

Quelle: idw

(nach oben)


Wenn beim Autofahren die Kontraste verschwimmen – Nachtfahreignung durch Augentest prüfen

Anna Julia Voormann Pressestelle
Deutsche Ophthalmologische Gesellschaft

München – Zur kalten Jahreszeit behindern schlechte Sichtverhältnisse, Regen und Nebel viele Autofahrer. Eine Sehschwäche erschwert dies zusätzlich, insbesondere bei Fahrten im Dunkeln. Studien zeigen, dass schlechte Sicht das Unfallrisiko bei Nacht deutlich erhöht. Seit Juli 2011 schreibt die Fahrerlaubnisverordnung (FeV) deshalb die ärztliche Prüfung des Dämmerungs- oder Kontrastsehens und für Augenärzte auch die der Blendempfindlichkeit vor. Jeder Führerscheinbewerber, der den Sehtest nicht besteht, muss sich vom Augenarzt untersuchen lassen. Auch für Nutzfahrzeugführer wie Bus- oder Lkw-Fahrer ist dies Pflicht.

Neue Tests geben jetzt mehr Klarheit über die Nachtfahreignung, so die Deutsche Ophthalmologische Gesellschaft (DOG). Erreicht eine Testperson die Grenzwerte nicht, könnten Augenärzte den meisten Betroffenen helfen. Zunächst gelte es, etwa durch Brillen oder Medikamente, das Nachtsehen zu verbessern.

„Wer mit und ohne Blendung die stärkste Kontraststufe nicht erkennt, sollte nachts nicht fahren“, betont Professor Dr. Dr. med. Bernhard Lachenmayr, Vorsitzender der Verkehrskommission der DOG aus München. „Aber es gibt Grenzfälle: Zum Beispiel reagieren einige Menschen empfindlich auf Blendung, können aber Kontraste gut erkennen.“ Dann reiche bei Fahrern in den unteren Führerscheinklassen ein Vermerk im Gutachten, dass der Betroffene auf die Gefahr durch erhöhte Blendempfindlichkeit nachts oder bei Dämmerung hingewiesen wurde.

Anders sei es bei Berufskraftfahrern, so die DOG – vor allem jenen, die eine Erlaubnis zur Fahrgastbeförderung (EzF) haben oder Gefahrgut transportieren: „Wenn die Tests zeigen, dass diese Fahrer nicht nachtfahrgeeignet sind, birgt dies eine erhöhte Unfallgefahr“, gibt Professor Lachenmayr zu Bedenken. Dies gelte ebenfalls für Lkw-Fahrer, die häufig nachts lange Strecken unterwegs seien. Eingeschränktes Dämmerungssehen erhöhe das Risiko eines Nachtunfalls erheblich.

Zur Prüfung des Kontrastsehens erkannte die DOG bislang ausschließlich Verfahren an, die das Sehvermögen unter sogenannten mesopischen Lichtverhältnissen testen, also bei Dämmerlicht. Wissenschaftler um Professor Dr. med. Helmut Wilhelm von der Augenklinik der Universität Tübingen gingen in einer aktuellen Studie der Frage nach, ob auch photopische Tests geeignet sind. Diese erfassen Kontrastsehen unter Tageslichtbedingungen. Als Probanden dienten den Forschern Kataraktpatienten, also Menschen mit durch „grauen Star“ getrübten Augenlinsen, außerdem Berufspiloten und eine typische Personengruppe eines arbeitsmedizinischen Zentrums. Die Experten verglichen zwei in der Arbeitsmedizin erprobte photopische Verfahren mit einem mesopischen Test und einer Sehtesttafel.

„Die beiden photopischen Tests erwiesen sich für Reihenuntersuchungen als sehr gut geeignet“, erläutert Professor Wilhelm. Gehe es allerdings um die Nachtfahreignung, sei eine weitere Abklärung mit den von der DOG anerkannten Testgeräten sinnvoll, betont der Augenmediziner. Weitere Informationen biete die aktuelle Empfehlung der Verkehrskommission der DOG unter www.dog.org.

Quellen:
Wilhelm, Helmut et al: „Untersuchung des Dämmerungs- und Kontrastsehens nach Fahrerlaubnisverordnung: Welche Grenzwerte, welche Verfahren sind geeignet?“, Klinisches Monatsblatt Augenheilkunde, Online-Veröffentlichung, DOI: 10.1055/s-0033-1351030

***
DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6400 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.

Weitere Informationen:
http://www.dog.org

Quelle: idw

(nach oben)


Von Kontinent zu Kontinent: Wie kommt der Strom aus Afrika nach Europa?

Karin Schneider Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Fraunhofer ISE entwickelt Lösungen für das »Supergrid«
In Ouarzazate (Marokko) entsteht das größte Solarkraftwerk Nordafrikas. Bereits 2016 soll dort günstiger und emissionsfreier Strom für eine halbe Million Menschen produziert werden. Zukünftig könnten Projekte wie Ouarzazate auch Strom für Europa liefern. Um Strom von Kontinent zu Kontinent zu transportieren, ist ein zuverlässiger Netzverbund auch vor Ort Voraussetzung. Das Fraunhofer-Institut für Solare Energiesysteme ISE forscht gemeinsam mit weiteren Fraunhofer-Instituten an verschiedenen Aspekten eines solchen »Supergrid«:

an der Modellierung eines geeigneten Energiesystems und an technologischen Lösungen für die Speichertechnik sowie für Gleichstrom-Erzeugungs- und Verteilnetze.

Modellierung eines idealen Energiesystems
Den technischen Detaillösungen haben die Wissenschaftler des Fraunhofer ISE Modellierungen für ein geeignetes Energiesystem vorangestellt. Zunächst wurde das Zusammenspiel von Kraftwerken basierend auf erneuerbaren Energien und konventionellen Kraftwerken anhand einer Systemmodellierung für den Stromsektor in Nordafrika und Südeuropa abgebildet. Mit Hilfe eines Energiesystemmodells (RESlion), das als Optimierungsmodell implementiert wurde, erfolgte dann die Standortsuche für neue Kraftwerke unter Berücksichtigung aller existierenden Erzeugungs- und Speichersysteme sowie der Netzinfrastruktur. Demnach profitieren in Nordafrika Photovoltaik-Anlagen (PV), die verbrauchsnah installiert sind, auch wenn dafür eine niedrigere Einstrahlung in Kauf genommen wird. Solarthermische-Kraftwerke (Concentrated Solar Power/CSP) kommen vor allem dort zum Zug, wo es um große thermische Speicherkapazitäten zur Sicherung der Systemstabilität im Netzverbund geht. »Es ist wichtig, dass wir planbar Strom aus erneuerbaren Quellen erhalten. Strom aus Nordafrika kann z. B. Lücken in der europäischen Stromerzeugung durch erneuerbare Energien füllen. Strombedarf und -überschuss standortübergreifend auszugleichen, das ist einer der Leitgedanken des Supergrid«, so Dr. Werner Platzer, Bereichsleiter Solarthermie und Optik am Fraunhofer ISE und Koordinator im Projekt »Supergrid«.

Effizientere Kraftwerke durch optimierte Speicher
Im Unterschied zu anderen Kraftwerken auf Basis erneuerbarer Energien können Solarthermische Kraftwerke kostengünstig und regelbar Strom liefern. Das geschieht mittels thermischer Wärmespeicher, die Wärme in Zeiten von Überproduktion zwischenspeichern und bei Bedarf in einer Dampfturbine in Strom umwandeln. Am Fraunhofer ISE werden in Simulationen unterschiedliche Konzepte in Hinblick auf die Integration und Optimierung von thermischen Speichern untersucht und bewertet. Hierbei wird das Fraunhofer-Software-Tool »ColSim-CSP« eingesetzt. Die unterschiedlichen Kraftwerkskonzepte unterscheiden sich nicht nur optisch (Fresnel-Kollektor, Parabolrinne oder Turm), sondern auch im verwendeten Wärmeträgermedium. Für direktverdampfende Kraftwerke mit Wasser als Wärmeträger wird am Fraunhofer ISE u. a. ein innovativer Latentwärme-speicher mit einem Schneckenwärmeübertrager untersucht. Mit dieser Technologie lassen sich Speicherkapazität und Wärmeübertragerfläche entkoppeln, da das als Speicher-medium verwendete Salz beim Erstarren und Schmelzen gefördert wird. Andere Konzepte der Freiburger Forscher zielen darauf ab, Salze sowohl als Speichermedium als auch als Wärmeträgermedium einzusetzen. Der Speicher kann dann aus zwei separaten Tanks bestehen, oder – um Speichermaterial und Baumaterial einzusparen – aus einem einzelnen Tank mit Füllkörpern, in dem heiße und kalte Salzschmelze geschichtet werden. Um das Potenzial solcher Schichtspeicher bewerten zu können, wird ein Prototyp experimentell untersucht. Auch die korrosive Wechselwirkung der heißen Salze mit verschiedenen Stählen wird analysiert.

Geringere Verluste durch lokale Gleichstromnetze
Auch der Transport von Strom im Supergrid bietet Optimierungspotenzial. Regenerative Großkraftwerke oder regionale Verbünde von Kraftwerken sind häufig über große Flächen verstreut und viele leistungselektronische Wandler im gesamten Netz verteilt. In einem solchen Energiesystem ist es sinnvoll, wenn nicht jedes Kraftwerk direkt in den Netzverbund einspeist und eingesetzte Wandler möglichst effizient sind. Denn mit jeder Schnittstelle zwischen Erzeuger, Netz und Verbraucher steigen die Übertragungsverluste und die Kosten für das gesamte Netz. Deshalb ist es zielführend, den Strom mehrerer Kraftwerke zunächst in einem lokalen Gleichstrom-netz in der Mittelspannung zu bündeln und gegebenenfalls in Batterien zu speichern. Anschließend wird der Strom an zentraler Stelle in ein Hochspannungsnetz zum Weiter-transport eingespeist. Hocheffizienter Leistungselektronik kommt an solchen Schnittstellen eine wichtige Rolle zu. Das Fraunhofer ISE entwickelt daher einen Demonstrator eines kompakten, hocheffizienten Gleichstrom-Wandlers (DC/DC). Durch den Einsatz von neuartigen Siliziumcarbid-Halbleitern (SiC) ist ein leistungselektronisches System mit über 10 kV Sperrspannung und niedrigen Schaltenergien möglich, das eine direkte Anbindung an das Mittelspannungsverteilnetz ermöglicht.

Über das Projekt »Supergrid«
Das Projekt »Supergrid« der Fraunhofer-Gesellschaft wird vom Fraunhofer-Institut für Solare Energiesysteme ISE koordiniert. Ziel ist es, Schlüsseltechnologien an der Schnittstelle zwischen Erzeugung und Einspeisung ins Netz zu entwickeln und in einem ganzheitlichen systemtheoretischen Ansatz zu optimieren. Weitere Projektpartner sind die Fraunhofer-Institute für Optronik, Systemtechnik und Bildauswertung IOSB, für Werkstoffmechanik IWM, für Integrierte System und Bauelementetechnologie IISB und für System- und Innovationsforschung ISI.

Weitere Informationen:
http://www.fraunhofer.de/de/fraunhofer-forschungsthemen/energie-wohnen/energieef… – Projekt »Supergrid« der Fraunhofer-Gesellschaft
http://www.ise.fraunhofer.de – Webseite des Fraunhofer ISE

Quelle: idw

(nach oben)


Sag‘ mir wo Du wohnst und ich sag‘ Dir was Du wiegst: Wohnort beeinflusst das Gewicht von Kindern

Medizin – Kommunikation Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Kinder in benachteiligten Ortsteilen sind bis zu doppelt so häufig übergewichtig, wie Kinder in privilegierten Gegenden. Das entdeckten Forscher der Hochschule für Technik, Wirtschaft und Kultur Leipzig. Den Zusammenhang zwischen sozialen Faktoren und der physischen und psychischen Gesundheit diskutiert Professor Dr. Elmar Brähler, der an der Studie beteiligt war, gemeinsam mit weiteren Experten auf der Pressekonferenz des Deutschen Kongresses für Psychosomatische Medizin und Psychotherapie am 27. März 2014 in Berlin.

Neben Schulabschluss und Haushaltseinkommen der Eltern rückt als Ursache für Übergewicht bei Kindern ein weiterer Faktor in den Fokus: „In benachteiligten Ortsteilen zu wohnen, wirkt sich schon bei Vorschulkindern auf deren Gewicht aus“, so Brähler, der bis 2013 die Abteilung für Medizinische Psychologie und Medizinische Soziologie an der Universität Leipzig leitete. Für die Studie sammelten die Forscher Daten von fast 3000 Kindern im Rahmen der Einschulungsuntersuchung der Stadt Leipzig. Dafür teilten sie 63 Ortsteile Leipzigs in vier Kategorien ein. Maßgeblich dafür waren der Anteil der Personen mit niedrigem Schulabschluss, die Arbeitslosenquote und das Haushaltseinkommen. Das Ergebnis: Mit mehr als zwölf Prozent leben in benachteiligten Ortsteilen der Kategorie 4 rund doppelt so viele übergewichtiger Kinder wie in privilegierten Ortsteilen der Kategorie 1. „Dabei hat sich gezeigt, dass der Wohnort des Kindes neben dem elterlichen Sozialstatus zusätzlichen Einfluss auf das Übergewicht bei Kindern ausübt: Denn wohnt eine Mutter mit niedriger Bildung in einem privilegierten Ortsteil, verringert sich das Übergewichtsrisiko beim Kind“, erläutert Brähler die Forschungsergebnisse.

Vorangegangene Studien im angloamerikanischen Raum zeigen eine mögliche Erklärung: Stark benachteiligte Ortsteile unterscheiden sich von privilegierten nicht nur durch die Bildung und Arbeitssituation ihrer Anwohner, sondern auch durch bauliche Strukturen, Anbindung an die Infrastruktur, Zugang zu Grünflächen, Spielplätzen und Sonneneinstrahlung. „Um mit Präventionsmaßnahmen gezielt Übergewicht bei Kindern bekämpfen zu können, muss in weiteren Studien noch genau erforscht werden, wodurch diese großen Unterschiede verursacht werden“, so Brähler. Mit diesem Wissen könnten die Kommunen Lebensräume so gestalten, dass Kindern eine gesunde Entwicklung möglich ist.

Etwa 15 Prozent der Kinder und Jugendlichen in Deutschland sind übergewichtig, gut sechs Prozent davon gelten als adipös, leiden also unter starkem Übergewicht. Folgen können chronische Erkrankungen wie Typ-2-Diabetes, Bluthockdruck und Herzkrankheiten sein. „Aus übergewichtigen Kindern werden meist adipöse Erwachsene, deren Kinder wiederum ein erhöhtes Übergewichtsrisiko haben“, so Brähler.

Neben dem Einfluss des sozialen und geographischen Umfelds auf die Gesundheit diskutieren Experten bei der Kongress-Pressekonferenz am 27. März 2014 in Berlin auch somatoforme Symptome in der Arbeitswelt und Versorgungsstrukturen in der Psychosomatischen Medizin und Psychotherapie.

Weitere Informationen:
http://www.deutscher-psychosomatik-kongress.de

Quelle: idw

(nach oben)


Zukünftiger Umgang mit wertvoller Ressource Wasser: große Herausforderungen und viel Nachholbedarf

Anne-Catherine Jung Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Ziel des Weltwassertages am 22. März ist, auf die Bedeutung des Wassers als Lebensgrundlage aufmerksam zu machen und für den Schutz sowie die nachhaltige Nutzung der Wasservorkommen zu werben. Weltweit besteht hinsichtlich einer nachhaltigen Wasser- und Sanitärversorgung viel Nachholbedarf. Auch in Deutschland stellen die Anpassung der Wasserinfrastrukturen an den demographischen und klimatischen Wandel sowie der Umgang mit Mikroschadstoffen große Herausforderungen dar. Das Fraunhofer ISI beschäftigt sich in mehreren Studien mit der zukunftsfähigen Gestaltung der Wasserinfrastruktursysteme sowie mit der Innovationsdynamik und der Bedeutung der deutschen Unternehmen auf dem Wassermarkt.

Für die kürzlich abgeschlossene Studie „Herausforderungen einer nachhaltigen Wasserwirtschaft“ im Auftrag des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) hat ein Forschungsteam des Fraunhofer ISI die weltweite Innovationsdynamik im Bereich Wasser beschrieben, wichtige Herausforderungen und Trends für Industrie- und Entwicklungsländer herausgearbeitet sowie das Innovationssystem im Bereich der Wassertechnologien analysiert.

Dr.-Ing. Thomas Hillenbrand, Projektleiter der Studie und Leiter des Geschäftsfelds Wasserwirtschaft am Fraunhofer ISI, fasst die wichtigsten Ergebnisse der Studie zusammen: „Der steigende Wasserbedarf, die aufgrund des Klimawandels zurückgehende Wasserverfügbarkeit in vielen Regionen sowie enorme Beeinträchtigungen der Wasserqualität machen neue und bessere Wassertechnologien notwendig. Momentan ist dieser Markt eine Stütze der deutschen Außenhandelserfolge. In letzter Zeit gab es in diesem Bereich jedoch einen deutlichen Rückgang des Anteils an Patentanmeldungen und Publikationen. Deshalb befürchten wir, dass mittel- bis langfristig die internationale Wettbewerbsfähigkeit der deutschen Hersteller zurückgehen und auch der Außenhandelsanteil abnehmen wird.“

Die Studie nennt Gründe für diese Entwicklung: Die Nachfrage verschiebt sich hin zu Schwellen- und Entwicklungsländern, die vor allem nach Lösungen suchen, die an die jeweiligen Randbedingungen wie schnell wachsende Mega-Cities oder geringe Wasserverfügbarkeit angepasst sind. Gleichzeitig bauen wichtige Schwellenländer wie China, Indien und Brasilien ihre Wissenskapazitäten deutlich aus und können zunehmend diese neuen Märkte bedienen.

Deshalb sind in Deutschland verstärkte Anstrengungen zur Förderung des Innovationssystems im Bereich der Wassertechnologien notwendig, so die Studie. Unter anderem sollte die Forschungsförderung langfristig gestärkt und verstetigt werden, gleichzeitig ist eine kontinuierliche inhaltliche Anpassung der Forschungsprogramme an die Handlungserfordernisse sowie eine Abstimmung der Aktivitäten der verschiedenen Fördermittelgeber erforderlich.

Hillenbrand nennt als weiteren wichtigen Punkt die gezielte Förderung des Transfers von Forschungsergebnissen in die Praxis. „Entscheidend dafür sind eine ausreichende Vernetzung von Wissenschaft und Wirtschaft sowie eine enge Verzahnung der Umweltpolitik mit der Forschungsförderung. Beispielsweise sollten gezielte Innovationsanreize bei den bestehenden Programmen zur Investitionsförderung integriert werden.“ Nicht zuletzt sollte die internationale Wettbewerbsfähigkeit des Wassersektors dauerhaft unterstützt werden, beispielsweise im Rahmen der im Koalitionsvertrag vorgesehenen Exportinitiative Umwelttechnologien.

Wie vor dem Hintergrund neuer Herausforderungen die kommunalen Wasserversorgungs- und Abwasserentsorgungsinfrastrukturen weiter zu entwickeln sind, hat das Fraunhofer ISI bereits in der Vergangenheit mehrfach untersucht, beispielweise in den Projekten DEUS 21 und NAUWA. Im aktuellen Projekt TWIST++ ( Transitionswege WasserInfraSTruktursysteme), das vom Bundesministerium für Bildung und Forschung gefördert wird, sollen im Rahmen eines großen Projektverbunds unter Leitung des Fraunhofer ISI Lösungen gefunden werden, die sowohl Entsorgungsaufgaben für Abwasser als auch Versorgungsaufgaben für Trinkwasser berücksichtigen. Sie sollen auch in bestehenden Systemen umsetzbar sein und die Flexibilität des Gesamtsystems, sich an künftige Veränderungen anzupassen, erhöhen. Dafür werden Konzepte zur Umwandlung beziehungsweise Weiterentwicklung von Wasserversorgungs- und Abwasserentsorgungssystemen erarbeitet, die notwendigen technischen Komponenten entwickelt und die Ergebnisse anhand konkreter Planungsvarianten umgesetzt und verifiziert. Die Ergebnisse werden Fachleuten und Laien unter anderem mit einem „Serious Game“ zugänglich gemacht.

Ein weiteres aktuelles Projekt im Geschäftsfeld Wasserwirtschaft beschäftigt sich mit der „Wirksamkeit und Kosteneffizienz von produktbezogenen und nachgeschalteten Maßnahmen zur Verminderung des Eintrages von Mikroschadstoffen in die Gewässer“. Im Auftrag des Umweltbundesamts identifiziert das Fraunhofer ISI zusammen mit mehreren Projektpartnern Ansatzpunkte zur Emissionsminderung und bewertet sie unter anderem hinsichtlich politischer und technischer Umsetzbarkeit. Ziel ist, geeignete Kombinationen von Maßnahmen vorzuschlagen, die sich durch eine hohe Kosteneffizienz auszeichnen.

Viele Mikroschadstoffe – darunter Arzneimittelrückstände, Haushaltschemikalien oder Biozide – gelangen in erheblichem Umfang über das kommunale Abwassersystem in die Gewässer. Als End-of-pipe-Maßnahmen können zusätzliche Reinigungsstufen in die vorhandenen Kläranlagen integriert werden. Gleichzeitig sind jedoch entsprechend dem Verursacherprinzip Maßnahmen an der Quelle sinnvoll und erforderlich.

Das Fraunhofer ISI stellt einige seiner Forschungsergebnisse im Wasserbereich vom 5. bis zum 9. Mai 2014 auf der IFAT in München (Halle A5, Stand 219/318) vor.

Weitere Informationen:
• Herausforderungen einer nachhaltigen Wasserwirtschaft:
http://www.tab-beim-bundestag.de/de/publikationen/berichte/ab158.html
• TWIST ++: http://www.twistplusplus.de
• Wirksamkeit und Kosteneffizienz von produktbezogenen und nachgeschalteten Maßnahmen zur Verminderung des Eintrages von Mikroschadstoffen in die Gewässer:
http://www.isi.fraunhofer.de/isi-de/n/projekte/uba-mikroschadstoffe.php
• Projekte des Geschäftsfelds Wasserwirtschaft:
http://www.isi.fraunhofer.de/isi-de/n/projekte.php
• Messestand der Fraunhofer-Gesellschaft auf der IFAT:
http://www.fraunhofer.de/de/veranstaltungen-messen/messen/ifat2014.html

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der fundierten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Weitere Informationen:
http://www.isi.fraunhofer.de/isi-de/service/presseinfos/2014/pri06-2014-wasser-i…
http://www.tab-beim-bundestag.de/de/publikationen/berichte/ab158.html
http://www.twistplusplus.de
http://www.isi.fraunhofer.de/isi-de/n/projekte/uba-mikroschadstoffe.php

Quelle: idw

(nach oben)


Schiffsabgase über der Nordsee könnten bis 2030 um 25 Prozent steigen

Dr. Torsten Fischer Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Dr. Volker Matthias vom Helmholtz-Zentrum Geesthacht hat im Rahmen des EU-Projektes Clean North Sea Shipping die aktuellen Schadstoffemissionen von kommerziell genutzten Schiffen in der Nordsee erhoben. Unter der Annahme von unterschiedlichen Szenarien berechnete der Küstenforscher zudem mögliche zukünftige Emissionen. Die Modelle zeigen: Ohne weitere gesetzliche Regulierungen und technischen Veränderungen der Schiffe könnten die Stickoxidabgase der Schifffahrt bis zum Jahr 2030 um 25 Prozent steigen.

„Zunächst mussten wir die aktuelle Situation analysieren. Dafür haben wir uns jedes kommerziell genutzte Schiff, das im Jahr 2011 auf der Nordsee gefahren ist, genauer angeschaut. Wichtig waren für uns Größe, Schiffstyp, Motorenart, Kraftstoffverbrauch und natürlich die Route eines jeden Schiffes,“ erklärt Volker Matthias vom Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht.

Die erhobenen Daten wurden anschließend in die vom Helmholtz-Zentrum Geesthacht betriebenen Chemie-Transportmodelle eingespeist. Die Berechnungen ergaben, dass zurzeit 20 bis 30 Prozent der Schwefel- und Stickoxidkonzentrationen in der Nordseeluft auf die Schifffahrt zurückzuführen sind. Denn obwohl der Seeverkehr in Bezug auf Kohlendioxid-Emissionen einer der umweltfreundlichsten Verkehrsträger ist, betreibt der Großteil der Schiffe seine Motoren mit schwefelreichem Schweröl.

„Das Thema Luftverschmutzung durch Schiffe betrifft nicht nur die direkte Küstenregion“, erläutert Dr. Volker Matthias. Die Schiffsabgase werden durch die Winde verdriftet und reagieren mit Gasen aus Landwirtschaft, Industrie und Verkehr. Es kommt zur sogenannten Partikelbildung. Diese Partikel können über hunderte Kilometer durch die Atmosphäre transportiert und noch 500 Kilometer landeinwärts nachgewiesen werden.

Nach der Bestandsaufnahme folgte Schritt zwei: „Wir wollten herausfinden, wie sich konkrete gesetzliche Maßnahmen auf die Schadstoffkonzentration in der Atmosphäre auswirken könnten. Dafür haben wir vier verschiedene Szenarien entwickelt“, erläutert Volker Matthias.

Szenario Eins zeigt: Die Konzentration von Stickoxiden in der Atmosphäre würde im deutschen Nordseeraum bis 2030 um etwa 25 Prozent ansteigen, wenn die gesetzlichen Schiffsabgas-Richtlinien nicht weiter verschärft würden. „Selbst die Einführung der bereits beschlossenen Regulierung des Schwefelgehaltes im Treibstoff ab dem 1.1.2015 könnte die Verschlechterung der Luftqualität in den Küstengebieten nicht stoppen“, erklärt Dr. Volker Matthias. „Die Schiffe stoßen nach wie vor hohe Mengen Stickoxide aus und wir müssen damit rechnen, dass die von Schiffen transportierte Fracht auf der Nordsee jedes Jahr um zwei bis drei Prozent ansteigen wird.“

Auch Szenario Zwei und Drei machen deutlich: Schon um den Status Quo zu erhalten, müssten strenge Richtlinien durchgesetzt werden. Die Einführung der sogenannten „Tier III“ Abgas -Regulierungen ab dem 1.1. 2016 wäre ein erster Schritt. Sie regulieren den Stickoxidausstoß bei neu gebauten Schiffen. Um die Vorgabe zu erfüllen, müssten neue Schiffe entweder mit dem emissionsarmen Treibstoff Flüssiggas betrieben werden oder aber beim Einsatz von konventionellem Schweröl Filteranlagen und Katalysatoren einsetzen. Jedoch gelten die „Tier III“ Richtlinien nur für sogenannte Emission Control Areas. Bisher ist die Nordsee allerdings nur zum Emissionskontrollgebiet für Schwefel erklärt worden – nicht für Stickoxide. Dies müsste Deutschland gemeinsam mit den anderen Anrainer Staaten erst beschließen.

Im vierten Szenario spricht Dr. Volker Matthias von einer Verbesserung der Luftqualität. Dies sei allerdings nur zu erreichen, wenn bis zum Jahr 2030 alle existierenden Schiffe umgerüstet würden und nicht nur die Neukonstruktionen – die „Tier III“ Richtlinien erfüllen müssten.

Weitere Informationen:
http://www.hzg.de/public_relations/press_releases/051754/index_0051754.html.de

Quelle: idw

(nach oben)


Netzwerk „Wasser&Technik“ sucht Verstärkung

Christian Colmer Pressestelle
ttz Bremerhaven

Das ttz Bremerhaven baut ein Innovations-Netzwerk für Wasser- und Abwassertechnik auf. Interessierte Unternehmen und Kommunen können dem Netzwerk ab sofort beitreten.

Bremerhaven, März 2014. Thales von Milet lehrte, der Ursprung aller Dinge sei das Wasser. Darüber kann man streiten. Unbestreitbar hingegen ist, dass das nasse Element Ausgangspunkt für das Netzwerk Wasser&Technik ist. Denn die technische Beherrschung von Wasser wirft Fragen auf, die nur im Verbund gelöst werden können. Das unabhängige Forschungsinstitut ttz Bremerhaven bildet deshalb ein Konsortium aus Unternehmen und Kommunen, das bereits im April 2014 die Arbeit aufnehmen soll. Für weitere Teilnehmer ist das Netzwerk offen.

Das Wasser&Technik-Netzwerk wird sich inhaltlich mit verschiedenen Themen der Wasseraufbereitung in unterschiedlichen Branchen auseinandersetzen. In thematischen Arbeitsgruppen sollen aktuelle Fragestellungen diskutiert und konkrete Lösungen für maritime Akteure, die Aquakulturbranche, Städte und Kommunen, die Lebensmittelindustrie und Energiewirtschaft sowie für landwirtschaftliche Endnutzer erarbeitet werden. Die Gründungsmitglieder kommen aus dem gesamten Bundesgebiet, die Netzwerkleitung wird das ttz Bremerhaven übernehmen.

Das Netzwerk ist grundsätzlich für Unternehmen jeder Größe offen und lebt von der Heterogenität seiner Mitglieder. Durch den Zusammenschluss verschiedener Kompetenzbereiche und Unternehmensphilosophien unter einer Dachorganisation können Schnittstellen zwischen den beteiligten Unternehmen und ihren Arbeitsbereichen optimal genutzt werden. Vor allem für kleine und mittelständische Unternehmen (KMU) stellt Ressourcenmangel in Bezug auf Kapital, Personal und Infrastruktur eine große Hürde hinsichtlich der Durchführung eigener Forschungs- und Entwicklungs-Leistungen dar. KMU sollen deshalb durch die Einbindung in ein Kompetenz-Netzwerk gezielt unterstützt werden.

Im Februar fand bereits ein erstes Treffen mit einem Großteil der zukünftigen Mitgliedsunternehmen statt; ein weiteres Treffen ist für Ende Mai geplant. Mit Wasser&Technik stellt das ttz Bremerhaven seine aktuellen Netzwerk-Aktivitäten im Rahmen einer Langfrist-Strategie auf eine deutlich breitere Basis. Das Fundament bilden dabei vor allem die in den vergangenen Jahren in den Netzwerken MS INNOVATION (http://www.ms-innovation.net) und AQUZENTE (http://www.aquzente.net) gewonnenen Erfahrungen.

Zur Co-Finanzierung der Aktivitäten werden derzeit Fördermittel des Bundesministeriums für Wirtschaft und Technologie (BMWi) im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) beantragt.

Das ttz Bremerhaven ist ein unabhängiges Forschungsinstitut und betreibt anwendungsbezogene Forschung und Entwicklung. Unter dem Dach des ttz Bremerhaven arbeitet ein internationales Experten-Team in den Bereichen Lebensmittel, Umwelt und Gesundheit. Seit mehr als 25 Jahren begleitet es Unternehmen jeder Größenordnung bei der Planung und Durchführung von Innovationsvorhaben und der Akquisition entsprechender Fördermittel auf nationaler und europäischer Ebene. http://www.ttz-bremerhaven.de

Fachliche und organisatorische Fragen zum Netzwerk Wasser&Technik beantwortet gerne:
Dipl.-Wi.-Ing. Birte Ostwald
Teamleiterin Wasser-, Energie- und Landschaftsmanagement
ttz Bremerhaven
Wasser-, Energie- und Landschaftsmanagement
An der Karlstadt 6
D-27568 Bremerhaven (Germany)
Phone: +49 (0)471 80934 103
Mobil: +49 (0)175 1866 260
FAX: +49 (0)471 80934 199
bostwald@ttz-bremerhaven.de

http://www.ttz-bremerhaven.de
http://www.facebook.com/ttzBremerhaven

http://www.twitter.com/ttzBremerhaven

http://www.xing.com/companies/ttzbremerhaven

Weitere Informationen:
http://www.ttz-bremerhaven.de
http://www.ms-innovation.net
http://www.aquzente.net

Quelle: idw

(nach oben)


Rohrleitungen umweltschonender verlegen

Rüdiger Mack Marketingkommunikation
FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur GmbH

Neues Verfahren benötigt weniger Platz und spart Kosten

Die oberflächennahe Verlegung von Rohrleitungen bedeutet meist einen massiven Eingriff in die Umwelt. Sie kann bis zu 50 Meter breite Trassen verursachen. Das BINE-Projektinfo „Expressbau für Pipelines“ (04/2014) stellt ein Verfahren vor, das weniger als ein Fünftel der üblichen Breite benötigt. Die Stahl- oder Betonrohre können für Wärmenetze genutzt werden und weiter entfernt liegende Kunden schneller und umweltschonender anbinden.

Bisher entstehen für den Bau von Gräben, Bodenzwischenlagerungen, Materialtransport und Materiallager Korridore auf einer Breite von bis zu 50 Metern über die gesamte Trassenlänge. Die Folgen für die Umwelt sind trotz Rekultivierungen auch nach Jahren noch sichtbar. Mit dem Pipe-Express-Verfahren ist es nicht mehr erforderlich, Gräben aufwendig auszuheben. Da der Aufwand für Maßnahmen zur Renaturierung sich reduziert, können Kosten gespart werden.

Beim „Pipe Express“ bohrt sich eine Tunnelbohrmaschine durch den Boden. Eine Abbaueinheit löst diesen und fördert ihn direkt an die Oberfläche. Für den nötigen Vorschub sorgt ein verankertes Presselement (Pipe Thruster). Es schiebt die Rohrleitung simultan in das horizontal erzeugte Bohrloch. Ein Fahrer im Operatorfahrzeug überwacht und steuert die Anlage entlang der Trasse. Über die so verlegten Pipelines können Fern- und Nahwärme, Kommunikations- und Datenleitungen, Stromkabel, Öl, Gas sowie Wasser übertragen oder transportiert werden. Für die Einbindung von Geothermiekraftwerken in die Wärmeversorgung von Siedlungen kann das Pipe-Express-Verfahren zukünftig eine größere Rolle spielen.

Das Pipe-Express-Verfahren wurde von der Herrenknecht AG entwickelt und aus Mitteln des Bundesumweltministeriums gefördert.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Energie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch als Social Media mehr News und Infos rund um die Uhr

Quelle: idw

(nach oben)


Verordnung von Blutzuckermessgeräten: Deutsche Diabetes Gesellschaft kritisiert „Hausarzt-Modell“

Julia Voormann Pressestelle
Deutsche Diabetes Gesellschaft

Berlin – Die Deutsche Diabetes Gesellschaft (DDG) kritisiert Hausarzt-Verträge, die eine überwiegende Verordnung preisgünstiger Blutzuckermessgeräte vorschreiben. Damit würden Patienten mit Diabetes Typ 1 oder Schwangerschaftsdiabetes gefährdet, die auf exakte Messungen des Blutzuckerspiegels angewiesen sind, um keine potentiell lebensbedrohlichen Unterzuckerungen zu erleiden. Preisgünstige Blutzuckermessgeräte sind in Kombination mit den dazugehörigen Teststreifen häufiger unzuverlässig in der Messgenauigkeit.

Betroffene sollten sich im Zweifel an Ärzte wenden, die an solchen Versorgungsmodellen nicht teilnehmen, rät die DDG. Die Fachgesellschaft schlägt zugleich die Bildung eines Runden Tisches vor, um die Verordnungspraxis künftig bundesweit einheitlich an sachgerechten Kriterien auszurichten. In den vergangenen Jahren haben etliche Krankenkassen und kassenärztliche Vereinigungen eine Unterscheidung von A- und B-Mess-Systemen bei der Blutzuckermessung eingeführt. Dabei sind B-Systeme preislich günstiger als A-Systeme. Nun werden Hausärzten neben diesen Informationen, die das wirtschaftliche Bewusstsein stärken sollen, aber offenbar auch Verordnungsquoten vorgegeben. So verpflichtet etwa die Kassenärztliche Vereinigung Bremen alle Ärzte, die am Versorgungsmodell „Ihr Hausarzt“ teilnehmen, Geräte der „B-Klasse“ in einem Umfang von 70 bis 90 Prozent zu verordnen.

„Eine solche Vorgabe ist inakzeptabel“, kritisiert Privatdozent Dr. Erhard Siegel, Präsident der DDG. „Sie hebelt die ärztliche Unabhängigkeit aus.“ Hausärzte, die sich diesen Vorgaben beugen, liefen Gefahr, potentiell die Gesundheit von insulinpflichtigen Diabetespatienten sowie von schwangeren Frauen mit Diabetes zu gefährden. Grund: Untersuchungen zur Messgenauigkeit von Blutzuckermessgeräten zeigen, dass zwischen 20 und 40 Prozent der Geräte die Anforderungen bei entsprechenden Evaluierungen nach den Vorgaben der Norm nicht erfüllen – wobei die Versagerquote bei B-Systemen deutlich höher liegt als bei A-Systemen.

„Die Blutzuckermessgeräte der B-Systeme erfüllen vielfach nicht die geforderten Qualitätsstandards bei der Messgenauigkeit“, erklärt auch Professor Dr. Lutz Heinemann, Vorsitzender der Arbeitsgemeinschaft Diabetologische Technologie (AGDT) der DDG. Mit der Folge, dass Diabetespatienten, die ihre Insulindosis täglich mehrfach dem aktuellen Blutzuckerwert anpassen, bei Fehlmessungen in lebensbedrohliche Situationen aufgrund von Unterzuckerungen geraten können. „Das betrifft insbesondere Typ-1-Diabetiker, die täglich zu Mahlzeiten Insulin spritzen“, so Heinemann. Gefährdet sind aber auch schwangere Frauen mit Diabetes, die auf exakte Messungen angewiesen sind, um das Wohl ihres Kindes nicht zu gefährden. Heinemann verweist in diesem Zusammenhang auf eine aktuelle Publikation der AGDT zum Thema in einem deutschsprachigen Diabetesjournal.

„Wir empfehlen solchen Patienten daher, sich nach den Verordnungsvorgaben für ihren Hausarzt bei ihrer Krankenkasse oder der zuständigen Kassenärztlichen Vereinigung zu erkundigen“, rät Siegel. Im Zweifel sollten die Betroffenen darauf bestehen, an einen Arzt überwiesen zu werden, der an solchen Versorgungsmodellen nicht teilnimmt. Dazu gehören beispielsweise diabetologische Praxen oder Ambulanzen in Diabeteskliniken. Dort könnten qualitativ hochwertige Blutzuckermesssysteme verordnet werden.

Darüber hinaus besteht aus Sicht der DDG dringender Handlungsbedarf, die Vorgehensweise bei der Verordnung von Blutzuckermessgeräten zu vereinheitlichen. „Bisher existiert in Deutschland ein Flickenteppich, was die Praxis der einzelnen Bereiche der Kassenärztlichen Vereinigungen betrifft“, so Siegel. Mit der Konsequenz, dass sich ein Tourismus von Patienten gebildet hat, die zwischen den Bereichen der Kassenärztlichen Vereinigungen wechseln, um in den Genuss besserer Regelungen zu kommen. „Wir schlagen die Bildung eines Runden Tisches vor, an dem neben Kostenträgern, Gesetzgeber, Handel und Apotheken auch wir als Fachgesellschaft unsere Expertise einbringen“, erklärt der DDG-Präsident. So könne die Verordnung zugleich einheitlich und an sachgerechten Kriterien ausgerichtet werden.

Anlässlich ihres 50-jährigen Jubiläums 2014 ruft die DDG drei Medienpreise aus, die mit insgesamt 6.000 Euro dotiert sind. Eingereicht werden können Presseveröffentlichungen (Print und Online) sowie Beiträge aus Hörfunk und Fernsehen, die zwischen dem 1. Januar 2013 und dem 31. Juli 2014 publiziert wurden. Prämiert werden Arbeiten, denen es gelingt, eine breite Öffentlichkeit über das Krankheitsbild Diabetes mellitus aufzuklären und ein Bewusstsein für diese Krankheit zu schaffen. Einsendeschluss ist der 31. Juli 2014. Weitere Informationen unter: http://www.deutsche-diabetes-gesellschaft.de/fileadmin/Redakteur/Dokumente_Start… oder bei der DDG Pressestelle.

Deutsche Diabetes Gesellschaft
Geschäftsstelle
Reinhardtstr. 31
10117 Berlin
Tel.: 030 3116937-11
Fax: 030 3116937-20
info@ddg.de

Weitere Informationen:
http://www.deutsche-diabetes-gesellschaft.de

Quelle: idw

(nach oben)


EFI-Gutachten: EEG fördert weder Klimaschutz noch Innovationen

Dr. Helge Dauchert Geschäftsstelle
Expertenkommission Forschung und Innovation

Die Expertenkommission Forschung und Innovation (EFI) sieht keine Rechtfertigung für die Fortführung des Erneuerbare-Energien-Gesetzes (EEG). Das EEG mache den Strom teurer, trage aber weder zu mehr Klimaschutz bei noch habe es zu Innovationen geführt, so das Fazit der Experten in ihrem aktuellen Jahresgutachten.

Das EEG habe als zentrales Instrument der deutschen Klima- und Energiepolitik versagt, schreiben die Regierungsberater.

Zwar konnte der Anteil der erneuerbaren Energien an der Bruttostromerzeugung seit der Einführung des Gesetzes im Jahr 2000 von 7 auf 23 Prozent erhöht werden, das aber zu enormen Kosten. Die EEG-Vergütungszahlungen an die Anlagenbetreiber stiegen nämlich von 883 Millionen Euro im Jahr 2000 auf 23 Milliarden Euro im Jahr 2013. Mittlerweile macht der EEG-Umlagebeitrag rund ein Fünftel des durchschnittlichen Strompreises für die Verbraucher aus.

Diese Kostenexplosion ist aus Sicht der Kommission vor allem deshalb kritisch, weil „das Argument Klimaschutz, welches häufig als Rechtfertigung für das EEG angeführt wird, nicht trägt“. Da die CO2-Emissionen für energieintensive Branchen durch das Emissionshandelssystem der EU gedeckelt sind, reduziert der verstärkte Ausbau der erneuerbaren Energien in der deutschen Stromversorgung europaweit keine CO2-Emissionen. Diese verlagern sich lediglich in andere Sektoren und ins europäische Ausland. Das EEG sorgt nicht für mehr Klimaschutz, zudem erhöht es die Kosten, kritisieren die Experten.

Hinzu kommt, dass es durch das EEG keinen messbaren Innovationsschub gibt. Die festen Einspeisevergütungen des EEG bieten keinen Anreiz zur Entwicklung neuartiger Technologien. Da sich die Vergütung nach den Durchschnittskosten richtet, verdient ein Innovator an einer neuartigen Technologie nicht mehr als an einer schon bestehenden, jedoch ist die Investition in die neuartige Technologie mit mehr Risiko verbunden. Die technologische Wettbewerbsfähigkeit der deutschen Anbieter hat sich daher nach Einführung des EEG nicht verbessert.

Die Expertenkommission kommt zu dem Schluss: Das EEG ist weder ein kosteneffizientes Instrument für Klimaschutz noch scheint es eine messbare Innovationswirkung zu entfalten. Mit diesen beiden Gründen lässt sich daher eine Fortführung des EEG nicht rechtfertigen. Im Vorjahresgutachten hatte die Kommission bei den erneuerbaren Energien bereits ein massives Missverhältnis zwischen Nachfrageförderung und FuE-Förderung konstatiert und sich dafür ausgesprochen, dieses Verhältnis zugunsten der FuE-Förderung zu korrigieren.

Weitere Informationen:
http://www.e-fi.de

Quelle: idw

(nach oben)


Sonnenbrände schaden doppelt

Johannes Seiler Dezernat 8 – Hochschulkommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Der Schwarze Hautkrebs ist besonders gefährlich, weil er Absiedlungen in lebenswichtigen Organen wie Lunge, Leber oder Gehirn bilden kann. UV-Strahlung gilt als wichtigster Auslösefaktor. Ein interdisziplinäres Team aus Forschern des Universitätsklinikums und des LIMES-Instituts der Universität Bonn hat nun herausgefunden, dass Sonnenbrände nicht nur direkt durch Erbgutveränderungen von Pigmentzellen, sondern auch indirekt durch entzündliche Prozesse im umgebenden Gewebe zur Entstehung dieser bösartigen Erkrankung beitragen. Die Ergebnisse sind nun im renommierten Fachjournal „Nature“ online erschienen. ACHTUNG SPERRFRIST: Nicht vor Mittwoch, 26. Februar, 19 Uhr veröffentlichen!

Nach Vorhersagen des Robert-Koch-Instituts erkranken 2014 etwa 20.000 Menschen in Deutschland an einem schwarzen Hautkrebs, auch malignes Melanom genannt. Mehr als 2.500 Betroffene werden an Tochtergeschwülsten in inneren Organen – den sogenannten Metastasen – sterben. „Die Entzündungsreaktion der Haut nach starker Sonnenexposition begünstigt die frühe Auswanderung entarteter Pigmentzellen entlang von Gefäßen in das Körperinnere“, sagt Prof. Dr. Thomas Tüting, Professor für Experimentelle Dermatologie am Universitätsklinikum Bonn und Leiter der Studie.

Melanomzellen wandern entlang von Blutgefäßen

Um die Entstehung und frühzeitige Absiedelung von entarteten Pigmentzellen zu verstehen, haben die Forscher experimentelle Modelle in der Maus entwickelt, mit denen sich auch die Wirkung von UV-Strahlen untersuchen lässt. „Immer wieder haben wir in UV-bestrahlten Mäusen vermehrt Melanommetastasen in der Lunge beobachtet“, berichtet die Dermatologin Dr. Evelyn Gaffal. In Gewebsschnitten fiel auf, dass sich Melanomzellen in entzündeter Haut häufig auf der Oberfläche von Blutgefäßen ausbreiten. Mit Hilfe modernster Methoden der Fluoreszenz- und Elektronenmikroskopie fanden die Forscher eine enge Beziehung zwischen Melanomzellen, Zellen der inneren Blutgefäßwände und Immunzellen, vor allem den neutrophilen Granulozyten.

Aktivierte neutrophile Granulozyten bahnen Melanomzellen den Weg

Weitere Experimente ergaben, dass neutrophile Granulozyten eine wichtige Rolle bei der Metastasierung spielen. Sie werden durch Alarmsignale angelockt, die UV-geschädigte Zellen in der Oberhaut aussenden. Mit Hilfe von speziellen Mausstämmen, denen wichtige Moleküle für die Aktivierung der angeborenen Immunabwehr fehlen, konnten die beteiligten Signalwege aufgeklärt werden.

Entzündliche Botenstoffe fördern die Beweglichkeit von Melanomzellen

Im LIMES-Institut der Universität Bonn entwickelten die Forscher neue experimentelle Methoden, um die Interaktion zwischen Melanomzellen und den Zellen der inneren Blutgefäßwände – den sogenannten Endothelzellen – zu untersuchen. Dabei beobachteten sie, dass sich Melanomzellen auf Blutgefäßoberflächen besonders effektiv fortbewegen können. „Die Beweglichkeit von Melanomzellen nimmt in einer entzündlichen Umgebung zu“, sagt Prof. Dr. Waldemar Kolanus.

Weitere Untersuchungen mit menschlichen Melanomzellen und modernen genomischen Methoden klärten auf, wie entzündliche Botenstoffe die Melanomzellen zur Wanderung anregen. „Die Vorläufer von Pigmentzellen legen während der embryonalen Entwicklung weite Strecken entlang von Blutgefäßen im Körper zurück, um an ihren richtigen Platz in der Haut zu kommen. Genau diese abgeschalteten Programme werden durch eine Entzündung fälschlicherweise wieder aktiviert“, sagt Prof. Dr. Michael Hölzel vom Institut für Klinische Chemie und Klinische Pharmakologie des Universitätsklinikums Bonn.

Wichtige Erkenntnisse für neue Behandlungsstrategien

„Jetzt wissen wir vielleicht auch, warum Patienten mit oberflächlich geschwürig veränderten und von neutrophilen Granulozyten durchsetzten Melanomen besonders häufig Organmetastasen entwickeln“, sagt Prof. Tüting. Die Forscher hoffen, in Zukunft neue Therapieformen zu entwickeln, die gezielt in Signalkaskaden der Entzündung eingreifen und die Wanderung von Melanomzellen auf Blutgefäßoberflächen hemmen. Die in Bonn etablierten Forschungsverbünde wie der Sonderforschungsbereich 704 und das Exzellenzcluster ImmunoSensation bieten exzellente Voraussetzungen für solche ambitionierten Vorhaben.

Publikation:
Ultraviolet radiation-induced inflammation promotes angiotropism and metastasis in melanoma, Nature, DOI: 10.1038/nature13111

Quelle: idw

(nach oben)


Nährstoffe aus Gülle umweltgerecht verwertet

Monika Landgraf Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Wissenschaftler des Karlsruher Instituts für Technologie (KIT) haben ein Verfahren zur Aufbereitung von Schweinegülle entwickelt, mit dem sich die enthaltenen Nährstoffe separieren und in eine transportfähige und dosierbare Form überführen lassen. Auf diesem Verfahren basiert eine mit Partnern aus Forschung und Industrie errichtete Demonstrationsanlage. Zur Einweihung der Anlage am Donnerstag, 6. März 2014, um 14 Uhr beim Bildungs- und Wissenszentrum Boxberg sind Vertreterinnen und Vertreter der Medien herzlich eingeladen. (Anmeldung bitte mit anhängendem Formular oder per E-Mail)

Grußworte zur Einweihung sprechen der baden-württembergische Umweltminister Franz Untersteller sowie KIT-Vizepräsident Professor Alexander Wanner. Danach hält der Leiter des Kompetenzzentrums für Materialfeuchte (CMM) des KIT, Dr. Rainer Schuhmann, einen Fachvortrag über: „Nährstoffrückgewinnung aus Gülle auf Basis des P-RoC-Verfahrens“. Eine Besichtigung der Demonstrationsanlage schließt sich an.

Die Anlage arbeitet auf der Grundlage des am CMM des KIT entwickelten Verfahrens P-RoC, kurz für „Phosphorus Recovery from waste and processwater by Crystallization“. Phosphor stellt einen essenziellen Nährstoff für alle biologischen Organismen dar; die weltweiten Vorkommen sind begrenzt. Auch andere in Gülle enthaltene Nährstoffe, wie Kalium und Magnesium, besitzen grundsätzlich eine hohe Wertigkeit und können in der Landwirtschaft Mineraldünger ressourcenschonend ersetzen. In der Regel wird Gülle vor der Ausbringung vorbehandelt, vorzugsweise in Co-Fermentations-anlagen, um auch die enthaltene Energie zu nutzen. Nach der Fermentation ist ein Substrat verfügbar, das landwirtschaftlich verwertet werden kann und den Nährstoffkreislauf schließen soll.

In Veredelungsregionen reicht allerdings häufig die Fläche nicht aus, um die in der Gülle anfallenden Nährstoffe sinnvoll und umweltgerecht zu verwerten. Dieses Problem verstärkt sich noch, wenn zusätzlich Gärreste aus Biogasanlagen zu verwerten sind. Werden die Nährstoffe vor oder während des Fermentationsprozesses auf der Basis des P-RoC-Verfahrens aus der Gülle separiert, lässt sich zum einen der Gärprozess stabilisieren, zum anderen lassen sich die Nährstoffe in eine transportfähige und dosierfähige Form überführen. So wird die regionale Absetzbarkeit des Substrats gewährleistet und zusätzlich Düngemittel gewonnen.

Im Rahmen des Projekts „Nährstoffrückgewinnung aus Schweinegülle“ entwickelten die Forscher um Dr. Rainer Schuhmann das Verfahren zur Praxisreife weiter. Das Bildungs- und Wissenszentrum für Schweinezucht Boxberg stellte die Infrastruktur bereit. Dort wird die neue Demonstrationsanlage in den Betrieb einer Co-Fermentationsanlage integriert. Das Ingenieurbüro Roth & Partner übernahm die Planung der Anlage, die Alltech Dosieranlagen GmbH den Bau. Die Universität Hohenheim bestätigte dem generierten Sekundärphosphat die Düngewirksamkeit.

Das Projekt lief über zwei Jahre und ist mit der Einweihung der Demonstrationsanlage abgeschlossen. Gefördert wurde es von der Europäischen Union mit Mitteln aus dem Europäischen Fonds für regionale Entwicklung (EFRE) sowie vom Land Baden-Württemberg mit Mitteln des Ministeriums für Umwelt, Klima und Energiewirtschaft. Die Förderung beträgt rund 650 000 Euro.

Weitere Informationen zu EFRE:
Ministerium für Ländlichen Raum und Verbraucherschutz Baden-Württemberg, http://www.rwb-efre.baden-wuerttemberg.de

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen echts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Thematische Schwerpunkte der Forschung sind Energie, natürliche und gebaute Umwelt sowie Gesellschaft und Technik, von fundamentalen Fragen bis zur Anwendung. Mit rund 9000 Mitarbeiterinnen und Mitarbeitern, darunter knapp 6000 in Wissenschaft und Lehre, sowie 24 000 Studierenden ist das KIT eine der größten Forschungs- und Lehreinrichtungen Europas. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: http://www.kit.edu

Anhang
Nährstoffe aus Gülle umweltgerecht verwertet
http://idw-online.de/de/attachment34433

Quelle: idw

(nach oben)


Welche Therapie der Legasthenie hilft, welche nicht?

Philipp Kressirer Kommunikation und Medien
Klinikum der Universität München

Legasthenie ist mit 5-7% eine der häufigsten Lernstörungen, an der nicht nur Kinder und Jugendliche sondern auch Erwachsene leiden. Oft wird die Legasthenie erst spät erkannt, die Kinder und ihre Familien sind meist auf sich allein gestellt, da sich niemand für die außerschulische Förderung zuständig fühlt. „Bis zu 40% der Kinder mit einer Legasthenie haben psychische Probleme, oft als Folgen der Diskriminierung durch Aussagen wie: „Du bist zu dumm und zu faul! Du musst dich halt nur mehr anstrengen! Für das Gymnasium bist du nicht geeignet!“, sagt Gerd Schulte-Körne, Direktor der Klinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie der Ludwig-Maximilians-Universität München. Eine frühe Förderung und Therapie unter Berücksichtigung der individuellen Voraussetzungen eines Kindes sind daher dringend notwendig. Diese finden in den Schulen aufgrund fehlender Ressourcen und mangelnder Ausbildung der Lehrkräfte nur unzureichend statt. Bei einer ausgeprägten Legasthenie reicht die schulische Förderung nicht aus.

Es gibt über zwanzig verschiedene methodische Ansätze, Kinder mit einer Legasthenie zu fördern. Jedoch wurde bisher nicht untersucht, welche Behandlung wirksam und zu empfehlen ist. Die Forschungsgruppe um Prof. Schulte-Körne hat alle verfügbaren Förder-Studien, welche die Wirksamkeit mittels eines randomisiert-kontrollierten Studiendesign untersucht haben, ausgewertet. „Nur sehr wenige Methoden helfen den Kindern, vor allem sehr basale Prozesse der Laut-Buchstaben-Zuordnung und umgekehrt müssen systematisch geübt werden“, berichtet Katharina Galuschka, die die Metaanalyse durchgeführt hat. Diese Methode sollte durch das Training der Wortleseflüssigkeit basierend auf einer Silbendurchgliederung begleitet werden. Eine längere Förderung ist wirksamer als eine Kurzzeitintervention. Viele populäre Methoden, die an der Veränderung der Augenbewegungen und Verbesserung des Hörens ansetzen, sind nicht wirksam.
Eine Behandlung mit leistungssteigernden Medikamenten oder die Nutzung farbiger Brillengläser (Irlen Linsen) konnten die Leseleistungen ebenfalls nicht steigern.

Diese erste publizierte Metaanalyse dieser Art ist die Grundlage für die dringend notwendigen Behandlungs- und Förderempfehlungen. Die Studie ist in der aktuellen Ausgabe von PlosOne veröffentlicht worden. In Deutschland wird in Kürze eine S3-Behandlungsleitlinie erscheinen, die von der Münchener Forschungsgruppe koordiniert wird.

Kontakt:
Prof. Dr. Gerd Schulte-Körne
Direktor der Klinik für Kinder- und Jugendpsychiatrie,
Psychosomatik und Psychotherapie der
Universität München
Nußbaumstr. 5a
80997 München

Tel. +49 (0)89 51605900
Fax. +49 (0)89 51605902

Klinikum der Universität München
Im Klinikum der Universität München (LMU) werden jährlich an den Standorten Großha-dern und Innenstadt rund 500.000 Patienten ambulant, teilstationär und stationär behandelt worden. Den 45 Fachkliniken, Instituten und Abteilungen sowie den 45 interdisziplinären Zentren etwas mehr als 2.000 Betten zur Verfügung. Von insgesamt über 10.000 Be-schäftigten sind rund 1.800 Mediziner und 3.400 Pflegekräfte. Das Klinikum der Universität München ist seit 2006 Anstalt des öffentlichen Rechts.
Gemeinsam mit der Medizinischen Fakultät der Ludwig-Maximilians-Universität ist das Klinikum der Universität München an fünf Sonderforschungsbereichen der DFG (SFB 455, 571, 596, 684, 914), an drei Transregios (TR 05, 127, 128), zwei Forschergruppen (FOR 535, 809) sowie an zwei Graduiertenkollegs (GK 1091, 1202) beteiligt. Hinzu kommen die vier Exzellenzcluster „Center for Integrated Protein Sciences“ (CIPSM), „Munich Center of Advanced Photonics“ (MAP), „Nanosystems Initiative Munich“ (NIM) und „Munich Cluster for Systems Neurology“ (SyNergy) sowie die Graduiertenschulen „Graduate School of Systemic Neurosciences“ (GSN-LMU) und „Graduate School of Quantitative Biosciences Munich (QBM)“.

Weitere Informationen:
http://www.klinikum.uni-muenchen.de

Quelle: idw

(nach oben)


RWI-Studie: Trotz Berufstätigkeit bleibt Hausarbeit Frauensache

Katharina Brach Presse und Information
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.

Obwohl der Anteil berufstätiger Frauen in den vergangenen 20 Jahren gestiegen ist, übernehmen sie immer noch drei Viertel der Hausarbeit. Verdienen Frauen mehr als ihr Ehepartner, engagieren sie sich sogar besonders stark im Haushalt, während im Allgemeinen ein steigendes Einkommen zu weniger Engagement bei der Hausarbeit führt. Zu diesen Ergebnissen kommt eine aktuelle Studie des RWI und der Bergischen Universität Wuppertal auf Grundlage von Daten des Sozio-ökonomischen Panels.

Obwohl immer mehr Frauen berufstätig sind, hat sich die Aufteilung der Hausarbeit zwischen arbeitenden Ehepaaren offenbar kaum verändert. Das ist eines der Ergebnisse einer aktuellen Studie des Rheinisch-Westfälischen Instituts für Wirtschaftsforschung (RWI) und der Bergischen Universität Wuppertal. Demnach sank der Anteil, den berufstätige Frauen an der Hausarbeit übernehmen, zwischen 1992 und 2011 lediglich von 82 auf 75%. Unterschiedliche Arbeitszeitmodelle scheinen dabei kaum eine Rolle zu spielen: Während der Anteil bei Vollzeit arbeitenden Frauen von 78 auf 67% zurückging, nahm er bei Teilzeit arbeitenden Frauen in ähnlicher Größenordnung von 87 auf 77% ab.

Die Zeit, die berufstätige Frauen im Durchschnitt täglich mit Hausarbeit verbringen, reduzierte sich in den vergangenen 20 Jahren um rund 30 Minuten auf knapp 2,3 Stunden täglich. Im gleichen Zeitraum stieg sie für Männer um fast 10 Minuten auf knapp 0,8 Stunden – offenbar wird also in der Summe weniger Zeit mit Hausarbeit verbracht.

Verdient die Frau mehr als der Mann, engagiert sie sich stärker im Haushalt

Wie die Studie zudem zeigt, führt sowohl ein steigendes Einkommen als auch ein steigender Anteil am gemeinsamen Haushaltseinkommen eines Ehepartners dazu, dass er oder sie weniger Zeit mit Hausarbeit verbringt. Dieser Effekt ist für beide Geschlechter nicht signifikant unterschiedlich. Es ist daher anzunehmen, dass mit steigenden Einkommen und mehr Vollzeitbeschäftigung von Frauen auch deren Anteil an der Hausarbeit weiter abnehmen würde.

Eine Ausnahme bilden offenbar berufstätige Ehepaare, bei denen die Frau mehr verdient als der Mann. In diesen Haushalten übernimmt die Frau einen größeren Teil der Hausarbeit als in Haushalten, in denen die Frau weniger bis gleich viel verdient wie ihr Partner. Eine mögliche Ursache hierfür könnte sein, dass diese gutverdienenden Frauen ihre traditionelle Geschlechterrolle beweisen wollen. Dies ist ein Indiz dafür, dass sowohl geschlechterunabhängige Faktoren wie die Höhe des Einkommens als auch traditionelle Rollenaufteilungen die Anteile von Ehepartnern an der Hausarbeit beeinflussen.

Studie umfasst knapp 5 000 berufstätige Ehepaare

Für die Studie wurden Daten des Sozio-ökonomischen Panels (SOEP) aus den Jahren 1992 bis 2011 verwendet. Die Stichprobe umfasste knapp 5 000 Haushalte mit berufstätigen Ehepaaren, sowie teils auch Kindern und weiteren Erwachsenen. Die Männer hatten ein durchschnittliches Jahreseinkommen von gut 42 000 Euro im Jahr, die Frauen – vor allem durch häufigere Teilzeitarbeit – ein durchschnittliches Jahreseinkommen von gut 21 000 Euro. Im häufigsten Szenario unter den befragten Ehepaaren (44,2%) arbeitete der Mann Vollzeit und die Frau Teilzeit.

Ihre Ansprechpartner:
Prof. Dr. Colin Vance (RWI), Tel.: (0201) 8149-237
Katharina Brach (Pressestelle RWI), Tel.: (0201) 8149-244

Dieser Pressemitteilung liegt das Ruhr Economic Paper #472 („Making Dough or Baking Dough? Spousal Housework Responsibilities in Germany, 1992-2011″) zugrunde.

Weitere Informationen:

http://www.rwi-essen.de/publikationen/ruhr-economic-papers/602/ – RWI-Studie „Making Dough or Baking Dough? Spousal Housework Responsibilities in Germany, 1992-2011″

Quelle: idw

(nach oben)


Die Aufmerksamkeit des Autofahrers – wie das Gehirn mit relevanten und irrelevanten Reizen umgeht.

Constanze Seidenbecher Wissenschaftsorganisation & Öffentlichkeitsarbeit
Leibniz-Institut für Neurobiologie

Farben, Formen, Bewegungen – visuelle Eindrücke sind vielfältig und haben immer mehr als nur eine Eigenschaft. Für deren Verarbeitung sind getrennte Bereiche im Gehirn zuständig. Doch wie wird daraus vor dem geistigen Auge ein komplettes Bild, in dem Farbe, Form und Bewegung wieder zusammengefügt werden? Eine aktuelle Studie aus Magdeburg zeigt, wie in der Großhirnrinde relevante Reize vor irrelevanten verarbeitet werden: kleinste Magnetfeldänderungen im Gehirn verraten die Abfolge der Ereignisse.

Straßenverkehrsteilnehmer müssen Aufmerksamkeitsvirtuosen sein: zwischen Autos, Personen und Schilderwald müssen sie blitzschnell relevante Signale wie andere Verkehrsteilnehmer von irrelevanten wie Werbebotschaften unterscheiden und richtig reagieren. Obwohl man beim Autofahren den Blick geradeaus auf die Straße richtet, ist es meistens problemlos möglich, ein sich von einer Seitenstraße näherndes Fahrzeug wahrzunehmen und zu beachten. Dabei erscheinen die verschiedenen Eigenschaften des Fahrzeugs wie Farbe, Form und Geschwindigkeit schnell und effektiv als Einheit. Doch wie geschieht diese nachträgliche Zusammenfügung einzeln verarbeiteter Facetten eines Objektes im Kopf, und wie unterscheidet sich die Verarbeitung von wichtigen und unwichtigen Eigenschaften? Bisher waren die Hirnprozesse, die eine so rapide und gewichtete Verarbeitung von Merkmalen ermöglichen, nicht bekannt.
Einer Arbeitsgruppe aus Wissenschaftlern der Klinik für Neurologie und des Leibniz-Institutes für Neurobiologie in Magdeburg ist es nun unter der Leitung von Prof. Dr. Mircea Ariel Schoenfeld gelungen, mittels hochauflösender Magnetenzephalographie den Zeitverlauf der Aktivität in bewegungs- und farbselektiven Hirnregionen direkt zu charakterisieren und damit eine Antwort zu geben.
Sie fanden heraus, dass bei einem Objekt (z. B. einem roten Auto) die Verarbeitung des relevanten Merkmals (z. B. der Bewegungsrichtung) wenige zehntel Millisekunden vor der Verarbeitung von irrelevanten Objektmerkmalen (z.B. der nicht unmittelbar relevanten Farbe des Autos) verstärkt wird. Die zum einheitlich wahrgenommenen Objekt gehörenden Merkmale wurden sehr schnell bevorzugt verarbeitet, wobei die Reihenfolge der Verarbeitung der Objektmerkmale (Farbe und Bewegung) flexibel der relativen Wichtigkeit des Merkmals entsprach. Zum ersten Mal konnte so gezeigt werden, dass die integrative Bindung von Merkmalen wie Bewegung und Farbe zu einem einheitlichen Objekt als schnelle, flexible Aufeinanderfolge verstärkter Aktivität in entsprechenden bewegungs- und farbsensitiven Hirnarealen realisiert wird. Die Ergebnisse der Arbeit wurden im renommierten Fachjournal Nature Neuroscience publiziert.
Das Leibniz-Institut für Neurobiologie (LIN) in Magdeburg ist ein Zentrum für Lern- und Gedächtnisforschung.

Link zum Fachartikel „Object-based attention involves the sequential activation of feature-specific cortical modules“ von Mircea A Schoenfeld, Jens-Max Hopf, Christian Merkel, Hans-Jochen Heinze & Steven A Hillyard; Nature Neuroscience online am 23 February 2014: http://www.nature.com/neuro/journal/vaop/ncurrent/pdf/nn.3656.pdf

Weitere Informationen:
http://www.nature.com/neuro/journal/vaop/ncurrent/pdf/nn.3656.pdf
http://www.lin-magdeburg.de

Quelle: idw

(nach oben)


Selbst Bakterien vermeiden den Ausstoß des Treibhausgases Methan

Dr. Karl Guido Rijkhoek Hochschulkommunikation
Eberhard Karls Universität Tübingen

Geomikrobiologen messen dem Humus im Boden große Bedeutung für die bakterielle Atmung und das Klima bei

Methan ist ein Treibhausgas, das dem Klima 25 Mal so stark zusetzt wie Kohlendioxid. Es entsteht unter anderem in Böden, wenn den Bodenbakterien kein Sauerstoff zur Verfügung steht. Solche Bedingungen finden sich zum Beispiel in vielen Mooren, die dafür jedoch reich an Zersetzungsprodukten von Pflanzen und Lebewesen sind, den sogenannten Huminstoffen. Die Geomikrobiologen Professor Andreas Kappler und Dr. Annette Piepenbrock vom Zentrum für Angewandte Geowissenschaften der Universität Tübingen haben zusammen mit den Umweltchemikern Dr. Michael Sander und Laura Klüpfel von der ETH Zürich im Rahmen eines von Seiten der ETH geleiteten Projekts ein solches Stoffwechselsystem genauer untersucht. Sie stellten fest, dass die Bodenbakterien unter Sauerstoffmangel in weit größerem Ausmaß als bisher bekannt Huminstoffe in ihren Stoffwechsel einbeziehen können. Dies kommt dem Klima zugute, weil dabei kein Methan entsteht. Nach Schätzungen der Forscher lässt sich in Mooren über diesen Weg die Bildung von rund 3000 Kilo Methan pro Quadratkilometer und Jahr verhindern – ein bedeutender Betrag.

Um Energie für ihre Lebensprozesse zu gewinnen, verbrauchen Bakterien, wie Menschen auch, bevorzugt Sauerstoff, weil damit sehr viel Energie in der Zelle produziert werden kann. Der Stoffwechsel von Bodenbakterien ist jedoch sehr viel flexibler als der menschliche: Wenn wie häufig in Mooren vorübergehend kein Sauerstoff verfügbar ist, verwenden die Bakterien stattdessen Kohlendioxid. Dieses wird dabei zu Methan umgesetzt. Bereits seit etwa 20 Jahren ist Wissenschaftlern bekannt, dass die Bodenbakterien als Ersatz für Sauerstoff auch Huminstoffe verwenden können. In ihrer aktuellen Studie stellen die Forscher aus Tübingen und Zürich fest, dass die Huminstoffe eine viel größere Rolle spielen als bisher angenommen. „Die Mikroorganismen ziehen die Huminstoffe dem Kohlendioxid sogar vor, so dass gleichzeitig die Methanbildung unterdrückt wird“, fasst Professor Andreas Kappler die Ergebnisse zusammen.

Alle Atmungsprozesse der Lebewesen zur Gewinnung von Energie beruhen chemisch gesehen auf der Verschiebung von Elektronen. Die Bakterien benötigen einen Stoff, auf den sie ihre Elektronen übertragen können. Die Forscher konnten nun erstmals nachweisen, dass die Nutzung der Huminstoffe für diesen Zweck völlig reversibel ist. Das bedeutet, dass die Elektronen, die atmende Bakterien auf die Huminstoffe übertragen, wieder abgegeben werden können – zum Beispiel an Sauerstoff, sobald dieser wieder verfügbar ist. Die Huminstoffe stehen anschließend erneut als Elektronenempfänger bereit. „Die Huminstoffe können also ähnlich wie eine Akku-Batterie mit Elektronen aufgeladen und wieder entladen werden“, erklärt Kappler. Deshalb seien Huminstoffe besonders in solchen Systemen nützlich, in denen der Sauerstoffgehalt regelmäßig schwankt wie in Mooren mit jahreszeitlich wechselndem Wasserstand. Unterhalb des Wasserspiegels ist der Sauerstoffnachschub begrenzt, und es stellen sich schnell sauerstofffreie Bedingungen ein. Beim Sinken des Wasserspiegels werden die frei werdenden Bereiche erneut mit Sauerstoff versorgt.

Aufgrund der durchschnittlichen Höhe der Wasserspiegelschwankungen und der Huminstoffkonzentrationen in Mooren berechneten die Tübinger und Züricher Forscher, dass etwa 9×10(hoch 29) Elektronen pro Jahr von den Huminstoffen in einem Quadratkilometer Torfmoor aufgenommen werden können. Dies entspricht etwa 3000 Kilo Methan, dessen Bildung dadurch unterdrückt wird. Die neuen Studienergebnisse tragen zum Verständnis der natürlichen biogeochemischen Stoffkreisläufe bei, die in Klimamodellrechnungen einbezogen werden.

Originalpublikation:
Laura Klüpfel, Annette Piepenbrock, Andreas Kappler, Michael Sander: Humic substances as fully regenerable terminal electron acceptors in recurrently anoxic environments. Nature Geoscience, Band 7, Seiten 195-200. Online-Veröffentlichung 27. Februar 2014, doi: 10.1038/ngeo2084

Kontakt:
Prof. Dr. Andreas Kappler
Universität Tübingen
Mathematisch-Naturwissenschaftliche Fakultät
Zentrum für Angewandte Geowissenschaften/ Arbeitsgruppe Geomikrobiologie
Sigwartstraße 10 ∙ 72076 Tübingen
Tel. +49 (7071) 29-74992
andreas.kappler@uni-tuebingen.de

Quelle: idw

(nach oben)


Aktuelle Auswertung des WSI – Job und Hausarbeit: Doppelbelastung erschöpft viele Frauen

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Die Doppelbelastung durch Erwerbsarbeit und häusliche Pflichten führt bei vielen Frauen zu Müdigkeit und Erschöpfung. Dies zeigt eine neue Auswertung des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) in der Hans-Böckler-Stiftung. In Kooperation mit dem Berliner Institut für sozialwissenschaftlichen Transfer haben WSI-Forscherinnen eine Vorabversion der Erwerbstätigenbefragung des Bundesinstituts für Berufsbildung und der Bundesanstalt für Arbeitsschutz und Arbeitsmedizin aus dem Jahr 2012 ausgewertet.

Die Ergebnisse: Wenn Frauen in Vollzeit arbeiten, sind sie häufiger erschöpft als Männer. Das gilt auch dann, wenn sie keine Kinder haben. Mehr als die Hälfte der Arbeitnehmerinnen mit einer Arbeitszeit zwischen 35 und 40 Stunden berichtete, im Laufe von Arbeitstagen häufig erschöpft zu sein. Frauen mit Kindern schilderten dies zu 56, solche ohne zu 53 Prozent. In Vollzeit erwerbstätige Männer mit Kindern kamen lediglich auf 44 Prozent, die ohne Kinder auf 42 Prozent. Bei überlangen Arbeitszeiten von 41 Stunden und mehr erhöhten sich die Werte entsprechend. Hier berichteten sogar zwei Drittel aller Mütter von Müdigkeit, Mattigkeit oder Erschöpfung (siehe auch die Grafik in Böckler Impuls 4/2014; Link unten).

„Zu diesen Ergebnissen trägt auch bei, dass Frauen häufiger in Berufen arbeiten, in denen überdurchschnittlich viele Beschäftigte eine mengenmäßige Überforderung bei der beruflichen Arbeit beklagen“, erläutert WSI-Forscherin Dr. Christina Klenner. Dazu gehörten Sozial- und Erziehungsberufe, Gesundheitsberufe sowie weitere Dienstleistungen.

In Teilzeit beschäftigte Frauen ohne Kinder kamen auf ähnliche Belastungswerte wie die wenigen Teilzeit-Männer. Mit Kindern drifteten die Werte jedoch wieder auseinander: Mütter in Teilzeit waren an Arbeitstagen häufiger erschöpft als Väter mit reduzierter Arbeitszeit. „Vor diesem Hintergrund erklärt sich auch, dass viele Frauen nicht in Vollzeit arbeiten, obwohl Teilzeitarbeit mit Nachteilen beim Einkommen, bei den Aufstiegschancen oder bei der Rente verbunden sein kann“, so Klenner.
Im Zeitverlauf hätten immer weniger Frauen eine volle Stelle. Sieben von zehn Müttern arbeiteten in Teilzeit, wie das WSI GenderDatenPortal zeigt. „Einen Ausweg aus dem Dilemma zwischen Zeitnot mit häufiger Erschöpfung bei den Vollzeitbeschäftigten und Karriereverzicht bei Teilzeitarbeitenden würden generell kürzere Arbeitszeiten für die Familienphase bieten“, empfiehlt die WSI-Forscherin. Diese sollten künftig auch für die Väter normal sein.

Ansprechpartner in der Hans-Böckler-Stiftung
Dr. Christina Klenner
WSI, Expertin für Genderforschung
Tel.: 0211-7778-231
E-Mail: Christina-Klenner@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Weitere Informationen:
http://www.boeckler.de/hbs_showpicture.htm?id=46083&chunk=1
Infografik zum Download in Böckler Impuls 4/2014
http://www.boeckler.de/wsi_38966.htm
Mehr Informationen zur Arbeitszeit von Frauen und Männern im WSI GenderDatenPortal

Quelle: idw

(nach oben)


Woher hat Afrika seine Form? – Ein verhinderter Sahara-Atlantik

Dipl.Met. Franz Ossing Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum Potsdam – Deutsches GeoForschungsZentrum GFZ

Das Auseinanderbrechen des Urkontinents Gondwana vor rund 130 Millionen Jahren hätte in einer völlig anderen Form der Kontinente Südamerika und Afrika resultieren können. Südlich der Sahara läge dann heute ein Ozean.

Potsdam: Das Auseinanderbrechen des Urkontinents Gondwana vor rund 130 Millionen Jahren hätte in einer völlig anderen Form der Kontinente Südamerika und Afrika resultieren können. Südlich der Sahara läge dann heute ein Ozean. Dies haben Geowissenschaftler der Universität Sydney (Australien) und des Deutschen GeoForschungsZentrums GFZ mit Hilfe von plattentektonischen und dreidimensionalen numerischen Modellen zeigen können. Entscheidend für den Ablauf des Auseinanderbrechens eines Kontinents ist die Orientierung eines kontinentalen Grabenbruchsystems relativ zur Dehnungsrichtung. Von dieser Orientierung hängt ab, ob ein neuer Ozean entsteht oder nur ein Sedimentbecken im Innern eines Kontinentes erhalten bleibt.

Über Hunderte von Millionen Jahren vereinte der Superkontinent Gondwana die südlichen Kontinente Südamerika, Afrika, Indien, Australien und die Antarktis. Während die Gründe für Gondwanas Zerbrechen noch immer diskutiert werden, steht fest, dass sich der Superkontinent erst entlang der Ostafrikanischen Küste in einen westlichen und östlichen Teil spaltete, bevor Grabenbrüche zwischen dem heutigen Südamerika und Afrika die Entstehung des Südatlantiks einleiteten. Die dabei entstandenen Kontinentalränder und das sich von Nigeria bis Libyen im Untergrund des afrikanischen Kontinents erstreckende Westafrikanische Riftsystem geben Aufschluss über die Prozesse, die den heutigen Kontinenten ihre Form gaben. Christian Heine (Universität Sydney) und Sascha Brune (GFZ) untersuchten warum einige dieser Grabenbrüche im Innern Afrikas nicht zu einem Ozean aufbrachen, während sich der südliche Teil dieses Grabenbruchsystems zum heutigen Südatlantik entwickelte.

„Eine Bruchzone, die sich vor 130 Millionen Jahren von Südafrika bis nach Libyen erstreckte, hätte Afrika entlang einer Nord-Süd Achse in zwei Teile gespalten,“ erklärt der GeoForscher Sascha Brune. „Wir konnten jedoch zeigen, dass eine konkurrierende Riftzone entlang des heutigen Äquatorial-Atlantiks in einer dramatischen plattentektonischen Wendung die Spaltung Afrikas und damit die Entstehung eines ‚Sahara-Atlantiks‘ verhinderte.“ Die komplexen numerischen Modelle liefern einen verblüffend einfachen Grund: Je größer der Winkel zwischen Bruchzone und Dehnungsrichtung ist, desto mehr Kraft benötigt ein Riftsystem. Das nahezu senkrecht zur westwärtigen Dehnungsrichtung liegende Westafrikanischen Rift benötigte damit deutlich mehr Kraft und verlor letztendlich gegen seinen äquatorialatlantischen Kontrahenten.

Christian Heine, Sascha Brune: „Oblique rifting of the Equatorial Atlantic: Why there is no Saharan Atlantic Ocean“, GEOLOGY, 01.03.2014, doi: 10.1130/G35082.1

Eine Abb. in druckfähiger Auflösung liegt hier:
https://media.gfz-potsdam.de/gfz/wv/05_Medien_Kommunikation/Bildarchiv/Einzelbil…

Text: Eine mögliche Topographie der Erde für den Fall, dass Afrika sich entlang des Westafrikanischen Grabensystems in zwei Teile gespalten hätte. Der nordwestliche Teil Afrikas hätte sich gemeinsam mit Südamerika bewegt, was einen „Sahara-Atlantik“ geöffnet hätte.

Quelle: idw

(nach oben)


Powerfrauen im Top-Management treffen andere Entscheidungen

Thomas Richter Presse, Kommunikation und Marketing
Georg-August-Universität Göttingen

Managerinnen haben einen fürsorglichen Führungsstil, sind eher am Wohl des gesamten Unternehmens und der Belegschaft interessiert und weniger risikofreudig und gierig als Männer. So werden erfolgreiche Frauen in Top-Führungspositionen wiederholt porträtiert. Dies ist ein Ergebnis des Forschungsprojekts „Frauen an die Spitze?“ der Soziologin Prof. Dr. Andrea D. Bührmann, Direktorin des Instituts für Diversitätsforschung der Universität Göttingen. Einige zentrale Ergebnisse hat Prof. Bührmann in der aktuellen Ausgabe der WSI-Mitteilungen veröffentlicht.

Powerfrauen im Top-Management treffen andere Entscheidungen
Untersuchung zur medialen Darstellung von erfolgreichen Frauen in Führungspositionen

(pug) Managerinnen haben einen fürsorglichen Führungsstil, sind eher am Wohl des gesamten Unternehmens und der Belegschaft interessiert und weniger risikofreudig und gierig als Männer. So werden erfolgreiche Frauen in Top-Führungspositionen wiederholt porträtiert. Dies ist ein Ergebnis des Forschungsprojekts „Frauen an die Spitze?“ der Soziologin Prof. Dr. Andrea D. Bührmann, Direktorin des Instituts für Diversitätsforschung der Universität Göttingen. Gemeinsam mit Studierenden wertete sie biografische Porträts von erfolgreichen Männern und Frauen in Top-Führungspositionen aus, die von 2007 bis 2012 in überregionalen Zeitungen und Zeitschriften erschienen sind. Einige zentrale Ergebnisse hat Prof. Bührmann in der aktuellen Ausgabe der WSI-Mitteilungen veröffentlicht.

Bei der Auswertung der Porträts stießen Prof. Bührmann und ihr Team auf viele Stereotype: Die Managerinnen und Unternehmerinnen werden zum einen unterteilt in den männlich auftretenden Typus Businessfrau und den weiblichen Typus Powerfrau. Zum anderen werden angeblich natürlich gegebene Geschlechterdifferenzen transportiert, die zu unterschiedlichen Führungsstilen, Motiven und Entscheidungen bei Männern und Frauen führen. „Alle Faktoren zusammen legen es nahe zu argumentieren, mit mehr Frauen im Top-Management wäre die aktuelle Finanzkrise weniger dramatisch verlaufen“, so Prof. Bührmann. Auch Forderungen nach einer Frauenquote werden damit begründet, dass gemischt zusammengesetzte Teams bessere Entscheidungen fällen, innovativere Prozesse anstoßen und den wirtschaftlichen Erfolg von Unternehmen steigern.
„Es entspricht nicht dem aktuellen Stand in der Geschlechterforschung, dass es diese natürlich vorgegebenen Unterschiede gibt“, so Prof. Bührmann. „Durch diese Stereotypisierungen geraten Gemeinsamkeiten von Top-Managerinnen mit ihren männlichen Kollegen aus dem Blick. Dabei unterscheidet sich ihre Lebenssituation oft mehr von denen anderer Frauen als von der ihrer männlichen Kollegen.“ Dennoch sei eine Geschlechterquote notwendig, um eine gerechte Beteiligung von Frauen und Männern an zukunftsweisenden Entscheidungen der Wirtschaft zu gewährleisten.

Originalveröffentlichung: Andrea D. Bührmann, Geschlechtergerechtigkeit und Geschlechterkonstruktionen: Die mediale Darstellung von Frauen in Top-Führungspositionen, in: WSI-Mitteilungen 2/2014, März 2014

Kontaktadresse:
Prof. Dr. Andrea D. Bührmann
Georg-August-Universität Göttingen
Sozialwissenschaftliche Fakultät – Institut für Diversitätsforschung
Telefon (0551) 39-7277
E-Mail: andrea.buehrmann@uni-goettingen.de
Internet: www.diversitätsforschung.uni-goettingen.de

Weitere Informationen:
http://www.uni-goettingen.de/de/3240.html?cid=4718
http://www.diversitätsforschung.uni-goettingen.de
http://www.boeckler.de/wsi_45981_46033.htm

Quelle: idw

(nach oben)


Ostsee „trainiert“ marine Lebewesen für den Klimawandel

Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Die Ostsee ist ein Meer der Extreme. Sauerstoffgehalt, pH-Wert und Temperaturen können innerhalb von Wochen oder sogar Tagen stark schwanken. Sind Organismen, die hier leben, besser auf den Klimawandel vorbereitet als andere? Dieser Fragestellung widmeten sich Meereswissenschaftler aus Kiel. Dabei fanden sie heraus, dass Seepocken aus der Kieler Förde wesentlich besser mit zukünftigen Umweltbedingungen umgehen können als ihre Artgenossen aus weniger „stressigen“ Habitaten. Die Ergebnisse ihrer Studie publizieren die GEOMAR-Forscher in der März-Ausgabe der Fachzeitschrift „Global Change Biology“.

Unsere Ozeane werden immer „saurer“. Aber was ist das eigentlich, die sogenannte Ozeanversauerung? Weil die Kohlendioxid (CO2)-Emissionen weltweit steigen, nimmt auch der Ozean immer mehr CO2 aus der Atmosphäre auf. Es reagiert mit dem Meerwasser zu Kohlensäure und der pH-Wert im Meerwasser sinkt. Hierdurch können im Extremfall auch die Kalkschalen von Tieren angegriffen werden. Welche Auswirkungen diese Entwicklung auf bestimmte Organismen haben kann, die im Ozean leben, untersuchen Wissenschaftler auf der ganzen Welt. Einer davon ist Dr. Christian Pansch. Der Meeresbiologe beschäftigte sich im Rahmen seiner Doktorarbeit am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel unter der Betreuung von Prof. Martin Wahl mit Seepocken (Balanidae) aus der Kieler Förde und aus den Fjorden Westschwedens. Dabei fand er heraus, dass verschiedene Populationen einer Art verschieden gut auf zukünftige Umweltveränderungen vorbereitet sind – je nachdem wo sie vorkommen. Die Ergebnisse der Studie veröffentlichen die Wissenschaftler jetzt in der Fachzeitschrift Global Change Biology.

Das Besondere an der Kieler Förde ist, dass dort die Konzentration des Kohlendioxids jetzt schon teilweise so hoch ist, wie Klimaforscher sie für die offenen Ozeane in mehr als einhundert Jahren voraussagen. „Der Grund dafür ist die geringere Pufferkapazität der süßeren Ostsee und ihre sommerliche Schichtung“, erklärt Dr. Pansch. „In tieferen Schichten verbrauchen Organismen aufgrund der Nährstoffübersättigung sehr viel Sauerstoff und produzieren dabei Kohlendioxid. Das CO2 reichert sich dort an, der pH-Wert wird durch das süßere Ostseewasser nicht abgepuffert und dieses saure Wasser steigt gelegentlich auf.“ In der Kieler Förde zum Beispiel wird bei starkem Südwestwind das Oberflächenwasser aus der Förde herausgedrückt und das angesäuerte Wasser aus der Tiefe gelangt nach oben. Die Umweltbedingungen schwanken hierdurch auch für viele Flachwasserorganismen extrem, nicht nur in Hinsicht auf Salzgehalt und Temperatur, sondern auch im Hinblick auf den pH-Wert des Wassers. Deshalb sind einige Organismen, wie die Seepocken, den prognostizierten Umweltbedingungen gelegentlich bereits heute ausgesetzt.

Für ihre Studien setzten die Wissenschaftler Seepocken verschiedenen CO2-Konzentrationen aus. Dabei verglichen sie Seepocken aus der Kieler Förde mit einer Population aus der chemisch stabileren Schärenwelt von Tjärnö vor der Westküste Schwedens. Sie erfassten Wachstum, Vermehrung, Sterberate und Aussehen der Tiere. „Die Tiere aus der Förde, die ohnehin mit schwankenden CO2-Konzentrationen klarkommen müssen, reagierten recht unempfindlich auf die Zukunftsszenarien“, sagt Prof. Dr. Martin Wahl, Co-Autor der aktuellen Studie. „Die Schalen der Seepocken litten bei sehr hohen Konzentrationen zwar etwas, aber das waren rein äußerliche Merkmale“, so Christian Pansch. Wachstum, Fortpflanzung und Sterberate zeigten keinerlei Veränderungen.
Die Stresstoleranz der schwedischen Seepocken erwies sich als relativ niedrig, ganz im Gegensatz zu der ihrer Kieler Artgenossen. „Gerade weil die Seepocken aus Tjärnö nicht unter so variierenden Umweltbedingungen leben, sind sie vermutlich sehr viel anfälliger gegenüber Veränderungen“, so Professor Wahl. In den Versuchen wuchsen sie nicht mehr in dem Maße wie gewöhnlich und es starben mehr Individuen.

Dr. Pansch fasst zusammen: „Im Vergleich mit den Balanidae aus Tjärnö sind die Seepocken aus der Kieler Förde sehr viel besser für die Zukunft trainiert“. Im Moment arbeitet der Biologe an der Universität Göteborg in Schweden, aber ab dem 01. Oktober diesen Jahres wird er im Rahmen einer von der Helmholtz-Gemeinschaft finanzierten Postdoc-Stelle wieder in der Arbeitsgruppe von Prof. Dr. Wahl forschen. Das Team wird sich dann mit der Fragestellung beschäftigen, inwieweit solche Schwankungen von CO2- und Sauerstoff-Konzentrationen in verschiedenen Habitaten der Nord- und Ostsee auftreten und inwieweit diese verschiedenste Organismen auf die Zukunft der Meere vorbereiten.

Originalarbeit:
Christian Pansch, Iris Schaub, Jonathan Havenhand, Martin Wahl: Habitat traits and food availability determine the response of marine invertebrates to ocean acidification. Global Change Biology (2014), http://dx.doi.org/10.1111/gcb.12478

Weitere Informationen:
http://www.geomar.de Das GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Quelle: idw

(nach oben)


Feinstaubbelastung: Wer an der Hauptstraße lebt, stirbt womöglich früher

Annika Bingmann Pressestelle
Universität Ulm

Kleinste Ruß- oder Staubpartikel („Feinstaub“), die vorwiegend aus Verkehrs- und Industrieemissionen beziehungsweise Hausbrand stammen, erhöhen die Sterblichkeit offenbar deutlicher als bisher gedacht. Dieser Zusammenhang ist das jüngste Ergebnis der so genannten ESCAPE-Studie. Seit mehreren Jahren untersuchen Wissenschaftler, darunter Dr. Gudrun Weinmayr und Professorin Gabriele Nagel vom Ulmer Institut für Epidemiologie und Medizinische Biometrie, Auswirkungen der Luftverschmutzung. Bisher sind für die ESCAPE-Studie Daten von über 360 000 Personen aus 13 europäischen Ländern herangezogen worden.

Im Fachjournal „The Lancet“ schreibt die internationale Forschergruppe, dass bereits eine um fünf Mikrogramm pro Kubikmeter erhöhte Feinstaubkonzentration (Jahresmittelwert) das Sterblichkeitsrisiko um sieben Prozent erhöht. Für die eigene Gesundheit kann es also bereits einen deutlichen Unterschied machen, ob man nahe einer befahrenen Straße oder in einer verkehrsberuhigten Wohngegend lebt. Kleine Partikel mit einem Durchmesser von weniger als 2,5 Mikrometern sind offenbar besonders gefährlich – auch unterhalb europäischer Grenzwerte. Bei ihrer Datenauswertung berücksichtigten die vom niederländischen Utrecht aus koordinierten Wissenschaftler unter anderem den sozioökonomischen Status, den Rauchstatus, den Körpermasseindex (BMI) und das Bildungsniveau der Teilnehmer. Dennoch blieb der Zusammenhang zwischen Feinstaubbelastung und verfrühter Sterblichkeit signifikant – vor allem bei Männern. Ursachen für die höhere Mortalität könnten oxidativer Stress und durch Partikel ausgelöste entzündliche Reaktionen sein.

In der groß angelegten „European Study of Cohorts for Air Pollution Effects“ (ESCAPE) sind 22 repräsentative Kohorten mit insgesamt 367 251 Studienteilnehmern zusammengefasst worden. Die Ulmer Wissenschaftlerinnen waren für Daten aus Vorarlberg, dem westlichsten Bundesland Österreichs, zuständig: „Wir haben ausgehend von den Messdaten und Landnutzungsdaten ein so genanntes Landnutzungsregressionsmodell berechnet und konnten so die durchschnittliche Luftverschmutzung für Adressen im untersuchten Gebiet quantifizieren“, erläutert Gudrun Weinmayr. Im Untersuchungszeitraum (durchschnittlich 14 Jahre) sind übrigens etwas mehr als 29 000 Probanden der Gesamterhebung eines natürlichen Todes gestorben. „Epidemiologische Langzeitstudien wie ESCAPE sind erforderlich, um den langzeitigen Einfluss von Umweltfaktoren auf die Gesundheit zu bewerten“, betont Gabriele Nagel. Dank der jüngsten Ergebnisse werden erstmals Vergleiche mit bereits veröffentlichten US-Studien möglich

Im Sommer 2013 hatte die gleiche Forschergruppe einen Zusammenhang zwischen höheren Feinstaubkonzentrationen und Lungenkrebs hergestellt. Der entsprechende Beitrag ist in „The Lancet Oncology“ erschienen. Die ESCAPE-Studie wird von der Europäischen Union gefördert.

Rob Beelen, Ole Raaschou-Nielsen, Massimo Stafoggia, Zorana Jovanovic Andersen, Gudrun Weinmayr et. al.: Effects of long-term exposure to air pollution on natural-cause mortality: an analysis of 22 European cohorts within the multicentre ESCAPE project. The Lancet. Published online December 9, 2013 http://dx.doi.org/10.1016/S0140-6736(13)62158-3

Weitere Informationen:
Dr. Gudrun Weinmayr: 0731/50-31073 oder 0211/3389 277, gudrun.weinmayr@uni-ulm.de
Prof. Dr. Gabriele Nagel: 0731/50-31073, gabriele.nagel@uni-ulm.de

Quelle: idw

(nach oben)


Umweltdetektiv für Treibhausgase: CarbonSat-Messkonzept der Uni Bremen erfolgreich getestet

Eberhard Scholz Pressestelle
Universität Bremen

Emissionsquellen von Treibhausgasen lassen sich aus großer Höhe mittels einer neuen Technologie genau erfassen: Das ist das Ergebnis einer Forschungsmesskampagne, die im Auftrag der europäischen Weltraumbehörde ESA unter der Leitung des Instituts für Umweltphysik (IUP) der Universität Bremen erfolgte.

Dabei haben Sensormessungen von Flugzeugen aus erstmals gezeigt, dass sich lokale Emissionen der beiden wichtigen Treibhausgase CO2 und Methan (CH4) aus der Ferne – und wie zukünftig auch vom Weltraum aus geplant – genau bestimmen lassen. Diese Ergebnisse sind ein wichtiger Meilenstein bei der Entwicklung eines zukünftigen satellitengestützten Sensorsystems („CarbonSat“), um weltweit und unabhängig Treibhausgase zu messen.

Im Sommer 2012 wurde mit zwei Flugzeugen eine intensive Messkampagne durchgeführt, um die Frage zu beantworten, ob man Änderungen des atmosphärischen CO2, wie sie beispielsweise durch Emissionen von Kohlekraftwerken verursacht werden, so genau vermessen kann, dass man daraus zuverlässig die Emission der CO2-Quelle bestimmen kann. Deutsche Kohlekraftwerke eignen sich sehr gut für solche Untersuchungen, da ihre Emissionen bekannt sind – was längst nicht bei allen Quellen und in allen Ländern der Erde der Fall ist. Deshalb ist ein wichtiges Ziel des CarbonSat-Projektes, die jetzt erprobte Messtechnik später auf unbekannte Quellen anzuwenden. CarbonSat wird zudem erfassen, wie viel Kohlendioxid Pflanzen aus der Atmosphäre aufnehmen. In der Kombination lässt sich dann besser erforschen, wie natürliche und von Menschen verursachte Prozesse das Klima beeinflussen oder auch vom Klima beeinflusst werden.

Im Rahmen der Messkampagne wurde mit dem in Bremen entwickelten flugzeuggestützten Sensor MAMAP die CO2-„Wolke“ eines Kohlekraftwerkes „von oben“ – also wie vom Satelliten – vermessen. Mit einem zweiten Forschungsflugzeug wurden Querschnitte durch die CO2-„Wolke“ erfasst. Letzteres geschah mit einem sehr genauen Standardverfahren, so dass die neuartige Messtechnik von MAMAP verlässlich überprüft werden konnte. Neben CO2-Emissionen aus Kohlekraftwerken wurden auch Methanemissionen aus Wetterschächten des aktiven Kohlebergbaus vermessen.

Die Auswertung der mit MAMAP gemessenen Daten belegt in doppelter Hinsicht die erfolgreiche Bremer Entwicklungsarbeit. Zum einen konnte nachgewiesen werden, dass mit spektroskopischen Fernerkundungsmethoden auch sehr kleine Konzentrationsänderungen in CO2 und CH4 sehr genau festgestellt werden können. Zum anderen lassen sich die Emissionsquellen bestimmen. Die unabhängigen Messungen des zweiten Kontrollforschungsflugzeuges bestätigen die hohe Qualität der neuen Fernerkundungsmethode.

Nach dem Erfolg der CarbonSat-Messkampagne werden Forscher vom IUP gemeinsam mit amerikanischen Kollegen in diesem Jahr eine zweite Forschungsrunde in Kalifornien vornehmen. Neben guten Wetterbedingungen zeichnet sich Kalifornien durch eine Vielzahl interessanter „Hot Spots“ (zum Beispiel durch natürliche Leckagen von Erdgas aus dem Meeresboden) aus. Dieses Projekt wird von der ESA und der NASA unterstützt. Der Bremer Umweltphysiker und Initiator des MAMAP-Projektes Heinrich Bovensmann blickt optimistisch nach vorn: „Wir haben inzwischen so viel gelernt, dass wir die Messtechnik des Flugzeugsensors nochmals drastisch steigern können. Das Projekt ‚MAMAP Next Generation‘ steht bereits in den Startlöchern.“

Weitere Informationen:
Universität Bremen
Institut für Umweltphysik
Heinrich Bovensmann
Tel. 0421 218 62102
E-Mail: heinrich.bovensmann@uni-bremen.de

Weitere Informationen:
http://www.iup.uni-bremen.de/carbonsat
http://www.iup.uni-bremen.de/deu/downloads/CarbonSat_PM_Uni-Bremen_Langversion_m…

Quelle: idw

(nach oben)


Feinstaub und Stickstoffdioxid belasten auch 2013 weiter die Gesundheit

Jährlich rund 47.000 vorzeitige Todesfälle durch schlechte Luft
Von 386 Messstationen überschreiten 3% den EU-Grenzwert, 98% den WHO-Leitwert und 2% haben keine Überschreitungen bei den Feinstaubwerten PM10/Tagesmittelwert. Beim PM10/Jahresmittelwert überschreiten 51% den WHO-Leitwert; 49% haben keine Überschreitungen

Überschreitungen der Feinstaubwerte PM10
Quelle: Umweltbundesamt

Vor allem Stickstoffdioxid und Feinstaub beeinträchtigten auch im Jahr 2013 die Luftqualität und damit die menschliche Gesundheit in Deutschland. Das zeigen vorläufige Messdaten der Länder und des Umweltbundesamtes (UBA). Beim Stickstoffdioxid war die Belastung im Vergleich zu den Vorjahren nahezu unverändert hoch. Mehr als die Hälfte der städtisch verkehrsnahen Stationen überschritten den zulässigen Jahresmittelwert von 40 Mikrogramm (μg) Stickstoffdioxid (NO2) pro Kubikmeter (m3) Luft. Auch beim Feinstaub gab es anhaltende Grenzwertüberschreitungen. Verglichen mit den Vorjahren war 2013 allerdings eines der am geringsten belasteten Jahre. Entwarnung ist aber nicht angezeigt, sagte Thomas Holzmann, Vizepräsident des UBA: „Der Feinstaub-Grenzwert wurde zwar nur an rund drei Prozent aller Messstationen überschritten. Das scheint gering, spiegelt aber die tatsächliche Gesundheitsbelastung der Bevölkerung durch Feinstaub nicht wider, gerade wenn man an die deutlich strengeren Empfehlungen der Weltgesundheitsorganisation WHO denkt.“
Die WHO rät bei Feinstaub der Partikelgröße kleiner als zehn Mikrometer (PM10) schon lange zu einem weitaus strengeren Luftgüteleitwert von 20 μg/m3 im Jahresmittel. Dieser wurde 2013 an fast 51 Prozent aller Messstationen in Deutschland überschritten. Thomas Holzmann: „Nach Berechnungen des Umweltbundesamtes gibt es jährlich im Schnitt rund 47.000 vorzeitige Todesfälle infolge der zu hohen Feinstaubbelastung – durch akute Atemwegserkrankungen, kardiopulmonale Erkrankungen oder Lungenkrebs. Wir plädieren für eine rasche Verschärfung der geltenden EU-Grenzwerte auf Basis der wissenschaftlichen Empfehlungen der Weltgesundheitsorganisation WHO.“

Bei einem weiteren wichtigen Luftschadstoff – dem vor allem im Sommer auftretenden bodennahen Ozon – hielten etwa acht Prozent der Messstationen den Acht-Stunden-Wert eines Tages nicht ein. Dieser liegt bei 120 μg/m3 und darf an höchstens 25 Tagen pro Kalenderjahr, gemittelt über drei Jahre, überschritten werden. Thomas Holzmann: „Die Belastung mit Ozon fiel erfreulicherweise gering aus. Dabei hat der zeitweise heiße Sommer die Bildung von Ozon durchaus begünstigt. Durch eine anspruchsvolle Luftreinhaltepolitik in den vergangenen Jahren sind die Emissionen der Vorläufersubstanzen des Ozons wie Stickstoffoxide und flüchtige Kohlenwasserstoffe aber deutlich zurückgegangen – und damit auch die Ozonbelastung im Sommer“. Im Jahr 2013 musste daher nicht ein einziges Mal Ozonalarm ausgelöst werden, aus Sicht eines anspruchsvollen Gesundheitsschutzes sind aber auch hier die Belastungen nach wie vor zu hoch.

Für gesunde Luft bleibt also noch viel zu tun. Und zwar in allen Sektoren: von der Holzheizung, über Autos und Lkw bis hin zum großen Kraftwerk. Das UBA begrüßt daher das Programm „Saubere Luft für Europa“, das die EU-Kommission zum Ende des Jahres der Luft 2013 vorgestellt hat. Thomas Holzmann: „Die EU-Kommission hat Ende 2013 anspruchsvollere Minderungsziele für die Emissionen der wichtigsten Luftschadstoffe vorgeschlagen. Deren Einführung wäre ein wichtiger Schritt auf dem Weg zu einer besseren Luftqualität in Deutschland und Europa.“

Programm „Saubere Luft für Europa“
http://ec.europa.eu/environment/air/clean_air_policy.htm
Informationen zum Jahr der Luft
http://www.umweltbundesamt.de/jahr-der-luft-2013

Quelle:uba

(nach oben)


„Gehen in ein gutes Frühjahr“

Bundesarbeitsministerin Andrea Nahles kommentiert die Arbeitsmarktzahlen für Februar 2014.

Wir gehen in Deutschland miteinander in ein gutes Frühjahr: Die Aussichten für die wirtschaftliche Entwicklung lassen hoffen, dass auch der Arbeitsmarkt sich weiter gut entwickeln wird. Das wichtigste Signal im Februar ist für mich: Die Erwerbstätigkeit steigt im Vergleich zum Vorjahr weiter an – um fast 300.000. Und auch die sozialversicherte Beschäftigung ist in mindestens dem gleichen Umfang gewachsen.

Arbeit zu haben, sichere Arbeit – das ist für viele Menschen die wichtigste Perspektive für die Zukunft. Wir wollen weiter dafür sorgen, dass auch die Menschen eine solche Perspektive finden, die schon lange vergeblich nach Arbeit suchen. Das sind im Februar 7.000 Menschen weniger als im Vormonat. Aber ihre Zahl ist mit etwa einer Million immer noch deutlich zu hoch. Hier müssen wir uns weiter engagieren und können vor allem auch mit europäischen Fördermitteln Langzeitarbeitslosen eine Perspektive geben

Weitere Informationen
Die Entwicklung des Arbeitsmarktes im Februar 2014

http://www.arbeitsagentur.de/nn_27030/zentraler-Content/Pressemeldungen/2014/Presse-14-006.html
Presse-Statement von Bundesarbeitsministerin Andrea Nahles, zu den aktuellen Arbeitsmarktzahlen
http://www.bmas.de/SharedDocs/Downloads/DE/Audios/audio-arbeitsmarktzahlen-februar-2014.mp3?__blob=publicationFile

Quelle: bmas

(nach oben)


Mehr als 1,34 Millionen Anlagen erzeugen Öko-Strom

Müller: Pläne des Bundes für EEG-Reform sind großer Fortschritt – Klärungsbedarf bei Detailfragen / Anteil bei Direktvermarktung schon über 50 Prozent

In Deutschland haben 2012 insgesamt 1.346.528 Anlagen Strom aus Erneuerbaren Energien erzeugt. Den zahlenmäßig größten Anteil daran hatte die Solarenergie mit 1.303.219 Anlagen, gefolgt von 22.198 Windenergieanlagen an Land und 13.099 Biomasseanlagen. Das haben neue Erhebungen des Bundesverbandes der Energie- und Wasserwirtschaft (BDEW) ergeben.

Die meisten EEG-fähigen Anlagen standen in Bayern (441.504), Baden-Württemberg (249.579) und Nordrhein-Westfalen (191.053). So wurden im Freistaat im Bundesvergleich bislang die meisten Photovoltaik- (433.767) und Biomasseanlagen (3.579) installiert. Die meisten Windenergieanlagen an Land (5.367) standen allerdings in Niedersachsen. Dies führte aufgrund der intensiven Windnutzung mit höheren Volllaststunden wiederum dazu, dass Niedersachsen im Vergleich mit allen anderen Bundesländern den meisten Strom aus EEG-Anlagen erzeugt hat (21,8 Mrd. kWh). Danach folgten Bayern (19,4 Md. kWh) und Nordrhein-Westfalen (12,4 Mrd. kWh).

Während der Anteil der Biomasse an der gesamten installierten Leistung im Bereich der Erneuerbaren Energien bei 8,1 Prozent lag, betrug ihr Anteil an der regenerativen Stromerzeugung mit 26,3 Prozent mehr als das Dreifache. „Die Politik muss auch aus diesem Grund beim Thema Energiewende den Wärmemarkt mehr ins Zentrum der Debatte rücken. Aber ausgerechnet hier enttäuscht der Koalitionsvertrag der Großen Koalition“, erläuterte Hildegard Müller, Vorsitzende der BDEW-Hauptgeschäftsführung. Denn auf den Gebäudebereich entfallen rund ein Drittel der CO2-Emissionen. „Das Potenzial, das hier zum Energiesparen und zur Minderung von CO2-Emissionen gehoben werden könnte, ist enorm. Beispielsweise können Biogas und Bio-Erdgas im Wärmemarkt viel Positives bewirken. Doch die von der Bundesregierung mit der EEG-Reform nunmehr geplanten Regelungen sind nicht geeignet, die flexiblen Einsatzpotenziale von Biogas zu unterstützen. Im Gegenteil: Mit ihrer Umsetzung würde der weitere Ausbau von Biogasanlagen zur Stromerzeugung zum Erliegen kommen“, erklärte Müller.

„Die neuen BDEW-Zahlen verdeutlichen die unterschiedlichen Entwicklungen im Bereich der Erneuerbaren Energien und zeigen gleichzeitig den Handlungsbedarf für die anstehende EEG-Reform auf. Der BDEW unterstützt die Bundesregierung bei der geplanten Novelle des EEG. Bei einem gegenwärtigen Anteil von rund einem Viertel an der Stromerzeugung müssen auch die Erneuerbaren Energien mehr Verantwortung übernehmen. Die Eckpunkte von Bundesminister Gabriel und der öffentlich gewordene Referentenentwurf, der sich zurzeit in der Ressortabstimmung befindet, können daher als großer Fortschritt gesehen werden. Insbesondere die sich abzeichnenden Maßnahmen zur Marktintegration der Erneuerbaren Energien und die Pflicht zur Direktvermarktung für neue Anlagen sehen wir sehr positiv“, so Müller.

Die Direktvermarktung von Erneuerbaren Energien, die zurzeit freiwillig erfolgt, ist nach Verbandsangaben inzwischen ein Erfolgsmodell. Im Jahr 2012 wurden bereits 40 Prozent der gesamten EEG-Strommenge im Rahmen des Marktprämienmodells vermarktet, bei der Onshore-Windenergie sind es sogar schon knapp 70 Prozent. Der BDEW erwartet, dass dieser Anteil 2013 auf mehr als die Hälfte der EEG-Strommenge gestiegen ist. Die genauen Zahlen werden im Herbst 2014 vorliegen.

„Neben der grundsätzlich richtigen Ausrichtung gibt es bei den Vorschlägen zur EEG-Reform allerdings noch Unklarheiten und Korrekturbedarf bei einigen wichtigen Detailfragen“, sagte Müller. So erfüllen nach erster Einschätzung des BDEW die im Referentenentwurf formulierten Übergangsregelungen noch nicht die Anforderungen an den Bestandsschutz, für den sich die Branche bereits ausgesprochen und den auch der Bundeswirtschaftsminister zugesichert hatte. „Bei der Stichtagsregelung sollte beispielsweise nachjustiert werden“, so Müller. „Auch beim Thema Selbstverbrauch von Strom aus Bestandsanlagen (zum Beispiel aus KWK oder Klärgasanlagen der Abwasserwirtschaft) gibt es noch intensiven Diskussionsbedarf. Der BDEW wird sich weiterhin konstruktiv und mit eigenen Vorschlägen in die Debatte einbringen.“

Anlagen und Materialien

Tabelle EEG-Anlagen im Jahr 2012 (PDF): https://www.bdew.de/internet.nsf/id/83C963F43062D3B9C1257C89003153BF/$file/140224%20Anlage_EEG-Anlagen%20im%20Jahr%202012.pdf

Energie-Info_Erneuerbare Energien und das EEG_2014 (PDF): https://www.bdew.de/internet.nsf/id/83C963F43062D3B9C1257C89003153BF/$file/Energie-Info_Erneuerbare%20Energien%20und%20das%20EEG%20%282014%29_24.02.2014_final_Journalisten.pdf

Quelle: bdew

(nach oben)


Fahren von Elektroautos wird noch kundenfreundlicher

Code-Vergabe ermöglicht allen Nutzern einfachen Zugang zu jeder öffentlichen Ladesäule / BDEW unterstützt Gratisparkplätze

Der Bundesverband der Energie- und Wasserwirtschaft (BDEW) wird ab 1. März 2014 einheitliche Identifikationsnummern für E-Mobility vergeben und damit seine Aktivitäten zum Thema Mobilität weiter ausbauen. Diese Nummern sind eine wichtige Voraussetzung dafür, dass die Fahrer von Elektroautos in Zukunft einen kundenfreundlichen Zugang zu möglichst allen Ladesäulen im öffentlichen Raum bekommen. „Die Energiewirtschaft engagiert sich von Anfang an für den Aufbau der Elektromobilität in Deutschland und unterstützt die ehrgeizigen Ziele der Bundesregierung unter anderem durch den bedarfsgerechten Aufbau der Ladeinfrastruktur. Der BDEW übernimmt deshalb gerne die Verantwortung, die einheitlichen Identifikationsnummern für E-Mobility zu vergeben und damit das Fahren von Elektroautos noch verbraucherfreundlicher zu machen“, sagte Hildegard Müller, Vorsitzende der Hauptgeschäftsführung des BDEW.

Interessierte Unternehmen werden künftig auf Antrag vom BDEW eine Identifikationsnummer für die Teilnahme als Provider von Elektromobilität sowie eine Identifikationsnummer für die Teilnahme als Ladesäulenbetreiber erhalten. In Abstimmung mit dem BMWi und den Marktpartnern wird ein kostendeckendes Entgelt für die Codenummernvergabe erhoben.

Gerade der bedarfsorientierte Ausbau der Ladeinfrastruktur spiele in der gegenwärtigen Marktvorbereitungsphase eine wichtige Rolle, um der Elektromobilität zum Erfolg zu verhelfen, sagte Müller weiter. Der BDEW unterstütze deshalb auch Pläne des Verkehrsministeriums, beispielsweise in Innenstädten Gratisparkplätze für Elektroautos zu schaffen.

Die einheitliche Codenummernvergabe, die den Aufbau eines funktionierenden Roaming-Systems ermöglicht, wurde im Rahmen des Technologieprogramms „IKT für Elektromobilität“ des Bundesministeriums für Wirtschaft und Energie (BMWi) entwickelt. Sie ist für die Energiewirtschaft, die Automobilwirtschaft sowie IT-Dienstleister wichtiger Bestandteil für ihre Geschäftsmodelle. Die einheitliche Vergabe der Codenummern für E-Mobility ist daher für die Akteure besonders relevant. Die Marktteilnehmer können unter diesen Umständen anbieterübergreifend und verbraucherfreundlich arbeiten.

Quelle: bdew

(nach oben)


Biomasse: Beste Ökobilanz bei Nutzungskaskade

Hemmnisse für stoffliche Biomassenutzung abbauen
Bioenergie, insbesondere Biokraftstoffe, werden kontrovers diskutiert – Bietet die stoffliche Nutzung von Biomasse in Form von Baumaterialien, Biokunststoffen oder Schmierstoffen also eine bessere Alternative? Diese Frage wurde jetzt erstmalig umfassend in einem Forschungsprojekt im Auftrag des Umweltbundesamtes (UBA) untersucht. Die Ergebnisse zeigen: Werden nachwachsende Rohstoffe vor einer energetischen Nutzung stofflich genutzt, lassen sich fossile Rohstoffe einsparen, Treibhausgasemissionen vermindern und die Wertschöpfung steigern. So soll Holz in einer längeren Verwertungskette zuerst als Baumaterial oder für die Holzwerkstoffindustrie im Anschluss zum Beispiel für Möbel genutzt werden und erst danach als Holzpellet für die Energiegewinnung. Diese Kaskadennutzung sollte in den Mittelpunkt einer langfristigen Strategie für eine ressourceneffiziente und nachhaltige Biomassenutzung gestellt werden.

Holz, Stärke aus Mais und Weizen, Pflanzenöle und Zucker zählen zu den wichtigsten stofflich genutzten biogenen Rohstoffen. Eine verstärkte stoffliche Nutzung nachwachsender Rohstoffe in Deutschland hätte erhebliche ökologische und ökonomische Potentiale hinsichtlich Treibhausgasminderung, Wertschöpfung und Beschäftigung, so die Projektergebnisse aus den Szenarien. In diesen wurde angenommen, dass die in Deutschland bisher energetisch genutzte Biomasse in Gänze stofflich genutzt wird.

Ökobilanzen zeigen, dass die stoffliche Nutzung von Biomasse viele Parallelen zur energetischen Biomassenutzung hat, allerdings ist die Kaskadennutzung des Rohstoffs, bei der sich die energetische an die stoffliche Nutzung anschließt, einer rein energetischen Nutzung weit überlegen. Auch ökonomisch hat die stoffliche Nutzung Vorteile. Sie schafft, bezogen auf die gleiche Menge an Biomasse, die fünf- bis zehnfache Bruttowertschöpfung und ebensolche Beschäftigungseffekte. Hauptgrund sind die meist langen und komplexen Wertschöpfungsketten.

Die stoffliche Biomassenutzung wird derzeit nicht finanziell gefördert. Gegenüber der energetischen Biomassenutzung ist sie deshalb kaum wettbewerbsfähig. Verschiedenste Programme und gesetzliche Regelungen begünstigen den Anbau von Energiepflanzen, deren Verarbeitung und direkten Einsatz zur Energiegewinnung – unter anderem durch Steuervorteile. Das steigert die Nachfrage nach Biomasse und folglich deren Preis, was wiederum höhere Pacht- und Bodenpreise nach sich zieht. Eine ökologisch und ökonomisch sinnvolle Kaskadennutzung wird so verhindert. Bei dieser würde Holz in einer längeren Recyclingkette idealerweise zuerst als Baumaterial, dann für Spanplatten, im Anschluss für Möbel und danach für kleine Möbel wie Regale genutzt werden. Erst dann, wenn es sich nicht mehr für Holzprodukte eignet, kann es auch für die Energiegewinnung eingesetzt werden.

UBA-Vizepräsident Thomas Holzmann: „Die beste Form Biomasse einzusetzen, ist die Kaskadennutzung. Holz oder andere pflanzliche Stoffe sollen so lange wie möglich stofflich genutzt werden, für Bauholz oder Möbel und anschließend für neue Produkte recycelt werden. Erst die Rest- und Abfallstoffe dürfen für die Energiegewinnung eingesetzt werden. Das Umweltbundesamt empfiehlt daher, vergleichbare Rahmenbedingungen für stoffliche und energetische Biomassenutzung zu schaffen und den Ausbau der Kaskadennutzung voranzutreiben. Das ist die optimale, ressourceneffizienteste Verwertung der Biomasse.“

Die bestehenden Wettbewerbsverzerrungen zuungunsten der stofflichen Nutzung von Biomasse lassen sich durch unterschiedliche Maßnahmen verringern. Beispielsweise sollte in der Erneuerbaren-Energie-Richtlinie der EU (RED) sowie bei deren nationaler Umsetzung, dem EEG, die Kaskadennutzung deutlich besser gestellt werden als die direkte energetische Nutzung frischer Biomasse. Ein weiteres Beispiel ist das Marktanreizprogramm (MAP) für Erneuerbare Energien, das die Wärmeerzeugung durch Biomasseanlagen fördert. Würde diese Förderung schrittweise gekürzt werden und würde dadurch die Nachfrage nach Scheitholz-, Hackschnitzel- und Pelletheizungen sinken, ließe sich die Konkurrenz um Holz zwischen dem stofflichen und energetischen Sektor deutlich entschärfen. Um das zu erreichen, sollte auch die Umsatzsteuer für Brennholz erhöht werden. Sie liegt derzeit bei einem reduzierten Satz von sieben Prozent.

In Deutschland werden derzeit etwa 90 Millionen Tonnen an nachwachsenden Rohstoffen genutzt. Knapp die Hälfte davon (48 %) wird stofflich genutzt, die andere Hälfte (52 %) energetisch. Mengenmäßig ist Holz der wichtigste nachwachsende Rohstoff. Es wird in der Säge- und Holzwerkstoffindustrie eingesetzt, als Bauholz für Gebäude oder die Möbelproduktion sowie in der Papier- und Zellstoffindustrie. Die Oleochemie und die chemische Industrie verarbeiten Pflanzenöle, z.B. zu Farben, Lacken und zu Schmierstoffen sowie stärke- und zuckerhaltige Pflanzen zu Tensiden und biobasierten Kunststoffen.

Die Anbaufläche für nachwachsende Rohstoffen, die stofflich genutzt werden, beläuft sich weltweit auf 2,15 Milliarden Hektar. Am meisten wird Holz angebaut, die Stärkepflanzen Mais und Weizen, die Ölpflanzen Ölpalme und Kokosnuss, das Zuckerrohr sowie Baumwolle und Naturkautschuk.

Weitere Informationen:
Das Forschungsprojekt „Ökologische Innovationspolitik – Mehr Ressourceneffizienz und Klimaschutz durch nachhaltige stoffliche Nutzungen von Biomasse“ wurde im Auftrag des Umweltbundesamtes durchgeführt und mit Mitteln des Bundesumweltministeriums (BMUB) gefördert. Das Projekt wurde unter Federführung der nova-Institut GmbH, Hürth, in Kooperation mit weiteren Partnern von 2010 bis 2013 bearbeitet.

F+E Ökologische Innovationspolitik – Mehr Ressourceneffizienz und Klimaschutz durch nachhaltige stoffliche Nutzungen von Biomasse (FKZ 37 1093 109). Der Forschungsbericht kann unter der Kennnummer 001865 aus der Bibliothek des Umweltbundesamtes ausgeliehen werden.

Publikationen
Ökologische Innovationspolitik – Mehr Ressourceneffizienz und Klimaschutz durch nachhaltige stoffliche Nutzungen von Biomasse – Kurzfassung
http://www.umweltbundesamt.de/publikationen/oekologische-innovationspolitik-mehr-0
Globale Landflächen und Biomasse
http://www.umweltbundesamt.de/publikationen/globale-landflaechen-biomasse

Quelle: idw

(nach oben)


Umweltverbandsklage – erfolgreich in Sachen Umwelt und Natur

Studie belegt Wirksamkeit der Umweltverbandsklage
Fast die Hälfte aller umweltrechtlichen Klageverfahren von anerkannten Umweltverbänden ist erfolgreich. Damit übertrifft die Umweltverbandsklage die durchschnittliche Erfolgsquote von verwaltungsrechtlichen Klageverfahren in Deutschland bei weitem. Sie hat sich als wirksames Instrument zur Einhaltung umweltrechtlicher Vorgaben bei der Planung und Genehmigung von Industrie- und Infrastrukturvorhaben erwiesen.

Gezielte Klagen auf hohem fachlichen Niveau
Im Auftrag des Umweltbundesamtes (UBA) haben das Öko-Institut e.V. und die Sonderforschungsgruppe Institutionenanalyse (sofia, Hochschule Darmstadt) die Wirksamkeit der Umweltverbandsklage untersucht. Sie kamen zu dem Ergebnis, dass 48 Prozent aller Klagen von anerkannten Umweltverbänden in den Jahren 2006 bis 2012 vor den Verwaltungsgerichten ganz oder teilweise erfolgreich waren. Dies ist im Wesentlichen darauf zurückzuführen, dass die Verbände nur in wenigen, besonders aussichtsreichen Fällen von ihrem Klagerecht Gebrauch machen. So stehen durchschnittlich zwölf Klagen pro Jahr mehr als 700 Umweltverträglichkeitsprüfungen bei Infrastrukturvorhaben gegenüber. Die Studie widerlegt damit die geäußerten Befürchtungen, die Einführung der Verbandsklagerechte werde zu einer Flut von Klagen führen. Der überdurchschnittliche Erfolg dieser Verfahren zeigt vielmehr, dass die Umweltverbände ihre Klagerechte kompetent und verantwortungsbewusst wahrnehmen.

Verbesserungen für den Umweltschutz bereits im Vorfeld von Klagen
Die Befragung von Verbändevertretern und Akteuren bei Genehmigungsbehörden und Vorhabenträgern hat ergeben, dass bereits die bloße Möglichkeit einer Klage positive Wirkung für die Berücksichtigung von Umweltschutzbelangen entfaltet. Genehmigungsbehörden und Vorhabenträger berücksichtigen die Stellungnahmen und Einwände der Verbände bereits in der Planungs- und Genehmigungsphase. Dies verbessert die Qualität der Zulassungsverfahren und führt zu mehr Rechtssicherheit für die Vorhabenträger. Letztlich führt die frühzeitige Kooperation so zur Vermeidung von Klageverfahren und entlastet die Gerichte.

Blick zu den Nachbarn
Die Studie wirft ebenfalls einen Blick auf die Regelungen zur Verbandsklage in drei Nachbarländern (Polen, die Niederlande und Österreich). Das Forschungsteam nutzt die Erfahrungen in diesen Ländern für Vorschläge zur Verbesserung der rechtlichen und institutionellen Ausgestaltung der Verbandsklage in Deutschland.

Entwicklungen in Europa und Deutschland
Die Ergebnisse der Studie können auch wichtige Impulse für die Weiterentwicklung der Umweltverbandsklage geben. Zu nennen sind hier zum einen notwendige Anpassungen des Umwelt-Rechtsbehelfsgesetzes an die Rechtsprechung des Europäischen Gerichtshofs und deutscher Gerichte. Zum anderen sind auch auf europäischer Ebene Änderungen bei den Vorschriften über den Gerichtszugang angekündigt. Die Europäische Kommission erarbeitet derzeit einen neuen Vorschlag für eine ergänzende Richtlinie zum Zugang zu Gerichten in Umweltangelegenheiten.

Publikationen
Evaluation von Gebrauch und Wirkung der Verbandsklagemöglichkeiten nach dem Umwelt- Rechtsbehelfsgesetz (UmwRG)
http://www.umweltbundesamt.de/publikationen/evaluation-von-gebrauch-wirkung-der

Quelle: idw

(nach oben)


Kommunale Energiebeauftragte beraten auf Jahreskongress über Energieeffizienz

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Einladung/Terminhinweis: 19. Deutscher Fachkongress der kommunalen Energiebeauftragten tagt am 7. und 8. April 2014 in München

Berlin. „Kommunen für Energieeffizienz“ dieses Thema steht im Mittelpunkt des diesjährigen Fachkongresses. Neben den kommunalen Aktivitäten in den Bereichen Energieeinsparung und Nutzung erneuerbarer Energien stellt die Steigerung der Energieeffizienz den dritten wichtigen Baustein zur Erreichung der Klimaschutzziele und der Energiewende dar. Hierzu bestehen in den Kommunen vielfältige Handlungsmodelle und -potenziale.

Veranstalter des Kongresses sind das Deutsche Institut für Urbanistik (Difu) gemeinsam mit der gastgebenden Stadt München in Kooperation mit dem Arbeitskreis „Energiemanagement des Deutschen Städtetages, dem Deutschen Städtetag, dem Deutschen Städte- und Gemeindebund und dem Deutschen Landkreistag.

Im Rahmen des Kongresses werden verschiedene Workshops zu folgenden Themenschwerpunkten angeboten:

– Energieeffizienz in Kommunen,
– Erneuerbare Energien,
– Energie im Gebäudemanagement,
– Kooperation, Beratung und Öffentlichkeitsarbeit.

Leitung:
Dipl.-Ing. Cornelia Rösler, Deutsches Institut für Urbanistik

Programm mit Detailinfos/Konditionen:
http://www.difu.de/veranstaltungen/2014-04-07/19-deutscher-fachkongress-der-komm…

Teilnehmerkreis:
Energiebeauftragte aus Städten, Gemeinden und Kreisen sowie aus kommunalen Unternehmen, Energie- und KlimaschutzmanagerInnen, Ratsmitglieder

Veranstaltungsort:
Tagungszentrum im Kolpinghaus München-Zentral
Adolf-Kolping-Straße 1
80336 München

Ansprechpartnerin/Anmeldung:
Sigrid Künzel
Telefon: 0221/340308-0
Fax: 0221/340308-28
E-Mail: kuenzel@difu.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut mit einem weiteren Standort in Köln (Bereich Umwelt) bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

++++++++++++++++++++++++++++++++++++++++
Difu-Website:
http://www.difu.de

Vernetzen Sie sich mit uns über Facebook:
https://www.facebook.com/difu.de

Difu im informationsdienst wissenschaft (idw)
http://www.idw-online.de/de/pressreleases225
++++++++++++++++++++++++++++++++++++++++
Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Dipl.-Ing. Martin zur Nedden

Weitere Informationen:
http://www.difu.de/veranstaltungen/
http://www.difu.de/veranstaltungen/2014-04-07/19-deutscher-fachkongress-der-komm…

Quelle: idw

(nach oben)


Zu viel Einweg bei Tragetaschen

Umweltbundesamt weiter für Bezahlpflicht
Das Umweltbundesamt empfiehlt, den Verbrauch von Einweg-Tragetaschen aus Kunststoff weiter zu verringern und die im Lebensmitteleinzelhandel bereits bestehende Bezahlpflicht für Einkaufstaschen auszuweiten. Das trägt dazu bei, Ressourcen effizient zu nutzen, Abfälle zu vermeiden sowie den Abfalleintrag in die Meere zu verringern. Aktuelle Daten belegen, dass kleine und große Einwegtüten aus Kunststoff sowie deren Reste in den Spülsäumen der Nord- und Ostsee durchgängig vorkommen. Thomas Holzmann, Vizepräsident des Umweltbundesamtes: „Einwegtüten sind ein kurzlebiges Produkt. Selbst wenn man sie zwei- oder dreimal verwendet, so lassen sie sich dennoch schwer mit Abfallvermeidung und effizienter Ressourcennutzung in Einklang bringen. Zudem finden sie sich an den Küsten und in den Meeren. Bei Einwegtragetaschen aus Kunststoff spricht also viel für eine Bezahlpflicht.“

Die EU-Kommission hat deshalb im November 2013 eine Änderung der Verpackungsrichtlinie vorgeschlagen, wonach Mitgliedstaaten innerhalb von zwei Jahren den Verbrauch von sehr leichten Einweg-Tüten mit Wandstärken von weniger als 50 Mikrometer deutlich reduzieren sollen. Ob diese Eingrenzung sinnvoll ist und welche Maßnahmen in Deutschland in Frage kämen, diskutiert das Umweltbundesamt heute auf der Dialogveranstaltung „Einweg-Tragetaschen“ mit Herstellern, Behörden sowie Umwelt- und Verbraucherverbänden. Die Gesellschaft für Verpackungsmarktforschung beziffert in ihrer aktuellen Erhebung den derzeitigen Pro-Kopf-Verbrauch von Einweg-Tragetaschen in Deutschland auf 76 Stück pro Jahr. Der jährliche EU-Durchschnitt wird auf 198 Einweg-Tragetaschen pro Einwohner beziffert. Darüber hinaus werden in Deutschland 39 Stück Hemdchenbeutel für Bedienware pro Kopf und Jahr verbraucht.

Deutschland verfügt über ein hoch entwickeltes Abfallwirtschaftssystem. Verpackungsabfälle werden getrennt erfasst, eine Deponierung unbehandelter Abfälle findet nicht statt. Kunststofftüten gelangen dennoch regelmäßig in die Umwelt. Ihre Reste lassen sich weltweit in Meeren und an Küsten finden. Das gilt auch für die Ost- und die Nordsee, wie erstmals Zählungen der Meeresschutzbehörden von Schleswig-Holstein und Mecklenburg-Vorpommern belegen. In den Jahren 2008 bis 2012 wurden in den Spülsäumen der Nordsee durchschnittlich 1,5 Einweg-Tragetaschen aus Kunststoff und drei Hemdchenbeutel – kleine dünnwandige Plastiktüten pro hundert Meter Küstenlinie gefunden. Dass Kunststoffreste in den Spülsäumen europäischer Meere dominieren, bestätigen ebenso Untersuchungen am Mittelmeer. Diese Fragmente werden von Meereslebewesen mit Nahrung verwechselt und können die Mägen der Tiere verstopfen, was zum Tod durch Verhungern oder durch innere Verletzungen führen kann. Die endgültige Zersetzung kann Jahrhunderte dauern. Dabei können Additive wie Weichmacher in die Meeresumwelt gelangen. Demgegenüber steht eine sehr kurze Nutzungsdauer der Tüten.

Ebenso wenig umweltfreundlich sind Einweg-Tragetaschen aus biologisch abbaubaren Kunststoffen. Thomas Holzmann: „Biologisch abbaubare Kunststofftüten sind für uns keine Alternative zu herkömmlichen Einweg-Tüten. Auch diese sind kurzlebige Einwegprodukte und tragen nicht zur Abfallvermeidung bei. Das Material bietet bisher keine ökologischen Vorteile gegenüber Kunststoffen, die aus Erdöl gewonnen werden.“ Biologisch abbaubare Kunststoffe könnten das Recycling konventioneller Kunststoffe beeinträchtigen. In Kompostierungsanlagen werden Kunststoffe meist generell als Störstoff aussortiert. Die Rottezeiten in vielen industriellen Kompostierungsanlagen reichen oftmals nicht für eine Zersetzung der biologisch abbaubaren Kunststoffe aus. Zudem lösen sie nicht das Problem der Meeresvermüllung. Eine schnellere Zersetzung unter den kalten und meist dunklen Bedingungen im Meer lässt sich nicht nachweisen.

Das Umweltbundesamt empfiehlt, eine Bezahlpflicht auf Einwegtragetaschen aus Kunststoff einzuführen. Dazu kann die bereits im Lebensmitteleinzelhandel existierende Praxis, wonach für alle Einkaufstragetaschen gezahlt werden muss, auf den gesamten Einzelhandel ausgedehnt werden. Ressourcen lassen sich schonen und Abfall vermeiden, wenn Mehrwegtragetaschen bevorzugt und bereits vorhandene Einweg-Tragetaschen mehrfach verwendet werden. Unter den Einwegtragetaschen sind Varianten aus recycelten Kunststoffen empfehlenswert. Zum Beispiel die Tragetaschen mit dem Blauen Engel: Diese bestehen zu mindestens 80 Prozent aus verwerteten Kunststoffen. Entsorgt werden diese am besten in der Gelben Tonne oder dem Gelben Sack.

Weitere Informationen
Das Umweltbundesamt lässt derzeit Eintragsquellen und -mengen von Kunststoffverpackungen sowie anderen Abfällen und deren Auswirkungen auf die Meeresumwelt untersuchen. Dazu gehört ein kohärentes Monitoring der Belastung der deutschen Meere mit Abfällen inklusive der Entwicklung von Methoden zur statistischen Trendermittlung. Weiterhin sollen ökologische Auswirkungen von Müll im Meer umfassend betrachtet und bewertet werden. Darüber hinaus ist das UBA federführend an der Entwicklung von regionalen Aktionsplänen zur Verminderung des Eintrags von Müll in Nordostatlantik und Ostsee im Rahmen der laufenden Arbeiten der regionalen Übereinkommen zum Schutz dieser Meeresgebiete aktiv.

Quelle: Umweltbundesamt

(nach oben)


Beitrag zum Hochwasserschutz an der Elbe

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)

„Gebt den Flüssen mehr Raum!“ Diese häufig gestellte Forderung hat zum Ziel, Überschwemmungsgebiete, die in der Vergangenheit durch Deichbaumaßnahmen verloren gingen, zurückzugewinnen und damit den vorbeugenden Hochwasserschutz zu stärken und Flussauen in ihrer ökologischen Funktion zu reaktivieren. Ein aktuelles Beispiel hierfür ist die Deichrückverlegung in der Lenzen-Wustrower Elbeniederung bei Wittenberge, wo der Hochwasserschutzdeich landeinwärts verlegt, der Altdeich durch Schlitzungen geöffnet und das Abflussvrmögen im Vorland durch Flutrinnen erhöht wurden.

Die vom Land Brandenburg als Bauherr im Jahr 2009 mit 420 Hektar größte bislang realisierte Maßnahme ihrer Art in Deutschland konnte ihre Wirksamkeit bereits wiederholt unter Beweis stellen, zuletzt beim Elbe-Hochwasser im Juni 2013.
Wegen des Pilotcharakters, den die Maßnahme in Lenzen für ähnliche Maßnahmen an der Elbe und an anderen Wasserstraßen haben kann, wurden die Ergebnisse jetzt in der wissenschaftlichen Publikationsreihe BAWMitteilungen der Bundesanstalt für Wasserbau veröffentlicht. Auf ca. 200 Seiten werden Planung und Realisierung des Projekts sowie die nach Fertigstellung durchgeführten Untersuchungen umfassend dokumentiert. Dabei liegt der Fokus auf den ingenieurtechnischen Fragestellungen des Wasserbaus, der Oberflächen- und Grundwasserhydraulik sowie der Morphodynamik im Gewässerbett.
Die BAW ist bereits seit 1995 an dem Projekt intensiv beteiligt. Ausgangspunkt war die Untersuchung verkehrswasserbaulich relevanter Fragestellungen, beispielsweise die Abflussaufteilung zwischen Elbe und Deichrückverlegungsgebiet sowie die Auswirkungen auf den lokalen Feststoffhaushalt der Elbe. In der Folgezeit hat die BAW auch die hydraulische Leistungsfähigkeit der Deichrückverlegung bei Hochwasser nachgewiesen und optimiert.
Für eine wissenschaftliche Einrichtung wie die BAW ist die Möglichkeit, an einem derart großen, interdisziplinär angelegten Projekt langfristig und eng eingebunden mitzuarbeiten, sehr attraktiv. Insbesondere die große Zahl der untersuchten Varianten und die große Bearbeitungstiefe haben das Verständnis für die hydraulischen und morphologischen Prozesse im Untersuchungsgebiet deutlich erhöht. Dies wiederum hat Eingang in die numerischen Berechnungsmodelle der BAW gefunden und diese weiter verbessert. Das langfristig angelegte Monitoring liefert Naturdaten, die für die weitere Validierung der Modellergebnisse herangezogen werden können. Vor allem aber geben sie umfassende Auskunft über den mit dieser Maßnahme erzielten Erfolg. Insofern ist das Projekt auch nach Abschluss der Baumaßnahmen nicht beendet und der fruchtbare Dialog zwischen den am Projekt Beteiligten wird fortgesetzt.

Weitere Informationen:
Die BAWMitteilungen Nr. 97 stehen ab sofort zum kostenlosen Download bereit.
http://www.baw.de/de/die_baw/publikationen/mitteilungsblaetter/index.php.html

Quelle: idw

(nach oben)


gesundheitsinformation.de hat ein neues Gesicht

Dr. Anna-Sabine Ernst Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Staatssekretär Karl-Josef Laumann, Pflege- und Patientenbeauftragter: „Verlässliche und verständliche Informationen“ / Neue Struktur und frische Optik / Heuschnupfen aktuelles Thema

Was kann ich bei Heuschnupfen tun? Wer im Internet nach einer Krankheit oder Behandlung sucht, fühlt sich von der Vielzahl der Angebote schnell überfordert. Kompakte und verlässliche Antworten auf gesundheitliche Fragen gibt es seit acht Jahren auf gesundheitsinformation.de. Der Themenkatalog des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) ist mittlerweile so gewachsen, dass eine umfassende Neustrukturierung des Portals nötig war.

Mit dem aktuellen Relaunch hat das Institut die Struktur und viele Themen der Website umfassend überarbeitet, Handhabung und Optik verbessert. Verständlich zu sein und gleichzeitig wissenschaftlich fundierte Antworten zu Krankheiten, Untersuchungen und Behandlungen zu geben, muss kein Widerspruch sein. „Denn gerade wer krank ist oder sich um einen Angehörigen Sorgen macht, braucht verlässliche und verständliche Informationen. Die bietet gesundheitsinformation.de“, sagt Staatssekretär Karl-Josef Laumann, Pflege- und Patientenbeauftragter der Bundesregierung. Solche Informationen können das Gespräch mit Arzt oder Ärztin sinnvoll ergänzen.

Schneller zum Ziel

„Wer eine Antwort sucht, möchte sich schnell orientieren. Deshalb ist jedem Thema jetzt ein Überblick vorangestellt“, erklärt Dr. Klaus Koch, Leiter des Ressorts Gesundheitsinformation beim IQWiG. „Wer etwa Heuschnupfen hat und mehr über die spezifische Immuntherapie erfahren will, kommt vom Überblick direkt zu den gewünschten Inhalten.“ Wie läuft die Behandlung ab? Sind Spritzen oder Tropfen besser? Und mit welchen Nebenwirkungen muss ich rechnen? Das sind nur einige der Fragen, die hier beantwortet werden.

Nutzerfreundlich und ohne Werbung

Die neue Struktur, das klare Design und eine intelligente Suche erleichtern die Orientierung. Wenn jemand den Namen einer Erkrankung nicht genau kennt, macht die Suche passende Vorschläge. Außerdem wird großer Wert auf Barrierefreiheit gelegt: Die Website ist zugänglich für technische Hilfsmittel, mit denen sich zum Beispiel Menschen mit Sehbehinderung Inhalte vorlesen lassen können. Alle Texte können jetzt auch komfortabel mit einem Smartphone oder Tablet abgerufen werden und passen sich flexibel dem jeweiligen Gerät an.

Kostenlos und werbefrei, auch das ist typisch für gesundheitsinformation.de. „Das IQWiG hat keine kommerziellen Interessen. Es ist gemeinnützig, wissenschaftlich unabhängig und stellt gesundheitliche Informationen für alle Bürgerinnen und Bürger zur Verfügung – im gesetzlichen Auftrag“, so Klaus Koch.

Von A wie „Allergie“ bis Z wie „Zecken“

Das Angebot von gesundheitsinformation.de wird in den nächsten Jahren noch deutlich wachsen. Angesichts der schier unbegrenzten Zahl von Gesundheitsthemen kann zwar niemand Antworten auf alle Fragen liefern. „Unser Ziel ist es aber, nach und nach Informationen zu einem breiten Katalog von häufigen Erkrankungen aufzuarbeiten“, sagt Professor Dr. Jürgen Windeler, Leiter des IQWiG. „Damit möglichst viele Menschen bei gesundheitsinformation.de finden, was sie suchen.“

Wer über aktuelle Veröffentlichungen auf dem Laufenden bleiben möchte, kann unter gesundheitsinformation.de einen Newsletter abonnieren oder auf Twitter folgen: @iqwig_gi

Weitere Informationen:
http://www.iqwig.de

Quelle: idw

(nach oben)


Multitalent: Bio-Kläranlage, Lebensraum und Baumaterial

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Rohrkolben mit DBU-Förderung für nachhaltige Landwirtschaft und ökologisches Bauen entdeckt

Postmünster/Nürnberg. Die Erfolgsgeschichte der Sumpfpflanze Rohrkolben begann vor 18 Jahren mit ihrem Anbau in Niedermooren. Gefördert von der Deutschen Bundesstiftung Umwelt (DBU) offenbarte ein Modellprojekt die Ökovorteile der Pflanze: Da für ihren Anbau hohe Wasserstände nötig sind, können sich die seit Jahrhunderten für die Landwirtschaft trockengelegten Niedermoore wieder erholen. Außerdem reinigt sie das Wasser und speichert große Mengen Kohlendioxid. Dabei wurde die Pflanze eigentlich für das Herstellen von Baumaterial aus nachwachsenden Rohstoffen angebaut. Auch dies ist nun in einem an den Rohrkolbenanbau anknüpfenden DBU-Projekt gelungen. Das Büro für Denkmalpflege und Baustoffentwicklung aus Postmünster entwickelte aus der Wasserpflanze ein zugleich dämmendes und tragendes Baumaterial, das sich besonders für die Sanierung historischer Fachwerkhäuser sehr gut eignet. „Wenn sich aus einem Naturschutzprojekt Perspektiven für weitere Entwicklungen etwa im ökologischen Bauen ergeben, ist das der Idealfall einer erfolgreichen Förderung“, sagte DBU-Generalsekretär Dr. Heinrich Bottermann.

Die Rohrkolben funktionierten wie eine natürliche Kläranlage, erläuterte DBU-Referent Dr. Reinhard Stock. Sie kämen sehr gut mit teils aus der Landwirtschaft stammendem nährstoffbelastetem Wasser zurecht und reinigten es. „Zudem binden die Pflanzen Kohlendioxid, die vernässten Anbauflächen verhindern die Freisetzung von Treibhausgasen und sind gleichzeitig Lebensraum für daran angepasste Tier- und Pflanzenarten“, so Stock. Aufbauend auf dem 1996 begonnenen DBU-Projekt von Werner Theuerkorn vom Büro für Denkmalpflege und Baustoffentwicklung sowie der Technischen Universität München zur schonenden Wiedervernässung von Mooren im bayerischen Donaumoos liege nun das Endergebnis vor: Baustoffplatten aus Rohrkolben für das Ausfüllen von Fachwerkgefügen. Besonders die energiearme Produktion des Baustoffs und die Tatsache, dass das Produkt wieder in den Stoffkreislauf zurückgeführt werden könne, sprechen für die neuartigen Platten.

„Wir haben zusammen mit dem Fraunhofer Institut für Bauphysik aus den Blättern von Rohrkolben ein massives Dämmmaterial hergestellt, das auch bei schlanker Bauweise die Vorgaben der Energieeinsparverordnung von 2009 erfüllen und den Anforderungen beim energetischen Sanieren von Altbauten gerecht werden kann“, so Projektleiter Theuerkorn. Bei der Dämmung im Gefach mit zusätzlicher Innendämmung konnte trotz einer relativ geringen Wandstärke von 20 Zentimetern mit einem Wärmedurchgangskoeffizienten (U-Wert) von 0,35 (Watt pro Quadratmeter und Kelvin) ein Dämmstandard wie bei einem durchschnittlichen Wandaufbau mit konventionellen Dämmstoffen erreicht werden. Theuerkorn: „Wenn man die Fachwerk-Fassade erhalten oder freilegen möchte, kann man nur nach innen dämmen und verliert so wertvollen Platz. Durch den schlanken Baustoff aus Rohrkolben hat man dieses Problem in deutlich geringerem Umfang.“

Außerdem überzeuge die Verträglichkeit mit den historischen Materialien Holz, Flechtwerk und Lehm. Dadurch könne möglichst viel der originalen Bausubstanz erhalten werden. Die biologisch abbaubaren Rohrkolben-Platten leiteten auch sehr gut die Feuchtigkeit ab und seien durch die enthaltenen Gerbstoffe schimmelresistent, was chemische Zusätze überflüssig mache. Mit knapp 75.000 Euro förderte die DBU das Erproben des neuen Baustoffs an einem denkmalgeschützten Haus in Nürnberg, das im Kern aus dem 15. Jahrhundert stammt und dessen Fachwerkfassade im späten 17. Jahrhundert erbaut wurde.

Gleichwohl stelle sich zurzeit noch das „Henne-Ei-Problem“, so Theuerkorn: Eine erfolgreiche Vermarktung funktioniere nur, wenn die Landwirtschaft die Rohrkolben anbaue. Doch dafür brauche sie eine Kauf-Garantie von Produzenten und Handel. Gefragt sei der schlanke, ökologische und denkmalgerechte Baustoff allemal: „Die Firma Typha Technik und Naturbaustoffe konnte einen Naturbaustoff entwickeln, der eine denkmalgerechte und nachhaltige Gebäudesanierung ermöglicht. Damit wurde die Vereinbarkeit von Denkmalschutz und energetischer Nachrüstung nachgewiesen“, betonte Dr. Paul Bellendorf, DBU-Referent für Umwelt und Kulturgüter.

Weitere Informationen:
http://www.dbu.de/123artikel35144_335.html

Quelle: idw

(nach oben)


Kosten der Arbeitslosigkeit haben sich in den vergangenen zehn Jahren real halbiert

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Für die öffentlichen Haushalte haben sich die Kosten der Arbeitslosigkeit in den vergangenen zehn Jahren real mehr als halbiert, zeigt eine am Mittwoch veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB). Während 2012 die gesamtfiskalischen Kosten der Arbeitslosigkeit mit 53,8 Milliarden Euro etwa zwei Prozent des Bruttoinlandsprodukts (BIP) entsprachen, waren es 2003 mit 91,5 Milliarden Euro noch 4,3 Prozent des damaligen BIP. „Zu dem positiven Ergebnis haben insbesondere die Arbeitsmarktreformen und die streckenweise bessere Wirtschaftsentwicklung beigetragen“, schreiben die Arbeitsmarktforscher Enzo Weber, Karl Heinz Hausner und Heidemarie Engelhard.

Rund 55 Prozent der gesamtfiskalischen Kosten der Arbeitslosigkeit entstehen den öffentlichen Haushalten durch Ausgaben für das Arbeitslosengeld I und II sowie die für Arbeitslose zu zahlenden Sozialversicherungsbeiträge. Das IAB beziffert diese Ausgaben für das Jahr 2012 mit 29,6 Milliarden Euro.

Die übrigen 45 Prozent resultieren aus Einnahmeausfällen bei Steuern und Sozialbeiträgen. Sie umfassten im gleichen Jahr 24,1 Milliarden Euro. So hat der Staat wegen der Arbeitslosigkeit neun Milliarden Euro weniger Steuern eingenommen – davon 7,6 Milliarden weniger Lohn- und Einkommenssteuer.

Die größten Teile der durch Arbeitslosigkeit entstandenen Kosten entfielen auf die Bundesagentur für Arbeit mit 29 Prozent und den Bundeshaushalt mit knapp 27 Prozent der Gesamtkosten. Darauf folgten die Rentenversicherung mit gut 16 Prozent und die Gemeinden mit zwölf Prozent. Der Anteil der Krankenversicherung lag bei acht Prozent, die Länder trugen sieben Prozent und die Pflegeversicherung ein Prozent der Kosten.

„Ein Arbeitsloser kostete die öffentlichen Budgets im Jahr 2012 durchschnittlich etwa 18.600 Euro“, erklären die Forscher. Bei den Arbeitslosengeld-I-Empfängern lag dieser Betrag mit 21.800 Euro deutlich höher als bei den Beziehern von Arbeitslosengeld II (18.600 Euro). Je Arbeitslosen, der weder Arbeitslosengeld I noch II bezieht, entgingen dem Staat Einnahmen in Form von nicht entrichteten Steuern und Sozialbeiträgen in Höhe von 9.900 Euro.

Nicht eingerechnet sind die Ausgaben für die aktive Arbeitsmarktpolitik, beispielsweise für Weiterbildungsmaßnahmen. 2012 wurden für die aktive Arbeitsmarktpolitik insgesamt 13 Milliarden Euro ausgegeben, das entspricht 4.349 Euro je Arbeitslosen. In den Jahren 2003 bis 2011 betrugen die auf einen Arbeitslosen bezogenen Ausgaben durchschnittlich 4.714 Euro pro Jahr.

„Soll die Arbeitslosigkeit weiter abgebaut werden, ist vor allem eine nachhaltige Qualifizierung von Arbeitslosen zu empfehlen“, betonen die Arbeitsmarktforscher. Daneben müsse Prävention hohe Priorität haben, um strukturelle Probleme von vorneherein zu vermeiden. Hier sei die Qualifikation von Berufsanfängern durch das Bildungssystem entscheidend. Personen ohne Berufsabschluss sind den Arbeitsmarktforschern zufolge weit stärker von Arbeitslosigkeit betroffen als Höherqualifizierte.

Weitere Informationen:

http://doku.iab.de/kurzber/2014/kb0214.pdf

Quelle: idw

(nach oben)


Hochwasserrisiko: Lässt sich das Niveau von Extrem-Hochwasser vorhersagen?

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Analyse mehrerer Jahrhunderthochwasser ermöglicht die Entwicklung von Vorhersagemodellen für extreme Hochwasserereignisse. Im Rahmen des Projekts Extraflo, unter der Leitung des Irstea [1], wurden Empfehlungen zu Methoden der Risikoabschätzung von Extremhochwasser erarbeitet. Im November 2013 wurden die Ergebnisse der Studie bekannt gegeben.

Die Auswertung der bisher genutzten Daten machte deutlich, dass die bislang erarbeiteten Ansätze unzuverlässig sind und nur auf der Beobachtung von statistischen Daten aus wenigen Jahrzehnten basierten.

Zur besseren Abschätzung der Faktoren stützte sich das Projekt Extraflo auf eine breite Palette von Kompetenzen und Disziplinen, wie die statistische, hydrologische und hydraulische Modellierung, die Klimatologie, die Hydro-Geomorphologie, die Paläo-Hydrologie etc. Auf der Grundlage der so erhaltenen Daten konnte die Analyse verfeinert werden. Prognosen für Extremhochwasser-Ereignisse können durch folgende vier Ansätze untermauert werden:

• Nutzung der Daten zu Rekordregenfällen und zur Wasserdurchflussmenge auch auf regionaler Ebene
• Sammlung historischer Daten
• Anwendung von Simulationsmethoden, mit denen sich aufgrund der Regenmenge Rückschlüsse auf den Wasserdurchfluss ableiten lassen
• Analyse morphologischer Spuren von früheren Überschwemmungen.

Schäden können auch durch präventive Maßnahmen reduziert werden.

[1] Irstea – nationales Forschungsinstitut für Umwelt- und Agrarwissenschaften und -technologien, öffentliche Forschungseinrichtung mit Schwerpunkt Landmanagement (Wasserressourcen, Landtechnik).

Weitere Informationen:
Website der Projekt – http://extraflo.irstea.fr/

Quelle:
Pressemitteilung des IRSTEA http://www.irstea.fr/toutes-les-actualites/departement-eaux/risque-inondation-es…

Quelle: idw

(nach oben)


Tropische Vulkanausbrüche sorgen für verregnete Sommer in Europa

Lisa Dittrich Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Gießener Forscher lösen Rätsel um „Jahr ohne Sommer“ 1816 – Damalige Hungersnot prägte auch den Chemiker Justus Liebig

Historische Aufzeichnungen belegen, dass auf starke tropische Vulkanausbrüche oft ein regenreicher Sommer in Mitteleuropa folgte. Diese „Jahre ohne Sommer“ führten immer wieder zu katastrophalen Hungersnöten, zuletzt 1816 nach dem Ausbruch des Vulkans Tambora in Indonesien im April 1815. Ein internationales Forschungsteam, zu dem auch der Geograph Prof. Dr. Jürg Luterbacher von der Justus-Liebig-Universität Gießen (JLU) gehört, hat jetzt erstmals eine Verbindung zwischen den Vulkanausbrüchen und den zusätzlichen Sommer-Regenmengen hergestellt. Es ist ein weiterer Beleg dafür, dass sich weit voneinander entfernte Orte gegenseitig klimatisch beeinflussen können.

Zwar ist bekannt, dass Vulkanausbrüche zu einer Abkühlung führen – woher die zusätzlichen Niederschläge kommen, war allerdings bisher rätselhaft. Eine jetzt publizierte Studie in der renommierten Zeitschrift „Journal of Climate“ zeigt, dass der afrikanische und asiatische Monsun der entscheidende Faktor sein könnte. Das Team untersuchte die Auswirkungen von 14 starken tropischen Ausbrüchen der letzten 400 Jahre auf das Sommer-Klima in Europa und in den Monsunregionen. Durch die Ausbrüche gelangen große Mengen Aerosole in die Stratosphäre – mikroskopisch kleine Partikel, welche das einfallende Sonnenlicht reflektieren. Durch die verminderte Sonneneinstrahlung nach Vulkanausbrüchen und der damit verbunden Abkühlung der Kontinente wird der Monsun schwächer. Das führt nicht nur zu Dürren im Sahelraum, sondern auch zu einer Südwärtsverlagerung der Tiefdruckgebiete über dem Atlantik und zu verstärkter Gewitterbildung. Dieser Vorgang könnte die erhöhten Niederschläge im südlichen Mitteleuropa und dem nördlichen Mittelmeerraum plausibel erklären.

1816 gab es nach dem verregneten Sommer auch in Deutschland verbreitet Hungersnöte. In Bayern beispielsweise gingen die Erträge um 30 bis 50 Prozent zurück, in Württemberg sprechen obrigkeitliche Quellen von 20 bis 50 Prozent. Auch der Chemiker Justus Liebig, der Namensgeber der Universität Gießen, hat die Not der Jahre 1816/17 erlebt, die mitverantwortlich waren für die Massen-Auswanderung Anfang des 19. Jahrhundert. Sein Hauptinteresse während seiner Gießener Zeit galt der Förderung der Landwirtschaft mit dem Ziel, solche verheerenden Hungersnöte zu verhindern. Der von ihm entwickelte Dünger verbesserte die Ernte und dadurch die Nahrungsversorgung in der zweiten Hälfte des 19. Jahrhunderts außerordentlich.

Die Erkenntnisse der Studie haben auch für die Gegenwart einen ganz praktischen Nutzen, wie der Forscher festhält: „Periodische Regenfälle im Zuge des Monsuns sind wichtig für die Nahrungsmittelsicherheit in vielen Teilen der Welt. Große Vulkanausbrüche sind zwar sehr selten, aber sie helfen uns, die verschiedenen Monsunsysteme besser zu verstehen“, sagt Luterbacher.

Publikation:
Wegmann, M., S. Brönnimann, J. Bhend, J. Franke, D. Folini, M. Wild, J. Luterbacher (2014) Volcanic influence on European summer precipitation through monsoons: Possible cause for „Years Without a Summer“. Journal of Climate, http://dx.doi.org/10.1175/JCLI-D-13-00524.1

Kontakt:

Prof. Jürg Luterbacher, PhD
Institut für Geographie
E-Mail: Juerg.luterbacher@geogr.uni-giessen.de

Weitere Informationen:
http://dx.doi.org/10.1175/JCLI-D-13-00524.1

Quelle: idw

(nach oben)


Abgeschlossene Studie zur Neuro-Musiktherapie bei akutem Tinnitus weist gute Ergebnisse auf

Natascha Schettler-Brox Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Am Deutschen Zentrum für Musiktherapieforschung wurde eine klinische Studie zum neurowissenschaftlichen Wirkungsnachweis von Musiktherapie bei akutem Tinnitus mit sehr guten Erfolgen beendet.

Von März 2011 bis Dezember 2013 wurde am Deutschen Zentrum für Musiktherapieforschung in Heidelberg in Kooperation mit der HNO-Klinik Heidelberg sowie der Klinik für Diagnostische und Interventionelle Neuroradiologie Homburg eine neuro-musiktherapeutische Behandlung gegen akuten Tinnitus entwickelt. Die Wirksamkeit der Therapie wurde auf psychologischer sowie neurowissenschaftlicher Ebene evaluiert. An der Studie nahmen insgesamt 42 Patienten mit akutem Tinnitus teil, denen die medizinische Erstversorgung nicht ausreichend helfen konnte. Finanzielle Unterstützung erhielt die Studie durch die Klaus Tschira Stiftung.

Die Auswertung der Studienergebnisse zeigt, dass die Musiktherapie zu einer Verringerung der subjektiven Tinnitusbelastung um bis zu 85% geführt hat. Darüber hinaus gelang es durch die Musiktherapie, die Entspannungsfähigkeit der Patienten zu verbessern und die Tinnitusfrequenz in ihrer Tonhöhe zu verändern.

Unmittelbar vor und nach der Therapie durchgeführte Kernspin-Untersuchungen belegen die Wirkung der Musiktherapie auf neuronaler Ebene, d.h. auf der Ebene des Gehirns: schon nach fünftägiger Behandlung führt die Heidelberger Neuro-Musiktherapie zu Veränderungen (1) in den primären und sekundären Hörarealen, (2) in Gehirnbereichen, die mit Konzentration und Aufmerksamkeit zusammen hängen, sowie (3) in Arealen des sogenannten Default-Mode Netzwerks, dem „Ruhezustandsnetzwerk“ des Gehirns.

Aufgrund dieser erfreulichen Studienergebnisse wird die Musiktherapie bei akutem Tinnitus nun in das Behandlungsprogramm der am Deutschen Zentrum für Musiktherapieforschung angegliederten Tinnitusambulanz aufgenommen. Die Tinnitusambulanz wurde im Jahre 2004 gegründet. Seit dieser Zeit wurden dort rund 1000 Patienten mit chronischem Tinnitus erfolgreich behandelt.

Die Tinnitusambulanz bietet laufend Kompakttherapien für Patienten mit chronischem und nun auch akutem Tinnitus an. Weitere Informationen für Patienten und Ärzte sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM das größte musiktherapeutische Forschungsinstitut in Europa und vereint Forschung, Praxis und Lehre unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmittel. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehört eine Tinnitusambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 32/1
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 83 38 74
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Weitere Informationen:

http://www.dzm-heidelberg.de

Quelle: idw

(nach oben)


Kommunale Energiebeauftragte beraten auf Jahreskongress über Energieeffizienz

Sybille Wenke-Thiem Stabsstelle Presse- und Öffentlichkeitsarbeit
Deutsches Institut für Urbanistik

Einladung/Terminhinweis: 19. Deutscher Fachkongress der kommunalen Energiebeauftragten tagt am 7. und 8. April 2014 in München

Berlin. „Kommunen für Energieeffizienz“ dieses Thema steht im Mittelpunkt des diesjährigen Fachkongresses. Neben den kommunalen Aktivitäten in den Bereichen Energieeinsparung und Nutzung erneuerbarer Energien stellt die Steigerung der Energieeffizienz den dritten wichtigen Baustein zur Erreichung der Klimaschutzziele und der Energiewende dar. Hierzu bestehen in den Kommunen vielfältige Handlungsmodelle und -potenziale.

Veranstalter des Kongresses sind das Deutsche Institut für Urbanistik (Difu) gemeinsam mit der gastgebenden Stadt München in Kooperation mit dem Arbeitskreis „Energiemanagement des Deutschen Städtetages, dem Deutschen Städtetag, dem Deutschen Städte- und Gemeindebund und dem Deutschen Landkreistag.

Im Rahmen des Kongresses werden verschiedene Workshops zu folgenden Themenschwerpunkten angeboten:

– Energieeffizienz in Kommunen,
– Erneuerbare Energien,
– Energie im Gebäudemanagement,
– Kooperation, Beratung und Öffentlichkeitsarbeit.

Leitung:
Dipl.-Ing. Cornelia Rösler, Deutsches Institut für Urbanistik

Programm mit Detailinfos/Konditionen:
http://www.difu.de/veranstaltungen/2014-04-07/19-deutscher-fachkongress-der-komm…

Teilnehmerkreis:
Energiebeauftragte aus Städten, Gemeinden und Kreisen sowie aus kommunalen Unternehmen, Energie- und KlimaschutzmanagerInnen, Ratsmitglieder

Veranstaltungsort:
Tagungszentrum im Kolpinghaus München-Zentral
Adolf-Kolping-Straße 1
80336 München

Ansprechpartnerin/Anmeldung:
Sigrid Künzel
Telefon: 0221/340308-0
Fax: 0221/340308-28
E-Mail: kuenzel@difu.de

Kurzinfo: Deutsches Institut für Urbanistik
Das Deutsche Institut für Urbanistik (Difu) ist als größtes Stadtforschungsinstitut im deutschsprachigen Raum die Forschungs-, Fortbildungs- und Informationseinrichtung für Städte, Kommunalverbände und Planungsgemeinschaften. Ob Stadt- und Regionalentwicklung, kommunale Wirtschaft, Städtebau, soziale Themen, Umwelt, Verkehr, Kultur, Recht, Verwaltungsthemen oder Kommunalfinanzen: Das 1973 gegründete unabhängige Berliner Institut mit einem weiteren Standort in Köln (Bereich Umwelt) bearbeitet ein umfangreiches Themenspektrum und beschäftigt sich auf wissenschaftlicher Ebene praxisnah mit allen Aufgaben, die Kommunen heute und in Zukunft zu bewältigen haben. Der Verein für Kommunalwissenschaften e.V. ist alleiniger Gesellschafter des in der Form einer gemeinnützigen GmbH geführten Forschungsinstituts.

++++++++++++++++++++++++++++++++++++++++
Difu-Website:
http://www.difu.de

Vernetzen Sie sich mit uns über Facebook:
https://www.facebook.com/difu.de

Deutsches Institut für Urbanistik gGmbH
Sitz Berlin, AG Charlottenburg, HRB 114959 B
Geschäftsführer: Dipl.-Ing. Martin zur Nedden

Weitere Informationen:
http://www.difu.de/veranstaltungen/
http://www.difu.de/veranstaltungen/2014-04-07/19-deutscher-fachkongress-der-komm…

Quelle: idw

(nach oben)


Beitrag zum Hochwasserschutz an der Elbe

Sabine Johnson Presse- und Öffentlichkeitsarbeit
Bundesanstalt für Wasserbau (BAW)

„Gebt den Flüssen mehr Raum!“ Diese häufig gestellte Forderung hat zum Ziel, Überschwemmungsgebiete, die in der Vergangenheit durch Deichbaumaßnahmen verloren gingen, zurückzugewinnen und damit den vorbeugenden Hochwasserschutz zu stärken und Flussauen in ihrer ökologischen Funktion zu reaktivieren. Ein aktuelles Beispiel hierfür ist die Deichrückverlegung in der Lenzen-Wustrower Elbeniederung bei Wittenberge, wo der Hochwasserschutzdeich landeinwärts verlegt, der Altdeich durch Schlitzungen geöffnet und das Abflussvrmögen im Vorland durch Flutrinnen erhöht wurden.

Die vom Land Brandenburg als Bauherr im Jahr 2009 mit 420 Hektar größte bislang realisierte Maßnahme ihrer Art in Deutschland konnte ihre Wirksamkeit bereits wiederholt unter Beweis stellen, zuletzt beim Elbe-Hochwasser im Juni 2013.
Wegen des Pilotcharakters, den die Maßnahme in Lenzen für ähnliche Maßnahmen an der Elbe und an anderen Wasserstraßen haben kann, wurden die Ergebnisse jetzt in der wissenschaftlichen Publikationsreihe BAWMitteilungen der Bundesanstalt für Wasserbau veröffentlicht. Auf ca. 200 Seiten werden Planung und Realisierung des Projekts sowie die nach Fertigstellung durchgeführten Untersuchungen umfassend dokumentiert. Dabei liegt der Fokus auf den ingenieurtechnischen Fragestellungen des Wasserbaus, der Oberflächen- und Grundwasserhydraulik sowie der Morphodynamik im Gewässerbett.
Die BAW ist bereits seit 1995 an dem Projekt intensiv beteiligt. Ausgangspunkt war die Untersuchung verkehrswasserbaulich relevanter Fragestellungen, beispielsweise die Abflussaufteilung zwischen Elbe und Deichrückverlegungsgebiet sowie die Auswirkungen auf den lokalen Feststoffhaushalt der Elbe. In der Folgezeit hat die BAW auch die hydraulische Leistungsfähigkeit der Deichrückverlegung bei Hochwasser nachgewiesen und optimiert.
Für eine wissenschaftliche Einrichtung wie die BAW ist die Möglichkeit, an einem derart großen, interdisziplinär angelegten Projekt langfristig und eng eingebunden mitzuarbeiten, sehr attraktiv. Insbesondere die große Zahl der untersuchten Varianten und die große Bearbeitungstiefe haben das Verständnis für die hydraulischen und morphologischen Prozesse im Untersuchungsgebiet deutlich erhöht. Dies wiederum hat Eingang in die numerischen Berechnungsmodelle der BAW gefunden und diese weiter verbessert. Das langfristig angelegte Monitoring liefert Naturdaten, die für die weitere Validierung der Modellergebnisse herangezogen werden können. Vor allem aber geben sie umfassende Auskunft über den mit dieser Maßnahme erzielten Erfolg. Insofern ist das Projekt auch nach Abschluss der Baumaßnahmen nicht beendet und der fruchtbare Dialog zwischen den am Projekt Beteiligten wird fortgesetzt.

Weitere Informationen:
Die BAWMitteilungen Nr. 97 stehen ab sofort zum kostenlosen Download bereit.
http://www.baw.de/de/die_baw/publikationen/mitteilungsblaetter/index.php.html

Quelle: idw

(nach oben)


Kosten der Arbeitslosigkeit haben sich in den vergangenen zehn Jahren real halbiert

Wolfgang Braun Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Für die öffentlichen Haushalte haben sich die Kosten der Arbeitslosigkeit in den vergangenen zehn Jahren real mehr als halbiert, zeigt eine am Mittwoch veröffentlichte Studie des Instituts für Arbeitsmarkt- und Berufsforschung (IAB). Während 2012 die gesamtfiskalischen Kosten der Arbeitslosigkeit mit 53,8 Milliarden Euro etwa zwei Prozent des Bruttoinlandsprodukts (BIP) entsprachen, waren es 2003 mit 91,5 Milliarden Euro noch 4,3 Prozent des damaligen BIP. „Zu dem positiven Ergebnis haben insbesondere die Arbeitsmarktreformen und die streckenweise bessere Wirtschaftsentwicklung beigetragen“, schreiben die Arbeitsmarktforscher Enzo Weber, Karl Heinz Hausner und Heidemarie Engelhard.

Rund 55 Prozent der gesamtfiskalischen Kosten der Arbeitslosigkeit entstehen den öffentlichen Haushalten durch Ausgaben für das Arbeitslosengeld I und II sowie die für Arbeitslose zu zahlenden Sozialversicherungsbeiträge. Das IAB beziffert diese Ausgaben für das Jahr 2012 mit 29,6 Milliarden Euro.

Die übrigen 45 Prozent resultieren aus Einnahmeausfällen bei Steuern und Sozialbeiträgen. Sie umfassten im gleichen Jahr 24,1 Milliarden Euro. So hat der Staat wegen der Arbeitslosigkeit neun Milliarden Euro weniger Steuern eingenommen – davon 7,6 Milliarden weniger Lohn- und Einkommenssteuer.

Die größten Teile der durch Arbeitslosigkeit entstandenen Kosten entfielen auf die Bundesagentur für Arbeit mit 29 Prozent und den Bundeshaushalt mit knapp 27 Prozent der Gesamtkosten. Darauf folgten die Rentenversicherung mit gut 16 Prozent und die Gemeinden mit zwölf Prozent. Der Anteil der Krankenversicherung lag bei acht Prozent, die Länder trugen sieben Prozent und die Pflegeversicherung ein Prozent der Kosten.

„Ein Arbeitsloser kostete die öffentlichen Budgets im Jahr 2012 durchschnittlich etwa 18.600 Euro“, erklären die Forscher. Bei den Arbeitslosengeld-I-Empfängern lag dieser Betrag mit 21.800 Euro deutlich höher als bei den Beziehern von Arbeitslosengeld II (18.600 Euro). Je Arbeitslosen, der weder Arbeitslosengeld I noch II bezieht, entgingen dem Staat Einnahmen in Form von nicht entrichteten Steuern und Sozialbeiträgen in Höhe von 9.900 Euro.

Nicht eingerechnet sind die Ausgaben für die aktive Arbeitsmarktpolitik, beispielsweise für Weiterbildungsmaßnahmen. 2012 wurden für die aktive Arbeitsmarktpolitik insgesamt 13 Milliarden Euro ausgegeben, das entspricht 4.349 Euro je Arbeitslosen. In den Jahren 2003 bis 2011 betrugen die auf einen Arbeitslosen bezogenen Ausgaben durchschnittlich 4.714 Euro pro Jahr.

„Soll die Arbeitslosigkeit weiter abgebaut werden, ist vor allem eine nachhaltige Qualifizierung von Arbeitslosen zu empfehlen“, betonen die Arbeitsmarktforscher. Daneben müsse Prävention hohe Priorität haben, um strukturelle Probleme von vorneherein zu vermeiden. Hier sei die Qualifikation von Berufsanfängern durch das Bildungssystem entscheidend. Personen ohne Berufsabschluss sind den Arbeitsmarktforschern zufolge weit stärker von Arbeitslosigkeit betroffen als Höherqualifizierte.

Weitere Informationen:

http://doku.iab.de/kurzber/2014/kb0214.pdf

Quelle: idw

(nach oben)


Multitalent: Bio-Kläranlage, Lebensraum und Baumaterial

Franz-Georg Elpers Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

Rohrkolben mit DBU-Förderung für nachhaltige Landwirtschaft und ökologisches Bauen entdeckt

Postmünster/Nürnberg. Die Erfolgsgeschichte der Sumpfpflanze Rohrkolben begann vor 18 Jahren mit ihrem Anbau in Niedermooren. Gefördert von der Deutschen Bundesstiftung Umwelt (DBU) offenbarte ein Modellprojekt die Ökovorteile der Pflanze: Da für ihren Anbau hohe Wasserstände nötig sind, können sich die seit Jahrhunderten für die Landwirtschaft trockengelegten Niedermoore wieder erholen. Außerdem reinigt sie das Wasser und speichert große Mengen Kohlendioxid. Dabei wurde die Pflanze eigentlich für das Herstellen von Baumaterial aus nachwachsenden Rohstoffen angebaut. Auch dies ist nun in einem an den Rohrkolbenanbau anknüpfenden DBU-Projekt gelungen. Das Büro für Denkmalpflege und Baustoffentwicklung aus Postmünster entwickelte aus der Wasserpflanze ein zugleich dämmendes und tragendes Baumaterial, das sich besonders für die Sanierung historischer Fachwerkhäuser sehr gut eignet. „Wenn sich aus einem Naturschutzprojekt Perspektiven für weitere Entwicklungen etwa im ökologischen Bauen ergeben, ist das der Idealfall einer erfolgreichen Förderung“, sagte DBU-Generalsekretär Dr. Heinrich Bottermann.

Die Rohrkolben funktionierten wie eine natürliche Kläranlage, erläuterte DBU-Referent Dr. Reinhard Stock. Sie kämen sehr gut mit teils aus der Landwirtschaft stammendem nährstoffbelastetem Wasser zurecht und reinigten es. „Zudem binden die Pflanzen Kohlendioxid, die vernässten Anbauflächen verhindern die Freisetzung von Treibhausgasen und sind gleichzeitig Lebensraum für daran angepasste Tier- und Pflanzenarten“, so Stock. Aufbauend auf dem 1996 begonnenen DBU-Projekt von Werner Theuerkorn vom Büro für Denkmalpflege und Baustoffentwicklung sowie der Technischen Universität München zur schonenden Wiedervernässung von Mooren im bayerischen Donaumoos liege nun das Endergebnis vor: Baustoffplatten aus Rohrkolben für das Ausfüllen von Fachwerkgefügen. Besonders die energiearme Produktion des Baustoffs und die Tatsache, dass das Produkt wieder in den Stoffkreislauf zurückgeführt werden könne, sprechen für die neuartigen Platten.

„Wir haben zusammen mit dem Fraunhofer Institut für Bauphysik aus den Blättern von Rohrkolben ein massives Dämmmaterial hergestellt, das auch bei schlanker Bauweise die Vorgaben der Energieeinsparverordnung von 2009 erfüllen und den Anforderungen beim energetischen Sanieren von Altbauten gerecht werden kann“, so Projektleiter Theuerkorn. Bei der Dämmung im Gefach mit zusätzlicher Innendämmung konnte trotz einer relativ geringen Wandstärke von 20 Zentimetern mit einem Wärmedurchgangskoeffizienten (U-Wert) von 0,35 (Watt pro Quadratmeter und Kelvin) ein Dämmstandard wie bei einem durchschnittlichen Wandaufbau mit konventionellen Dämmstoffen erreicht werden. Theuerkorn: „Wenn man die Fachwerk-Fassade erhalten oder freilegen möchte, kann man nur nach innen dämmen und verliert so wertvollen Platz. Durch den schlanken Baustoff aus Rohrkolben hat man dieses Problem in deutlich geringerem Umfang.“

Außerdem überzeuge die Verträglichkeit mit den historischen Materialien Holz, Flechtwerk und Lehm. Dadurch könne möglichst viel der originalen Bausubstanz erhalten werden. Die biologisch abbaubaren Rohrkolben-Platten leiteten auch sehr gut die Feuchtigkeit ab und seien durch die enthaltenen Gerbstoffe schimmelresistent, was chemische Zusätze überflüssig mache. Mit knapp 75.000 Euro förderte die DBU das Erproben des neuen Baustoffs an einem denkmalgeschützten Haus in Nürnberg, das im Kern aus dem 15. Jahrhundert stammt und dessen Fachwerkfassade im späten 17. Jahrhundert erbaut wurde.

Gleichwohl stelle sich zurzeit noch das „Henne-Ei-Problem“, so Theuerkorn: Eine erfolgreiche Vermarktung funktioniere nur, wenn die Landwirtschaft die Rohrkolben anbaue. Doch dafür brauche sie eine Kauf-Garantie von Produzenten und Handel. Gefragt sei der schlanke, ökologische und denkmalgerechte Baustoff allemal: „Die Firma Typha Technik und Naturbaustoffe konnte einen Naturbaustoff entwickeln, der eine denkmalgerechte und nachhaltige Gebäudesanierung ermöglicht. Damit wurde die Vereinbarkeit von Denkmalschutz und energetischer Nachrüstung nachgewiesen“, betonte Dr. Paul Bellendorf, DBU-Referent für Umwelt und Kulturgüter.

Weitere Informationen:
http://www.dbu.de/123artikel35144_335.html

Quelle: idw

(nach oben)


gesundheitsinformation.de hat ein neues Gesicht

Dr. Anna-Sabine Ernst Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Staatssekretär Karl-Josef Laumann, Pflege- und Patientenbeauftragter: „Verlässliche und verständliche Informationen“ / Neue Struktur und frische Optik / Heuschnupfen aktuelles Thema

Was kann ich bei Heuschnupfen tun? Wer im Internet nach einer Krankheit oder Behandlung sucht, fühlt sich von der Vielzahl der Angebote schnell überfordert. Kompakte und verlässliche Antworten auf gesundheitliche Fragen gibt es seit acht Jahren auf gesundheitsinformation.de. Der Themenkatalog des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) ist mittlerweile so gewachsen, dass eine umfassende Neustrukturierung des Portals nötig war.

Mit dem aktuellen Relaunch hat das Institut die Struktur und viele Themen der Website umfassend überarbeitet, Handhabung und Optik verbessert. Verständlich zu sein und gleichzeitig wissenschaftlich fundierte Antworten zu Krankheiten, Untersuchungen und Behandlungen zu geben, muss kein Widerspruch sein. „Denn gerade wer krank ist oder sich um einen Angehörigen Sorgen macht, braucht verlässliche und verständliche Informationen. Die bietet gesundheitsinformation.de“, sagt Staatssekretär Karl-Josef Laumann, Pflege- und Patientenbeauftragter der Bundesregierung. Solche Informationen können das Gespräch mit Arzt oder Ärztin sinnvoll ergänzen.

Schneller zum Ziel

„Wer eine Antwort sucht, möchte sich schnell orientieren. Deshalb ist jedem Thema jetzt ein Überblick vorangestellt“, erklärt Dr. Klaus Koch, Leiter des Ressorts Gesundheitsinformation beim IQWiG. „Wer etwa Heuschnupfen hat und mehr über die spezifische Immuntherapie erfahren will, kommt vom Überblick direkt zu den gewünschten Inhalten.“ Wie läuft die Behandlung ab? Sind Spritzen oder Tropfen besser? Und mit welchen Nebenwirkungen muss ich rechnen? Das sind nur einige der Fragen, die hier beantwortet werden.

Nutzerfreundlich und ohne Werbung

Die neue Struktur, das klare Design und eine intelligente Suche erleichtern die Orientierung. Wenn jemand den Namen einer Erkrankung nicht genau kennt, macht die Suche passende Vorschläge. Außerdem wird großer Wert auf Barrierefreiheit gelegt: Die Website ist zugänglich für technische Hilfsmittel, mit denen sich zum Beispiel Menschen mit Sehbehinderung Inhalte vorlesen lassen können. Alle Texte können jetzt auch komfortabel mit einem Smartphone oder Tablet abgerufen werden und passen sich flexibel dem jeweiligen Gerät an.

Kostenlos und werbefrei, auch das ist typisch für gesundheitsinformation.de. „Das IQWiG hat keine kommerziellen Interessen. Es ist gemeinnützig, wissenschaftlich unabhängig und stellt gesundheitliche Informationen für alle Bürgerinnen und Bürger zur Verfügung – im gesetzlichen Auftrag“, so Klaus Koch.

Von A wie „Allergie“ bis Z wie „Zecken“

Das Angebot von gesundheitsinformation.de wird in den nächsten Jahren noch deutlich wachsen. Angesichts der schier unbegrenzten Zahl von Gesundheitsthemen kann zwar niemand Antworten auf alle Fragen liefern. „Unser Ziel ist es aber, nach und nach Informationen zu einem breiten Katalog von häufigen Erkrankungen aufzuarbeiten“, sagt Professor Dr. Jürgen Windeler, Leiter des IQWiG. „Damit möglichst viele Menschen bei gesundheitsinformation.de finden, was sie suchen.“

Wer über aktuelle Veröffentlichungen auf dem Laufenden bleiben möchte, kann unter gesundheitsinformation.de einen Newsletter abonnieren oder auf Twitter folgen: @iqwig_gi

Weitere Informationen:
http://www.iqwig.de

Quelle: idw

(nach oben)


Hochwasserrisiko: Lässt sich das Niveau von Extrem-Hochwasser vorhersagen?

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Die Analyse mehrerer Jahrhunderthochwasser ermöglicht die Entwicklung von Vorhersagemodellen für extreme Hochwasserereignisse. Im Rahmen des Projekts Extraflo, unter der Leitung des Irstea [1], wurden Empfehlungen zu Methoden der Risikoabschätzung von Extremhochwasser erarbeitet. Im November 2013 wurden die Ergebnisse der Studie bekannt gegeben.

Die Auswertung der bisher genutzten Daten machte deutlich, dass die bislang erarbeiteten Ansätze unzuverlässig sind und nur auf der Beobachtung von statistischen Daten aus wenigen Jahrzehnten basierten.

Zur besseren Abschätzung der Faktoren stützte sich das Projekt Extraflo auf eine breite Palette von Kompetenzen und Disziplinen, wie die statistische, hydrologische und hydraulische Modellierung, die Klimatologie, die Hydro-Geomorphologie, die Paläo-Hydrologie etc. Auf der Grundlage der so erhaltenen Daten konnte die Analyse verfeinert werden. Prognosen für Extremhochwasser-Ereignisse können durch folgende vier Ansätze untermauert werden:

• Nutzung der Daten zu Rekordregenfällen und zur Wasserdurchflussmenge auch auf regionaler Ebene
• Sammlung historischer Daten
• Anwendung von Simulationsmethoden, mit denen sich aufgrund der Regenmenge Rückschlüsse auf den Wasserdurchfluss ableiten lassen
• Analyse morphologischer Spuren von früheren Überschwemmungen.

Schäden können auch durch präventive Maßnahmen reduziert werden.

[1] Irstea – nationales Forschungsinstitut für Umwelt- und Agrarwissenschaften und -technologien, öffentliche Forschungseinrichtung mit Schwerpunkt Landmanagement (Wasserressourcen, Landtechnik).

Weitere Informationen:
Website der Projekt – http://extraflo.irstea.fr/

Quelle:
Pressemitteilung des IRSTEA – 17.12.2013 – http://www.irstea.fr/toutes-les-actualites/departement-eaux/risque-inondation-es…

Quelle: idw

(nach oben)


Tropische Vulkanausbrüche sorgen für verregnete Sommer in Europa

Lisa Dittrich Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Gießener Forscher lösen Rätsel um „Jahr ohne Sommer“ 1816 – Damalige Hungersnot prägte auch den Chemiker Justus Liebig

Historische Aufzeichnungen belegen, dass auf starke tropische Vulkanausbrüche oft ein regenreicher Sommer in Mitteleuropa folgte. Diese „Jahre ohne Sommer“ führten immer wieder zu katastrophalen Hungersnöten, zuletzt 1816 nach dem Ausbruch des Vulkans Tambora in Indonesien im April 1815. Ein internationales Forschungsteam, zu dem auch der Geograph Prof. Dr. Jürg Luterbacher von der Justus-Liebig-Universität Gießen (JLU) gehört, hat jetzt erstmals eine Verbindung zwischen den Vulkanausbrüchen und den zusätzlichen Sommer-Regenmengen hergestellt. Es ist ein weiterer Beleg dafür, dass sich weit voneinander entfernte Orte gegenseitig klimatisch beeinflussen können.

Zwar ist bekannt, dass Vulkanausbrüche zu einer Abkühlung führen – woher die zusätzlichen Niederschläge kommen, war allerdings bisher rätselhaft. Eine jetzt publizierte Studie in der renommierten Zeitschrift „Journal of Climate“ zeigt, dass der afrikanische und asiatische Monsun der entscheidende Faktor sein könnte. Das Team untersuchte die Auswirkungen von 14 starken tropischen Ausbrüchen der letzten 400 Jahre auf das Sommer-Klima in Europa und in den Monsunregionen. Durch die Ausbrüche gelangen große Mengen Aerosole in die Stratosphäre – mikroskopisch kleine Partikel, welche das einfallende Sonnenlicht reflektieren. Durch die verminderte Sonneneinstrahlung nach Vulkanausbrüchen und der damit verbunden Abkühlung der Kontinente wird der Monsun schwächer. Das führt nicht nur zu Dürren im Sahelraum, sondern auch zu einer Südwärtsverlagerung der Tiefdruckgebiete über dem Atlantik und zu verstärkter Gewitterbildung. Dieser Vorgang könnte die erhöhten Niederschläge im südlichen Mitteleuropa und dem nördlichen Mittelmeerraum plausibel erklären.

1816 gab es nach dem verregneten Sommer auch in Deutschland verbreitet Hungersnöte. In Bayern beispielsweise gingen die Erträge um 30 bis 50 Prozent zurück, in Württemberg sprechen obrigkeitliche Quellen von 20 bis 50 Prozent. Auch der Chemiker Justus Liebig, der Namensgeber der Universität Gießen, hat die Not der Jahre 1816/17 erlebt, die mitverantwortlich waren für die Massen-Auswanderung Anfang des 19. Jahrhundert. Sein Hauptinteresse während seiner Gießener Zeit galt der Förderung der Landwirtschaft mit dem Ziel, solche verheerenden Hungersnöte zu verhindern. Der von ihm entwickelte Dünger verbesserte die Ernte und dadurch die Nahrungsversorgung in der zweiten Hälfte des 19. Jahrhunderts außerordentlich.

Die Erkenntnisse der Studie haben auch für die Gegenwart einen ganz praktischen Nutzen, wie der Forscher festhält: „Periodische Regenfälle im Zuge des Monsuns sind wichtig für die Nahrungsmittelsicherheit in vielen Teilen der Welt. Große Vulkanausbrüche sind zwar sehr selten, aber sie helfen uns, die verschiedenen Monsunsysteme besser zu verstehen“, sagt Luterbacher.

Publikation:
Wegmann, M., S. Brönnimann, J. Bhend, J. Franke, D. Folini, M. Wild, J. Luterbacher (2014) Volcanic influence on European summer precipitation through monsoons: Possible cause for „Years Without a Summer“. Journal of Climate, http://dx.doi.org/10.1175/JCLI-D-13-00524.1

Kontakt:
Prof. Jürg Luterbacher, PhD
Institut für Geographie
E-Mail: Juerg.luterbacher@geogr.uni-giessen.de

Weitere Informationen:
http://dx.doi.org/10.1175/JCLI-D-13-00524.1

Quelle: idw

(nach oben)


Mobilität: Welcher Komfort-Typ sind Sie?

Juliane Segedi Presse- und Öffentlichkeitsarbeit
Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO

App soll nachhaltige Mobilität in der Region Stuttgart attraktiver machen

Wie kann nachhaltige Mobilität für die Stuttgarter attraktiver werden? In einer Befragung unter 1000 Verkehrsteilnehmern in der Region haben sich vier Mobilitätskomfort-Typen herauskristallisiert. Im weiteren Projekt entwickeln die Partner einen App-Demonstrator, der den Mobilitätskomfort der Verkehrsteilnehmer misst.

Im Rahmen des Projekts »Urbaner Mobilitätskomfort« hat die Dialogik – gemeinnützige Gesellschaft für Kommunikations- und Kooperationsforschung im vergangenen Sommer über 1000 Nutzer verschiedener Verkehrsmittel in der Region Stuttgart zu ihrem Komfortempfinden befragt. Gefragt wurde nach dem Mobilitätskomfort des öffentlichen Nahverkehrs (Stadtbahn, S-Bahn, Bus), PKW-orientierten Dienstleistungen (Taxi, Car-Sharing), Fahrrad-orientierten Dienstleistungen und des privaten PKW. Als ein Ergebnis der Studie gingen die folgenden vier Mobilitätskomfort-Typen hervor:

Die »Relaxer« legen großen Wert auf Erholung und Beschäftigungsmöglichkeiten während der Fahrt und entscheiden sich deshalb häufig für die öffentlichen Nahverkehrsmittel. Sie steigen lieber weniger um und fahren dafür etwas länger. Zweckmäßigkeit ist für sie bei der Wahl des Verkehrsmittels zentral.
Auch die »Eiligen« sind treue Nutzer des öffentlichen Nahverkehrs, fühlen sich in ihrer Verkehrsmittelwahl aber am stärksten eingeschränkt. Sie legen grundsätzlich mehr Wert auf Schnelligkeit als auf Komfort; daher stören sie Fußwege und komplizierte Routenplanungen.
Für die »Anspruchsvollen« gibt es eigentlich keine Alternative zum privaten PKW, da nur dieser ihre Ansprüche an Privatsphäre, Sitzplatzgarantie, direkte Fahrstrecke und kurze Fahrzeit befriedigen kann. Dementsprechend sind sie auch bereit, für gesteigerten Mobilitätskomfort mehr zu bezahlen.
Die »Sportlichen« bevorzugen kurze Fahrzeiten und Flexibilität, genießen es, sich körperlich zu betätigen und benutzen deshalb auch am seltensten von allen Gruppen einen privaten PKW. Sie finden ihre Komfortwünsche und Mobilitätsvorstellungen vor allem beim Fahrrad wieder und nutzen am häufigsten von allen Gruppen das Bike-Sharing-Angebot.

Im weiteren Projektverlauf wird, gemeinsam mit dem Fraunhofer-Anwendungszentrum KEIM an der Hochschule Esslingen, auf Basis der wissenschaftlichen Voruntersuchungen ein Mobiltelefon-App-Demonstrator entwickelt. Diese App ermöglicht die sensorbasierte Messung von Komfortfaktoren im Hintergrund und bietet dem verkehrsteilnehmenden Nutzer die Möglichkeit, gefühlte Defizite in Echtzeit zu melden.

Ansprechpartner
Steffen Braun
Urban Systems Engineering
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-2022
Email steffen.braun@iao.fraunhofer.de

Constanze Heydkamp
Urban Systems Engineering
Fraunhofer IAO
Nobelstraße 12
70569 Stuttgart, Germany
Telefon +49 711 970-2342
Email constanze.heydkamp@iao.fraunhofer.de

Weitere Informationen:
http://www.iao.fraunhofer.de/lang-de/geschaeftsfelder/mobilitaets-und-stadtsyste…

Quelle: idw

(nach oben)


Versauerung im Atlantik: Erstes Freilandexperiment zu Auswirkungen von Versauerung im offenen Ozean

Dr. Andreas Villwock Kommunikation und Medien
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel

Zum ersten Mal untersucht ein internationales Team von 70 Wissenschaftlern die Auswirkungen von Ozeanversauerung auf Ökosysteme im offenen Meer. Ziel der Forscher ist, die Reaktionen auf zukünftige Veränderungen im Ozean besser abschätzen zu können. Die Feldstudie mit den KOSMOS-Mesokosmen des GEOMAR Helmholtz-Zentrums für Ozeanforschung Kiel findet im Rahmen der deutschen Forschungsnetzwerke BIOACID und SOPRAN von Ende Januar bis April 2014 vor Gran Canaria statt.

In den nährstoffreichen Fjorden Nordeuropas und den kalten Meeren der Arktis verursacht Ozeanversauerung einen Boom an der Basis des Nahrungsgefüges – während größere Phytoplankton-Arten leer auszugehen scheinen. Aber wie reagieren Ökosysteme im nährstoffarmen offenen Ozean, wenn sich mehr Kohlendioxid (CO2) im Wasser löst? Ein Team von 70 Wissenschaftlern aus Deutschland, Spanien, Frankreich, Schweden, Großbritannien, den Niederlanden und den Vereinigten Staaten ist im Einsatz, um erstmals Auswirkungen der Ozeanversauerung im östlichen subtropischen Atlantik zu untersuchen. Von Ende Januar bis in den April hinein arbeiten sie an der Meeresforschungsstation Plataforma Oceánica de Canarias (PLOCAN) in Taliarte an der Ostküste Gran Canarias. Für das Experiment mit den in Kiel entwickelten KOSMOS-Mesokosmen kooperieren die beiden deutschen Forschungsnetzwerke BIOACID (Biological Impacts of Ocean Acidification, Biologische Folgen der Ozeanversauerung) und SOPRAN (Surface Ocean Processes in the Anthropocene, Prozesse in der Ozeanoberfläche im Anthropozän). BIOACID und SOPRAN werden vom Bundesministerium für Bildung und Forschung (BMBF) gefördert.

„Unsere bisherigen Experimente haben sich auf die besonders produktiven, nährstoffreichen Küstenregionen konzentriert“, berichtet Prof. Ulf Riebesell. Der Professor für Biologische Ozeanografie am GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel koordiniert das Projekt BIOACID und die KOSMOS Mesokosmen-Experimente. „Aber mehr als zwei Drittel der Weltozeane verfügen nur über geringe Mengen an Nährstoffen und damit auch über eine geringere Produktivität. Um belastbare Aussagen über das Leben im Ozean der Zukunft treffen zu können, müssen wir mehr darüber lernen, wie diese oligotrophen Ökosysteme auf Ozeanversauerung reagieren.“ Nährstoffarme Regionen werden von kleinem Phytoplankton, dem Pikoplankton dominiert. Da das Pikoplankton in vorangegangenen Untersuchungen besonders stark auf CO2-bedingte Versauerung ansprach, erwarten die Wissenschaftler massive Auswirkungen an der Basis der marinen Lebensgemeinschaft.

Das deutsche Forschungsschiff POSEIDON brachte im Januar 2014 mehr als 24 Tonnen Ausrüstung für das Experiment nach Gran Canaria. Am 2. Februar wurden neun Mesokosmen in der Melenara-Bucht nahe des Hafens von Taliarte verankert. Die „Riesen-Reagenzgläser“, von denen jedes einzelne 55 Kubikmeter Wasser einschließt, werden jetzt auf Kohlendioxid-Niveaus gebracht, die Werten von heute bis ins Jahr 2100 entsprechen. Bis Mitte April messen Biologen, Chemiker, Biogeochemiker und Physikalische Ozeanografen darin 50 unterschiedliche Parameter. Proben werden in den Laboren des PLOCAN weiter verarbeitet und für Analysen in den Heimat-Instituten vorbereitet.

„In diesem Jahr kooperieren wir mit einer örtlichen Aquakultur-Anlage, um Larven der Dorade aufzuziehen und in die Mesokosmen einzusetzen. Außerdem werden Seeigel gesammelt und Eier befruchtet, so dass wir unseren Versuchswelten zwei höherstehende Arten hinzufügen können. Dies haben wir im vergangenen Jahr erstmals in einem Experiment versucht und viel über Folgereaktionen entlang der Nahrungskette erfahren“, berichtet Riebesell.

Als Neuerung simulieren die Forscher natürliche Düngungsmechanismen, die für diese Region typisch sind – etwa den Auftrieb nährstoffreichen Tiefenwassers vor den Kanarischen Inseln. „Die POSEIDON kommt Ende Februar zurück, um uns hierbei zu unterstützen“, so Riebesell. „Mit einem 80 Kubikmeter großen Kunststoffsack gewinnen wir Tiefenwasser und speisen unsere Mesokosmen damit, um solch ein Auftriebsereignis zu simulieren.“ Die Nährstoff-Einträge kurbeln die Produktivität im nährstoffarmen Ozeans an. Bisher ist jedoch völlig unklar, wie sich derartige Produktivitäts-Schübe im saureren Wasser entwickeln und wie dies das marine Nahrungsnetz beeinflusst.

Die Kampagne 2014 vor Gran Canaria ist die fünfte in einer Serie von Freiland-Studien mit den Kieler KOSMOS Mesokosmen. „Unser Experiment im Kanaren-Stromsystem vervollständigt die umfangreiche Datensammlung zu Folgen der Versauerung für den pelagischen Ozean, die wir in den vergangenen fünf Jahren zusammengetragen haben“, fasst Riebesell zusammen. „Sobald die Zusammenstellung komplett ist, haben wir den ausführlichsten Datensatz zu Reaktionen des Ökosystems auf zukünftige Veränderungen im Ozean. Forscher werden noch einige Jahre benötigen, um dieses Set an Messungen zu interpretieren. Aber es ermöglicht neue Einblicke und ein tieferes Verständnis für die Folgen des globalen Wandels für marine Ökosysteme und die Dienstleistungen, welche die Meere für den Menschen erbringen.“

Beteiligte Institutionen:
Universität Las Palmas de Gran Canaria, Spanien
Universität La Laguna, Spanien
Universität Barcelona, Spanien
Alfred-Wegener-Institut, Helmholtz-Zentrum für Polar- und Meeresforschung (AWI), Bremerhaven, Deutschland
Carl von Ossietzky Universität Oldenburg, Deutschland
GEOMAR Helmholtz-Zentrum für Ozeanforschung Kiel, Deutschland
Leibniz-Institut für Ostseeforschung Warnemünde (IOW), Deutschland
Leibniz-Institut für Gewässerökologie und Binnefischerei (IGB), Berlin, Deutschland
Max-Planck-Institut für Chemie, Mainz, Deutschland
Bigelow Laboratory, Maine, USA
Centre de Recherche et d’Enseignement de Géosciences de l’Environnement (CEREGE), Paris, Frankreich
Royal Netherlands Institute for Sea Research (NIOZ), Niederlande
Universität Edinburgh, Großbritannien
Universität Göteborg, Schweden

Bildmaterial:
Unter www.geomar.de/n1710 steht Bildmaterial zum Download bereit. Filmmaterial auf Anfrage.

Ansprechpartner:
Prof. Dr. Ulf Riebesell (GEOMAR, FB2-BI), uriebesell@geomar.de
Maike Nicolai (GEOMAR Communication & Media) Tel.: +49(0)431 600-2807, mnicolai@geomar.de

Weitere Informationen:
http://www.bioacid.de BIOACID
http://sopran.pangaea.de SOPRAN
http://www.oceanblogs.org/kosmos2014gc/ Blog zum Experiment

Quelle: idw

(nach oben)


Kommerziell oder ideell: Warum die causa ADAC weitere Kreise ziehen könnte

Blandina Mangelkramer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr als 15.000 Mitglieder haben dem ADAC nach den Skandalen der vergangenen Wochen bereits offiziell den Rücken gekehrt – und es werden voraussichtlich noch mehr: Auf den Verein schwappt eine Austrittswelle ungeahnten Ausmaßes zu. Für den ADAC selbst ein Desaster – doch je nach Rechtsauffassung des Gericht könnte sich eine Diskussion mit viel größerer Trageweite anbahnen: um Vereine nämlich wie das Rote Kreuz oder Fußball-Giganten wie den FC Bayern. Die rechtliche Lage erläutert FAU-Rechtswissenschaftler Prof. Dr. Robert Freitag.

>>Warum darf sich der ADAC eigentlich Verein nennen, obwohl er doch ganz offensichtlich auch wirtschaftliche Absichten verfolgt?

Der Vereinsstatus des ADAC ist, wenn man so will, eine Besonderheit. Zunächst ist er natürlich ein eingetragener Verein („e.V.“) nach den Vorschriften des Bürgerlichen Gesetzbuches. Grundsätzlich darf er also keine kommerziellen Zwecke im Sinne der Gewinnerzielung verfolgen, sondern er muss zur gemeinsamen Erreichung ideeller Zwecke gegründet worden sein. „Idealvereine“ lautet dafür das Fachwort. Idealvereine sind auf den Zusammenschluss von Laien zugeschnitten, die ihre privaten Interessen gemeinsam verfolgen. Im Fall des ADAC wäre das die gemeinsame Unterstützung der Mitglieder im Straßenverkehr, insbesondere die Pannenhilfe.

Als Idealverein muss er keine besonders strengen gesetzlichen Anforderungen erfüllen: Er braucht keine professionelle Leitung, ist nicht bilanzierungspflichtig und benötigt auch kein bestimmtes Mindestkapital, mit dem er seinen Gläubigern haften könnte. Ein Idealverein, der in der Abgabenordnung speziell geregelte Anforderungen erfüllt, kann außerdem den Status als „gemeinnütziger Verein“ beantragen und steuerliche Vorteile erlangen. Will sich eine private Organisation dagegen wirtschaftlich betätigen, muss sie grundsätzlich die weitaus strengeren und verpflichtenden Anforderungen des Handels- und Gesellschaftsrechts befolgen.

Allerdings dürfen auch Idealvereine in begrenztem Umfang wirtschaftliche Tätigkeiten ausüben, wenn diese dem Zweck bzw. der Idee des Vereins dienen und ihn fördern: Im konkreten Fall bedeutet das, dass der ADAC e.V. durchaus Geld einnehmen darf, um seine ideellen Leistungen wie die Pannenhilfe zu ermöglichen, solange eine Gesamtbetrachtung aller Aktivitäten des Vereins nicht dazu führt, dass man ihn als gewinnorientiert betrachten muss. Man bezeichnet das als „Nebenzweckprivileg“.

>>Der ADAC betätigt sich aber auch über ausgelagerte Tochterunternehmen wirtschaftlich. Ist das rechtlich zulässig?

Derzeit ja. In seinem so genannten „ADAC-Urteil“ hat der Bundesgerichtshof 1982 Idealvereinen kommerzielle Tätigkeiten, die nicht mehr vom Nebenzweckprivileg gedeckt sind, über rechtlich eigenständige Tochtergesellschaften gestattet. Konkret ging es damals um die Frage, ob der ADAC über die „ADAC Rechtsschutz Versicherungs-Aktiengesellschaft“ kommerziell im Versicherungsgeschäft tätig sein durfte. Der BGH entschied, dass die Umsätze der Tochtergesellschaft nicht als Umsätze des ADAC e.V. zu werten seien, obwohl sich sämtliche Anteile an der Tochter im Besitz des ADAC e.V. befanden.

Die Begründung: Auf Ebene der wirtschaftlich tätigen Tochtergesellschaft sei hinreichend für den Schutz der Gläubiger gesorgt. Diese Beurteilung wird als „Trennungstheorie“ bezeichnet. Die gesetzlich nicht geregelte Trennungstheorie ist allerdings seit jeher rechtlich und rechtspolitisch umstritten: Idealvereine können so faktisch über ihre Tochtergesellschaften wirtschaftliche Tätigkeiten entfalten und sich dennoch den strengen Vorgaben des Handelsrechts entziehen. Das führt zu einer geringeren Transparenz der Geschäfte, damit zu höheren Risiken für die Mitglieder des Idealvereins und zu Wettbewerbsverzerrungen. Diese Nachteile zeigen sich in der aktuellen Diskussion um den ADAC sehr deutlich.

>>Was kann dem ADAC auf Basis des aktuellen Verfahrens passieren?

Das Gericht wird in jedem Fall prüfen, ob der ADAC e.V. mittlerweile unmittelbar selbst – also nicht über Tochtergesellschaften – wirtschaftliche Tätigkeiten ausübt, die nicht mehr vom Nebenzweckprivileg gedeckt sind; man denke nur an den jüngst publik gewordenen Verkauf von Batterien durch Pannenhelfer. Falls das Gericht zu dieser Überzeugung kommt, stehen dem ADAC drei Optionen zur Wahl: Erstens könnte der ADAC die für seinen Vereinsstatus schädlichen wirtschaftlichen Aktivitäten ganz einstellen, was ihm vermutlich schwer fiele. Zweitens könnte er im Rahmen der „Trennungstheorie“ sämtliche wirtschaftlichen Aktivitäten in eigenständige Tochtergesellschaften auslagern und auf der Ebene des eingetragenen Vereins ausschließlich die Pannenhilfe und ähnliche nicht-kommerzielle Aufgaben verfolgen. Das wäre aus Sicht des ADAC vermutlich die attraktivste Variante. Drittens könnte der ADAC in eine Handelsgesellschaft umwandeln, wobei bei der großen Zahl an Mitgliedern nur eine Aktiengesellschaft in Betracht kommt. Dieser Weg dürfte unter den Mitgliedern wohl kaum ernstlich mehrheitsfähig sein.

Denkbar wäre aber auch, dass das Gericht die Trennungstheorie in Frage stellt, da diese gesetzlich nicht geregelt und nicht auszuschließen ist, dass der Bundesgerichtshof seine bisherige Rechtsprechung wegen ihrer genannten Defizite aufgibt. In diesem Fall wäre zu prüfen, ob der ADAC als „Konzern“, d.h. einschließlich der von ihm beherrschten Tochtergesellschaften, ein Wirtschaftsunternehmen darstellt. Falls ja, müsste der ADAC e.V. entweder sich selbst in eine Aktiengesellschaft umwandeln, was wie gesagt kaum in Betracht kommen dürfte, oder er lagert seine wirtschaftlichen Aktivitäten in Tochtergesellschaften aus und gibt zusätzlich die Mehrheitsbeteiligung an diesen kommerziellen Töchtern auf. Eine solche Zerschlagung wäre für den ADAC äußerst schmerzlich.

>>Nehmen wir an, das Gericht würde die Trennungstheorie ablehnen und irgendwann in letzter Instanz dem ADAC den Vereinsstatus aberkennen. Welche Folgen hätte das für andere Vereine, die ähnlich organisiert sind? Das Rote Kreuz zum Beispiel?

Eine Entscheidung in Sachen ADAC würde sich nicht grundsätzlich automatisch auf sonstige Vereine auswirken, da vor Gericht jeweils der konkrete Verein im Einzelfall zu betrachten ist. Würde sich die Aufgabe der Trennungstheorie bundesweit durchsetzen, wäre allerdings auch der Status anderer eingetragener „Idealvereine“ bedroht, die über Tochtergesellschaften wirtschaftlich tätig sind. Zu denken ist etwa an das Rote Kreuz, aber auch an Sportvereine mit Profi-Sportabteilungen, insbesondere an Fußballvereine. Diese Vereinigungen verfügen bekanntlich über großen wirtschaftlichen und gesellschaftlichen Einfluss und dürften bei einer Aufgabe der Trennungstheorie durch die Gerichte sicherlich politischen Druck ausüben und sich dafür einsetzen, dass die Trennungstheorie gesetzlich verankert wird.

Quelle: idw

(nach oben)


Grüne Oase auf dem Dach

Presse Institute Unternehmenskommunikation
Fraunhofer-Gesellschaft

Begrünte Dächer sind längst nicht mehr der Inbegriff von Luxus oder moderne Spinnerei extrovertierter Architekten. In der Ökologie gelten sie als Siedlungsbiotop, in manchen Bebauungsplänen werden sie als Ausgleichsmaßnahme für die versiegelten Flächen festgesetzt und teilweise werden sie in Deutschland auch öffentlich gefördert. Darüber hinaus sehen die teilweise als Hochgärten kultivierten Grünflächen zwischen den Dachlandschaften schön aus, speichern Regenwasser und verbessern das Mikroklima in Städten.

Zu den berühmtesten Verfechtern zählt der österreichische Künstler Friedensreich Hundertwasser, der Gründächer als einen wichtigen Teil der von ihm angestrebten Versöhnung von Mensch und Natur sah. In Stuttgart sind beispielsweise zwischen 1986 und 2008 180.000 Quadratmeter begrünte Dachfläche auf öffentlichen und privaten Gebäuden entstanden, im Flächennutzungsplan 2010 waren für zukünftige Bauvorhaben weitere 1,5 Millionen Quadratmeter als Minimierungs- oder Ausgleichsmaßnahmen geplant. Und aus einer aktuellen Umfrage der Fachvereinigung Bauwerksbegrünung (FFB) geht hervor, dass der Anteil der deutschen Städte, die die Begrünung von Dächern in ihren Bebauungsplänen verankern, auch weiterhin konstant bleibt. Grüne Flächen auf dem Dach sind also zweifelsfrei etabliert.

Doch gibt es auch die Kehrseite der Medaille: Vor allem bei vollgedämmten Holzkonstruktionen kommt es immer wieder zu Feuchteschäden. »Eine mögliche Ursache ist, dass begrünte Dächer – wie alle Flachdächer – auf der bauphysikalischen „falschen“ Seite, nämlich der Außenseite, dicht sind und so nur eine Trocknung nach Innen möglich ist«, weiß Daniel Zirkelbach, stellvertretender Leiter der Abteilung Hygrothermik am Fraunhofer-Institut für Bauphysik IBP. Im Unterschied zu Flachdächern ohne Deckschicht ist die Erwärmung von Gründächern deutlich geringer, so dass eben auf Grund der Bepflanzung eine Austrocknung während der Sommermonate nicht ausreichend stattfinden kann. Daher bedarf es für begrünte Holzkonstruktionen einer exakten, fachkundigen Planung. Um diese zu gewährleisten, reichen klassische Feuchteberechnungen, wie zum Beispiel das Glaser-Verfahren , nicht aus. Um dahingehend neue Wege zu gehen, lief von November 2011 bis April 2013 mit Mitteln der Forschungsinitiative „Zukunft Bau“ des Bundesinstituts für Bau-, Stadt- und Raumforschung, ein Forschungsprojekt . Ziel war es, Planern und Bauproduktherstellern eine möglichst genaue und zuverlässige Grundlage zur Planung der Feuchtesicherheit der kritischen Dachbegrünungen zur Verfügung zu stellen. Ein Fall für die Wissenschaftler des Fraunhofer IBP. Ihnen gelang es im Rahmen des Forschungsprogramms, ihre Simulationssoftware WUFI® zu erweitern und neue Modelle zur Beurteilung von Dachbegrünungen zu erstellen, welche die Feuchtebilanz unter Realbedingungen berücksichtigen. Die inzwischen weltweit verbreitete Software-Familie WUFI® wurde am Fraunhofer IBP entwickelt und erlaubt die realitätsnahe Berechnung des instationären hygrothermischen Verhaltens von mehrschichtigen Bauteilen unter natürlichen Klimabedingungen.

Im Wesentlichen wird bei der Begrünung von Dächern zwischen zwei Ausführungsvarianten unterschieden: Die Extensivbegrünung zeichnet sich durch einen dünnschichtigen Aufbau mit bis zu 15 Zentimetern sowie einem geringen Gewicht und minimalen Pflegeaufwand aus. Diese Vegetationsform erhält sich weitgehend selbst und passt sich auch an extreme Standortbedingungen an, ist allerdings nicht als Nutzfläche geeignet. Im Vergleich dazu ist bei einer Intensivbegrünung die Nutzung des Gründaches erwünscht. Der mehrschichtige Aufbau ist hier mit 15 bis 100 Zentimetern deutlich dicker und damit auch schwerer. Er stellt hohe Ansprüche an die Pflege, Wasser- und Nährstoffversorgung. Im Rahmen des Forschungsprojekts wurde jedoch ausschließlich die Extensivbegrünung untersucht.

Im Vordergrund stand dabei vor allem, die Funktionsfähigkeit der Unterkonstruktion zuverlässig zu berechnen, denn die Einflüsse der Substrat- und Vegetationsschicht konnten bisher nicht eindeutig rechnerisch abgebildet werden – es fehlten verallgemeinerbare Datensätze. »Dazu nahmen wir zunächst bereits vorhandene Messergebnisse basierend auf Versuchsaufbauten sowie langjährigen Konstruktionsuntersuchungen am Standort Holzkirchen sowie aus Kassel, Leipzig, Wien und Mailand. Zusätzlich starteten wir noch neue Freilandversuche am Fraunhofer IBP Holzkirchen«, erklärt Zirkelbach die Vorgehensweise. Dazu richteten die Wissenschaftler neue Versuchsflächen mit unterschiedlichen Substrat- und Pflanzentypen auf einen Versuchsdach ein. Diese Versuche waren erforderlich, weil bei den vorangegangenen Untersuchungen weder die Feuchteverhältnisse in den Substraten noch die langwellige Gegenstrahlung gemessen worden waren. Beides ist jedoch für die Übertragbarkeit der Berechnungsmodelle auf andere Klimabedingungen mit unterschiedlichen Strahlungs- und Niederschlagsverhältnissen von wesentlicher Bedeutung. Mit Hilfe von Sensoren wurde die Temperatur bei den verschiedenen Dachaufbauten gemessen. »Interessant dabei war, dass wir innerhalb eines Versuchsfeldes, unter den gleichen Randbedingungen punktuell unterschiedliche Temperaturen gemessen haben. Diese variierten teilweise um bis zu sechs Grad Celsius, obwohl kein wirklicher Unterschied erkennbar war«, so Daniel Zirkelbach. Grundsätzlich kristallisierten sich jedoch die mittleren Verhältnisse für eine Berechnungsbasis klar heraus.

Die Fraunhofer-Wissenschaftler konnten zudem belegen, dass die Temperaturen maßgeblich von der Masse des Substrats sowie der darin enthaltenen Wassermenge beeinflusst werden. »Diese Kombination führt zu einer großen thermischen Trägheit. Im Sommer sorgt die Verdunstungskühlung für eine Verzögerung der Erwärmung, im Winter bremst die Schmelzwärme die Abkühlung unter den Gefrierpunkt. Durch eine gewisse Selbstverschattung begrenzt die Pflanzdeckschicht eine Erwärmung ebenso wie eine nächtliche Unterkühlung durch langwellige Abstrahlung. Zusätzlich wird der Wärmeübergang durch die geringere Luftbewegung an der Oberfläche reduziert«, fasst der Forscher die Ergebnisse zusammen.

Der zweite Punkt, der die Funktionsweise grundlegend beeinflusst, ist die exakte Auslegung der Dachkonstruktion. Bis dato verwendete man Außen meist eine zum Substrat hin abgedichtete Holzverschalung mit einem Faserdämmstoff zwischen den Sparren und nach Innen wurde eine Dampfbremse angebracht, um die Holzkonstruktion vor der eindringenden Feuchte aus dem Raumklima zu schützen. Diese Dampfbremse behindert aber im Sommer auch die Austrocknung, so dass bereits kleinere eingebaute oder eindringende Feuchtemengen zu Problemen führen können. Die Konsequenz einer mangelhaften Ausführung war eine verkürzte Haltbarkeit oder über kurz oder lang ein Feuchteschaden an der Konstruktion. Je dicker die Dämmschicht war, umso feuchter wurde sie im Winter.

Auf Grund der neuen Versuche und der daraus resultierenden Berechnungen fanden die Wissenschaftler vielversprechende Lösungsmöglichkeiten. So kann beispielsweise eine feuchtevariable Dampfbremse die Feuchtebilanz deutlich verbessern. Bei Dämmstärken ab 15 bis 20 Zentimetern kann eine zusätzliche feuchteresistente Überdämmung Schaden vermeiden – denn dann sind die Temperaturunterschiede an der Holzverschalung deutlich geringer und es entstehen besonders in den Wintermonaten nur noch kleine Mengen Tauwasser.
Zwar bleiben begrünte Holzdächer eine anspruchsvolle Bauvariante, die einer sorgfältigen Planung und Ausführung bedarf, doch werden bestimmte Aspekte beachtet, kann sich der Trend hin zur grünen Oase auf dem Dach gefahrenlos fortsetzen.

Weitere Informationen:
http://www.ibp.fraunhofer.de
http://www.ibp.fraunhofer.de/content/dam/ibp/de/documents/Publikationen/oeffentl…

Quelle: idw

(nach oben)


BAuA informiert über Arbeitsstättenverordnung

Jörg Feldmann Pressestelle
Bundesanstalt für Arbeitsschutz und Arbeitsmedizin

Dresden – Ab sofort ist das Buch „Arbeitsstätten“, das die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) gemeinsam mit dem Bundesministerium für Arbeit und Soziales herausgibt, in überarbeiteter Auflage erhältlich. Es enthält die Arbeitsstättenverordnung und die aktuellen Arbeitsstättenregeln (ASR), die die Verordnung konkretisieren. Diese Technischen Regeln erarbeitet der Ausschuss für Arbeitsstätten, um Betrieben die Umsetzung der Verordnung zu erleichtern. Überarbeitete und neu hinzugekommene Regeln machten eine Aktualisierung des BAuA-Buchs erforderlich. Zudem verloren die alten Arbeitsstätten-Richtlinien zum 31. Dezember 2012 ihre Gültigkeit und die restlichen noch im Buch enthaltenen Richtlinien mussten entfernt werden.

Die aktuellsten ASR stammen aus dem Jahr 2013. So wurden beispielsweise die ASR A1.2 „Raumabmessungen“, ASR A1.5/1,2 „Fußböden“, ASR A1.3 „Sicherheitskennzeichnung“ und ASR A4.1 „Sanitärräume“ neu beschlossen. Weitere Regeln wurden aktualisiert und erweitert, darunter zum Beispiel die ASR A3.6 „Lüftung“ und ASR A4.3 „Mittel und Einrichtungen zur Ersten Hilfe“.

Die Anwendung der Arbeitsstättenverordnung und der ASR garantiert laut BAuA gesunde und sichere Arbeitsbedingungen. Die Verordnung von 2004 setzt europäische Vorgaben um und nimmt Arbeitgeber in die Pflicht, für ausreichenden Schutz ihrer Beschäftigten zu sorgen. Hierfür enthält die Verordnung allgemeine Anforderungen und Schutzzielbestimmungen. Gestaltungsregeln für Arbeitsplätze sind beispielsweise Vorgaben für die Raumabmessung, Fluchtwege oder Arbeitsplatzbeleuchtung. Die Regeln für Arbeitsstätten konkretisieren die Forderungen der Arbeitsstättenverordnung für die betriebliche Praxis und sind für den größten Teil Arbeitsstätten geeignet. Dabei orientieren sie sich am aktuellen Stand von Technik, Arbeitsmedizin und Arbeitshygiene.

„Arbeitsstätten. Arbeitsstättenverordnung, Technische Regeln für Arbeitsstätten“; 2. Auflage; Dortmund: Bundesanstalt für Arbeitsschutz und Arbeitsmedizin 2013; 344 Seiten; ISBN 978-3-88261-011-6. Das Buch kann zum Preis von 19,50 Euro über die Adresse http://www.baua.de/publikationen bezogen werden.

Forschung für Arbeit und Gesundheit
Sichere und gesunde Arbeitsbedingungen stehen für sozialen Fortschritt und eine wettbewerbsfähige Wirtschaft. Die Bundesanstalt für Arbeitsschutz und Arbeitsmedizin (BAuA) forscht und entwickelt im Themenfeld Sicherheit und Gesundheit bei der Arbeit, fördert den Wissenstransfer in die Praxis, berät die Politik und erfüllt hoheitliche Aufgaben – im Gefahrstoffrecht, bei der Produktsicherheit und mit dem Gesundheitsdatenarchiv. Die BAuA ist eine Ressortforschungseinrichtung im Geschäftsbereich des Bundesministeriums für Arbeit und Soziales. Über 600 Beschäftigte arbeiten an den Standorten in Dortmund, Berlin und Dresden sowie in der Außenstelle Chemnitz.
http://www.baua.de

Weitere Informationen:
http://www.baua.de/dok/673378
Direkter Link zum Fachbuch „Arbeitsstätten. Arbeitsstättenverordnung, Technische Regeln für Arbeitsstätten“

Quelle: idw

(nach oben)


Wärmepumpenversuchsstand eingeweiht

Hella Trillenberg Presse- und Informationsstelle
Hochschule Zittau/Görlitz

Ein neuer Wärmepumpenversuchsstand wurde vor kurzem offiziell im Heizungstechniklabor der Hochschule Zittau/Görlitz (HSZG) in Betrieb genommen. Die Anlage gehört zu einem Forschungsprojekt „Wärmepumpen zum Heizen und Kühlen von Gebäuden“ der Fakultät Wirtschaftswissenschaften und Wirtschaftsingenieurwesen.

Fünf Nachwuchswissenschaftler untersuchen im Rahmen dieses Projekts insbesondere saisonale Wärmespeichervorgänge im Erdreich mit dem Ziel, die Auslegung und den Betrieb von Wärmepumpen mit Erdsonden zu optimieren. Die jungen Forscher gehen davon aus, dass durch die Ergebnisse des Projektes künftig Wärmepumpen noch viel häufiger eingesetzt werden.

Der Versuchsstand besteht aus drei Erdwärmesonden (Tiefe 100m, 70m und 40m). Mit deren Hilfe kann das Erdreich wahlweise auf -10 °C gekühlt bzw. auf 90 °C aufgeheizt werden, womit verschiedene Betriebszustände von Wärmepumpen simuliert werden. Mit Temperaturfühlern an den Sonden und im umgebenden Erdreich können dann die Wärmetransport- und -speichervorgänge nachvollzogen werden. Diese sind entscheidend für effektives Heizen und Kühlen mit Wärmepumpen. Zur Erzeugung der notwendigen Temperaturen dienen ein Gaskessel und eine Kältemaschine. Sie sind über einen Pufferspeicher mit den Erdwärmesonden verbunden. Umfangreiche Messtechnik ermöglicht die Kontrolle und Steuerung aller wichtigen Anlagenparameter.

Die geplanten Experimente dienen der Beobachtung langfristiger Wärmespeichervorgänge im Erdreich sowie der Weiterentwicklung von Berechnungsmodellen, die für die richtige Auslegung von Wärmepumpen unerlässlich sind.

Der Nachwuchsforschergruppe gehören an: Dipl.-Math. Peter Eberhard – er studierte an der TU Dresden Mathematik; Dipl.-Wirtsch.-Ing. (FH) Ancilla Hain – sie studierte an der HSZG Wohnungs-und Immobilienwirtschaft; M.Eng. Markus Haack – er studierte an der HSZG Technisches Gebäudemanagement; Dipl.-Wirtsch.-Ing. (FH) Ondřej Flanderka – er studierte an der HSZG Wohnungs- und Immobilienwirtschaft und Dipl.-Ing. (FH) Felix Lucke – er studierte an der HSZG Energie-und Umwelttechnik. Das Projekt wird geleitet von Prof. Dr.-Ing. Jörn Krimmling.

Das Projekt mit einer Laufzeit von 2012 bis 2014 und der Versuchsstand werden mit Projektmitteln aus dem Europäischen Sozialfonds (ESF) finanziert.

Projektleitung und Kontakt:
Hochschule Zittau/Görlitz
Prof. Dr. Jörn Krimmling
Fakultät Wirtschaftswissenschaften und Wirtschaftsingenieurwesen
Tel.: 0172 3526018
E-Mail: j.krimmling@hszg.de

Weitere Informationen:
http://f-w.hszg.de/forschung/forschungsprojekte/waermepumpen.html

Quelle: idw

(nach oben)


Welche Gesichter man nicht vergisst

Dr. Ute Schönfelder Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Psychologen der Universität Jena erklären, wie Attraktivität das Wiedererkennen von Gesichtern stört

Große Augen, volle Lippen, dazu ebenmäßige Gesichtszüge – dass Schauspielerin Angelina Jolie weltweit als Inbegriff weiblicher Attraktivität gilt, ist für PD Dr. Holger Wiese von der Friedrich-Schiller-Universität Jena kein Wunder. „Ihr Gesicht vereint viele Faktoren, die ein Gesicht attraktiv machen“, sagt der Psychologe, der sich in seiner Forschungsarbeit vor allem mit der Wahrnehmung von Gesichtern befasst. „Zum einen empfinden wir sehr symmetrische und eher durchschnittliche Gesichter als attraktiv“, erklärt er. „Zum anderen zeichnen sich als besonders anziehend empfundene Menschen häufig durch zusätzliche Merkmale aus, die sie wiederum vom Durchschnitt abheben.“ Neben Attraktivität garantieren diese Merkmale, wie große Augen oder ein markanter Mund, auch einen hohen Wiedererkennungswert. „An solche Gesichter erinnern wir uns ziemlich gut“, so Wiese.

Wie er und seine Kollegen Carolin Altmann und Prof. Dr. Stefan Schweinberger jetzt in einer aktuellen Studie zeigen, lässt sich das aber nicht generell für attraktive Menschen sagen. So schreiben die Psychologen im Fachmagazin „Neuropsychologia“, dass attraktive Gesichter – ohne besonders auffällige Merkmale – deutlich weniger ausgeprägte Eindrücke im Gedächtnis hinterlassen (DOI: 10.1016./j.neuropsychologia.2013.12.023). „Wir konnten zeigen, dass sich Testpersonen sogar eher an unattraktive Gesichter erinnern als an attraktive, wenn diese keine besonders auffälligen Merkmale aufweisen“, sagt Holger Wiese.

Für ihre Untersuchung haben die Jenaer Psychologen Testpersonen Fotos von Gesichtern gezeigt, die je zur Hälfte als eher attraktiv oder eher unattraktiv, aber gleichermaßen markant eingeschätzt wurden. Die Probanden bekamen die Gesichter jeweils nur wenige Sekunden zu sehen, um sie sich einzuprägen. Während der anschließenden Testphase wurden ihnen wieder Gesichter gezeigt und sie mussten entscheiden, ob sie diese wiedererkennen.

Das Ergebnis hat die Forscher überrascht: „Bisher gingen wir davon aus, dass es generell leichter sei, sich als attraktiv empfundene Gesichter einzuprägen“, so Wiese, „einfach weil wir schöne Gesichter lieber betrachten.“ Die neuen Erkenntnisse zeigten nun aber, dass ein solcher Zusammenhang nicht so einfach herzustellen sei. Vielmehr gehen Wiese und seine Kollegen davon aus, dass der Lernprozess im Falle attraktiver Gesichter durch emotionale Einflüsse gestört wird, die ein späteres Wiedererkennen erschweren. Dafür sprechen die Befunde aus EEG-Aufnahmen während der Gedächtnistestung der Probanden, auf die sich die Forscher in ihrer aktuellen Publikation stützen.

Zusätzlich hat die Untersuchung der Jenaer Psychologen einen weiteren interessanten Nebenaspekt ergeben: Im Fall von attraktiven Gesichtern haben die Forscher deutlich mehr falschpositive Ergebnisse ermittelt. Das heißt, die Probanden gaben in der Testphase an, ein Gesicht zu kennen, obwohl sie es zuvor noch nicht gesehen hatten. „Offensichtlich neigen wir gelegentlich dazu zu glauben, dass wir ein Gesicht wiedererkennen, einfach weil wir es attraktiv finden“, vermutet Wiese.

Original-Publikation:
Wiese H et al.: Effects of attractiveness on face memory separated from distinctiveness: Evidence from event-related brain potentials. Neuropsychologia (2014), doi: 10.1016/j.neuropsychologia.2013.12.023

Kontakt:
PD Dr. Holger Wiese
Institut für Psychologie der Friedrich-Schiller-Universität Jena
Am Steiger 3 / Haus 1
07743 Jena
Tel.: 03641 / 945185
E-Mail: holger.wiese@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: idw

(nach oben)


Know-how aus Witten macht den Saigon-Fluss sauber

Kay Gropp Pressestelle
Universität Witten/Herdecke

Professor Dr. mult. K.-U. Rudolph vom IEEM an der UW/H plant ein neues Großklärwerk in Ho Chi Minh City im Wert von 265 Mio. Dollar

Der Leiter des Institutes für Umwelttechnik und Management an der Universität Witten/Herdecke (IEEM) hat den Auftrag erhalten, ein Großklärwerk für die Ho Chi Minh City (dem früheren Saigon) im Süden Vietnams zu planen. Das mit einem Investitionsvolumen von ca. 265 Mio. USD veranschlagte Projekt wird von der Weltbank finanziert. „Das wird ein sehr ehrgeiziges Projekt, nicht nur weil es groß ist, sondern auch, weil die Stadt Ho Chi Minh City und die Weltbank das Klärwerksprojekt als „sehr dringlich“ eingestuft haben und erwarten, dass der Vertrag zum Bau und Betrieb des Großklärwerks bereits Mitte 2015 vergeben wird“, beschreibt Professor Dr. mult. K.-U. Rudolph vom IEEM die neue Herausforderung.

Ho Chi Minh City im Süden Vietnams ist eine der Megastädte Südostasiens, in denen Industrie, Wirtschaft und Bevölkerung rapide gewachsen sind. Die Kehrseite des Wachstums und gestiegenen Wohlstands sind gravierende Umweltprobleme. Um den Saigon-Fluss vor ungeklärten Abwässern zu schützen, hat das Volkskomitee Ho Chi Minh City entschieden, ein Großklärwerk mit einer Endkapazität von 820.000 Kubikmeter pro Tag für das Stadtzentrum zu bauen. „Zum Vergleich: Eine Stadt wie Witten mit rund 100.000 Einwohnern rechnet mit 25.000 Kubikmetern pro Tag“, verdeutlicht Prof. Rudolph die Ausmaße des Projektes. „Die besondere Aufgabe besteht darin, das Abwasser in einem drei Meter dicken Rohr 30 Meter unterirdisch, noch unter der U-Bahn, zur Anlage zu führen. Dort muss es dann 35 Meter hoch gepumpt werden. Das sind schon sehr beachtliche Dimensionen, die nicht alle Tage vorkommen“, berichtet Rudolph über die Details. Eine weitere technische Herausforderung liege darin, dass in Monsunzeiten nicht nur sehr viel Abwasser anfalle, sondern dieses auch sehr „dünn“ sei, in der Trockenzeit dagegen sei es wenig, dafür konzentriert. „Darum benötigen wir eine komplexe Messtechnik und Computersteuerung, die auf diese Schwankungen reagieren kann.“

Im Folgenden einige Kennzahlen für die Fachpresse: Die Ablaufqualität aus dem Klärwerk soll den vietnamesischen Standard A erfüllen (30 mg BSB/L; 5 mg NH4-N/L; TotalColi 3.000 MPN/100 mL). Die vorgesehene Prozesstechnik ist das Aufstau-Belebungsverfahren (SBR; Sequencing Batch Reactor Technology) mit nachgeschalteter UV Abwasserdesinfektion. Der anfallende Klärschlamm wird anaerob stabilisiert, maschinell entwässert und (einstweilen) deponiert. Das produzierte Faulgas (Biogas) soll in einem Kraftwerk verstromt werden. Außerdem wird ein „Lean Cost Concept“ für die Konstruktion der Becken und Bauwerke erarbeitet, welches für die schwierigen Bodenverhältnisse in Saigon und im Mekong Delta geeignet ist. Technologien dieser Art sowie das „Lean Cost Concept“ waren im Rahmen des vietnamesisch-deutschen Forschungsprojektes AKIZ vom IEEM entwickelt und verifiziert worden.

Weitere Informationen bei Prof. Dr. mult. K.-U. Rudolph, mail@professor-rudolph.de, 02302/91 401-0

Über die UW/H:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1983 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 1.750 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Über das IEEM:
Das Institut für Umwelttechnik und Management an der Universität Witten/Herdecke (Institute of Environmental Engineering and Management, IEEM) verbindet die Bereiche Ingenieurwesen und Umwelt-Ökonomie zu einem anwendungsbezogenen, wissenschaftlichen Ansatz im weiten Feld der klassischen Siedlungswasserwirtschaft (Wasser, Abwasser, Abfall).
Ziel des Instituts ist es, innovative technische und ökonomische Lösungen zu erarbeiten und international umzusetzen, um ein nachhaltiges Wirtschaften und den Schutz von Umweltressourcen zu ermöglichen. Dies umfasst auch die Entwicklung moderner Managementmethoden und Organisationsstrukturen, mit denen technische und institutionelle Konzepte optimal gestaltet und effizienzorientiert umgesetzt werden.

Quelle: idw

(nach oben)


Tarnkappe für Hörgeräte und Implantate

Mikrosysteme sind das Herzstück von tragbaren Hörgeräten oder Implantaten. Forscher entwickeln ein miniaturisiertes und energiesparendes Funkmikrosystem, das solche Medizinprodukte kleiner, komfortabler und effizienter macht.

Vogelgezwitscher im Garten lauschen, sich mit Freunden und Bekannten unterhalten: Für Menschen mit beeinträchtigtem Hörvermögen ist das nicht selbstverständlich. Sie nehmen insbesondere höhere Töne nicht mehr wahr und haben Schwierigkeiten, Gesprächen zu folgen. Laut der Weltgesundheitsorganisation WHO gehört Schwerhörigkeit in den Industrienationen zu den sechs häufigsten Erkrankungen. In Deutschland muss etwa jeder fünfte Bundesbürger über 14 Jahren wegen Schwerhörigkeit behandelt werden. Oftmals bringt nur ein Hörgerät die verlorenen Töne zurück und macht es möglich, wieder ein normales Alltagsleben zu führen. Meist wird das Gerät hinter dem Ohr getragen. Einige Ausführungen lassen sich sogar direkt ins Ohr einsetzen.

Fraunhofer-Forscher entwickeln im EU-Projekt WiserBAN ein neues Mikrosystem. Es soll Hörgeräte künftig so klein machen, dass sie völlig unsichtbar im Ohr verschwinden. Auch für Implantate, Herzschrittmacher oder Insulinpumpen ist die Technologie geeignet. Das System kommt dabei mit einem Bruchteil der Energie aus, die herkömmliche Geräte verbrauchen. Lästige Batteriewechsel werden so auf ein Minimum reduziert. »Im Idealfall sollte der Patient über einen längeren Zeitraum gar nicht mehr daran denken, dass er ein Hörgerät trägt«, so Dr. Dionysios Manessis vom Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration IZM in Berlin.

19 Bauteile verpackt in einem Mikropaket

Mit nur 4x4x1 Kubikmillimetern ist das neue Mikrosystem fünfzigmal kleiner als aktuelle Modelle für BAN-Anwendungen (Body Area Network) – Elektronik, die direkt am Körper getragen wird. Um das zu erreichen, haben die Projektpartner zunächst besonders kleine Bauteile entwickelt, etwa neuartige Miniatur-Antennen, integrierte Schaltkreise oder Hochfrequenzfilter. Die Forscher des IZM sind dafür zuständig, alle verwendeten Bauteile – insgesamt 19 Stück – platzsparend auf einem Modul unterzubringen. »Das ist eine echte Herausforderung, da die Komponenten alle unterschiedlich groß und dick sind. Mit Hilfe unterschiedlichster Einbetttechnologien ist es uns jedoch gelungen, alle Bauteile auf kleinstem Raum zu verstauen – wie in einem Paket«, erklärt Manessis. Von außen betrachtet ist von den Einzelbauteilen nichts mehr zu sehen. Doch das ist noch nicht alles: Die Berliner »Verpackungskünstler« haben ein modulares 3D-Stapelkonzept entworfen, mit dem sich zusätzlicher Platz einsparen lässt. Das bedeutet, sie integrieren die Bauteile in mehreren kleineren Modulen und stapeln diese dann übereinander.

Darüber hinaus entwickeln die Projektpartner spezielle Antennen und Funkprotokolle. Diese übermitteln wichtige Parameter – etwa Puls, Blutdruck oder Glukosewerte – direkt an das Tablet oder Smartphone des behandelnden Arztes. Dabei kommt das WiserBAN-Funksystem ohne eine Relay-Station aus – ein zusätzliches Gerät, das der Patient bisher am Körper tragen muss, um die Kommunikationsreichweite zu erhöhen. Ein weiterer Vorteil: Die im Projekt entwickelten Funkprotokolle basieren auf den wenig störanfälligen Standards IEEE 802.15.4 und 802.15.6. Bei herkömmlichen Geräten erfolgt die Kom- munikation meist über Bluetooth, wo es oft zu Interferenzen mit anderen Geräten kommt.

Auch das Energiemanagement wollen die Projektpartner optimieren: Im Fall von Hörgeräten, die hinter dem Ohr getragen werden, kommt der Strom von einer 180mAh-Batterie (Milliamperestunden). Sie muss nach rund zwei Wochen gewechselt oder wiederaufgeladen werden. Ziel ist es, den Energieverbrauch des Systems auf cirka ein Milliwatt (mW) zu minimieren und so eine Betriebsdauer von bis zu 20 Wochen zu erreichen.

Auf Basis der neuen Technologie sollen künftig komfortablere und zuverlässigere Produkte für die Gesundheitsfürsorge entstehen – vom Langzeit-EKG bis hin zur Insulinpumpe. Aber auch bei Implantaten und Herzschrittmachern könnte das Mikrosystem zum Einsatz kommen.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Windräder aus der Ferne vermessen

Rotor und Turm einer Windkraftanlage können auch bei normalem Betrieb mit- schwingen. Die Analyse dieser Schwingungen spielt eine wichtige Rolle, wenn die Anlagen entwickelt und gewartet werden. Bisher war dies nur punktuell und direkt an der Anlage möglich. Das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB nutzt moderne Informationstechnologie, um das Schwingungsmuster der gesamten Anlagenstruktur aus einer Entfernung von mehreren hundert Metern zu messen.

»Windräder schwingen auch bei normalen Windgeschwindigkeiten bis zu einen Meter mit. Eine große Belastung für das Material, die zu Schäden und im schlimmsten Fall zum Ausfall der Anlage führen kann«, sagt Dr. Ilja Kaufmann aus der Abteilung Optronik des IOSB in Ettlingen. Betreiber prüfen daher kontinuierlich, wie stark die Schwingungen sind – mit Hilfe von Sensoren, die in Turm und Rotorblättern eingebaut sind. Der Nachteil dabei: Es kann immer nur an den Stellen gemessen werden, wo Sensoren angebracht wurden. »Ein umfassendes Schwingungsmuster der gesamten Anlage ist mit dieser Technologie nicht möglich«, so Kaufmann. Bei Offshore-Anlagen, draußen auf dem Meer, kommen weitere Anforderungen hinzu.

Laser führt Bewegung der Rotorblätter automatisch nach

Kaufmann und seine Kollegen haben sich dieses Problems angenommen. Auf der CeBIT in Hannover stellen sie ein technisches System vor, mit dem die Schwingungsanalyse umfassend für die gesamte Anlage und aus mehreren hundert Metern Entfernung funktioniert. Es besteht aus einem Laser, der auf die Anlage gerichtet ist und die Schwingungen auf beliebigen Stellen der Oberfläche messen kann. Damit das auch auf den beweglichen Bauteilen wie den Rotorblättern geschehen kann, führt der Laser deren Bewegung automatisch nach.

Dafür ist das Herzstück des Systems zuständig – ein IT-basiertes Trackingsystem. Die Wissenschaftler haben es intelligent mit Kamera und Laser verknüpft. Diese sind auf einem Schwenkneigekopf montiert, damit sie den Bewegungen der Rotorblätter folgen können. Die Kamera macht Aufnahmen der Anlage und leitet sie an eine Software weiter, die die Bilder verarbeitet und aus den Daten ein virtuelles Modell der Flügel erstellt. Mit Hilfe dieser Informationen wird der Schwenkneigekopf so angesteuert, dass der Laser den Rotorblättern folgt. Gleichzeitig sammelt die Kamera Daten über die exakte Position des etwa zwei bis drei Zentimeter großen Laserpunkts auf dem Rotorblatt, um diesen auf den drehenden Flügeln zu stabilisieren.

So lassen sich beliebig viele Punkte der Anlage im laufenden Betrieb scannen – auch aus großer Entfernung. »In kurzer Zeit entstehen wesentlich umfassendere Analysen, als sie mit den fest verbauten Sensoren möglich sind. Die Messdauer ist variabel: Je langsamer die Schwingungen, desto länger misst der Laser«, sagt Kaufmann.

Betreiber können Anlagen bewerten

Das kompakte System ist mobil und kann mit einem Fahrzeug an die gewünschte Stelle gebracht werden. Wegen der hohen Reichweite lassen sich Offshoreanlagen auch von einem Schiff aus untersuchen – vorausgesetzt man kompensiert dessen Eigenbewegungen. »Viele Windparks in Deutschland laufen bereits seit gut 20 Jahren – oft die maximale Lebensdauer. Betreiber können unsere Technologie nutzen und ihre Anlagen bewerten. Wir liefern Entscheidungshilfe bei Fragen wie: Ist sie so gut in Schuss, dass ich sie weiterbetreiben kann, verkaufe ich sie oder baue ich eine neue an derselben Stelle«, so Kaufmann.

Auf der CeBIT zeigen er und seine Kollegen einen Prototyp des Diagnosesystems. An einem zwei Meter großen Windradmodell am Fraunhofer-Gemeinschaftsstand (Halle 9, Stand E40) können Besucher den Weg des augensicheren Laserstrahls als grünen Punkt auf den Rotorblättern verfolgen. Auf zwei angeschlossenen Bildschirmen sind die Aufnahmen der Kamera und die Schwingungsanalyse zu sehen.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Keine Chance für falsche Töne

Jede Audio-Datei hat ihre eigene Geschichte. Bearbeitungsschritte wie Schneiden und Komprimieren hinterlassen Spuren. Das nutzen Forscher, um manipulierte Aufnahmen oder Musikplagiate mit spezieller Software aufzuspüren.

Der Gutachter spult ein weiteres Mal zurück. Ist der Refrain des Liedes nun ein Plagiat oder nicht? Er kneift die Augen zusammen. Äußerste Konzentration – der Musikexperte drückt noch einmal den Startknopf, prägt sich Melodien und Töne ein. Jetzt ist er sich sicher: Der vermeintliche Komponist hat nicht nur die Melodie, sondern ganze Teile des Originalsongs abgekupfert. »In so einem Fall herrscht bei uns Stille«, sagt Christian Dittmar vom Fraunhofer-Institut für Digitale Medientechnologie IDMT in Ilmenau. Die von ihm entwickelte Software erkennt Musikplagiate automatisch und löscht geklaute Liedbausteine heraus: »Bei besonders dreisten Tondieben bleibt im Extremfall bis auf die letzte Tonspur nichts mehr vom Musikstück übrig.« Der »PlagiarismAnalyzer« des IDMT spürt gleiche Melodien und Samples – komplette Bestandteil eines Songs – in wenigen Sekunden auf. Mathematische Algorithmen ermitteln dafür das Tonspektrum von Kopie und Original und vergleichen es miteinander.

Software spürt manipuliertes Audiomaterial auf

Vor Patrick Aichroth malen zwei Audioaufnahmen ihre charakteristische Wellenform auf den Computerbildschirm. Ein optisches Signal zeigt verdächtige Positionen im Material an. Auch Dittmars Kollege ist auf der Spur von manipulierten Aufnahmen. Bei ihm geht es jedoch nicht um Musik, sondern um Audiodateien ganz generell – zum Beispiel Sprachmitschnitte von Smartphones. Er und sein Team nutzen verschiedene Techniken, um Manipulationen zu identifizieren: zum Beispiel die elektrische Netzspannung (Electrical Network Frequency, kurz ENF), die Mikrofonklassifizierung und den inversen Decoder.

»Bearbeitungsschritte wie Schnitte, En- oder Dekodierung hinterlassen Spuren in den Audiodateien. Diese lassen sich an einer veränderten ENF, dem Wechsel des eingesetzten Mikrofons oder über den inversen Decoder aufspüren«, erklärt Aichroth. Letzteren hat das IDMT auf Basis von Forschungsergebnissen des Fraunhofer-Instituts für Integrierte Schaltungen IIS in Erlangen entwickelt. Der Decoder zeigt an, mit welchem Format und welchen Parametern die Originaldatei ursprünglich kodiert war – zum Beispiel mit dem mp3-Format, das die Audiospur komprimiert.

Gutachter von Plagiatsprozessen können von den neuen Technologien aus Ilmenau profitieren, aber auch Redakteure, Ermittler oder Archivare. Die Datenflut von Audioinhalten im Internet und in Unternehmen nimmt stetig zu. »Heute muss man kein Tontechniker sein, um Audioinhalte zu produzieren. Smartphones sind inzwischen so verbreitet, dass zu wichtigen Ereignissen immer öfter Tonmitschnitte existieren, die wichtige Informationen liefern können. Mit steigender Menge wächst die Gefahr von Manipulationen und für eine manuelle Prüfung fehlt fast immer die Zeit«, sagt Aichroth.

Er beschreibt zwei Situationen, bei denen das automatische Prüfen von Audiomaterial helfen kann: Großraumbüro in einer deutschen Redaktion. Die Journalisten bekommen kurz vor Redaktionsschluss brisantes Audiomaterial in die Hand. Das gäbe der Titelstory eine neue Tonalität. Entscheidende Frage: Sind die Aufnahmen authentisch? Oder folgende Szene: Der Polizei liegen mehrere Handymitschnitte vor, die den Hauptverdächtigen schwer belasten. Auch hier brauchen die Beamten eine schnelle erste Einschätzung: Sind die Aufnahmen echt oder manipuliert?

Die Ilmenauer Wissenschaftler haben ihre Software während des Projekts REWIND (http://www.rewindproject.eu/) entwickelt, das von der Europäischen Union gefördert wird. Das IDMT arbeitet hier mit Universitäten aus Italien, Großbritannien, Spanien und Brasilien zusammen. »Wir wollen sowohl die Grundlagen verstehen, als auch Technologien entwickeln, aus denen praktische Tools entstehen können. Wir bündeln die Stärken aller bisher entwickelten Technologien, um auch größere Datenmengen schnell analysieren zu können«, so Dittmar. Aktuell dauert es circa 5 Sekunden, bis eine 10-sekündige Originalsequenz in einem 30-sekündigen Musikstück aufgespürt wird.

REWIND endet im April 2014. Kurz davor zeigt das IDMT Ergebnisse des Projekts auf der CeBIT in Hannover – vom 10. bis 14. März 2014 am Messestand der Fraunhofer-Gesellschaft (Halle 9, Stand E40). Dort können Besucher erleben, wie leicht Audiodateien manipuliert werden können, wie schwer es ist, das mit bloßem Gehör wahrzunehmen und wie die Tools der Ilmenauer in der Praxis funktionieren.

Quelle: Fraunhofer-Gesellschaft

(nach oben)


Frost-Alarm! Was macht ein Maulwurf, wenn es friert?

Eva Goris Kommunikation
Deutsche Wildtier Stiftung

Deutsche Wildtier Stiftung: Erdbewohner überleben auch bei Bodenfrost!

Bei Bodenfrost bleiben Erd- und Bauarbeiten oft liegen: Für die Bauarbeiter gibt es dann im Winter Schlechtwettergeld! Auch der Maulwurf stößt bei Bodenfrost in oberen Erdschichten schnell an seine eisige Grenze. Doch der tierische Profi in punkto Erdarbeiten hat eine Lösung parat: Er gräbt sich einfach in tiefere Schichten vor.
Während er bei normalen Bodenverhältnissen seine Gänge in zehn bis 20 cm Tiefe anlegt, verlagert er seine Bautätigkeiten bei Frost in Bereiche zwischen 50 bis 60 cm. So tief dringt der Frost nicht vor.

Das agile, aber nahezu blinde Säugetier verlangsamt bei Kälte zwar seine Aktivität, senkt Atemfrequenz und Körpertemperatur, aber einen klassischen Winterschlaf hält der Maulwurf nicht. „Er spart lediglich Energie, denn im Winter muss er mit seinen Vorräten sorgsam umgehen“, sagt Eva Goris, Pressesprecherin der Deutschen Wildtier Stiftung. In der eigens angelegten Nahrungskammer hat er lebende Regenwürmer und andere Bodenbewohner gehortet. Damit seine Hauptspeise schön frisch bleibt, wurden die Würmer vom Maulwurf mit einem Biss in den vorderen Abschnitt des Körpers „gelähmt“. „Bewegungsunfähig liegen sie in seiner Speisekammer, bis sie gefressen werden“, so Goris.

Bei Bodenfrost verkriechen sich auch Regenwürmer normalerweise tief in die Erde, um frostfreie Schichten zu erreichen. Dort fallen sie dann häufig in eine Art Kältestarre. „Für den Maulwurf ist diese tierische Tiefkühlkost neben den eingelagerten Würmern ein willkommener Happen“, sagt Goris.

Weitere Informationen:

www.DeutscheWildtierStiftung.de

Quelle: idw

(nach oben)


Erster globaler Atlas der Biodiversität in Binnengewässern online

Gesine Wiemer Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Am 29. Januar wurde der erste Online-Atlas zur Biodiversität in Flüssen, Seen und Feuchtgebieten veröffentlicht. Unter Federführung des Leibniz-Instituts für Gewässerökologie und Binnenfischerei (IGB) wurde in enger Zusammenarbeit von zwölf internationalen Forschungsinstitutionen und zahlreichen NGOs eine wissenschaftliche Informationsplattform geschaffen, um den Schutz und das Management von Binnengewässern nachhaltig zu unterstützen. Der Atlas ist frei verfügbar und wird der Öffentlichkeit im Rahmen des „Water Lives Symposiums“ in Brüssel präsentiert, wo Wissenschaftler und politische Entscheidungsträger gemeinsam über den Erhalt der Biodiversität in Süßgewässern diskutieren.

Binnengewässer zählen zu den artenreichsten Lebensräumen weltweit. Obwohl sie weniger als ein Prozent der Erdoberfläche bedecken, beherbergen sie 35 Prozent aller Wirbeltierarten. Zugleich nimmt die biologische Vielfalt in Flüssen, Seen und Feuchtgebieten viel stärker ab als im Meer oder an Land. Der Politik kommt deshalb die wichtige Aufgabe zu, den Erhalt der Binnengewässer als Ökosysteme mit dem steigenden Wasserbedarf der Energie-, Lebensmittel- und Entsorgungsindustrie zu vereinbaren.
Mit dem globalen Atlas zur biologischen Vielfalt stehen nun verlässliche und empirisch belegte Entscheidungshilfen zur Verfügung. Interessenten aus Politik, Wirtschaft und Wissenschaft erhalten erstmals einen freien, online verfügbaren und interaktiven Zugang zu geografischen Schlüsselinformationen sowie zu Daten über Lebensräume und die aquatische Artenvielfalt.
Der Online-Atlas verfügt über eine buchähnliche Struktur, welche die Suche in den vier Kapiteln „Status und Prognose der aquatischen Biodiversität“, „Wasserressourcen und Ökosysteme“, „Belastungen von Binnengewässern“ und „Erhalt und Management der Gewässer“ erleichtert. Alle Karten werden durch profunde Hintergrundinformationen ergänzt. Die interaktive Kartenoberfläche ist sehr benutzerfreundlich gestaltet und ermöglicht einen schnellen Wechsel zwischen Karten, Navigation, Zoom und weiterführenden Informationen. Anders als ein gedruckter Atlas kann der Online-Atlas jederzeit erweitert und aktualisiert werden, sobald neue Daten oder Karten verfügbar sind.
Der Atlas wird im Rahmen des Projektes BioFresh erarbeitet, das vom Berliner Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) koordiniert wird. In diesem von der Europäischen Union finanzierten Projekt werden alle verfügbaren Daten über das Leben in unseren Flüssen und Seen gesammelt, um nachhaltige Lösungsansätze für den Schutz und das Management von Binnengewässern entwickeln zu können.
Die beteiligten Wissenschaftler stammen aus zwölf europäischen Forschungsinstituten und werden bei der Entwicklung des Atlas aktiv von internationalen Organisationen unterstützt. Hierzu zählen das GEO Biodiversity Observation Network, die Welt-Naturschutzunion (IUCN), das Global Water System Project (GWSP), Conservation International (CI), Wetlands International, The Nature Conservancy (TNC) und der World Wildlife Fund (WWF).
„Dieser Atlas stellt eine unschätzbar wichtige Grundlage dar, um Prioritäten im Management der Gewässer und zum Schutz ihrer einzigartigen Biodiversität zu setzen. So erfordert der globale Boom im Ausbau der Wasserkraft dringend zuverlässige Daten, um ökologisch und sozial verträgliche Lösungen für die Nutzung von Gewässern zu entwickeln“, sagt Prof. Klement Tockner, Direktor des IGB und Koordinator des Forschungsprojektes BioFresh.

Weitere Stimmen:
Vanessa Bremerich, Entwicklerin des Atlas am Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Berlin
„Der Atlas ist ein wichtiges Visualisierungsinstrument, was den Zugang zu Informationen erleichtert und die Verfügbarkeit von wissenschaftlichen Ergebnissen auf dem Feld der aquatischen Biodiversität erhöht.“
Dr. Will Darwall, Vorsitzender der Gruppe für aquatische Biodiversität der Welt-Naturschutzunion (IUCN), Cambridge
„Der Atlas ist für NGOs, politische Entscheidungsträger und Naturschützer von unschätzbarem Wert. Er hilft dabei, Kernzonen aquatischer Biodiversität zu identifizieren, Schutzzonen zu entwickeln, die negative Effekte von Landnutzungen wie Dämmen zu minimieren und damit letztendlich auch Naturschutzziele zu erreichen.“

Zum IGB:
Das Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) ist das bundesweit größte Forschungszentrum für Binnengewässer. Es gehört zum Forschungsverbund Berlin e.V., einem Zusammenschluss von acht natur-, lebens- und umweltwissenschaftlichen Instituten in Berlin. Die vielfach ausgezeichneten Einrichtungen sind Mitglieder der Leibniz-Gemeinschaft. www.igb-berlin.de

Kontakt:
Vanessa Bremerich und Prof. Dr. Klement Tockner
Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB), Berlin
Tel.: 49-30-64181631
E-Mail: bremerich@igb-berlin.de; tockner@igb-berlin.de

Dr. Astrid Schmidt-Kloiber
Universität für Bodenkultur, Wien
Tel.: +43-1-47654-5225
E-Mail: astrid.schmidt-kloiber@boku.ac.at

Weitere Informationen:
http://www.freshwaterbiodiversity.eu
http://atlas.freshwaterbiodiversity.eu/index.php/explore
http://atlas.freshwaterbiodiversity.eu/index.php/maps
http://atlas.freshwaterbiodiversity.eu/index.php/contribute
http://www.freshwaterbiodiversity.eu
http://atlas.freshwaterbiodiversity.eu
http://www.waterlives.eu/

Quelle: idw

(nach oben)


Steigende Tendenz zur inneren Kündigung? Aktuelles Forschungsprojekt an der SRH Hochschule HD

Janna von Greiffenstern Kommunikation und Service
SRH Hochschule Heidelberg

Leise, in kleinen Schritten und unauffällig schleicht sie sich heran: Jeder dritte Arbeitnehmer hat die innere Kündigung in der Tasche. Seine Leistungsbereitschaft sinkt, sein Arbeitseinsatz wird stillschweigend zurückgezogen. Eine Forschungsgruppe der Fakultät Angewandte Psychologie an der SRH Hochschule Heidelberg erkundet unter der Leitung von Prof. Ralf D. Brinkmann und Prof. Sven Garbade das Phänomen innere Kündigung http://www.innerekuendigung.de. Bereits 2007 sammelte das Forscherteam um Prof. Brinkmann Daten zur Diagnose der inneren Kündigung.

Über 3.000 Personen aus allen Branchen hatten sich an der damaligen Studie beteiligt: Ca. 35% der Befragten haben sich selbst als innerlich gekündigt bezeichnet.
Ursachen wurden vor allem in einem problematischen Führungsverhalten der Vorgesetzten gesehen. Aber auch suboptimale Arbeitsbedingungen, Konflikte im Kollegenkreis sowie zunehmende psychische Belastungen am Arbeitsplatz wurden als Gründe angeführt. Symptome sind z.B. mangelnde Eigeninitiative, Verhaltensveränderungen oder Passivität bei Teamarbeit. „Psychologisch gesehen ist es für viele Teilnehmer der Fragebogenaktion zu einem Bruch des psychologischen Arbeitsvertrages gekommen, der die wechselseitigen, aber meist unausgesprochenen Erwartungen von Arbeitnehmer und Arbeitgeber beinhaltet“, erklärt Prof. Brinkmann. Letztlich bedeutet dieser Bruch auch eine wirtschaftliche Einbuße, denn nicht nur der Arbeitnehmer selbst leidet, auch das Unternehmen kann sein eigentliches Potenzial nicht nutzen.

Nun nimmt das Forscherteam das Thema erneut in Angriff und sucht nach Teilnehmern zwischen 15 und 65 Jahren für die Online-Befragung – ob zufrieden oder unzufrieden mit dem Job. Prof. Brinkmann geht davon aus, dass die Tendenz zur inneren Kündigung zugenommen hat: „Vor dem Hintergrund, dass der Stress in den vergangenen Jahren noch gewachsen ist, vermuten wir, dass das Ungleichgewicht zwischen Arbeitnehmer und Arbeitgeber noch stärker und der Bruch des psychologischen Arbeitsvertrages noch häufiger zu finden ist.“ Dies versuchen die Wirtschaftspsychologen der SRH Hochschule Heidelberg herauszufinden. Die Seite http://www.innerekuendigung.de bietet neben der Befragung auch ausführliche Informationen zu den Ursachen und Auswegen des Phänomens.

SRH Hochschule Heidelberg
Die SRH Hochschule Heidelberg ist eine der ältesten und bundesweit größten privaten Hochschulen. Zurzeit sind rund 3.000 Studierende an sechs Fakultäten eingeschrieben. Die Hochschule bietet zukunftsorientierte Studiengänge in Wirtschaft, Informatik, Ingenieurswissenschaften, Sozial-, Rechts- und Therapiewissenschaften sowie angewandter Psychologie an. Seit 2012 geht die SRH Hochschule Heidelberg neue Wege: Mit der Einführung eines Studiums nach dem CORE-Prinzip wurden alle Studiengänge neu strukturiert und konsequent auf die am Arbeitsmarkt geforderten Kompetenzen ausgerichtet. Durch den Einsatz innovativer Lehr-, Lern- und Prüfungsmethoden rückt aktives und eigenverantwortliches Studieren in den Mittelpunkt. Die SRH Hochschule Heidelberg ist staatlich anerkannt und wurde vom Wissenschaftsrat akkreditiert. Sie gehört zum Hochschulverbund der SRH Holding, einer unabhängigen Stiftung, die bundesweit Bildungseinrichtungen und Krankenhäuser betreibt.

Weitere Informationen:
http://www.innerekuendigung.de

Quelle: idw

(nach oben)


Cholesterinsenker sind nicht schädlich für das Gedächtnis. Schützen sie sogar vor Vergesslichkeit?

Frank A. Miltner Pressestelle der DGN
Deutsche Gesellschaft für Neurologie

Gemeinsame Presseinformation der Deutschen Gesellschaft für Neurologie (DGN) und der Deutschen Schlaganfall-Gesellschaft (DSG)

Die Sorge, dass die häufig verschriebene Medikamentenklasse der Cholesterinsenker (Statine) das Gedächtnis schädigen könnte, scheint unbegründet. In einer Übersichtsarbeit, bei der Studien mit mehr als 23.000 Männern und Frauen ausgewertet worden waren, fanden US-Forscher bei kurzfristiger Einnahme kein erhöhtes Risiko und bei längerer sogar einen Schutzeffekt.

„Unterm Strich könnten laut dieser Studie Statine das Risiko einer Demenz um 29 Prozent senken, wenn sie ein Jahr oder länger eingenommen werden“, fasst Professor Matthias Endres, zweiter Vorsitzender der Deutschen Schlaganfall-Gesellschaft (DSG) und Direktor der Klinik für Neurologie an der Berliner Charité, das Ergebnis der Meta-Analyse zusammen. Im Umkehrschluss sollten Statine aber nicht entgegen ihrer Zulassung als Anti-Demenzmittel eingesetzt werden, betont Professor Hans-Christoph Diener von der Deutschen Gesellschaft für Neurologie (DGN). Regelmäßiger moderater Sport zeige sich als Vorsorgemaßnahme gegen Demenz ähnlich wirksam.

Mit einem jährlichen Gesamtumsatz von etwa 20 Milliarden Euro bis zum Ablauf ihres Patentschutzes waren die Statine zumindest aus wirtschaftlicher Sicht die erfolgreichste Arzneimittelklasse der vergangenen 30 Jahre. Etwa 220 Millionen Menschen weltweit nehmen diese Medikamente ein, um sich vor Herzinfarkten und Schlaganfällen zu schützen.

Mehrere Studien berichteten in der Vergangenheit, dass Menschen, die Statine einnehmen, seltener von einer Demenz wie zum Beispiel die Alzheimer-Krankheit betroffen sind. Andere Untersuchungen fanden aber keinen Effekt. Im Gegenteil wurden nach der Einnahme vereinzelt sogar Gedächtnisstörungen und Vergesslichkeit beobachtet, bis hin zum vorübergehenden Gedächtnisverlust, was heute in den Beipackzetteln dieser Präparate auch nachzulesen ist. „Zusammen mit entsprechenden Presseberichten hat dies auch zur Verunsicherung der Patienten beigetragen“, so Endres. „Deshalb war es enorm wichtig, die Studien dazu genau unter die Lupe zu nehmen.“

Statine über kurze Zeit – kein Unterschied erkennbar

Forscher um Kristopher J. Swiger von der Johns Hopkins University in Baltimore hatten diese Lupe herausgeholt, die Publikationen systematisch analysiert und unter den 41 Studien zum Thema die 16 methodisch besten ausgewählt. Für den ersten Teil der Untersuchung wurden acht Studien erfasst, die einen kürzeren Gebrauch von Statinen untersucht hatten. Drei dieser Studien ermöglichten eine quantitative Auswertung, weil hier die Teilnehmer bei einem Denktest unter Zeitdruck Zahlen durch Symbole ersetzen mussten. Dabei fanden sich keine eindeutigen Unterschiede zwischen denjenigen, die Statine bekommen hatten, und jenen Teilnehmern, die stattdessen ein Scheinmedikament einnahmen. Kristopher J. Swiger fand „keinen Zusammenhang zwischen dem kurzfristigen Gebrauch von Statinen und Gedächtnisverlust oder anderen kognitiven Beeinträchtigungen“.

Statine über längere Zeit – Demenzrisiko scheint sogar zu sinken

Teil zwei der Analyse sollte die langfristigen Folgen der Statin-Einnahme klären. Hier standen die Daten aus acht Studien mit mehr als 23.000 Menschen zur Verfügung, bei denen es anfänglich keine Hinweise auf Gedächtnisstörungen gab. Im Durchschnitt waren diese Patienten zwischen drei bis maximal 25 Jahre lang untersucht worden. In drei der acht Studien fand sich kein Zusammenhang zwischen der Einnahme von Statinen und dem Demenzrisiko. In fünf Studien aber fanden die Wissenschaftler einen positiven Einfluss der Arzneien. Zusammengenommen errechneten die Forscher für alle acht Langzeitstudien ein um 29 Prozent geringeres Risiko, an einer Demenz zu erkranken, gegenüber Patienten, die lediglich ein Scheinmedikament erhalten hatten. Professor Matthias Endres kommentiert kritisch: „Einige große Statin-Studien, wie die PROSPER-Studie (Prospective Study of Pravastatin in the Elderly at Risk) oder die Heart Protection Study, ergaben keinen Hinweis auf einen schützenden Effekt der Statine. Diese wurden aber in der aktuellen Übersichtsstudie nicht mit eingerechnet.“

Vorsichtiger Optimismus

„Auch aufgrund früherer Berichte zu möglichen Nebenwirkungen der Statine auf das Gedächtnis ist auch diese neue Studie mit Vorsicht zu betrachten“, kommentiert Professor Hans-Christoph Diener, Direktor der Klinik für Neurologie am Universitätsklinikum Essen. „Es stimmt mich aber optimistisch, zu sehen, dass die Einnahme von Cholesterinsenkern über einen längeren Zeitraum womöglich das Risiko verringert, an einer Demenz zu erkranken“. Dass Statine einen solchen Effekt haben, scheint plausibel. Schließlich verringern oder stabilisieren die Cholesterinsenker jene Ablagerungen (Plaques) in den Gefäßen, die Verengungen verursachen, den Blutfluss ins Gehirn verringern und durch Verstopfungen Schlaganfälle auslösen können. „Was die neurokognitiven Effekte der Statin-Therapie angeht, so könnten Ärzte und Patienten nun beruhigt sein“, folgert Diener aus der neuen Studie.

Nutzen und Risiken mit dem Arzt besprechen

Millionen von Menschen nehmen Statine ein, erinnert Professor Endres. „Der mögliche Nutzen muss gegen die Gefahr von unerwünschten Nebenwirkungen wie Schädigungen der Muskulatur abgewogen werden. Eine Beratung mit dem Arzt ist deshalb vor der Einnahme unbedingt erforderlich.“

Quelle
Swiger KJ et al:. Statins and cognition: a systematic review and meta-analysis of short- and long-term cognitive effects. Mayo Clin Proc. 2013 Nov;88(11):1213-21
http://www.ncbi.nlm.nih.gov/pubmed/24095248

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als medizinische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren mehr als 7500 Mitgliedern die Qualität der neurologischen Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist seit 2008 Berlin. www.dgn.org

1. Vorsitzender: Prof. Dr. med. Martin Grond
2. Vorsitzender: Prof. Dr. med. Wolfgang H. Oertel
3. Vorsitzender: Prof. Dr. med. Ralf Gold
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter

Geschäftsstelle
Reinhardtstr. 27 C
10117 Berlin
Tel.: +49 (0)30 531437930
E-Mail: info@dgn.org

Weitere Informationen:
http://www.dgn.org – DGN Website
http://www.dsg-info.de – DSG Website

Anhang
PM Statine und Kognition
http://idw-online.de/de/attachment33903

Quelle: idw

(nach oben)


Ist der Mensch für eine Zunahme der extremen El Niño-Ereignisse verantwortlich?

Marie de Chalup Wissenschaftliche Abteilung
Wissenschaftliche Abteilung, Französische Botschaft in der Bundesrepublik Deutschland

Im Rahmen einer internationalen Studie, an der auch Forscher des Labors für Ozeanographie und Klima (LOCEAN) beteiligt waren, wurde zum ersten Mal der Einfluss menschlicher Aktivitäten auf extreme Klimaereignisse im Pazifischen Ozean untersucht. Sie zeigt, dass eine Folge der globalen Erwärmung eine Verdoppelung der Häufigkeit von extremen El Niño-Ereignissen während des 21. Jahrhunderts sein könnte. Diese Ergebnisse wurden am 19. Januar 2014 in der Fachzeitschrift Nature Climate Change veröffentlicht.

Die auf eine anormale Erwärmung im Ostpazifik zurückzuführenden El Niño-Ereignisse sind Ausdruck starker Klimaschwankungen. Im Gegensatz zu klassischen Zyklen sind extreme El Niño-Ereignisse dadurch gekennzeichnet, dass das warme Wasser und die damit einhergehenden Niederschläge vom West- in den normalerweise kalten und trockenen Ostpazifik fließen. Dies war vor allem der Fall beim „Jahrhundert“-El Niño 1997/98 oder auch dem von 1982/83. Diese Klimaereignisse sind für dramatische Veränderungen in der atmosphärischen Zirkulation weltweit verantwortlich und führen zu schweren Naturkatastrophen: starke Regenfälle und Erdrutsche in Ecuador und im Norden Perus, Dürren und Waldbrände in Indonesien und Australien, Ausbleichen von Korallenriffen und Niederschlagsdefizite auf den Inseln im Südwestpazifik, verheerende Wirbelstürme im mittleren Pazifik, Verschwinden mariner Lebenwesen, drastische Reduzierung einheimischer Vogelpopulationen auf den Galapagos-Inseln etc. Es wird geschätzt, dass der El Niño von 1997/98 allein für Sachschäden in Höhe von fast 40 Milliarden Dollar und den Tod von 23.000 Menschen weltweit verantwortlich ist.

Aus diesem Grund widmet die Wissenschaftsgemeinschaft diesen Klimaextremen besondere Aufmerksamkeit. Bisher zeichnete sich kein Konsens über die Entwicklung des El Niño-Phänomens im Kontext des weltweiten globalen Klimawandels ab, und der Frage nach der Entwicklung der extremen El Niño-Ereignissen wurde nie nachgegangen.

In dieser Studie haben die Forscher Daten von Klimasimulationen von zwanzig Klimamodellen zusammengetragen, mit denen extreme El Niño-Ereignisse nachgestellt wurden. Sie konnten zum ersten Mal aufzeigen, dass extreme El Niño-Ereignisse aufgrund des Anstiegs der menschlich verursachten Treibhausgasemissionen im 21. Jahrhundert doppelt so häufig auftreten könnten (bis zu zehn Ereignisse pro Jahrhundert). Die Forscher führen die signifikante Zunahme der Häufigkeit von Wetterextremen auf den schnelleren Anstieg der Oberflächentemperaturen am Äquator im Ostpazifik – im Vergleich zu den angrenzenden Gewässern – zurück, wodurch die atmosphärische Konvektion in dieser Region vereinfacht wird. Sie warnen ebenfalls vor einem erhöhten Risiko für damit verbundene Naturkatastrophen in der Zukunft (Hochwasser, Dürre, Verschiebung sturmgeplagter Regionen etc.). Diese könnten insbesondere die gefährdeten Bevölkerungen der Inseln des Südpazifiks treffen.

Durch die Quantifizierung bestimmter Folgen der globalen Erwärmung ermöglicht diese Art von Studien eine weitere Verfeinerung der Evolutionsszenarien extremer künftiger Klimaereignisse.

Quelle:
„L’activité humaine pourrait provoquer un doublement de la fréquence des évènements El Nino extrêmes“, Pressemitteilung des französischen Zentrums für wissenschaftliche Forschung (CNRS) – 21.01.2014 – http://www2.cnrs.fr/presse/communique/3403.htm

Redakteurin:
Hélène Benveniste, helene.benveniste@diplomatie.gouv.fr

Weitere Informationen:
http://www.wissenschaft-frankreich.de/de/umwelt-klima-agronomie/ist-der-mensch-f…

Quelle: idw

(nach oben)


Stromfresser auf Diät

Schon vier übliche Netzteile verursachen im Dauerbetrieb bis 51 Euro Stromkosten pro Jahr


250 Euro kann ein durchschnittlicher Zweipersonenhaushalt sparen, wenn sparsamer mit Energie umgegangen wird. Wie das ganz ohne Komfortverlust klappen kann, zeigt die neue Broschüre „Energiesparen im Haushalt“ des Umweltbundes-amtes (UBA). Die Broschüre bietet Orientierung sowohl beim Neukauf sparsamer Geräte, hilft aber auch beim Aufspüren unerkannter Stromfresser im Haushalt. UBA-Vizepräsident Thomas Holzmann: „Wir haben heute schon sehr viel effizientere Elektrogeräte als noch vor zehn Jahren. Dennoch kann man viel mehr tun, um den Stromverbrauch zu senken. Ein Durchschnittshaushalt kann bis zu 250 Euro sparen. Nach wie vor der einfachste Weg: Geräte komplett abschalten, die nicht im Einsatz sind und womöglich Strom auch im Leerlauf verbrauchen.“

Die sogenannten Leerlaufverluste sind besonders unnötig: Ob ein Gerät noch Strom zieht, obwohl es keine Funktion mehr erfüllt, kann man oft leicht selbst testen: Steckt etwa das Netzteil eines Handys noch in der Dose und bleibt warm, selbst wenn das Mobiltelefon vom Ladegerät abgekoppelt ist, fließt sogenannter Leerstrom. Bleiben vier solcher Netzteile ein Jahr lang am Netz, verbrauchen diese zusammen bis zu 175 Kilowattstunden Strom im Jahr – und das kostet dann rund 51 Euro.

Leerlaufverluste gibt es nicht nur bei Handyladegeräten, sondern auch bei Fernsehern, Druckern oder HiFi-Anlagen. Eine alte HiFi-Anlage kommt bei 24 Stunden Standby-Dauerbetrieb so schnell auf rund 53 Euro Strom-kosten pro Jahr. Abschaltbare Steckdosenleisten machen das vollständige Ausschalten nicht benutzter Geräte noch einfacher. Ein Klick und die unerkannten Stromfresser sind stillgelegt. Übrigens: Welche Geräte wie viel Energie verbrauchen, kann auch das UBA-Energiekostenmessgerät aufdecken, das kostenlos in vielen Bibliotheken in ganz Deutschland ausgeliehen werden kann.

Bei vielen elektrischen Geräten ist die Energieeffizienz in den vergangenen Jahren gestiegen. Sie benötigen also weniger Strom für eine bestimmte Leistung. So ist zum Beispiel der Stromverbrauch von Geschirrspülern um die Hälfte gesunken, ihr Wasserverbrauch um etwa 70 Prozent. Bei der Beleuchtung hat sich die Technik in den vergangenen Jahren ebenfalls sehr positiv entwickelt. Die Stromkosten einer Energiesparlampe belaufen sich bei 8.000 Stunden Laufzeit auf 34 Euro; eine Standardglühlampe würde 137 Euro Kosten verursachen. Auch deshalb verschwinden Standardglühlampen seit 2009 nach und nach vom Markt.

Für TV-Geräte gilt: LED-Fernseher sparen gegenüber Plasmageräten etwa die Hälfte des Stromes. Wäschetrockner verbrauchen übrigens besonders viel Strom. Kostenlos trocknet Wäsche immer noch auf der Wäschespinne oder dem Wäscheständer. Geschieht das in Innenräumen, sollten diese ausreichend belüftet sein, um Schimmel vorzubeugen. Wer auf den Trockner nicht verzichten kann und möchte, findet mit Gas- oder Wärmepumpentrockner der Effizienzklasse A++ oder höher vergleichsweise sparsame Geräte.

Ganz wichtig beim Energiesparen: Wer ein neues Gerät kaufen möchte, sollte zunächst den persönlichen Bedarf schätzen – denn überdimensionierte, größere Geräte verbrauchen auch mehr Strom. Beim Kauf weisen Energielabels den Weg: A++ und A+++ sind derzeit die höchsten Effizienzklassen und auf den am wenigsten verbrauchenden Produkten gleicher Größenklasse zu finden. Produkte, die das Umweltzeichen „Blauer Engel“ tragen, sind aus Umweltsicht die besten Waren einer Produktgruppe.

Energiemessgeräte kostenlos bestellen
http://www.umweltbundesamt.de/themen/klima-energie/energiesparen/energiesparen-im-haushalt/energiesparpaket-fuer-haushalte-energiesparkiste
Informationen zum Label „Blauer Engel“
http://www.blauer-engel.de/
Stromsparinitiative des BMUB und Online-Stromcheck
http://www.die-stromsparinitiative.de/
Energiesparkisten für Schulen kostenlos bestellen
http://www.no-e.de/

Publikationen

Energiesparen im Haushalt
http://www.umweltbundesamt.de/publikationen/energiesparen-im-haushalt

Quelle: uba

(nach oben)


Grüner Tee beeinflusst Medikamentenwirkung

Blandina Mangelkramer Kommunikation und Presse
Friedrich-Alexander-Universität Erlangen-Nürnberg

Grünem Tee werden vielfältige gesundheitsfördernde, ja sogar heilende Effekte nachgesagt. Das Getränk kann aber auch die Wirkung bestimmter Medikamente abschwächen. Dies haben jetzt Wissenschaftler der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) in Zusammenarbeit mit Forschern der japanischen Universität Fukushima nachgewiesen.

Die Wissenschaftler vom Lehrstuhl für Klinische Pharmakologie und Klinische Toxikologie der FAU haben gemeinsam mit den japanischen Forschern herausgefunden, dass bestimmte Inhaltsstoffe des Tees verhindern, dass der Betablocker Nadolol vom Körper aufgenommen wird und seine Wirkung entfalten kann. Nadolol wird zur Behandlung von Bluthochdruck, Angina pectoris und Migräne verschrieben. In deutschen Apotheken ist das Medikament jedoch nicht erhältlich.

„Wir können nicht ausschließen, dass grüner Tee auch die Aufnahme anderer Medikamente hemmt. Dies muss in weiteren Studien untersucht werden“, sagt Dr. Fabian Müller, Arzt am Lehrstuhl für Klinische Pharmakologie und Klinische Toxikologie der FAU. „Wir empfehlen, bei Einnahme von Nadolol auf den Konsum grünen Tees zu verzichten, da eine verminderte Wirkung zu erwarten ist.“

Für die aktuelle Untersuchung tranken Testpersonen zunächst zwei Wochen lang täglich etwa vier Tassen grünen Tee. Anschließend nahmen sie einmalig eine 30-Milligramm-Tablette Nadolol zusammen mit grünem Tee ein. In den zwei folgenden Tagen prüften die Forscher die Konzentration des Wirkstoffs im Blutplasma und kontrollierten außerdem den Blutdruck der Freiwilligen. In einer zweiten Testreihe wurde der grüne Tee dann durch Wasser ersetzt. Das erstaunliche Ergebnis: Nach dem Grünteegenuss lag der Nadololspiegel im Blut der Testpersonen rund 85 Prozent unter dem Vergleichswert. Folglich war auch die blutdrucksenkende Wirkung von Nadolol bei den Probanden in der Grüntee-Testreihe deutlich vermindert.

Für dieses Ergebnis machen die Experten die so genannten Katechine im grünen Tee verantwortlich. In Laboruntersuchungen konnten die FAU-Forscher nachweisen, dass diese Stoffe ein Protein in der Darmschleimhaut beeinflussen, das der Wissenschaft bereits als Arzneistofftransporter bekannt ist: Das Protein mit dem Namen OATP1A2 unterstützt Medikamente beim Übergang vom Darm ins Blut. Kommen allerdings Katechine ins Spiel, wird dieses Protein blockiert und kann keine bzw. nur wenige Wirkstoffanteile in den Blutkreislauf befördern.

Ihre Forschungsergebnisse haben die Wissenschaftler jetzt in der Online-Ausgabe des renommierten Fachmagazins „Clinical Pharmacology & Therapeutics“ veröffentlicht.

Quelle: idw

(nach oben)


Erfolgreiche Renaturierung von Gewässern: Das biologische Umfeld ist entscheidend

Dr. Sören Dürr Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Aufwändige Renaturierungsmaßnahmen sollen die biologische Vielfalt zurück in Bäche und Flüsse holen. Doch der Erfolg ist nicht garantiert. Woran liegt’s? Gewässerökologen der Senckenberg Gesellschaft für Naturforschung und des LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) haben 18 Gewässerrenaturierungen untersucht. Sie konnten belegen, dass Fischarten meist dort wieder einwandern, wo schon das biologische Umfeld Vielfalt bietet. Wie das Artenspektrum in der Umgebung aussieht, gehört zu den wichtigsten Faktoren für Wiederansiedlung und sollte daher schon bei der Planung von Renaturierungen berücksichtigt werden. Die Studie ist im Januar 2014 im Fachmagazin PlosOne erschienen.

Renaturierungen von Bächen und Flüssen lassen sich nicht allein am Reißbrett planen. Neben der Lebensraumvielfalt im Gewässer selbst und der Nutzung der Umgebung bestimmen eine ganze Reihe weiterer Faktoren, ob ein Lebensraum eine artenreiche Lebensgemeinschaft beherbergen kann und wird. Wissenschaftler der Senckenberg Gesellschaft für Naturforschung und des LOEWE Biodiversität und Klima Forschungszentrums (BiK-F) untersuchten 18 renaturierte Gewässerabschnitte im Hinblick auf die dort vorhandenen Fischpopulationen.

Es stellte sich heraus, dass fast alle Fischarten, die die renaturierten Abschnitte besiedelt hatten, auch in einer maximalen Entfernung von 5 km stromauf oder stromabwärts vorkamen. Arten, deren nächstgelegene Population weiter entfernt war, waren dagegen praktisch nicht vertreten. Statistische Modelle zeigen, dass genau dieses Vorkommen der Arten in geringer Entfernung der wichtigste Aspekt ist, wenn eine natürliche Wiederansiedlung funktionieren soll. Die Berechnungen ergaben, dass die Zusammensetzung der Artgemeinschaften im Umfeld einen größeren Einfluss auf das Wiederansiedlungserfolg haben als 10 technische und strukturelle Kenngrößen von Renaturierungen, darunter z.B. der Länge des renaturierten Abschnitts und das Gewässerprofil.

Auch die ökologischen Eigenschaften der Fischarten spielen eine wichtige Rolle: Zum Beispiel ist bei Arten, die schnellströmendes Wasser bevorzugen, die Wahrscheinlichkeit größer, dass sie einen renaturierten Abschnitt besiedeln. Für Arten, die sich überwiegend in ruhigem Wasser aufhalten, können schnellströmende Gewässerabschnitte Wanderhindernisse darstellen.

Geglückte Renaturierung – eine Standortfrage

„Wenn man die Stelle für eine Renaturierungsmaßnahme nicht sorgfältig wählt, sondern einfach den nächstbesten verfügbaren Gewässerabschnitt nimmt, ist die Wahrscheinlichkeit des Scheiterns ungleich höher“, sagt Gewässerökologe Dr. Stefan Stoll. „Stattdessen sollten gezielt Abschnitte ausgewählt werden, in deren Nähe genügend Quellpopulationen vorkommen, von denen sich die gewünschten Fischarten ausbreiten können. Vorab in Erfahrung zu bringen, was in der Umgebung eines geplanten Renaturierungsprojektes biologisch los ist, ist deshalb eminent wichtig, um die Erfolgsaussichten abschätzen zu können.“

Zurück auf Anfang: bauliche Eingriffe umkehren

Die EU-Wasserrahmenrichtlinie (WRRL) verlangt einen guten ökologischen Zustand der Fließgewässer. Über Jahrzehnte haben Kommunen und Länder Flüsse begradigt, kanalisiert und gemäß der Bedürfnisse des Menschen verändert. Nun sollen diese Eingriffe soweit rückgängig gemacht werden, dass sich funktionierende und vielfältige Lebensgemeinschaften ansiedeln können. Fließgewässer gehören zu den artenreichsten Lebensräumen und sind ein Brennpunkt der Biodiversität. Obwohl Süßwasserlebensräume weltweit weniger als 1 % der Fläche einnehmen, sind ungefähr 10 % aller Tierarten an sie gebunden. Gleichzeitig sind viele heimische Gewässerbewohner, darunter eine ganze Reihe von Fischen, gefährdet und stehen auf der Roten Liste der bedrohten Tierarten.

Publikation:
Stoll S, Kail J, Lorenz AW, Sundermann A, Haase P (2014) The Importance of the Regional Species Pool Ecological Species Traits and Local Habitat Conditions for the Colonization of Restored River Reaches by Fish. PloS ONE 9(1): e84741. doi:10.1371/journal.pone.0084741

Kontakt:
Dr. Stefan Stoll
Abteilung Fließgewässerökologie und Naturschutzforschung
Senckenberg Gesellschaft für Naturforschung
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel. 06051- 61954 3123
stefan.stoll@senckenberg.de

Prof. Dr. Peter Haase
Senckenberg Gesellschaft für Naturforschung
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel 06051- 61954 3114
peter.haase@senckenberg.de

Weitere Informationen:
http://www.senckenberg.de/root/index.php?page_id=5206&kid=2&id=2958

Quelle: idw

(nach oben)


Trotz Rheuma im Job bleiben: Das geht immer besser

Dr. Julia Rautenstrauch Geschäftsstelle
Deutsche Gesellschaft für Rheumatologie e.V.

Rheumapatienten bleiben heute trotz ihrer Erkrankung häufiger beruflich aktiv als noch vor 10 bis 15 Jahren. Sowohl die Arbeitsunfähigkeitsdauer als auch die Zahl der Erwerbsminderungsrenten ging bei Menschen mit chronisch-entzündlichen Gelenkerkrankungen seit 1997 stetig zurück. Dieser Trend ist bei Rheumakranken deutlich stärker ausgeprägt als bei der Gesamtheit aller Krankheiten, was auf einen Zusammenhang mit verbesserten medikamentösen und nicht-medikamentösen Therapiestrategien hinweist, betont Professor Dr. Wilfried Mau, Direktor des Instituts für Rehabilitationsmedizin der Universität Halle-Wittenberg.

Teilhabe am Arbeitsleben wird als Ziel medizinischer Interventionen zunehmend wichtiger. Denn Arbeitsunfähigkeit und vorzeitiges Ausscheiden aus dem Arbeitsleben bedeuten für die Betroffenen neben dem Armutsrisiko auch soziale Vereinsamung und Verlust des Selbstwertgefühls. Grund zum Optimismus gibt daher die aktuelle Analyse der Erwerbstätigkeit von Rheumakranken anhand von Sozialversicherungsdaten und Daten aus der Kerndokumentation der Rheumazentren, die Prof. Mau jetzt in der Zeitschrift für Rheumatologie veröffentlichte*.

Innerhalb der letzten 10 bis 15 Jahre zeigen diese Daten eine deutlich verbesserte Teilnahme von Menschen mit entzündlich-rheumatischen Erkrankungen am Berufsleben. So wurde bei erwerbsstätigen AOK-Versicherten eine stärkere Verminderung der durchschnittlichen Arbeitsunfähigkeitsdauer wegen rheumatoider Arthritis, Spondylitis ankylosans oder systemischem Lupus erythematodes gegenüber allen Krankheiten festgestellt (um 7-27 % versus 2-6 %).

Daten aus den Rheumazentren zeigen noch deutlicher die Verminderung der mittleren Arbeitsunfähigkeitsdauer im Zeitverlauf: Von 1997 bis 2011 nahmen Arbeitsunfähigkeitsepisoden bei Patienten mit der häufigsten chronisch-entzündlichen Gelenkerkrankung, der rheumatoiden Arthritis, um 32 % ab, die mittlere Arbeitsunfähigkeitsdauer sank pro Patient um 42 % und bei allen Beschäftigten mit einer rheumatoiden Arthritis sogar um 63 %. Dagegen war die mittlere Arbeitsunfähigkeitsdauer bei allen GKV-Pflichtversicherten im Jahr 2011 nur um 3 % gegenüber 1997 reduziert.

Ähnlich positiv ist die Entwicklung bei der Zahl der Erwerbsminderungsrenten, die von 2001 bis 2011 bei den häufigsten entzündlich-rheumatischen Erkrankungen stetig abnahm und sich ebenfalls deutlich günstiger entwickelte als für die Gesamtheit aller Krankheiten in Deutschland. Laut der Kerndokumentation sind gegenüber 1997 Patienten mit rheumatoider Arthritis im Jahr 2011 um 3-8 % seltener berentet worden. Während 1997 in den ersten 2 Krankheitsjahren bereits 8 % der Betroffenen berentet worden waren und nach 5 Jahren 16 %, betraf dies 2011 nach 2 Jahren nur 5 % und in den ersten 2-5 Jahren 10 %. Ältere prospektive Langzeitstudien zeigen für 1997 sogar eine Berentung von 15 % innerhalb der ersten beiden Krankheitsjahre und 28 % nach 6,5 Jahren. Die Steigerung des Anteils Erwerbstätiger mit rheumatoider Arthritis zwischen 1997 und 2011 war mit 14 % am deutlichsten bei Frauen mittleren Alters. „Hier ist vor allem ein Zusammenhang mit wirksamen Medikamenten und konsequenten nicht-medikamentösen Therapiestrategien anzunehmen“, betont Prof. Mau.

Trotz dieser deutlichen Verbesserungen bleibt laut Prof. Mau weiterhin viel zu tun: Unbefriedigend ist für den Wissenschaftler vor allem, dass im Jahr 2012 die Hälfte der Patienten in den letzten 5 Jahren vor ihrer Frühberentung wegen Rheuma keine stationäre Leistung zur medizinischen Rehabilitation der Deutschen Rentenversicherung erhalten haben. Angesichts der sich abzeichnenden, erheblichen Effekte einer Kombination von wirksamen medikamentösen Therapien und nicht-medikamentösen Interventionen auf die Erwerbsfähigkeit sieht er hier noch viel Spielraum für eine weitere Verbesserung der Teilhabe am Arbeitsleben von Rheumapatienten.

Die Deutsche Gesellschaft für Rheumatologie e.V. (DGRh) ist mit mehr als 1.400 Mitgliedern die größte medizinische Fachgesellschaft in Deutschland im Bereich der Rheumatologie. Sie repräsentiert seit mehr als 80 Jahren die rheumatologische Wissenschaft und Forschung und deren Entwicklung in Deutschland. Als gemeinnütziger Verein arbeitet die DGRh unabhängig und ohne Verfolgung wirtschaftlicher Ziele zum Nutzen der Allgemeinheit.

*Mau W, Thiele K, Lamprecht J (2013): Trends der Erwerbstätigkeit von Rheumakranken. Ergebnisse aus Sozialversicherungsdaten und Kerndokumentation der Rheumazentren in Deutschland.
Z Rheumatol DOI 10.1007/s00393-013-1205-y

Kontakt:
Prof. Dr. med. Wilfried Mau
Direktor des Instituts für Rehabilitationsmedizin
Medizinische Fakultät der Martin-Luther-Universität Halle-Wittenberg
06097 Halle (Saale)
Tel. 0345 557 4204
wilfried.mau@medizin.uni-halle.de

Weitere Informationen:
http://www.dgrh.de
http://www.wegweiser-arbeitsfaehigkeit.de

Quelle: idw

(nach oben)


Sensoren sichern Wasserqualität

Christian Colmer Pressestelle
ttz Bremerhaven

Bremerhavener Forscher entwickeln Messinstrument für Aquakultur und Meeresforschung

Im Meer gibt es viel zu entdecken: Fische, Korallen und Krebse, aber auch giftige Mikroalgen, Viren und Chemikalien treiben im Wasser, die mit bloßem Auge nicht zu erkennen sind. Solche Gefahrenstoffe bedrohen die Lebensgrundlage der Meeresbewohner und mindern die Wasserqualität. „EnviGuard“ soll diese Stoffe zukünftig besser nachweisbar machen. In einem fünfjährigen Projekt entwickeln das ttz Bremerhaven, das Alfred-Wegener-Institut und iSiTEC sowie 16 weitere Projektpartner ein hochspezifisches Messinstrument.

Bremerhaven, Januar 2014. Giftige Mikroalgen, Biotoxine, schädliche Bakterien, Viren und Chemikalien sind in Meereswasser keine Seltenheit. Viele der Gefahrenstoffe sind schwierig nachzuweisen, was besonders im Falle von Seewasser-Aquakulturen ein hohes Risiko birgt. Im Januar 2014 fällt darum der Startschuss des EU-geförderten Forschungsprojekts „EnviGuard“. Hierin wird ein Messinstrument entwickelt, das gefährliche Kontaminanten im Wasser erkennt. Das ttz Bremerhaven als Projektkoordinator sowie das Alfred-Wegener-Institut (AWI), und die iSiTEC GmbH holen im Rahmen des fünfjährigen Projekts knapp 1,6 Millionen Euro für Forschungs- und Entwicklungsaufgaben nach Bremerhaven. 7,2 Millionen Euro beträgt das Gesamtbudget des Projektes. Das zu entwickelnde Messinstrument wird nicht nur in Aquakulturen und in der Meeresforschung zum Einsatz kommen, sondern auch bei der Überwachung der Meeresumwelt.

„Die Projektpartner von EnviGuard entwickeln ein System, das drei einzelne Sensoren zur Messung von Mikroalgen, Pathogenen sowie von Toxinen und Chemikalien enthält. Es wird modular aufgebaut sein, wodurch jeder Anwender selbst entscheiden kann, welche der Sensoren er einsetzt, um die von ihm ausgewählten Parameter zu bestimmen“, erklärt Projektleiter Björn Bastian Suckow. Das Gerät speichert und visualisiert die gesammelten Daten, die in Echtzeit auf einen Server übermittelt und online zur Verfügung gestellt werden. Dabei arbeitet das System auch auf offener See voll automatisch.

Eine zukünftige Anwendung sehen AWI-Biologin Dr. Katja Metfies und Thomas Hanken, Geschäftsführer der iSiTEC GmbH, für Muschelzuchten: „Wir wollen beispielsweise einen Sensor in das System einbringen, der giftige Stoffe aus Algenblüten misst. Betreiber von Muschelzuchten können diese sogenannten Toxine im Wasser schnell und einfach nachweisen. So kann verhindert werden, dass Miesmuscheln in den Handel gelangen, die Muschelvergiftungen auslösen könnten.“

EnviGuard kombiniert Kompetenzen und Wissen aus Nanotechnologie und Molekularwissenschaft. Die Projektpartner wollen Biosensoren entwickeln, die im Hinblick auf Genauigkeit, Verlässlichkeit und einfacher Bedienung weit über das Niveau der derzeit verfügbaren Messinstrumente hinausgehen. Das System soll außerdem kosteneffizienter als gegenwärtige Messverfahren sein, was einen Wettbewerbsvorteil für europäische Aquakulturbetreiber und Technologieanbieter bedeutet.

Das im 7. Forschungsrahmenprogramm der EU geförderte Projekt EnviGuard hat ein Gesamtbudget von 7,2 Millionen Euro. EnviGuard startet im Januar 2014 und hat eine Laufzeit von fünf Jahren. Das ttz Bremerhaven ist Koordinator des Konsortiums, das aus 19 internationalen Unternehmen und Forschungseinrichtungen besteht.

Das ttz Bremerhaven ist ein unabhängiges Forschungsinstitut und betreibt anwendungsbezogene Forschung und Entwicklung. Unter dem Dach des ttz Bremerhaven arbeitet ein internationales Experten-Team in den Bereichen Lebensmittel, Umwelt und Gesundheit. Seit mehr als 25 Jahren begleitet es Unternehmen jeder Größenordnung bei der Planung und Durchführung von Innovationsvorhaben und der Akquisition entsprechender Fördermittel auf nationaler und europäischer Ebene.

Weitere Informationen:
http://www.ttz-bremerhaven.de

Quelle: idw

(nach oben)


Weltmärkte für Nahrungsmittel: Klimawandel größerer Preistreiber als die Bioenergie

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Für eine Minderung des Ausstoßes von Treibhausgasen wird zum Erreichen des 2 Grad-Ziels wahrscheinlich ein erheblicher Anteil Bioenergie im Energiemix der Zukunft benötigt. Trotz mancher Risiken wären die Auswirkungen einer steigenden Nachfrage nach Bioenergie auf die Weltagrarmärkte weit geringer als die durch einen ungebremsten Klimawandel. Das zeigt nun eine Studie, die unter der Leitung von Wissenschaftlern des Potsdam-Instituts für Klimafolgenforschung veröffentlicht wurde.

Während die Agrarpreise durch direkte Klimawirkungen auf Ernteerträge bis 2050 um etwa 25 Prozent höher wären als in einem Szenario ohne Klimawandel, würde eine hohe Nachfrage nach Bioenergie in einem Szenario mit ambitioniertem Klimaschutz die Preise nur um etwa 5 Prozent steigen lassen.

Die Analyse wurde mit zwei weiteren Studien unter Leitung des PIK im Rahmen des Agricultural Model Intercomparison and Improvement Project (AgMIP) in einer Sonderausgabe des Journals Agricultural Economics veröffentlicht. Die Ergebnisse zeigen, wie sehr die Landwirtschaft im Zentrum des Klimawandels steht – sowohl in Hinsicht auf die nötige Anpassung an Klimafolgen als auch hinsichtlich ihres Potentials, die globale Erwärmung zu begrenzen. Landwirtschaftliche Produktion und Landnutzungsveränderungen tragen etwa ein Drittel zu den globalen Treibhausgasemissionen bei.

Erste AgMIP-Studie: Einsatz von Bioenergie der zweiten Generation

„Bioenergie der zweiten Generation auf Zellulosebasis könnte vor allem langfristig für die Reduzierung von CO2-Emissionen wichtig werden – zum Beispiel in Form von Biokraftstoffen im Transportsektor, weil dort alles andere relativ teuer wäre, etwa die Elektrifizierung“, sagt Leitautor Hermann Lotze-Campen. Die heutige Bioenergieproduktion von derzeit weltweit 40 ExaJoule wird dominiert von Holz zum Heizen und der ersten Generation der Biokraftstoffe wie Ethanol aus Zuckerrohr oder Biodiesel aus Ölsaaten. Im Gegensatz zur ersten Generation der Biokraftstoffe, die direkt mit der Lebensmittel- und Futterproduktion konkurriert, haben die der zweiten Generation das Potential, den Wettbewerb zwischen Nahrungsmittel-Erzeugung und Energiemärkten zu verringern sowie die Produktionskosten zu reduzieren.

Der Anstieg der weltweiten Nachfrage nach Bioenergie der zweiten Generation aus Reststoffen aus Wald und Feld, Abfällen oder gezielt angebauten Pflanzen wie Miscanthusgras oder Pappeln wird in der Studie auf zusätzliche 100 ExaJoule bis im Jahr 2050 veranschlagt (etwa 15 Prozent des weltweiten Primärenergiebedarfs), wenn die globale Erwärmung langfristig auf zwei Grad über dem vorindustriellen Niveau begrenzt werden soll. Die Studie, ein Vergleich zwischen fünf agrarökonomischen Computermodellen, erlaubt erstmals die vorläufige Schlussfolgerung, dass eine ambitionierte Begrenzung des Klimawandels mit Bioenergie nicht zwingend die weltweiten Nahrungsmittelpreise hochtreibt.

Zweite AgMIP-Studie: Klimawandel lässt Bedarf an Ackerflächen wachsen

In einem umfassenden Vergleich von zehn globalen agrarökonomischen Simulationen untersuchte Christoph Schmitz vom PIK, wieviel Agrarflächen unter verschiedenen sozioökonomischen und Klimawandel-Szenarien genutzt würden. „Wir sehen, dass die meisten Modelle für Szenarien mit einem ungebremsten Klimawandel einen Zuwachs von Ackerland bis zum Jahr 2050 anzeigen, der mehr als 50 Prozent höher ist als bei stabilem Klima“, sagt Schmitz. Die Zunahme würde 320 statt 200 Millionen Hektar betragen – das entspricht etwa der dreifachen Fläche Deutschlands. In allen Simulationen gab es die größte Ausbreitung von Ackerflächen in Südamerika und in Afrika südlich der Sahara. „Um in diesen Regionen zusätzliche Ackerflächen zu gewinnen, werden aber Jahrhunderte alte Regenwälder abgeholzt. Das führt nicht nur zu einem Anstieg der CO2-Emissionen, sondern schadet auch der Artenvielfalt und bedroht wichtige Ökosystemleistungen“, erklärt Schmitz.

Bisher zeigten Projektionen zur zukünftigen Landnutzung aufgrund großer Unsicherheiten bei den Daten und Methoden sehr unterschiedliche Ergebnisse. Um die Unterschiede besser zu verstehen, haben sich die zehn auf diesem Gebiet führenden internationalen Modelliererteams zwei Jahre zusammengesetzt, um voneinander zu lernen und die wichtigsten Daten und Annahmen zu harmonisieren. Das Ergebnis ist dieser einzigartige Modellvergleich, der robustere Abschätzungen sowie ein besseres Verständnis der Zusammenhänge zwischen Klimawandel, Landnutzung und Agrarpreisen ermöglicht.

Dritte AgMIP-Studie: Klimawirkungen auf Ernteerträge sind stark, aber weltweit sehr unterschiedlich

Zukünftige Ernten und die Rolle von Klimafolgen für ökonomische Simulationen von Nahrungsmittelmärkten stehen im Mittelpunkt einer dritten Studie. Mit Hilfe eines Vergleichs von Computersimulationen wird in dieser Studie untersucht, in welchen Weltregionen der Klimawandel in welchem Maß die Produktivität von Agrarland beeinflusst. „Die möglichen Folgen des Klimawandels für Ernteerträge sind stark, sie sind aber sehr unterschiedlich je nach Region und Kulturpflanze“, sagt Leitautor Christoph Müller vom PIK.

Für die fünf wichtigsten Nutzpflanzen Reis, Weizen, Mais, Sojabohnen und Erdnüsse zeigt die Studie einen vom Klimawandel verursachten Rückgang der Erträge um 10 bis 38 Prozent weltweit bis zum Jahr 2050. Dies gilt in einem Szenario ungebremsten Klimawandels, und verglichen mit den derzeitigen Bedingungen. Zur Anpassung gibt es nicht die eine Lösung für alle Bedingungen. Ein Teil der Produktion könnte in Regionen mit weniger negativen Klimafolgen verlagert werden; andere Regionen könnten von einer Intensivierung der Landwirtschaft profitieren. „Um mit den großen Unterschieden von einer Region zur anderen und von einer Pflanze zur anderen zurecht zu kommen, wäre ein flexibleres weltweites Handelssystem für landwirtschaftliche Güter nötig“, so Müller.

Wichtiger Schritt hin zu robusteren Abschätzungen der Klimafolgen für die Landwirtschaft

Es gibt noch immer beträchtliche Unsicherheiten bei den Projektionen zur zukünftigen Landwirtschaft – etwa den Düngeeffekt von CO2, die Verfügbarkeit von zusätzlichem Agrarland, das Maß des Zuwachses an landwirtschaftlicher Produktivität. Dennoch sind die AgMIP Ergebnisse ein wichtiger Schritt in Richtung einer robusteren Abschätzung von Klimafolgen auf die Landwirtschaft. „Dürren wie im Jahr 2012 in den USA können immense Auswirkungen auf Ernteerträge und Exporte haben“, so Lotze-Campen. „Das zeigt, dass schlechte Ernten in wichtigen Produktionsregionen, auch wenn sie nur in einem überschaubaren Gebiet auftreten, einen erheblichen Einfluss auf die Weltagrarmärkte, Preise und Nahrungsmittelsicherheit haben können. Dieser Effekt könnte sich bei unbegrenztem Klimawandel noch verstärken.“

Artikel: Lotze-Campen, H., von Lampe, M., Kyle, P., Fujimori, S., Havlík, P., van Meijl, H., Hasegawa, T., Popp, A., Schmitz, C., Tabeau, A., Valin, H., Willenbockel, D., Wise, M. (2013): Impacts of increased bioenergy demand on global food markets: an AgMIP economic model intercomparison. Agricultural Economics (early view/online) [doi:10.1111/agec12092]

Artikel: Schmitz, C., van Meijl, H., Kyle, P., Nelson, G.D., Fujimori, S., Gurgel, A., Havlík, P., Heyhoe, E., Mason d’Croz, D., Popp, A., Sands, R., Tabeau, A., van der Mensbrugghe, D., von Lampe, M., Wise, M., Blanc, E., Hasegawa, T., Kavallari, A., Valin, H. (2013): Land-use change trajectories up to 2050: insights from a global agro-economic model comparison. Agricultural Economics (early view/online) [doi:10.1111/agec.12090]

Artikel: Müller, C., Robertson, R.D. (2013): Projecting future crop productivity for global economic modeling. Agricultural Economics (early view/online) [doi:10.1111/agec.12088]

Über AgMIP:

Das Agricultural Model Intercomparison and Improvement Project (AgMIP) – zu deutsch: Projekt zum Vergleich und zur Verbesserung von Landwirtschafts-Modellen – ist der groß angelegte internationale Versuch, die Modellierer-Gemeinschaften aus Klimaforschung, Nutzpflanzenforschung und Wirtschaftswissenschaft mittels modernster Informationstechnologie zusammen zu bringen, so dass sie die nächste Generation von Projektionen zu den Folgen des Klimawandels für die Landwirtschaft entwickeln. Mit dabei sind unter anderem Wissenschaftler von Instituten wie dem Potsdam-Institut für Klimafolgenforschung, dem International Food Policy Research Institute (IFPRI) und dem International Institute for Applied Systems Analysis (IIASA).
Weblink zu AgMIP: http://www.agmip.org/
Weblink zu IFPRI: http://www.ifpri.org/
Weblink zu IIASA: http://www.iiasa.ac.at/

Weitere Informationen:
http://onlinelibrary.wiley.com/doi/10.1111/agec.12092/suppinfo (Weblink zur ersten AgMIP-Studie)
http://onlinelibrary.wiley.com/doi/10.1111/agec.12090/suppinfo (Weblink zur zweiten AgMIP-Studie)
http://onlinelibrary.wiley.com/doi/10.1111/agec.12088/suppinfo (Weblink zur dritten AgMIP-Studie)

Quelle: idw

(nach oben)


Fangen Sie sich nichts ein – Verbrauchertipps im Umgang mit Fisch

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR informiert auf der Internationalen Grünen Woche 2014 über Fisch und Meerestiere, ihren gesundheitlichen Nutzen und Hygieneregeln

Fische enthalten viele wertvolle Inhaltsstoffe, die für unsere Ernährung wichtig sind. Fische und Muscheln gehören aber auch zu den sensible Lebensmitteln. „Verbraucher sollten auf eine hygienisch richtige Lagerung und Zubereitung achten, um sich keine Lebensmittelinfektion einzufangen“, rät BfR-Präsident Professor Dr. Dr. Andreas Hensel. Anhand von frischen Fischen und Meerestieren zeigt das Bundesinstitut für Risikobewertung (BfR) auf der Internationalen Grünen Woche vom 17. bis 26. Januar 2014 an seinem Stand 143 in der Halle 3.2 (Erlebnisbauernhof), woran man frischen Fisch erkennen kann, welche Inhaltsstoffe im Fisch enthalten sind und worauf besonders empfindliche Personengruppen bei der Fischauswahl achten sollten.

Fisch ist ein gesundes Lebensmittel und eine wichtige Quelle für die Aufnahme von biologisch hochwertigem Eiweiß, Jod, Omega-3-Fettsäuren, Vitamin D und Selen. Gesunde Menschen brauchen ihre Ernährung nicht durch die Einnahme von Fischöl-Konzentraten zu ergänzen, insbesondere wenn sie regelmäßig Fisch verzehren.

Die Frische von Fischen ist am leichtesten an den Augen zu erkennen. Sehr frischer Fisch hat vorgewölbte, glänzend tiefschwarze durchscheinende Augen, dagegen sind die Augen von einem nicht mehr essbaren Fisch eingesunken, undurchsichtig und grau. Wie lange ein Fisch frisch bleibt, hängt von verschiedenen Faktoren wie Fischart, der Jahreszeit und der Behandlung beim Fang sowie der Lagertemperatur ab.

Unverarbeitete Fischereierzeugnisse (z.B. Sushi) oder Schalentiere (z. B. Austern), kalt geräucherte Fischereierzeugnisse (z.B. Räucherlachs), gebeizte Fischereierzeugnisse (z.B. Graved Lachs) sowie heiß geräucherte Fischereierzeugnisse (z.B. Schwarzer Heilbutt) können Bakterien enthalten, die für besonders empfindliche Personengruppen eine Gesundheitsgefahr darstellen können. Denn bei diesen Menschen sind die körpereigenen Abwehrkräfte gegenüber mikrobiellen Infektionen beeinträchtigt oder noch nicht vollständig ausgebildet. Zu den Risikogruppen gehören Säuglinge und Kleinkinder bis 5 Jahre, alte Menschen (insbesondere wenn ihre Abwehrkräfte geschwächt sind), Schwangere und Menschen, deren Abwehrkräfte durch Vorerkrankung oder Medikamenteneinnahme geschwächt sind. Das BfR empfiehlt diesen Personengruppen, nur gut durcherhitzten Fisch oder Meerestiere zu verzehren und auf unverarbeitete, geräucherte und gebeizte Fischereierzeugnisse zu verzichten.

Der Verzehr von Muscheln kann auch Virus bedingte Erkrankungen hervorrufen. Hierbei spielen vor allem durch Norovirus-Infektionen verursachte Magen-Darm-Entzündungen eine wichtige Rolle. Aber auch durch Hepatitis A-Virus verursachte Leberentzündungen wurden nach dem Verzehr von Muscheln beobachtet. In der EU bestehen hohe Anforderungen an die Wasserqualität in Muschel-Erzeugungsgebieten. Dennoch kann der Genuss roher Muscheln krank machen. Wer sich vor Infektionen schützen möchte, sollte Muscheln vor dem Verzehr immer gut durchkochen.

Muscheln und Fische können ebenso Algentoxine aufnehmen. In den Weltmeeren existieren etwa 5.000 verschiedene Algenarten. Eine geringe Anzahl ist in der Lage, giftige Stoffe – so genannte marine Biotoxine – zu produzieren. Diese Toxine können sich im Gewebe von Muscheln und Fischen, die sich von solchen Algen ernähren, einlagern und anreichern. Marine Biotoxine können beim Menschen nach Verzehr kontaminierter Muscheln oder Fische verschiedene Krankheiten wie Durchfall oder Lähmungen hervorrufen, die in seltenen und schwerwiegenden Fällen sogar zum Tod führen. Marine Biotoxine sind hitzestabil und werden beim Zubereiten nicht zerstört. Deswegen werden Muscheln, bevor sie zum Vertrieb und Verzehr freigegeben werden, von amtlichen Stellen auf ihre gesundheitliche Unbedenklichkeit untersucht.

Für Kinder bietet der BfR-Stand verschiedene Aktivitäten an: Es gibt beispielsweise eine Bastelecke, bei einem Fischangelspiel können Kinder ihre Geschicklichkeit testen, Plastikfische aus einem Wasserbecken zu fischen, beim Quizspiel am BfR-Glücksrad werden Fragen rund um das Standthema „Mit Sicherheit Fisch“ gestellt. Außerdem wird die BfR-App „Vergiftungsunfälle bei Kindern“ vorgestellt. Die App wurde als Informations- und Nachschlagewerk für Vergiftungsunfälle bei Kindern und für deren Vermeidung entwickelt.

Quelle: idw

(nach oben)


Studie sagt schwerere und länger anhaltende Dürren in Europa voraus

Andrea Haferburg Kommunikation, Presse- und Öffentlichkeitsarbeit
Universität Kassel

Weite Teile Europas müssen sich auf schwerere und länger anhaltende Dürren sowie fallende Flusspegel einstellen. Das ist das Ergebnis einer Studie, an der eine Forschungsgruppe der Universität Kassel beteiligt war. Der Klimawandel ist nur eine der Ursachen. Die Folgen sind weitreichend – von der Landwirtschaft bis zum Betrieb von Atomkraftwerken.

Vor allem in Südeuropa wird Wasser im Laufe des 21. Jahrhunderts immer knapper, so die Analyse. Die Niedrigwasserabflüsse sinken demnach in Spanien, Portugal, Italien, aber auch in Südfrankreich und auf dem Balkan in den kommenden Jahrzehnten deutlich, mancherorts bis zu 40 Prozent. Verbunden damit seien ausgeprägtere Dürreperioden mit bis zu 80 Prozent höherem Abflussdefizit, so die Studie, die jetzt im Fachmagazin Hydrology and Earth System Sciences veröffentlicht wurde. Aber auch Regionen, denen wegen des Klimawandels in vielen bisherigen Studien vermehrte Niederschläge vorhergesagt wurden, dürften wegen erhöhten Wasserverbrauchs künftig unter hydrologischen Dürren und fallenden Pegeln leiden – darunter auch weite Teile Deutschlands.

„Häufig liegt das Augenmerk bei Szenarien zur Wasserverfügbarkeit alleine auf den Folgen des Klimawandels“, sagt Dr.-Ing. Martina Flörke, Leiterin der Forschungsgruppe „Globale und regionale Dynamiken – Wasser“ am Center for Environmental Systems Research (CESR) der Universität Kassel. „Dabei können andere Faktoren einen vergleichbaren Effekt haben und die Wasserknappheit noch verstärken: das Bevölkerungswachstum etwa oder das Niveau der Wassernutzung.“ In das Szenario flossen daher Daten und Prognosen zum Klimawandel ebenso ein wie Vorhersagen des Wasserverbrauchs in ganz Europa. Neben Flörke waren der Kasseler Wissenschaftler Florian Wimmer und andere Forscher an der Studie des Institute for Environment and Sustainability im italienischen Ispra beteiligt.

Das Szenario, das die Wissenschaftlerinnen und Wissenschaftler entwerfen, reicht bis zum Ende des 21. Jahrhunderts. Sie können dabei auf Daten aus vorangegangenen Studien aufbauen. Während die Autorinnen und Autoren für den Klimawandel einen Anstieg der globalen Mitteltemperatur um bis zu 3,4 Grad annehmen und sich damit im mittleren Bereich der Prognosen bewegen, sind sie in Sachen Wasserverbrauch pessimistisch und gehen von einem drastischen Anstieg aus.

„Politik, Wirtschaft und Gesellschaft in den europäischen Ländern müssen sich auf wachsende Wasserknappheit einstellen und Anpassungsstrategien entwickeln“, erklärt Flörke. „Das betrifft naheliegenderweise die Landwirtschaft und die Wasserversorgung der Bürger, aber auch andere Bereiche von der Fluss-Schifffahrt bis hin zu Kraftwerken, die mit Flusswasser gekühlt werden.“ In den letzten zwanzig Jahren hätten die durch Dürre verursachten Kosten in Europa bei 6,2 Mrd. Euro pro Jahr gelegen, so die Studie. Diese Kosten dürften weiter wachsen.

Link zu Studie: www.hydrol-earth-syst-sci.net/18/85/2014/hess-18-85-2014.html

Quelle: idw

(nach oben)


Neue Studie: Große Bäume sind die besten Kohlendioxid-Speicher

Annette Mihatsch Presse- und Öffentlichkeitsarbeit
Deutsches Zentrum für integrative Biodiversitätsforschung (iDiv) Halle-Jena-Leipzig

Ein internationales Forscherteam hat herausgefunden, dass die größten Bäume die höchste Leistungsfähigkeit in Sachen Kohlendioxid-Speicherung aufweisen. Diese neue Erkenntnis ist immens bedeutsam für die Bewertung des Klimawandels und die Biodiversitätswissenschaft: Bislang lernen Forststudenten, dass Bäume nach ihrer Lebensmitte unproduktiver werden. Die aktuelle Studie „Rate of tree carbon accumulation increases continuously with tree size“ erscheint in der Fachzeitschrift „Nature“ und ist das Ergebnis einer Untersuchung von 38 Forschungseinrichtungen. Die Publikation ist bereits online abrufbar (DOI: 10.1038/nature12914).

Die Wissenschaftler untersuchten insgesamt 673.046 Bäume von mehr als 400 Baumarten und werteten ihre Daten gemeinsam aus. „Beeindruckend ist, dass 97 Prozent aller untersuchten Arten umso schneller wachsen, je größer sie werden. Dabei haben wir Baumarten von allen Kontinenten und aus verschiedenen Klimazonen untersucht“, erläutert Nadja Rüger, Coautorin der Studie und Wissenschaftlerin am German Centre for Integrative Biodiversity Research (iDiv) Halle-Jena-Leipzig. „Die Ergebnisse sind eindeutig und haben große Bedeutung für das Verständnis und die Vorhersage der Zusammenhänge zwischen Vegetation, Kohlenstoffkreislauf und Klima.“

Das kontinuierlich beschleunigte Wachstum bedeutet, dass große Bäume das Treibhausgas CO2 wesentlich effektiver aus der Atmosphäre aufnehmen. Denn ein Baum mit rund einem Meter Durchmesser nimmt dreimal soviel an Biomasse zu wie ein Baum mit nur einem halben Meter Durchmesser. Der gespeicherte Kohlenstoff gelangt erst wieder in die Atmosphäre, wenn der Baum abstirbt.

„Auf den Menschen übertragen, würde dies bedeuten, dass sich unser Wachstum nach der Jugend beschleunigt, anstatt sich zu verlangsamen“, kommentiert Nate Stephenson, Hauptautor der Studie und Waldökologe am United States Geological Survey (USGS). Und Coautor Adrian Das vom USGS ist überzeugt: „Die großen und alten Bäume spielen nach unseren Ergebnissen eine überproportional wichtige Rolle in der Kohlenstoff-Dynamik eines Waldes. Es ist in etwa so, als ob die besten Spieler ihres Lieblingssportvereins ein Haufen 90-Jähriger wäre.“

„Diese Studie legt nahe, dass große, alte Bäume sehr wohl produktiv bleiben können. Die alten Überzeugungen werden durch diese Arbeit immer mehr in Frage gestellt“, kommentiert Prof. Christian Wirth, Direktor des iDiv, die Ergebnisse. Die Untersuchung ging aus einem Workshop hervor, bei dem Feldbiologen mit Analytikern zusammenarbeiteten. „Die Arbeit zeigt, dass solche internationalen Forschungskooperationen, die eine zentrale Säule unseres Forschungszentrums iDiv sind, großes Potenzial haben, die Wissenschaft voranzubringen“, erklärt Prof. Wirth.

Die Studie „Rate of tree carbon accumulation increases continuously with tree size“ ist das Resultat der Zusammenarbeit von Forschern aus 38 Universitäten, Behörden und NGOs aus den USA, Deutschland, Frankreich, Großbritannien, Spanien, Kolumbien, Argentinien, Panama, Kamerun, der Demokratischen Republik Kongo, China, Thailand, Taiwan, Malaysia, Australien und Neuseeland. Die Studie wurde von Nate Stephenson und Adrian Das durch die „USGS Western Mountain Initiative“ und das „USGS John Wesley Powell Center for Analysis and Synthesis“ initiiert.

Weitere Informationen:
http://www.nature.com/nature/journal/vaop/ncurrent/full/nature12914.html

Quelle: idw

(nach oben)


Am Arbeitsmarkt neue Chancen schaffen

Bundesarbeitsministerin Andrea Nahles kommentiert die Arbeitsmarktzahlen für Dezember 2013.

Andrea Nahles:
Die heutigen Zahlen vom Arbeitsmarkt stimmen mich sehr zuversichtlich. Sie zeigen, dass die Beschäftigungssituation in Deutschland weiter wetterfest ist. Der Blick auf das vergangene Jahr insgesamt zeigt: Die Beschäftigung steigt leicht an – aber auch die Arbeitslosigkeit. Deshalb müssen wir uns darum kümmern, dass Menschen, die schon lange arbeitslos sind, eine neue Chance bekommen.

Wir werden ein besonderes Augenmerk auf diejenigen Arbeitslosen legen, die aufgrund fehlender Bildungs- und Ausbildungsabschlüsse oder langjähriger Arbeitslosigkeit besondere Schwierigkeiten haben, einen Arbeitsplatz zu finden. Wir müssen die solide wirtschaftliche Lage nutzen, um die Menschen aus langer Arbeitslosigkeit herauszubekommen. Dazu gehört es auch, sicher zu stellen, dass Deutschland über genügend Fachkräfte verfügt.

So wollen wir dafür sorgen, dass Wirtschaft und soziale Sicherung auch in Zukunft stabil und fest stehen. Gesellschaftlicher Zusammenhalt und Wohlstand in unserem Land sollen wieder auf breiter Linie wachsen und tragfähig sein.

Weitere Informationen
Die Entwicklung des Arbeitsmarktes im Dezember 2013
http://www.arbeitsagentur.de/nn_27030/zentraler-Content/Pressemeldungen/2014/Presse-14-001.html

Quelle: BMAS

(nach oben)


Hendricks: Beim Klimaschutz ehrgeiziger werden

Europäischen Emissionshandel weiter reformieren

Deutschland hat sein im Kyoto-Protokoll vorgegebenes Ziel zur Minderung der Treibhausgasemissionen deutlich übererfüllt. Dies ist das Fazit eines vom Umweltbundesamt (UBA) erstellten Berichts, den Bundesumweltministerium und UBA jetzt an die Europäische Kommission übermittelt haben. Allerdings bereitet die Entwicklung der letzten beiden Jahre Bundesumweltministerin Barbara Hendricks Sorge. „Wir müssen im Klimaschutz wieder ehrgeiziger werden und die negative Tendenz der letzten beiden Jahre wieder umkehren. Denn wir haben uns in der Koalition in Sachen Klimaschutz viel vorgenommen“, so Hendricks.

Nach den jetzt vorgelegten offiziellen Emissionsdaten für das Jahr 2012 lagen die klimaschädlichen Emissionen zuletzt 24,7 Prozent unter dem Niveau von 1990, dem internationalen Basisjahr. Die aktuellen Zahlen umfassen erstmals die gesamte erste Verpflichtungsperiode des Kyoto-Protokolls, den Durchschnitt der Jahre 2008 bis 2012. Deutschland hatte sich zu einer Minderung der Treibhausgasemissionen um 21 Prozent in diesem Zeitraum verpflichtet, erreicht wurde eine Minderung um 23,6 Prozent. Zum Vergleich: Innerhalb der EU sind die Emissionen im selben Zeitraum um etwa 19 Prozent gesunken.

„Die erfolgreiche Umsetzung unserer Kyoto-Verpflichtung ist ein wichtiger Meilenstein im Klimaschutz. Jetzt müssen wir den Blick fest auf das im Koalitionsvertrag vereinbarte Ziel einer Minderung der Treibhausgas-Emissionen um mindestens 40 Prozent bis zum Jahr 2020 richten. Dafür haben wir zwar bereits mit dem Lösen der Blockade im europäischen Emissionshandel ein erstes Zeichen gesetzt. Wir müssen aber auch weitergehen und in allen Sektoren ansetzen, bei Energieeffizienz, Gebäudesanierung, Verkehr und auch mit weiteren Reformen beim Emissionshandel“, sagte Bundesumwelt- und -bauministerin Barbara Hendricks. Gegenüber dem Vorjahr 2011 nahmen die Emissionen im Berichtsjahr 2012 um rund 11 Millionen Tonnen Kohlendioxid-Äquivalente zu. Das ist eine Steigerung um 1,1 Prozent. Für das Jahr 2013 ist eine ähnliche Entwicklung zu erwarten. Der leichte Anstieg lässt sich darauf zurückführen, dass mehr Braun-, Steinkohle und Mineralöl für die Stromproduktion eingesetzt wurde. Witterungsbedingt stieg zudem der Bedarf an Heizenergie an. Mit je 3 Prozent war im Berichtsjahr 2012 der größte Anstieg demnach in der Energiewirtschaft und bei privaten Haushalten zu verzeichnen. Die Emissionen der Industrie gingen um 2 Prozent leicht zurück. Weiterhin wirken sich die derzeit geringen Minderungsanforderung des europäischen Emissionshandels aus: Die Kohlendioxid-Emissionen von Unternehmen der Industrie und Energiewirtschaft konnten seit dem Jahr 2005 insgesamt lediglich um knapp fünf Prozent gemindert werden.

Thomas Holzmann, amtierender Präsident des UBA: „Wer den Europäischen Emissionshandel als zentrales Klimaschutzinstrument erhalten will, der muss ihn dringend wieder zum Leben erwecken. Dazu brauchen wir zügig europaweit ein ambitioniertes Minderungsziel von mindestens 40 Prozent für 2030 und eine strukturelle Reform des Emissionshandels, die Überschüsse im System vermeidet.“ Die Wirtschaftskrise und die Nutzung von internationalen Projektzertifikaten lassen das aktuelle Minderungsziel für den europäischen Emissionshandel bis 2020 als wenig ehrgeizig aussehen. Die Folge sind ein anhaltender Preisverfall und hohe Überschüsse bei den Emissionszertifikaten, weil die Anreize fehlen, in Minderungsmaßnahmen zu investieren.

Weitere Informationen und Links:

Link zur Grafik „Entwicklung der Treibhausgasemissionen in Deutschland nach Sektoren: 1990 bis 2012″: http://www.umweltbundesamt.de/bild/entwicklung-der-treibhausgasemissionen-in

Weitere Informationen finden Sie unter www.bmu.de und www.umweltbundesamt.de.

Den kompletten Bericht finden Sie unter: http://cdr.eionet.europa.eu/de/eu/ghgmm/envutt6ka.

Quelle: uba

(nach oben)


Mehr Umweltfreundlichkeit im Lebensmittelbereich nötig

Internationale Grüne Woche: vzbv und UBA stellen gemeinsame Handlungsempfehlungen vor

Die Ökobilanz von Lebensmitteln hat es in sich: Ein Fünftel der Treibhausgasemissionen in Deutschland gehen auf den Ernährungssektor zurück. Stickstoffüberschüsse aus der Landwirtschaft belasten das Grundwasser. Zugleich landen pro Jahr elf Millionen Tonnen an Lebensmitteln im Müll und werden verschwendet. Auf Umweltprobleme durch Lebensmittel und die Folgen für Verbraucher haben der Verbraucherzentrale Bundesverband (vzbv) und das Umweltbundesamt (UBA) aufmerksam gemacht. Im Vorfeld der Internationalen Grünen Woche legten sie gemeinsame Handlungsempfehlungen für die drängendsten Probleme vor.

„Für die Produktion und den Verbrauch von Lebensmitteln muss die Umwelt schon heute zahlen. Langfristig können auch die Kosten für die Verbraucherinnen und Verbraucher spürbar werden. Es ist Zeit, zu handeln“, sagt Holger Krawinkel, Leiter des Geschäftsbereichs Verbraucherpolitik beim vzbv. vzbv und UBA sprechen sich dafür aus, die Stickstoffbelastung zu verringern, den Ökolandbau voranzutreiben, eine umweltfreundlichere Tierhaltung und bewussten Fleischkonsum zu fördern sowie unnötige Lebensmittelabfälle zu vermeiden. Thomas Holzmann, amtierender Präsident des UBA: „Wenn wir so weiter machen wie bisher, erreichen wir unser nationales Ziel von 20 Prozent Ökolandwirtschaft erst im Jahre 2078. Allein die nach wie vor zu hohen Stickstoffüberschüsse aus der Landwirtschaft zeigen, dass wir uns dieses Tempo nicht leisten können. Die Landwirtschaft verfügt selbst über viele Strategien, den Anbau von Lebensmitteln umweltverträglicher zu machen. Genau diese gilt es zu fördern.“

Stickstoff auf die Agenda der Agrarpolitik

Überschüssiger Stickstoff aus der Landwirtschaft bedroht Artenvielfalt sowie Luftqualität und belastet das Grundwasser, aus dem Trinkwasser gewonnen wird. Für vzbv und UBA kommt die Stickstoffproblematik in der Agrarpolitik bislang zu kurz. Sie empfehlen eine zeitnahe ambitionierte Überarbeitung der Düngeverordnung. Zur Emission von Stickstoff und Treibhausgasen trägt auch der hohe Fleischkonsum bei. Im Jahr 2012 verzehrte jeder Deutsche durchschnittlich rund 60 Kilogramm Fleisch. Um die Tierhaltung umweltfreundlicher zu gestalten, sprechen sich die beiden Institutionen dafür aus, die Zahl der Tiere pro Hektar landwirtschaftlich genutzter Fläche zu begrenzen. Zudem solle die Bundesregierung stärker über die Folgen eines hohen Fleischkonsums für Gesundheit und Umwelt informieren. Industrie und Handel könnten über eine zuverlässige Kennzeichnung vegetarischer Produkte Fleischalternativen fördern.

Ökolandbau fördern

Stickstoffüberschuss und Energieeinsatz sind im ökologischen Landbau geringer als in der konventionellen Landwirtschaft. Der Ökolandbau ist damit umweltfreundlicher, die Umstellung aber kostet Geld. Um die Nachfrage nach Bioprodukten mit heimischen Erzeugnissen zu decken, fordern vzbv und UBA eine stärkere finanzielle Unterstützung der Landwirte bei der Umstellung auf „Bio“. Zudem solle eine bessere Rückverfolgbarkeit und Kontrolle von Bioprodukten das Vertrauen der Verbraucher sichern.

Nicht nur die Produktion von Lebensmitteln belastet die Umwelt, auch die Lebensmittelverschwendung. „Die Lebensmittelabfälle zu reduzieren, ist ein zentraler Schritt, den Lebensmittelbereich ressourcenschonender zu gestalten. Dabei sind alle Akteure gefragt, die Debatte darf nicht auf die Verbraucher verengt werden“, sagt Holger Krawinkel. vzbv und UBA appellieren unter anderem an den Handel, Qualitätsanforderungen zur Makellosigkeit, Größe und Form von Lebensmitteln zu überdenken. Ein langfristig angelegtes Konzept zur Verbraucherbildung, müsse schon in der Schule ansetzen und Konsumenten sensibilisieren und informieren.

Weitere Informationen und Links:

Gemeinsame Handlungsempfehlungen von vzbv und UBA:
http://www.umweltbundesamt.de/dokument/fuer-umweltfreundlichere-lebensmittel

Quelle: uba

(nach oben)


Bilanz 2013: 374 Berufe im Gehalts-Check – 13.000 Besucher beteiligen sich an Online-Umfrage

Rainer Jung Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

http://www.lohnspiegel.de

Bilanz 2013: 374 Berufe im Gehalts-Check – 13.000 Besucher beteiligen sich an Online-Umfrage

Eine positive Bilanz des abgelaufenen Jahres 2013 zieht das Gehaltsportal www.lohnspiegel.de, das vom WSI-Tarifarchiv der Hans-Böckler-Stiftung betreut wird. Es bietet inzwischen Informationen zu tatsächlich gezahlten Löhnen und Gehältern in 374 verschiedenen Berufen und Tätigkeiten.

Die Website verzeichnete im vergangenen Jahr nahezu 1,5 Millionen Besucher, das sind rund 4.000 am Tag. Rund 13.000 Besucherinnen und Besucher haben 2013 den Online-Fragebogen zu den Einkommens- und Arbeitsbedingungen ausgefüllt, der die Daten für den kostenlosen Gehalts-Check liefert. Die laufende Online-Erhebung dient der regelmäßigen Aktualisierung und Erweiterung des LohnSpiegels, die auch in diesem Jahr fortgeführt wird.

Ausführliche Analysen zur Einkommenssituation hat das Gehaltsportal im vergangenen Jahr zu folgenden Berufen veröffentlicht:

– Pflegeberufe
– Hotelfachleute
– Maschinenbautechniker/innen
– Verkäufer/innen im Einzelhandel
– Ingenieure, IT-Experten und Techniker in Leiharbeit und Fremdfirmeneinsatz

Der Lohnspiegel bietet zurzeit Gehaltsinformationen zu folgenden Bereichen und Berufsgruppen:

– Architekturberufe, Raumplanung
– Bank- und Finanzberufe
– Bauberufe
– Büro- und Verwaltung
– Callcenter
– Chemieberufe
– Dienstleistungsberufe
– Druckberufe
– EDV/IT – Berufe
– Elektroberufe
– Gebäudereinigung
– Gesundheitsberufe
– Handel
– Handwerksberufe
– Hotel, Gaststätten, Tourismus
– Ingenieurberufe
– Journalistische Berufe
– Lehrerberufe (Schule/Hochschule)
– Logistik/Transport/Verkehr
– Medien/Gestaltung
– Metallberufe
– Nahrungsmittelverarbeitung
– Personalwesen
– Produktion und Fertigung
– Recht und Steuern
– Sicherheitsberufe
– Sozialberufe
– Techniker/innen
– Übersetzer/in, Dolmetscher/in
– Vertrieb, Marketing, Werbung, PR
– Weitere Wissenschaftsberufe
– Wirtschaftswissenschaftler/in

Die Gehalts-Angaben des LohnSpiegels berücksichtigen die bestehenden Unterschiede zwischen Männern und Frauen sowie nach Berufserfahrung, der betrieblichen Position, der Betriebsgröße und der Region (Ost/West). Die Daten sind nicht repräsentativ, liefern aber für viele Berufe verlässliche Orientierungsdaten.

Seit dem Start des Projekts im Jahre 2004 haben sich gut 250.000 Besucher an der Umfrage beteiligt. Das Projekt „LohnSpiegel“ ist Bestandteil des internationalen Wage-Indicator-Netzwerks, an dem Projekte aus rund 70 Ländern mit gleicher Zielrichtung beteiligt sind.

Ansprechpartner in der Hans-Böckler-Stiftung:

Dr. Reinhard Bispinck
Leiter WSI-Tarifarchiv
Tel.: 02 11-77 78-232
Fax: 02 11-77 78-250
E-Mail: Reinhard-Bispinck@boeckler.de

Dr. Heiner Dribbusch
WSI
Tel.: 02 11-77 78-217
E-Mail: Heiner-Dribbusch@boeckler.de

Rainer Jung
Leiter Pressestelle
Tel.: 02 11-77 78-150
Fax: 02 11-77 78-120
E-Mail: Rainer-Jung@boeckler.de

Quelle: idw

(nach oben)


Forschung Biogas: Neue Anlagen sollen Multifunktionsanlagen sein

Florian Klebs Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Energie, Designdünger, Basischemikalien: Künftige Biogasanlagen sollen mehr als nur Energie produzieren.

Universität Hohenheim und Fraunhofer IGB, Stuttgart, erforschen ganzheitliche Optimierung der Biogas-Prozesskette (GOBi) / Vier Industriepartner beteiligt

Strom, Gas, Wärme, eine optimale Pflanzenproduktion, Designdünger und wertvolle Basischemikalien für die Industrie – in Stuttgart arbeiten Wissenschaftler der Universität Hohenheim und des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB zusammen mit Industriepartnern an einer nachhaltigen Biogasproduktion, bei der alle Prozessschritte vom Pflanzenbau bis zur Verwertung anfallender Reststoffe untersucht werden. Das Bundesforschungsministerium fördert das Projekt „Ganzheitliche Optimierung der Biogasprozesskette“ (GOBi) drei Jahre lang mit insgesamt 3,9 Millionen Euro.

Im Zuge der Energiewende soll die Stromerzeugung aus erneuerbaren Quellen in Deutschland kontinuierlich ausgebaut werden. Biogasanlagen sind dabei ein wichtiger dezentraler Baustein.

Zwar sind viele einzelne Prozesse in Biogasanlagen vergleichsweise gut erforscht. „Es besteht aber besonderer Forschungsbedarf darin, die Biogasproduktion als Ganzes möglichst effektiv zu gestalten, um die Ausbeute zu verbessern“, sagt Projektleiter Prof. Dr. Joachim Müller an der Universität Hohenheim.

Das Projekt beginnt beim Anbau von Energiepflanzen auf dem Acker und endet bei den Reststoffen der Biogasproduktion – für die es vielseitige Verwendung gibt. „Unser Ziel ist es, die Biomasse der Pflanzen, die zu Biogas vergoren werden, möglichst vollständig zu nutzen. So erforschen wir, wie sich Restprodukte optimal als Dünger verwenden lassen und in wie weit Nebenprodukte anfallen, die zum Beispiel für die chemische Industrie interessant wären“, führt Prof. Dr. Iris Lewandowski, Universität Hohenheim, aus.

Mit ihrer Forschung wollen die Wissenschaftler von Universität Hohenheim und Fraunhofer IGB auch einen Beitrag hin zu einer neuen Bioökonomie leisten. Ziel der sogenannten Bioökonomie ist es, die Abhängigkeit der Wirtschaft von Erdöl und anderen fossilen Rohstoffen durch die Nutzung natürlicher Ressourcen für Nahrungsmittel, Energieträger und Industrierohstoffe zu ersetzen.

Optimaler Anbau für eine optimale Ausbeute

Der eigentliche Optimierungsprozess beginnt bereits auf dem Acker. Denn wie viel Biogas eine Pflanze liefert, hängt nicht nur von der Pflanzenart ab – sondern auch davon, wo und wie sie angebaut wird. Je nachdem wie Boden und Klima beschaffen sind oder wann und wie gedüngt wurde, sind die Ergebnisse verschieden.

Um optimale Anbaumethoden zu entwickeln, experimentieren die Wissenschaftler der Universität Hohenheim mit verschiedenen Pflanzen: neben Mais gehören dazu auch Pflanzen wie Amaranth oder Miscanthus, die derzeit als Energiepflanzen noch ein Nischendasein führen.

Maßgeschneiderte Designdünger

Da bei der Energiepflanzen-Produktion ein hoher Ertrag im Vordergrund steht, werden erhebliche Mengen Dünger benötigt. Den Dünger, den jede Pflanze in anderer Zusammensetzung benötigt, wollen die Forscher des Fraunhofer-Instituts für Grenzflächen- und Bioverfahrenstechnik IGB maßschneidern: Mit Rohstoffen, die in der Biogasanlage selbst entstehen.

Dazu trennen sie die Gärreste der Biogasanlage in seine festen und seine flüssigen Bestandteile. Aus der flüssigen Phase wollen die Forscher wertvolle Phosphor- und Stickstoffsalze zurückgewinnen, die den Pflanzen als Nährstoffe dienen.

Die Feststoffe werden weiter getrocknet. Dies geschieht zum Beispiel mit einem energieeffizienten Verfahren mittels überhitzten Wasserdampfs. Übrig bleibt eine trockene, organische Masse.

„Je nach Pflanzenbedarf setzen wir dann die Nährstoffe aus der Flüssigkeit mit der getrockneten organischen Masse zu einem Designdünger zusammen“, erläutert Jennifer Bilbao, die das Projekt am Fraunhofer IGB leitet. Wie sich welcher Dünger für welche Pflanze idealerweise zusammensetzt, gehört auch zu den Forschungsfragen. Die Antwort sollen Düngeversuche im Labor und an den Versuchsstandorten der Universität Hohenheim bringen.

Gewinnbringender Klimaschutz

Der Ansatz, möglichst alle Produkte entlang der Prozesskette zu nutzen, trägt auch zum Klimaschutz bei. Bislang werden die Gärprodukte aus der Biogasanlage so getrocknet, dass leichtflüchtige Gase wie Ammoniak in die Atmosphäre gelangen können.

Mit unterschiedlichen Verfahren versuchen Arbeitsgruppen der Universität Hohenheim und des Fraunhofer IGB, die Ammoniakdämpfe zurückzugewinnen. Denn auch hieraus lässt sich wertvoller Dünger gewinnen.

Natürliche Basischemikalien für die chemische Industrie

Weitere wertvolle Rohstoffe wollen die Forscher aus Nebenprodukten bei der Pflanzenaufbereitung gewinnen. Denn bevor die Energiepflanzen in der eigentlichen Anlage zu Biogas vergären, werden sie vorbehandelt. Bei der sogenannten Silage zerlegen Bakterien das komplexe Pflanzenmaterial in einfachere Verbindungen, darunter Milchsäure, Essigsäure und Buttersäure.

Diese (Karbon-)Säuren sind nicht nur nützlich für die Biogasproduktion. Milchsäure wird in der Lebensmittelindustrie als Säuerungsmittel eingesetzt, ist antibakterieller Zusatz von Reinigungsmitteln oder dient – wie auch die Essigsäure – zur Produktion von Biokunststoffen.

Ein Teilprojekt am Fraunhofer IGB untersucht deshalb auch, ob während der Silage sogenannte Sickersäfte mit einem hohen Anteil dieser Säuren entsteht – und ob es sich rechnet, diese Chemikalien aus dem Sickerwasser zu gewinnen.

„Vielleicht ist das heute noch Zukunftsmusik. Aber in dem Maß, in dem der Ölpreis steigt, wächst der Markt für Chemikalien aus Biomasse“, sagt Jennifer Bilbao.

Bessere Energieausbeute

Gleichzeitig versucht das Projekt, die Kernprozesse bei der Gasproduktion zu verbessern. Ziel ist es, die Ausbeute zu erhöhen und die Produktionszeit zu verkürzen. Hierzu analysieren die Wissenschaftler, wie sich die jeweilige Zusammensetzung der Silage auf die Biogasproduktion auswirkt und vergleichen verschiedene technische Varianten – etwa eine einstufige im Vergleich zu einer zweistufigen Betriebsweise.

Zugleich begeben sich die Forscher in den Mikrokosmos des Gärprozesses. Denn bei der Umwandlung von Biomasse zu Gas wirkt eine Vielzahl verschiedener Mikroorganismen auf komplexe Weise zusammen. Hier wollen die Forscher erkunden, wie sich das Zusammenspiel unterstützen lässt – zum Beispiel, indem sie bestimmte Mikroorganismen gezielt hinzugeben, mit Nährstoffen füttern oder ihnen die Arbeit durch Enzyme erleichtern.

Voraussetzung dafür ist ein Kontrollsystem, über das sich ermitteln lässt, welche Bakterien wie stark an welchem Prozessschritt beteiligt sind. Mit einem Mikroskop wären die vielen 1.000 Untersuchungen nicht zu bewältigen. Deshalb identifizieren die Wissenschaftler die Bakterien einfach an ihrem Erbgut. Dazu nehmen die IGB-Forscher eine Probe aus dem Silo oder dem Gärtank, analysieren das Erbgut aller Bakterien darin auf einmal und ermitteln aus diesen Bausteinen, welche Bakterien in der Probe waren.

Bei dieser Methode entstehen allerdings Datenbanken mit gigantischen Datenmengen. Für die Auswertung kooperieren die Forscher mit der Firma Genedata. „Die Datenbanken durchforsten wir mit speziellen Computerprogrammen, um die beteiligten Mikroorganismen zu identifizieren“, erklärt Thomas Hartsch von Genedata. Ein Gebiet, auf dem Genedata sowohl Ausstattung als auch wertvolle Expertise bereithält.

Ökobilanz überprüft den Gesamtprozess

Wie effizient die Anlage arbeitet, überprüfen die Wissenschaftler mit einer Ökobilanz. Dabei vergleichen sie den Energiebedarf für den Bau, den Betrieb und den Abriss der Biogasanlage mit der Energie, die die Anlage in ihrem gesamten Betriebsleben produziert. Durch den Blick auf Detailabschnitte wollen sie herausfinden, wo weiterer Optimierungsbedarf besteht.

Parallel dazu erarbeiten sie ein Computermodell des ganzen Produktionsprozesses. Dadurch wären auch Prognosen möglich, wie sich Biogasanlagen durch verschiedene Betriebsvarianten verändern könnten.

Hintergrund: Projekt „Ganzheitliche Optimierung der Biogasprozesskette“ (GOBi)

Federführend in diesem Forschungsprojekt ist die Universität Hohenheim in Stuttgart mit dem Institut für Agrartechnik (Projektleitung), dem Institut für Kulturpflanzenwissenschaft und der Landesanstalt für Agrartechnik. Als weitere Partner sind das Stuttgarter Fraunhofer-Institut für Grenzflächen- und Bioverfahrenstechnik IGB, die Münchner Firma Genedata sowie die Firma Geltz Umwelt-Technologie GmbH beteiligt. Das Bundesministerium für Bildung und Forschung fördert das Projekt „Ganzheitliche Optimierung der Biogasprozesskette zur Steigerung der betrieblichen, stofflichen, energetischen und ökologischen Effizienz unter besonderer Berücksichtigung der Produktion eines natürlichen kundenspezifischen Düngemittels“ innerhalb des Rahmenprogramms „BioProFi – Bioenergie – Prozessorientierte Forschung und Innovation“.

Quelle: idw

(nach oben)


Keime in der Küche: Tipps zur Lebensmittelhygiene

Dr. Suzan Fiack Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR aktualisiert Empfehlungen zum Schutz vor Lebensmittelinfektionen im Privathaushalt

Verbraucher unterschätzen häufig gesundheitliche Risiken, die von krankmachenden Keimen in der eigenen Küche ausgehen. „Lebensmittel können mit Bakterien, Viren oder Parasiten verunreinigt werden – und zwar auch durch Fehler bei der Lagerung und Zubereitung im Privathaushalt“, erklärt Professor Dr. Dr. Andreas Hensel, Präsident des Bundesinstituts für Risikobewertung (BfR). Jährlich werden rund 100.000 Erkrankungen gemeldet, die über Lebensmittel übertragen werden können, dazu gehören vor allem Infektionen mit Campylobacter, Salmonellen und Noroviren. In den meisten Fällen sind die Infektionen mit Symptomen wie Magenkrämpfen, Durchfall oder Erbrechen verbunden und heilen von selbst aus. Bei Menschen, deren Immunsystem geschwächt oder noch nicht vollständig ausgebildet ist, kann eine Lebensmittelinfektion aber auch sehr schwer verlaufen. Vor diesem Hintergrund hat das BfR das Merkblatt „Verbrauchertipps: Schutz vor Lebensmittelinfektionen im Privathaushalt“ aktualisiert. Das Merkblatt fasst Empfehlungen zur Lebensmittel- und Küchenhygiene zusammen.

Magen-Darm-Infektionen heilen zwar oft von selbst aus, aber bei besonders empfindlichen Personen können sie auch schwer verlaufen. Zu diesen Personengruppen gehören kleine Kinder, Schwangere, ältere und abwehrgeschwächte Menschen. Um solche Infektionen über Lebensmittel zu vermeiden, sollten Verbraucherinnen und Verbraucher daher bei der Lagerung und Zubereitung von Lebensmitteln Hygieneregeln einhalten.

Ziel ist es, auch in der eigenen Küche die Verunreinigung von Lebensmitteln mit Krankheitserregern zu vermeiden. Da das nicht immer vollständig möglich ist, sollten zudem Maßnahmen getroffen werden, um die Vermehrung von Krankheitserregern in Lebensmitteln zu begrenzen oder deren Überleben zu verhindern: Die meisten Krankheitserreger werden abgetötet, wenn Speisen bei der Zubereitung und beim Aufwärmen ausreichend, d.h. für zwei Minuten oder länger auf mindestens 70 °C erhitzt werden. Diese Temperatur sollte auch im Inneren des Lebensmittels erreicht werden. Zudem lässt sich die Vermehrung von Mikroorganismen in Lebensmittel reduzieren, wenn die Lebensmittel kühl gelagert werden.

Krankheitserreger können von Menschen, Haustieren oder Schädlingen auf Lebensmittel übertragen werden. Ein weiterer bedeutender Übertragungsweg sind rohe Lebensmittel, von denen Keime entweder direkt oder über Hände, Küchenutensilien oder Arbeitsflächen auf andere Lebensmittel übertragen werden. In diesen Fällen spricht man von einer „Kreuzkontamination“ der Lebensmittel. Ein Infektionsrisiko besteht vor allem dann, wenn Lebensmittel roh verzehrt oder vor dem Verzehr nicht mehr ausreichend erhitzt werden.

Das Merkblatt „Schutz vor Lebensmittelinfektionen im Privathaushalt“ fasst Verbrauchertipps zu den folgenden Aspekten der Lebensmittel- und Küchenhygiene zusammen:

> Vermeiden einer Verunreinigung von Lebensmitteln mit Krankheitserregern („Kreuzkontamination“)

> Transport, Lagerung und Zubereitung von Lebensmitteln

> Persönliche Hygiene

> Reinigung der Arbeitsflächen in der Küche sowie von Geschirr und Besteck

Das Merkblatt steht auf der Internetseite des BfR im Bereich Publikationen zum Herunterladen zur Verfügung und kann dort auch über die Warenkorbfunktion kostenlos bestellt werden.

Über das BfR

Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung und Landwirtschaft (BMEL). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien- und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/cm/350/verbrauchertipps_schutz_vor_lebensmittelinfektione… Merkblatt des BfR

Quelle: idw

(nach oben)


Der Wähler von heute: unberechenbar und mobil

Ulrike Jaspers Marketing und Kommunikation
Goethe-Universität Frankfurt am Main

FRANKFURT. Wähler gelten heute als unberechenbar und launisch, aber auch als empfänglich gegenüber Lockrufen populistischer Alternativen. Die Wähler von heute sind Wechselwähler und entscheiden häufig erst an der Wahlurne, wem sie die Stimme geben. Die Mobilität der Wähler gehört zum politischen System der heutigen Bundesrepublik und ist das Ergebnis massiver Veränderungen, die sich in den vergangenen Jahrzehnten abgespielt haben. Details beschreibt die Frankfurter Politikwissenschaftlerin, Prof. Sigrid Roßteutscher, in ihrem Beitrag in der aktuellen Ausgabe des Wissenschaftsmagazins Forschung Frankfurt mit dem Schwerpunktthema „Mobilität“.

In ihrer Diagnose des gesellschaftlichen Wandlungsprozesses spielen auch die massiven Veränderungen in der Medien- und Informationslandschaft eine entscheidende Rolle: Im Zuge der Liberalisierung des Medienmarkts ab 1990 nahm die Zahl der frei empfänglichen privaten Rund- und Fernsehkanäle explosionsartig zu, es folgte der Siegeszug des Internet sowie die Verbreitung der „social media“, was das potenzielle Angebot an Informationen drastisch ansteigen ließ. Dazu die Politikwissenschaftlerin er Goethe-Universität: „Die politischen Signale, die Bürger aus den Medien empfangen, sind somit weniger homogen und damit potenziell auch schwieriger einzuordnen und zu bewerten, als dies für lange Zeit der Fall war. Außerdem können Bürger, die sich nicht für Politik interessieren, intensiv andere Angebote in den vielfältigen Medien nutzen und Politik ausblenden.“

Für die Volksparteien sind die guten Jahre seit den 1990er vorbei: So sind beispielsweise immer weniger Arbeitnehmer gewerkschaftlich orientiert, weil viele klassische Arbeiterberufe verschwunden sind; damit schrumpft auch die Kernklientel der SPD. Ähnlich geht es der CDU/CSU, dort macht sich der Rückgang der aktiven Kirchgänger bemerkbar. „Diese sozialstrukturelle Veränderungen tragen zur Erosion traditioneller politischer Milieus bei, die über lange Zeit das Rückgrat der etablierten Parteien bildeten“, analysiert Roßteutscher.

Mit der schwindenden Bindungskraft der großen Parteien nimmt die Zahl neuer kleinerer Parteien zu, die sich nahe der Fünf-Prozent-Hürde bewegen – Ergebnis: die Fragmentierung des Parteiensystems. Im Zuge der deutschen Vereinigung etablierte sich über die SED, PDS dann schließlich „Die Linke“. Da die neue linke Partei ihre Klientel verstärkt im Osten hat, trug dies nachhaltig zur Regionalisierung des Parteiensystems. Die allmähliche Etablierung der Grünen und dann der Linkspartei führte zu einem graduellen Zuwachs der kleinen Parteien auf Kosten der Großparteien – zumindest bis zur Bundestagswahl im September. „Ob der erstaunliche Zuwachs der ‚Großen‘ bei der Bundestagswahl 2013 eine Trendumkehr signalisiert oder eher einmaliger Ausreißer ist, bleibt abzuwarten“, so die Wahlforscherin. Roßteutscher gehört zu den führenden bundesdeutschen Wissenschaftlern, die in der von der Deutschen Forschungsgemeinschaft geförderten „Deutschen Nationalen Wahlstudie kooperieren.

In der „German Longitudinal Election Study“ (GLES), dem bislang umfassendsten und ehrgeizigsten Projekt der deutschen Wahlforschung, werden als Datenbasis Querschnitts- und sowohl kurz- als auch langfristige Längsschnittumfragen eingesetzt und mit einem Kandidatensurvey, einer Analyse von TV-Duellen sowie Inhaltsanalysen der Medienberichterstattung kombiniert. Mit Blick auf die Bundestagswahlen 2009, 2013 und 2017 untersucht die GLES, wie die mobilere Wählerschaft auf die Herausforderungen der neuen, sehr komplexen Konstellation elektoraler Politik reagiert. Bisher liegen intensive Untersuchungen zur Bundestagswahl 2009 vor, die Daten zu 2013 werden für die Analyse aufbereitet, eine erste gemeinsame Veröffentlichung zu den Besonderheiten dieser Wahl erscheint im Sommer 2014. Die Langfristperspektive wird dann vor allem nach der Bundestagswahl 2017, wenn Daten für drei aufeinanderfolgende Wahlen vorliegen, im Mittelpunkt der wissenschaftlichen Analyse stehen. Drei von insgesamt neun Studienkomponenten der GLES werden unter Leitung von Roßteutscher an der Goethe-Universität realisiert. Zu den Kooperationspartnern gehören die Universität Frankfurt und Mannheim (Prof. Hans Rattinger, Prof. Rüdiger Schmitt-Beck) sowie das Wissenschaftszentrum Berlin (Prof. Bernhard Weßels) und das GESIS – Leibniz Institut für Sozialwissenschaften (Prof. Christof Wolf).

Festgesellt haben die Politikwissenschaftler und Soziologen auch, das mehr Parteien im Angebot nicht zu einer höheren Wahlbeteiligung führen. Gingen in den 1980er Jahren noch Bürger aller Schichten zur Wahl, sind es heute insbesondere die Wähler mit niedrigem Bildungsstatus, die zur stetig wachsenden Gruppe der Nichtwähler gehören. Dazu die Frankfurter Wissenschaftlerin: „Da die soziale Schere bei Jungwählern bis 29 Jahren noch sehr viel deutlicher zu erkennen ist als bei älteren Wählern, spricht viel dafür, dass diese Ungleichheit ein bleibendes Merkmal des politischen Systems Deutschlands wird.“ Die weiteren Untersuchungen der Wahlstudie werden auch darüber detaillierte Auskunft geben können.

Informationen: Prof. Dr. Sigrid Roßteutscher, Fachbereich Gesellschaftswissenschaften, Campus Westend, Tel. (069) 798- 36628, Rossteutscher@soz.uni-frankfurt.de

Ein Probeheft von Forschung Frankfurt kann kostenlos bei Helga Ott bestellt werden unter Ott@pvw.uni-frankfurt.de.

Forschung Frankfurt im Web: http://www.forschung-frankfurt.uni-frankfurt.de/34831594/aktuelle_Ausgabe

Weitere Informationen:
http://www.forschung-frankfurt.uni-frankfurt.de/34831594/aktuelle_Ausgabe

Quelle: idw

(nach oben)


BDEW zum Monitoringbericht Strom und Gas der Bundesnetzagentur:

Bericht belegt dringenden Handlungsbedarf beim Netzausbau

Bericht dokumentiert Erfolg des Marktprämienmodells / Weiterhin erfreuliche Wettbewerbsentwicklung auf dem Gasmarkt

Der Monitoringbericht macht erneut deutlich, wie massiv mittlerweile in die Fahrweise von Kraftwerken und Speichern eingegriffen werden muss, um die Stromnetze vor einer Überlastung zu schützen. „Dies unterstreicht die Dringlichkeit des Netzausbaus insbesondere in Nord-Süd-Richtung. Das Stromnetz in Deutschland steht in einigen Regionen unter erheblichem Stress“, sagte Hildegard Müller, Vorsitzende der Hauptgeschäftsführung des Bundesverbandes der Energie- und Wasserwirtschaft (BDEW) heute in Berlin anlässlich der Veröffentlichung des Monitoringberichtes 2013 der Bundesnetzagentur.

Der Bericht veranschauliche darüber hinaus, dass die Netzbetreiber im Zuge der Energiewende große Summen in den Betrieb, den Erhalt und den Ausbau der Netzinfrastruktur investieren. Nachdem in den letzten Jahren Kostensenkungspotenziale ausgeschöpft worden seien, stiegen nun die Netzentgelte durch die hohen Investitionen für die Integration der Erneuerbaren Energien in den Übertragungs- und Verteilnetzen wieder an. Immer deutlicher würden dabei auch die regional sehr unterschiedlichen Belastungen der Netzbetreiber durch die energiepolitischen Herausforderungen. „Der Regulierungsrahmen muss deshalb aus unserer Sicht differenziert weiter entwickelt werden. Auch bei der aktuellen Netzentgeltsystematik im Strombereich sind Anpassungen erforderlich, um Fehlanreize und eine Entsolidarisierung zu vermeiden. Die im Koalitionsvertrag von CDU/CSU und SPD angekündigte Verbesserung der Investitionsbedingungen für Verteilnetzbetreiber dürften nicht auf die lange Bank geschoben werden“, so Müller.

Erfreulich sei auch, dass sich der Präsident des Bundeskartellamtes, Andreas Mundt, für eine verpflichtende Direktvermarktung bei Neuanlagen für Erneuerbare Energien ausspricht. Auch der BDEW setzt sich dafür ein. Laut Monitoringbericht wurden 2012 etwas mehr als 43 Prozent aller erzeugten EEG-Mengen direkt vermarktet. Zurückzuführen sei dies auf das 2012 eingeführte Marktprämienmodell, zu dem der BDEW 2011 einen konkreten Umsetzungsvorschlag erarbeitet und nun Vorschläge zu dessen Weiterentwicklung vorgelegt hat. „Im Koalitionsvertrag von CDU/CSU und SPD ist richtigerweise die auch vom BDEW geforderte Markt- und Systemintegration der Erneuerbaren als wichtiges Reform-Ziel benannt. Mit Blick auf die konkrete Umsetzung und den Zeitplan sehen wir jedoch noch erheblichen Verbesserungsbedarf“, so die Vorsitzende der BDEW-Hauptgeschäftsführung abschließend.

Der Monitoringbericht dokumentiere zudem erneut, dass der Wettbewerb auf dem Strom- und Gasmarkt auch im europäischen Vergleich als echte Erfolgsgeschichte bezeichnet werden könne. Insbesondere die Entwicklung des Wettbewerbs auf dem Gasmarkt verläuft laut Bundesnetzagentur weiterhin erfreulich. In der Mehrzahl der Netzgebiete werden demnach die Haushaltskunden von mehr als 50 verschiedenen Gaslieferanten versorgt. „Der deutsche Gasmarkt gehört zu den wettbewerbsintensivsten in Europa“, betonte die Vorsitzende der BDEW-Hauptgeschäftsführung. Die im Monitoringbericht ausgewiesenen hohen Erdgasim- und exportmengen spiegelten zudem das Zusammenwachsen des europäischen Gasmarktes wider. Die hierin enthaltenen hohen Transitmengen seien ein Beleg für die Rolle Deutschlands als wichtige Drehscheibe im internationalen Erdgashandel. Gleiches gelte für den europäischen Strommarkt, auf dem Deutschland weiterhin die zentrale Handelsdrehscheibe sei

Quelle: BDEW

(nach oben)


Geo-Engineering: Kommerzielle Düngung der Meere endlich verboten

Erstmals rechtlich verbindliche Vorschriften verabschiedet – Forschung weiter möglich

Kommerzielle Aktivitäten zur Düngung der Meere sind ab sofort international verboten – erlaubt sind lediglich bestimmte Forschungsvorhaben. Das beschlossen die Vertragsstaaten des Londoner Protokolls bereits am 18. Oktober 2013; die Beschlüsse sind nun öffentlich einsehbar. Die Vertragsstaaten müssen nun vor Beginn von Meeresdüngungs- und anderen Geo-Engineering-Aktivitäten sicherstellen, dass tatsächlich geforscht wird und nachteilige Umweltwirkungen ausgeschlossen sind. „Die internationale Vereinbarung ist ein Meilenstein in der Kontrolle des Geo-Engineerings und regelt erstmals wirksam Experimente zur technischen Beeinflussung des Klimawandels. Dass die Neuregelung im Konsens angenommen wurde, unterstreicht die politische Bedeutung der neuen Vorschriften.“ sagt Thomas Holzmann, Vizepräsident des Umweltbundesamtes (UBA), das an den Verhandlungen intensiv beteiligt war. Die 43 Vertragsstaaten vereinbarten auch, neben der Meeresdüngung weitere marine Geo-Engineering-Maßnahmen der staatlichen Kontrolle zu unterstellen. Alle Neuregelungen treten allerdings erst in Kraft, wenn sie von Zwei-Dritteln der Vertragsstaaten ratifiziert werden.

Auslöser der langwierigen internationalen Verhandlungen war ein Antrag der Firma Planktos aus dem Jahr 2007. Diese plante vor den Galapagos-Inseln ein kommerzielles Meeresdüngungsprojekt durchzuführen, um den Klimawandel einzudämmen, obwohl die Wirksamkeit derartiger Eingriffe nicht belegt ist. Bis 2010 einigten sich die Vertragsstaaten des Londoner Protokolls dann auf rechtlich unverbindliche Kontrollinstrumente solcher Projekte. 2012 wurde ein weiteres, höchst umstrittenes Düngungsprojekt vor der Westküste Kanadas durchgeführt. Die bisherigen Absprachen wurden allerdings vollständig missachtet – für die Vertragsstaaten ein wichtiger Grund, sich nun auf verbindliche Regelungen zu einigen. UBA-Vizepräsident Thomas Holzmann: „Das internationale Verbot kommerzieller Climate- und Geo-Engineeringaktivitäten und die wirksame Kontrolle der Forschungsprojekte ist völlig richtig. Wir wissen schlicht zu wenig über die Auswirkungen auf Mensch und Umwelt. Aus Gründen der Vorsorge sollten wir Experimente an unserem Planeten nur streng kontrolliert zu Forschungszwecken und in kleinen Schritten zulassen. Die neuen Vorschriften des Londoner Protokolls tragen dem Rechnung – und sind so Vorbild für das internationale Umweltrecht allgemein.“

Eine wesentliche Neuerung der Beschlüsse ist, dass in Zukunft neben der Ozeandüngung auch andere marine Geo-Engineering Maßnahmen leichter einer Kontrolle unterstellt werden können. Die Neuregelung legt zudem Kriterien fest, die bei der Prüfung der Umweltauswirkungen zu berück¬sichtigen sind. Schließlich wurden erstmalig verbindliche Kriterien bestimmt, durch die Forschungsvorhaben von kommerziellen Aktivitäten unterschieden werden können. „Diese Kriterien können auch im Bereich des sonstigen Ressourcenschutzes helfen, negative Umwelteffekte fragwürdiger wissenschaftlicher Aktivitäten – etwa des angeblich wissenschaftlichen Walfangs durch Japan – zu verringern“, betont Thomas Holzmann.

Stichwort Geo-Engineering:

Der Begriff Geo-Engineering beschreibt Konzepte, die den Klimawandel durch großtechnische Eingriffe in die globalen ökologischen Abläufe zu bremsen versuchen. Eine viel diskutierte Methode ist die Ozeandüngung. Die Idee: Durch Zugabe großer Mengen von Eisenverbindungen in das Meerwasser wird eine großflächige Algenblüte erzeugt. Das in den Algen gebundene CO2 wird nach deren Absterben zum Meeresboden transportiert. Damit soll es in großen Ozeantiefen fest gebunden, der Atmosphäre entzogen und so nicht mehr klimawirksam sein. Derzeit bestehen allerdings breite Zweifel an der Wirksamkeit der Ozeandüngung.

Der Bericht der 35. Vertragsstaatenkonferenz des London Protokolls enthält weitere Informationen zu den Verhandlungen (unter Section 4) und zu den entsprechenden Neuregelungen (unter Annex 4).

Allgemeine Informationen zum Londoner Protokoll
http://www.imo.org/OurWork/Environment/LCLP/Pages/default.aspx

Publikationen
Geo-Engineering – wirksamer Klimaschutz oder Größenwahn?
http://www.umweltbundesamt.de/publikationen/geo-engineering-wirksamer-klimaschutz-groessenwahn

Dokumente

London Protocol – LC35/15 – Report Of The Thirty-Fifth Consultative Meeting And The Eighth Meeting Of The Contracting Parties
http://www.umweltbundesamt.de/sites/default/files/medien/381/dokumente/london_protocol_-_lc_35-15_-_report_of_the_thirty-fifth_consultative_meeting_and_the_eight_meeting_of_the_contracting_parties.pdf

Quelle: UBA

(nach oben)


Online-Software analysiert Nachhaltigkeit von Städten

Tobias Steinhäußer Unternehmenskommunikation
Fraunhofer-Gesellschaft

An Singapurs Hausfassaden wuchern Pflanzen empor, durch Kopenhagens Häuser strömt die Fernwärme – zahlreiche Metropolen arbeiten an ihrer Nachhaltigkeit. Forscher aus zwölf Fraunhofer-Instituten haben sechs Städte identifiziert, die das besonders gut machen: Freiburg, Singapur, Kopenhagen, Tokyo, New York und Berlin. Die Teams ermittelten konkrete Projekte, reisten in die jeweiligen Städte, analysierten, was besonders gut klappt und leiteten über 80 Handlungsfelder ab. Diese beinhalten beispielsweise Fragen nach der Organisation und Struktur der Stadt, oder danach, wie die Politik aufgestellt ist. Daraus ist ein Nachhaltigkeitsmodell entstanden. Mit dem online-basierten Instrument können Städte und Gemeinden selbst analysieren, wie es um ihre Nachhaltigkeit bestellt ist und gemeinsam mit den Forschern konkrete Lösungen für ihren Bedarf entwickeln. Sie erhalten beispielsweise Informationen darüber, wie ihre Stadt im Sinne der Nachhaltigkeit agiert, welche Maßnahmen gut funktionieren, welche nicht und warum das so ist.

Für die Projektmitglieder steht eine verschlankte Version des Programms bereit: Dafür haben die Forscher – unter Leitung des Fraunhofer-Instituts für Arbeitswirtschaft und Organisation IAO in Stuttgart – die Handlungsfelder kategorisiert, priorisiert und die wichtigsten zusammengefasst. Das vollständige Software-Instrument bieten die Wissenschaftler interessierten Städten im Rahmen eines gemeinsamen Projekts an.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2014/Januar/kurzmeldungen…

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Bergwerke als Pumpspeicherkraftwerke nutzen

Rüdiger Mack Marketingkommunikation
Fachinformationszentrum Karlsruhe

Ehemalige Erz-Anlagen bieten Möglichkeiten

Im deutschen Stromnetz sind Pumpspeicherkraftwerke eine feste Größe: Durch sie können momentane Stromüberschüsse gespeichert werden und bei Nachfragespitzen liefern sie schnell Strom. Das BINE-Projektinfo „Windenergie unter Tage speichern“ (18/2013) stellt ein Konzept vor, wie sich stillgelegte Erzbergwerke als Pumpspeicherkraftwerke nutzen lassen. Diese untertägigen Stromspeicher könnten die Speicherkapazitäten im Netz beträchtlich erweitern. Anders als bei den bisherigen oberirdischen Anlagen würden dabei massive Eingriffe in das Landschaftsbild vermieden.

Ein konventionelles Pumpspeicherkraftwerk besteht meistens aus zwei Wasserbecken, Talsperren oder Seen, zwischen denen ein möglichst großer Höhenunterschied besteht. Wenn Energie gespeichert werden soll, wird das Wasser vom unteren Becken ins obere gepumpt. Bei Strombedarf im Netz strömt das Wasser zurück ins untere und treibt dabei eine Turbine an. Dieses Speicherprinzip lässt sich auch in ehemaligen Bergwerken umsetzen. Am Beispiel der Erzbergwerke Grund im nordwestlichen Oberharz sowie Pöhla im Erzgebirge entwickelten die Forscher ein technisches und umweltrechtliches Konzept. Außerdem erarbeiteten sie Eckdaten für die Wirtschaftlichkeit und zum erschließbaren Potenzial in Deutschland.

Die umfangreiche Studie wurde vom Energie-Forschungszentrum Niedersachsen gemeinsam mit weiteren wissenschaftlichen Partnern aus den Bereichen Bergbau, Maschinenbau und Umweltrecht erarbeitet.

Das BINE- Projektinfo ist kostenfrei beim BINE Informationsdienst von FIZ Karlsruhe erhältlich – unter www.bine.info oder 0228 92379-0.

BINE Informationsdienst ist ein Service von FIZ Karlsruhe und wird vom Bundesministerium für Wirtschaft und Technologie (BMWi) gefördert.

FIZ Karlsruhe – Leibniz-Institut für Informationsinfrastruktur ist eine gemeinnützige Gesellschaft, die im öffentlichen Auftrag weltweit publizierte wissenschaftliche Information zugänglich macht und entsprechende Dienstleistungen zur Verfügung stellt. FIZ Karlsruhe hat die Aufgabe, den nationalen und internationalen Wissenstransfer und die Innovationsförderung zu unterstützen.

Weitere Informationen:
http://www.bine.info/en – BINE Informationsdienst englisch
http://www.twitter.com/bineinfo – Folgen Sie BINE Informationsdienst aktuell auf Twitter
https://www.facebook.com/BINE.Informationsdienst – Auch auf Facebook

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Klimawandel setzt 40 Prozent mehr Menschen dem Risiko absoluter Wasserknappheit aus

Jonas Viering Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Wasserknappheit trifft schon heute Menschen in vielen Ländern, und durch das Bevölkerungswachstum wird der Bedarf an Süßwasser noch weiter steigen. Zusätzlich aber ist in Zukunft vielerorts weniger Wasser verfügbar, weil sich etwa Regenfall und Verdunstung verändern. Der Klimawandel aufgrund unverminderter Treibhausgasemissionen wird wahrscheinlich noch in diesem Jahrhundert rund 40 Prozent mehr Menschen einem Risiko absoluter Wasserknappheit aussetzen, als es ohne Klimaänderungen der Fall wäre. Das zeigt eine neue Studie, für die eine noch nie dagewesene Zahl von Klimafolgenmodellen verwendet wurde.

Die Analyse wird in einem Sonderteil der Fachzeitschrift Proceedings of the National Academy of Sciences erscheinen, die erste Ergebnisse des Inter-Sectoral Impact Model Intercomparison Project (ISI-MIP) versammelt. Dieses ist ein einzigartiger und von Wissenschaftlern weltweit getragener Versuch, die Forschung zu den Folgen des Klimawandels auf eine neue Ebene zu bringen.

„Die stärkste Zunahme von globaler Wasserknappheit könnte es bei einer globalen Erwärmung von zwei bis drei Grad über dem vorindustriellen Niveau geben – und das werden wir in den nächsten Jahrzehnten bereits erleben, wenn die Emissionen nicht bald gesenkt werden“, sagt Leitautor Jacob Schewe vom Potsdam-Institut für Klimafolgenforschung. „Dass die Wasserknappheit zunimmt, ist bereits länger bekannt. Aber unsere Studie bestimmt erstmals den relativen Anteil des Klimawandels daran, im Vergleich – und zusätzlich – zu der wachsenden Wasserknappheit, die einfach auf das Bevölkerungswachstum zurückzuführen ist.“

Ein bis zwei von hundert Menschen leben heute in Ländern mit absoluter Wasserknappheit. Bevölkerungswachstum und Klimawandel würden dies bei einer globalen Erwärmung von rund drei Grad auf zehn von hundert erhöhen, so die Studie. Absolute Wasserknappheit wird definiert als weniger als 500 Kubikmeter pro Jahr und Kopf. Eine solche Menge kann den Bedarf – wenn überhaupt – nur dann decken, sofern sehr effiziente Techniken der Wassernutzung und des Wassermanagements eingesetzt werden; in vielen Ländern gibt es diese Techniken nicht. Zum Vergleich: der durchschnittliche globale Wasserverbrauch pro Kopf und Jahr liegt bei etwa 1200 Kubikmetern, in den Industrieländern noch deutlich höher.

Die regionalen Unterschiede bei den Auswirkungen des Klimawandels auf die Verfügbarkeit von Wasser sind immens. Für den Mittelmeerraum, den Nahen Osten, den Süden der USA und Südchina zum Beispiel sind laut der Studie wahrscheinlich deutliche Verluste an verfügbarem Wasser zu erwarten. Südindien, das westliche China und Teile Ostafrikas hingegen könnten eine erhebliche Zunahme erleben.

„Wasserknappheit ist eine große Bedrohung für die menschliche Entwicklung, etwa in Regionen wo die Nahrungssicherheit von der Bewässerung abhängt – die Landwirtschaft ist der größte Wasserverbraucher weltweit“, sagt Ko-Autor Qiuhong Tang von der Chinesischen Akademie der Wissenschaften. „Trotzdem ist auch eine Zunahme von Niederschlägen eine Herausforderung – zusätzliches Wasser kann Überflutungen und Störungen von Infrastruktur wie etwa der Kanalisation verursachen. Insgesamt steigen die Risiken also.“ Neben der Landwirtschaft benötigen auch viele industrielle Produktionsprozesse große Mengen Wasser, so dass ein Mangel daran in manchen Regionen die ökonomische Entwicklung erschwert.

Die Studie basiert auf Berechnungen von elf verschiedenen globalen hydrologischen Modellen, die wiederum mit von fünf globalen Klimamodellen erzeugten Daten angetrieben wurden – ein Ensemble von Simulationen, das es bislang in dieser Größe nicht gegeben hat, und das in Kooperation mit vielen Forschungsgruppen aus der ganzen Welt entstand. Damit führen die Ergebnisse das derzeit aktuellste Wissen über Auswirkungen des Klimawandels auf die Verfügbarkeit von Wasser zusammen. Die in ISI-MIP zusammenarbeitenden Wissenschaftler vergleichen systematisch die Ergebnisse der verschiedenen Computersimulationen, um zu sehen, wo sie übereinstimmen und wo nicht. Die oben genannten Zahlen sind Durchschnittsergebnisse mehrerer Modelle. Das heißt, dass einige der Modelle auch eine mögliche stärkere Zunahme der Wasserknappheit anzeigen.

„Dieser breit angelegte Modellvergleich ist insofern einzigartig, als er eine gute Einschätzung der Unsicherheiten bei zukünftigen Folgen des Klimawandels erlaubt – was uns umgekehrt zeigt, welche Erkenntnisse besonders robust sind“, sagt Ko-Autor Pavel Kabat vom International Institute for Applied Systems Analysis (IIASA). „Betrachtet man das Ganze aus der Perspektive des Risikomanagements, so wird selbst aus den eher optimistischen Szenarien und Modellen sehr deutlich: Wir bringen Lebensgrundlagen von Millionen Menschen in Gefahr, wenn der menschengemachte Klimawandel sich ungebremst fortsetzt.“

Allerdings sei die Arbeit damit noch lange nicht beendet, fügte er hinzu. „Wir benötigen weitere Forschung, wie sich der Wasserbedarf in Zukunft in verschiedenen Bereichen wie Landwirtschaft, Industrie und Energie entwickeln wird – und wie zusätzlich zur Reduzierung von Treibhausgasen die technologischen Entwicklungen im Wassersektor helfen könnten, Wasserknappheit zu vermindern.“

Artikel: Schewe, J., Heinke, J., Gerten, D., Haddeland, I., Arnell, N.W., Clarke, D.B., Dankers, R., Eisner, S., Fekete, B.M., Colón-González, F.J., Gosling, S.M., Kim, H., Liu, X., Masaki, Y., Portmann, F.T., Satoh, Y., Stacke, T., Tang, Q., Wada, Y., Wisser, D., Albrecht, T., Frieler, K., Piontek, F., Warszawski, L., Kabat, P. (2013): Multi-model assessment of water scarcity under climate change. Proceedings of the National Academy of Sciences (early online edition) [DOI:10.1073/pnas.1222460110]

Zusammen mit diesem Artikel werden weitere ISI-MIP-Studien online bei PNAS veröffentlicht:

Dankers, R., et al. (2013): First look at changes in flood hazard in the Inter-Sectoral Impact Model Intercomparison Project ensemble. Proceedings of the National Academy of Sciences (early online edition)

Elliott, J., et al (2013): Constraints and potentials of future irrigation water availability on agricultural production under climate change. Proceedings of the National Academy of Sciences (early online edition)

Friend, A. D., et al. (2013): Carbon residence time dominates uncertainty in terrestrial vegetation responses to future climate and atmospheric CO2. Proceedings of the National Academy of Sciences (early online edition)

Haddeland I., et al. (2013): Global water resources affected by human interventions and climate change. Proceedings of the National Academy of Sciences (early online edition)

Nelson, G. C., et al. (2013): Climate change effects on agriculture: Economic responses to biophysical shocks. Proceedings of the National Academy of Sciences (early online edition)

Piontek, F., et al. (2013): Multisectoral climate impact hotspots in a warming world. Proceedings of the National Academy of Sciences (early online edition) [DOI:10.1073/pnas.1222471110]

Prudhomme, C., et al. (2013): Hydrological droughts in the 21st century, hotspots and uncertainties from a global multimodel ensemble experiment. Proceedings of the National Academy of Sciences (early online edition)

Rosenzweig, C., et al. (2013): Assessing agricultural risks of climate change in the 21st century in a global gridded crop model intercomparison. Proceedings of the National Academy of Sciences (early online edition)

Schellnhuber, H.J., et al (2013): The Elephant, the Blind, and the ISI-MIP. Proceedings of the National Academy of Sciences (early online edition)

Warszawski, L., et al. (2013): The Inter-Sectoral Impact Model Intercomparison Project (ISI-MIP): Project framework. Proceedings of the National Academy of Sciences (early online edition)

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de
Twitter: @PIK_Klima

Weitere Informationen:
http://www.pnas.org/cgi/doi/10.1073/pnas.1222460110

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Studie liefert Daten: Opioid lindert Restless-Legs-Syndrom

Frank A. Miltner Pressestelle der DGN
Deutsche Gesellschaft für Neurologie

Wenn die Standardarzneien beim Restless-Legs-Syndrom (RLS) nicht helfen, kann eine Opioid-haltige Wirkstoffkombination Linderung verschaffen. Dies zeigt die bislang größte doppelblinde Studie zum Nutzen von Opioiden bei RLS, die Professor Claudia Trenkwalder von der Deutschen Gesellschaft für Neurologie (DGN) vor kurzem mit ihren europäischen Kollegen in The Lancet Neurology veröffentlicht hat.

„Mit der neuen Studie wird die Therapie mit einem Opiat auf eine solide Basis gestellt“, betont Trenkwalder. „Die Besserung, die hier erzielt wurde, ist viel größer als mit den meisten zugelassenen RLS-Arzneien“, bemerkte Professor Arthur S. Walter von der Vanderbilt University School of Medicine dazu in einem Kommentar: „Zusammenfassend ist die orale Gabe von Oxycodon-Naloxon mit verzögerter Freisetzung eine Option für die kurz- und langfristige Therapie des RLS und könnte für jene Patienten eine besonders gute Wahl sein, die nicht auf andere Therapien ansprechen.“

Das Restless-Legs-Syndrom (RLS) zählt mit einer altersabhängigen Prävalenz von 3 bis 10 Prozent der Bevölkerung zu den häufigsten neurologischen Erkrankungen. Es ist charakterisiert durch einen erheblichen Bewegungsdrang vor allem der Beine, der in Ruhesituationen auftritt und nachts besonders ausgeprägt ist. Erste Wahl ist weltweit die Therapie mit Dopaminagonisten, die jedoch nicht allen Patienten ausreichend helfen können. In den Leitlinien der DGN von 2012, die Claudia Trenkwalder federführend erstellt hat, heißt es deshalb: „Bei unzureichendem Ansprechen auf Dopaminergika oder Komplikationen können Opioide oder Antikonvulsiva ggf. in Kombinationstherapie versucht werden. Für Opioide liegen kontrollierte Erfahrungen bisher nur mit Oxycodon und Tramadol vor. Obwohl Opioide in der Praxis bei RLS häufig verwendet werden und insbesondere zur Therapie der Augmentation eine Behandlungsalternative zu Dopaminergika darstellen, sind nur wenige Daten verfügbar.“ Zwar beschrieb der englische Arzt Thomas Willis bereits im Jahr 1672 erstmals den Einsatz von Opiaten gegen das Restless-Legs-Syndrom, doch fanden sie erst in den 1990er Jahren Eingang in die Behandlungsrichtlinien der US-amerikanischen Akademie für Schlafmedizin.

Erste solide Datenbasis zur Wirkung von Opioiden bei RLS

Trenkwalder, Chefärztin der Paracelsus-Elena-Klinik in Kassel, hat vor diesem Hintergrund mit ihren Kollegen eine Studie initiiert, bei der 306 Patienten in 55 Zentren Österreichs, Deutschlands, Spaniens und Schwedens zwei Mal täglich entweder Oxycodon-Naloxon mit verzögerter Freisetzung erhielten, oder ein Placebo. Die Untersuchung, die vom Hersteller der Arznei finanziert wurde, ist die erste große Doppelblind-Studie zur Wirkung von Opioiden beim RLS. The Lancet würdigt Trenkwalders Leistungen in der gleichen Ausgabe mit einem Porträt.

Bei den Patienten der Studie hatten Dopaminergika nicht geholfen, um die Beschwerden deutlich zu lindern. Im Mittel hatten sie bereits 10,3 Jahre an der Krankheit gelitten, 5 davon unter Therapie. Auf der 40 Punkte umfassenden RLS Study Group Severity Rating Scale war die Krankheit zu Beginn der Studie mit durchschnittlich 31,6 Punkten als sehr schwer eingestuft worden. Nach zwölf Wochen hatte sich dieser Wert unter Oxycodon-Naloxon auf 15,1 Punkte („moderat“) gebessert, unter Placebo lediglich auf 22,1 Punkte („schwer“). Die Wirkung von Oxycodon-Naloxon war somit deutlich stärker als die der meisten zugelassenen Arzneien gegen RLS, merkt Kommentator Arthur S. Walter an. „Diese Daten sind besonders überzeugend, weil an der Studie Patienten teilnahmen, die auf andere Behandlungen nicht mehr ausreichend ansprachen“, so Walter. Die Untersuchung wurde nach zwölf Wochen um weitere 40 Wochen verlängert. In dieser zweiten Phase wurde allen Patienten die Studienarznei angeboten, wovon 197 Teilnehmer Gebrauch machten. Im Durchschnitt wurde die Krankheit nun mit 9,7 Punkten auf der RLS Study Group Severity Rating Scale bewertet und damit gerade noch als „mild“ eingestuft.

Fazit: Signifikante Verbesserung der Symptome

In der Gesamtbilanz konnte eine signifikante klinische Verbesserung erzielt werden, von sehr schweren Symptomen zu Beginn auf milde oder moderate Beschwerden zum Ende der doppel-blinden Studienphase, schreiben Trenkwalder und Kollegen. Außerdem habe man bedeutsame Verbesserungen bei sekundären Studienzielen erreicht, etwa der Schlafqualität und der Lebensqualität. Wichtig ist dabei auch die Anwendung nicht nur abends, sondern die morgendliche und abendliche Gabe, um einen kontinuierlichen Wirkspiegel beim Patienten zu erreichen. „Oxycodon-Naloxon mit verzögerter Freisetzung könnte in der Zukunft eine klinisch bedeutsame Behandlung für Patienten mit Restless-Legs-Syndrom werden, wenn die Medikamente der ersten Wahl versagen“, so Trenkwalder.

Nebenwirkungen meist mild bis moderat

Die Nebenwirkungen des Opiats traten mit 73 Prozent (bzw. 43 Prozent in der Placebo-Gruppe) in der ersten Phase der Studie vergleichsweise häufig auf, in den meisten Fällen waren sie aber mild bis moderat ausgeprägt und konsistent mit dem Sicherheitsprofil dieser Wirkstoffgruppe. Die häufigsten Nebenwirkungen unter Opiat-Therapie waren gastrointestinale Beschwerden wie Obstipation oder Übelkeit, eine unter Opiaten bekannte Nebenwirkung. Unter der Studienarznei schieden in der ersten Phase 13 Prozent der Teilnehmer wegen Nebenwirkungen aus, unter Placebo waren es 7 Prozent. Gleichzeitig hatten in der ersten Phase unter Oxycodon-Naloxon
7 Prozent der Patienten wegen mangelnder Wirkung die Studie verlassen, gegenüber 20 Prozent unter Placebo. Schwere Nebenwirkungen traten mit Oxycodon-Naloxon fünf Mal auf und betrafen überwiegend den Verdauungstrakt.
Auf Anraten des Ethik-Komitees hatten die Forscher zudem vier Wochen nach Abschluss der Studie nach Anzeichen von physischer oder psychischer Anhängigkeit gesucht. Entzugserscheinungen fanden sich bei einem von 176 Patienten nach 12 Wochen und bei zwei Patienten nach einem Jahr.

Quellen

• Trenkwalder C, Beneš H, Grote L, García-Borreguero D, Högl B, Hopp M, Bosse B, Oksche A, Reimer K, Winkelmann J, Allen RP, Kohnen R; RELOXYN Study Group. Prolonged release oxycodone-naloxone for treatment of severe restless legs syndrome after failure of previous treatment: a double-blind, randomised, placebo-controlled trial with an open-label extension. Lancet Neurol. 2013 Dec;12(12):1141-50.
• Walters AS. Opioids and restless legs syndrome. Lancet Neurol. 2013 Dec;12(12):1128-9.
• Mohammadi D. Claudia Trenkwalder: from bench to bedside (and back again). Lancet Neurol. 2013 Dec;12(12):1137.

Fachlicher Kontakt bei Rückfragen:

Prof. Dr. Claudia Trenkwalder
Paracelsus-Elena-Klinik
Klinikstraße 16, 34128 Kassel
E-Mail: trenkwalder@paracelsus-kliniken.de
Tel: +49 (0) 561 6009200

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren mehr als 7500 Mitgliedern die neurologische Krankenversorgung in Deutschland zu sichern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist seit 2008 die Bundeshauptstadt Berlin.
http://www.dgn.org

1. Vorsitzender: Prof. Dr. med. Martin Grond
2. Vorsitzender: Prof. Dr. med. Wolfgang H. Oertel
3. Vorsitzender: Prof. Dr. med. Ralf Gold
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter

Geschäftsstelle
Reinhardtstr. 27 C, 10117 Berlin, Tel.: +49 (0) 30 531437930, E-Mail: info@dgn.org

Weitere Informationen:
http://www.dgn.org

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Wie klimafreundlich sind strombasierte Kraftstoffe?

Romy Klupsch Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Kraftstoffe auf Strombasis können voraussichtlich erst langfristig zum Klimaschutz beitragen. Treibhausemissionen können nur dann vermieden werden, wenn Strom aus erneuerbaren Energien zur Erzeugung von Kraftstoffen wie Wasserstoff, synthetische Flüssigkraftstoffe oder Methan herangezogen werden kann. Relevante Überschüsse erneuerbarer Energien im Stromsektor, die eine längere Stromspeicherung erfordern, sind jedoch erst mittel- bis langfristig zu erwarten. Darauf verweist das Öko-Institut in seinem Working Paper „Strombasierte Kraftstoffe im Vergleich“.

Direkten Einsatz von Strom in Elektrofahrzeugen bevorzugen

Bei der Umwandlung von Strom in die genannten Antriebsstoffe geht Energie verloren – die Umwandlungsverluste gehen dabei zu Lasten der Effizienz der stromerzeugten Kraftstoffe. Je nach Herstellungspfad und Kraftstoff verbleiben 40 bis 60 Prozent der Energie des Stroms im Kraftstoff.

„Wir stellen deshalb fest, dass der direkte Einsatz von Strom in Elektrofahr-zeugen aus energetischer Sicht zu bevorzugen ist“, fasst Peter Kasten, Verkehrs- und Klimaschutzexperte am Öko-Institut zusammen. Denn neben der vorteilhaften direkten Stromnutzung weisen Elektromotoren deutlich höhere Wirkungsgrade auf als Verbrennungsmotoren. „Dort, wo der elektrische Antrieb technisch nicht machbar ist, wie etwa beim Flugverkehr, stellen strombasierte Kraftstoffe aus erneuerbaren Energien eine Klimaschutzoption dar.“

Zusätzliche erneuerbare Energien sind ein Muss

Trotz eines steigenden Anteils erneuerbarer Energien an der Stromerzeugung ist die Nutzung strombasierten Methans auf Grundlage des Strommixes erst nach 2040 klimafreundlicher als der Einsatz konventioneller, benzinbetriebener Pkw. Für den Einsatz von strombasiertem Wasserstoff in Brennstoffzellenfahrzeugen gilt dies ab 2020/2030. Denn der aktuelle Strommix besteht heute noch etwa zur Hälfte aus fossilen Brennstoffen. Klimaschädliche Treibhausgasemissionen können durch diese Kraftstoffe daher nur eingespart werden, wenn zusätzliche erneuerbare Energien zum Einsatz kommen.

Hoher Strombedarf bei Umstellung auf strombasierte Kraftstoffe

Vorangegangene Arbeiten des Öko-Instituts zeigen, dass der Verkehr, würde er bis zum Jahr 2050 vollständig auf Elektrofahrzeuge und stromerzeugte Kraftstoffe umgestellt, allein für die Herstellung der Kraftstoffe mehr Strom benötigen würde als im Jahr 2011 in Deutschland insgesamt verbraucht wurde. Im Jahr 2011 entfielen bei einer Gesamtstromnachfrage von 524 Terawattstunden (TWh) knapp 17 TWh (das entspricht 3,2 Prozent) auf den Verkehrssektor. Diese entfielen vorwiegend auf den Schienenverkehr.

„Für einen nennenswerten Klimabeitrag des Verkehrs müssen wir daher auch weiter nach anderen Lösungen suchen, um den Energiebedarf zu verringern“, fordert Ruth Blanck. „Neben der Steigerung der Fahrzeugeffizienz können auch die Vermeidung von Verkehr und die Verlagerung von Transporten beispielsweise von der Straße auf die Schiene einen erheblichen Beitrag dazu leisten, den Energiebedarf des Verkehrssektors zu senken.“

Weitere Informationen:
Working Paper „Strombasierte Kraftstoffe im Vergleich – Stand heute und die Langfristperspektive“ des Öko-Instituts
http://www.oeko.de/oekodoc/1826/2013-496-de.pdf

Ansprechpartner und -partnerin am Öko-Institut:
Ruth Blanck
Wissenschaftliche Mitarbeiterin im Institutsbereich Infrastruktur & Unternehmen
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-305
E-Mail: r.blanck@oeko.de

Peter Kasten
Wissenschaftlicher Mitarbeiter im Institutsbereich Infrastruktur & Unternehmen
Öko-Institut e.V., Büro Berlin
Telefon: +49 30 405085-349
E-Mail: p.kasten@oeko.de

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.

Neues vom Öko-Institut auf Twitter: http://twitter.com/oekoinstitut
Interesse an eco@work, dem kostenlosen E-Paper des Öko-Instituts?
Abo unter http://www.oeko.de/newsletter_ein.php

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Angriff auf die Kläranlagen des Körpers

Dr. Michael Ramm Pressestelle
Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut (HKI)

Ganze 1.500 Liter Blut fließen täglich durch unsere Nieren, werden gefiltert und von Giftstoffen befreit. Wenn Krankheiten diese Arbeit beeinträchtigen, ist das lebensgefährlich. Bei Dense Deposit Disease, einer seltenen und schweren Nierenerkrankung, ist das der Fall – sie führt zum kompletten Versagen dieser lebenswichtigen Organe. Zur Frage, warum die Krankheit die Nieren befällt und diese zerstört, konnten Wissenschaftler des Leibniz-Instituts für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut (HKI) einen entscheidenden Beitrag leisten. Das international renommierte Medizin-Fachblatt Journal of Clinical Investigation veröffentlichte soeben ihre Erkenntnisse.

Von Tina Kunath

Größer als eine Faust sind sie nicht, die „Kläranlagen“ des menschlichen Körpers. Und dennoch unverzichtbar: Giftstoffe ausscheiden, Hormone produzieren, Harn bilden. Etwa drei Millionen Nierenkörperchen verrichten so täglich ihre Arbeit. Die seltene Nierenkrankheit Dense Deposit Disease hindert sie allerdings daran. Sie betrifft vor allem Kinder und Jugendliche und führt innerhalb weniger Jahre zum Nierenversagen. Ein Wissenschaftlerteam um Prof. Peter Zipfel vom HKI ist den Ursachen der Krankheit jetzt auf die Spur gekommen.

Im Normalfall bekämpft unsere Immunabwehr feindliche Erreger. Ein Teil davon, das sogenannte Komplementsystem, reagiert dabei besonders schnell und direkt auf bakterielle Eindringlinge. Es besteht aus einer Reihe von Eiweißen. Bei Menschen, die an Dense Deposit Disease erkrankt sind, ist eines dieser Eiweiße aufgrund einer genetischen DNA-Mutation verändert – Dies ist der Knackpunkt bei der Auslösung der Krankheit. Denn eigentlich besteht die Aufgabe dieses Eiweißes darin, das Komplementsystem daran zu hindern körpereigene Zellen und Oberflächen zu zerstören. Das fehlerhafte Eiweiß führt jedoch zur Überaktivierung des Komplementsystems und verursacht damit Ablagerungen und die Schädigung der Nieren. Deren Filtrationsleistung sinkt, bis sie schließlich ihre Arbeit einstellen.

Ein glücklicher Zufall half den Wissenschaftlern des HKI dabei, zu dieser Erkenntnis zu gelangen, erklärt die Doktorandin Qian Chen: „Ein Geschwisterpaar aus Erlangen ist an Dense Deposit Disease erkrankt. Über den behandelnden Arzt Prof. Micheal Wiesener vom Universitätsklinikum Erlangen haben wir diese wichtige Blutproben erhalten, die wir im Labor testen konnten.“ Qian Chen hat die Proben im Rahmen ihrer Doktorarbeit intensiv untersucht. Die Ergebnisse des Jenaer Teams führten schließlich dazu, dass die Behandlungsmethode für die Erlanger Patienten deutlich verbessert werden konnte.

Im günstigsten Fall wurde bisher das Leben der Patienten durch eine lebenslange Dialyse oder eine Nierentransplantation verlängert. Diese Aussichten verbessern sich nun deutlich: „Durch die intensive Zusammenarbeit mit den Ärzten aus Erlangen konnten wir nicht nur aufklären, wie die Krankheit entsteht, sondern bereits erste Medikamente testen.“, so Prof. Peter Zipfel. Nach dem Einpflanzen einer Spenderniere könnte so der Krankheitsverlauf aufgehalten und auf die wöchentliche Dialyse verzichtet werden.

Ein neues Medikament, das derzeit in den USA getestet wird, hat sich bereits im Labor bewährt. Es enthält einen Hemmstoff, der das Komplementsystem ausbremst. In die US-amerikanische Studie zur Wirksamkeit dieses Hemmstoffes sollen jetzt auch die beiden Erlanger Geschwister aufgenommen werden. Wird das Mittel zugelassen, kann es vermutlich bald dafür sorgen, dass sowohl den beiden Patienten aus Erlangen als auch anderen Betroffenen der ständige Gang zur Dialyse erspart bleibt.

Informationen zum HKI

Das Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie – Hans-Knöll-Institut – wurde 1992 gegründet und gehört seit 2003 zur Leibniz-Gemeinschaft. Die Wissenschaftler des HKI befassen sich mit der Infektionsbiologie human-pathogener Pilze. Sie untersuchen die molekularen Mechanismen der Krankheitsauslösung und die Wechselwirkung mit dem menschlichen Immunsystem. Neue Naturstoffe aus Mikroorganismen werden aufihre biologische Aktivität untersucht und für mögliche Anwendungen als Wirkstoffe zielgerichtet modifiziert.

Das HKI verfügt über fünf wissenschaftliche Abteilungen, deren Leiter gleichzeitig berufene Professoren der Friedrich-Schiller-Universität Jena (FSU) sind. Hinzu kommen mehrere Nachwuchsgruppen und Querschnittseinrichtungen mit einer integrativen Funktion für das Institut, darunter das anwendungsorientierte Biotechnikum als Schnittstelle zur Industrie. Gemeinsam mit der FSU betreibt das HKI die Jena Microbial Resource Collection, eine umfassende Sammlung von Mikroorganismen und Naturstoffen. Zurzeit arbeiten mehr als 350 Personen am HKI, davon sind 120 Doktoranden.

Das HKI ist Initiator und Kernpartner großer Verbundprojekte wie der Exzellenz-Graduiertenschule Jena School for Microbial Communication, des Sonderforschungsbereiches/Transregio FungiNet, des Zentrums für Innovationskompetenz Septomics sowie von InfectControl 2020 – Neue Antiinfektionsstrategien, einem Vorhaben im BMBF-Programm Zwanzig20 – Partnerschaft für Innovation.

Informationen zur Leibniz-Gemeinschaft

Die Leibniz-Gemeinschaft verbindet 86 selbständige Forschungseinrichtungen. Deren Ausrichtung reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Raum- und Sozialwissenschaften bis zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesellschaftlich, ökonomisch und ökologisch relevante Fragestellungen. Sie betreiben erkenntnis- und anwendungsorientierte Grundlagenforschung. Sie unterhalten wissenschaftliche Infrastrukturen und bieten forschungsbasierte Dienstleistungen an.

Die Leibniz-Gemeinschaft setzt Schwerpunkte im Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Leibniz-Institute pflegen intensive Kooperationen mit den Hochschulen – u.a. in Form der WissenschaftsCampi – , mit der Industrie und anderen Partnern im In- und Ausland. Sie unterliegen einem maßstabsetzenden transparenten und unabhängigen Begutachtungsverfahren. Aufgrund ihrer gesamtstaatlichen Bedeutung fördern Bund und Länder die Institute der Leibniz-Gemeinschaft gemeinsam.

Die Leibniz-Institute beschäftigen rund 17.000 Personen, darunter 7.900 Wissenschaftlerinnen und Wissenschaftler. Der Gesamtetat der Institute liegt bei 1,5 Milliarden Euro.

Ansprechpartner
Dr. Michael Ramm
Wissenschaftliche Organisation
Leibniz-Institut für Naturstoff-Forschung und Infektionsbiologie e.V.
– Hans-Knöll-Institut –
Adolf-Reichwein-Straße 23
07745 Jena

+49 3641 5321011 (T)
+49 1520 1848494 (M)
+49 3641 5320801 (F)
michael.ramm@hki-jena.de

Weitere Informationen:
http://www.presse.hki‐jena.de

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Stress im Job – Wie gehen junge Mitarbeiterinnen und Mitarbeiter damit um?

Katja Bär Pressestelle: Kommunikation und Fundraising
Universität Mannheim

Arbeitspsychologinnen der Universität Mannheim wollen in einer neuen Studie untersuchen, wie junge Berufstätige in ihrem Arbeitsalltag mit Stress umgehen und wie sie sich von ihrem Job erholen / Studienteilnehmer gesucht

Junge Berufstätige zwischen 18 und 25 Jahren fühlen sich häufig überfordert und nehmen Arbeitssituationen als sehr belastend wahr. Denn im Arbeitsalltag sind sie mit vielen neuen Stressfaktoren konfrontiert. Aufgrund mangelnder Erfahrung wissen junge Mitarbeiterinnen und Mitarbeiter jedoch oft nicht, wie sie damit umgehen sollen. Nicht selten führt die mangelnde Stressbewältigung sogar zu körperlichen und psychischen Gesundheitsproblemen. Forscherinnen der Universität Mannheim wollen deshalb in der neuen Studie „rela-x – richtig erholen, leichter arbeiten“ herausfinden, welche Strategien jungen Mitarbeiterinnen und Mitarbeitern helfen, mit stressigen Arbeitssituationen umzugehen. Das Projekt wurde von der Forschungsgesellschaft für angewandte Systemsicherheit und Arbeitsmedizin e.V., mehreren Berufsgenossenschaften und der Universität Mannheim ins Leben gerufen.

In einer Online-Studie wird Professorin Dr. Sabine Sonnentag, Inhaberin des Lehrstuhls für Arbeits- und Organisationspsychologie, zusammen mit ihrem Team über 2.000 junge Mitarbeiterinnen und Mitarbeiter befragen, um mehr über ihre Arbeitssituation, ihr Befinden und ihre Erholungs- und Bewältigungsstrategien zu erfahren: Welche Strategien nutzen junge Berufstätige zur Erholung und Regeneration? Welche davon sind auf lange Sicht erfolgversprechend? Auch außerbetriebliche Faktoren, wie zum Beispiel der Einfluss des privaten sozialen Umfelds, werden in der Befragung berücksichtigt. Auf Basis der Ergebnisse wollen die Mannheimer Forscherinnen Präventivmaßnahmen entwickeln, um jungen Mitarbeiterinnen und Mitarbeitern Fähigkeiten für den Umgang mit Arbeitsstress zu vermitteln.

Denn dass junge Berufstätige auch langfristig körperlich und psychisch gesund bleiben, ist sowohl aus Sicht der Mitarbeiterinnen und Mitarbeiter als auch der Betriebe von großer Bedeutung. „Vor dem Hintergrund des demografischen Wandels ist davon auszugehen, dass die jungen Menschen von heute bis in ein relativ hohes Alter erwerbstätig sein werden. Ihre körperliche und psychische Gesundheit ist dafür eine wichtige Voraussetzung“, erklärt Professorin Sonnentag. „Wir wissen aus anderen Forschungsprojekten, dass Erholungs- und Bewältigungsstrategien eine wichtige Rolle für Wohlbefinden, Gesundheit und Leistungsfähigkeit spielen.“

Informationen für Studienteilnehmer
Junge Berufstätige aus allen Branchen können bei der Studie mitmachen. Im Abstand von drei Monaten sollen sie dazu vier Mal einen Fragebogen beantworten und erhalten als Dankeschön fürs Mitmachen pro Befragung einen Amazon.de-Gutschein im Wert von 5 Euro.

Kontakt:
Dipl.-Psych. Stephanie Tremmel
Dipl.-Psych. Anne Tzschach
Professur für Arbeits- und Organisationspsychologie
Universität Mannheim
Schloss
68131 Mannheim
Telefon: 0621 / 181-2123 oder -2124
E-Mail: rela-x@uni-mannheim.de

Weitere Informationen:
http://www.rela-x.de

Quelle: Informationsdienst Wissenschaft 

(nach oben)


Forschungsvorhaben: Schwermetalle und Schadstoffe gezielt aus Klärschlämmen entfernen

Tassilo Frhr. v. Leoprechting Pressestelle
Bundesanstalt für Landwirtschaft und Ernährung (BLE)

Um Klärschlämme besser und sicherer in Landwirtschaft und Gartenbau nutzen zu können, fördert das Bundeslandwirtschaftsministerium (BMEL) im Programm zur Innovationsförderung durch die Bundesanstalt für Landwirtschaft und Ernährung (BLE) den Forschungsverbund CARBOWERT. Dieser versucht durch hydrothermale Carbonisierung aus Klärschlämmen hochwertige Bodenhilfsstoffe und Dünger zu entwickeln.

Die hydrothermale Carbonisierung (HTC) wird seit einigen Jahren vermehrt in Wissenschaft und Forschung untersucht. Dabei richtete sich das Augenmerk bisher jedoch besonders auf die Behandlung von Biomassen zur Erzeugung alternativer Brennstoffe. Untersuchungen zur landwirtschaftlichen und gartenbaulichen Nutzung von hydrothermal erzeugten Kohlen liegen nur vereinzelt vor und basieren vornehmlich auf der Behandlung von Biomassen mit relativ hohen Trockenmasseanteilen und geringen Nährstoffgehalten.

Da die HTC-Technologie sich aber besonders für die Behandlung sehr feuchter und flüssiger Ausgangsmaterialien eignet, wird im Verbundvorhaben CARBOWERT untersucht, ob durch die hydrothermale Behandlung eine verbesserte Nutzung von Klärschlämmen in Landwirtschaft und Gartenbau erzielt werden kann.

Eine der zentralen Fragen der Forschungsarbeiten ist, ob und wie durch die HTC-Behandlung Schwermetalle und weitere Schadstoffe aus den Klärschlämmen eliminiert oder ausgeschleust werden können. Gleichzeitig wird ermittelt, ob durch die HTC-Behandlung positive Effekte auf den Nährstoff- und Wasserhaushalt im Boden sowie das Klima (CO2-Speicherung) erzielt werden können. Hierzu sollen die im Labormaßstab bereits erzielten, ersten Erkenntnisse der Prozesssteuerung vertieft untersucht und auf eine großtechnische Anlage übertragen werden. Die Eigenschaften und meliorativen Effekte der so erzeugten HTC-Kohlen werden in begleitenden Labor-, Gewächshaus- und Feldversuchen bestimmt.

Das im Oktober 2013 gestartete Vorhaben ist für einen Zeitraum von 36 Monaten geplant und wird mit insgesamt 1,69 Millionen Euro unterstützt. Das Helmholtz-Zentrum für Umweltforschung GmbH (UFZ) koordiniert das zusammen mit dem Deutschen Biomasseforschungszentrum (DBFZ), der TerraNova Energy GmbH und der Hochschule Trier durchgeführte Forschungsvorhaben.
Weitere Informationen:

http://www.ble.de

(nach oben)


Neue Richtlinie sieht besseren Schutz vor Radon in Wohnungen und am Arbeitsplatz vor

Anja Lutz, Monika Hotopp PB2/ Pressearbeit
Bundesamt für Strahlenschutz

BfS informiert: So schützen Sie sich vor Radon in Gebäuden

Der Rat der Europäischen Union hat am 5. Dezember 2013 eine Richtlinie zur Erneuerung des europäischen Strahlenschutzrechts verabschiedet, an deren Entwicklung auch Experten des Bundesamtes für Strahlenschutz (BfS) mitgewirkt haben. Sie berücksichtigt internationale Standards, die von internationalen Gremien wie der Weltgesundheitsorganisation (WHO) und der Internationalen Atomenergiebehörde (IAEA) empfohlen wurden. Auch in diesen Gremien sind die Experten des Bundesamtes vertreten.

Das BfS begrüßt die Verabschiedung der Richtlinie, die innerhalb von vier Jahren in nationales Recht umzusetzen ist. Ein wichtiges Element der Richtlinie ist die Verpflichtung zum besseren Schutz vor Radon in Wohnungen und am Arbeitsplatz, für die sich auch das BfS einsetzt.

Radon ist ein natürlich vorkommendes Gas. Es ist unsichtbar – und harmlos, solange es im Freien bleibt. Sammelt es sich in Gebäuden, wird es zum Problem. Atmet man es ein, schädigen seine radioaktiven Zerfallsprodukte die Lungen. Das Risiko für Lungenkrebs steigt – besonders bei Rauchern. Etwa zehn Prozent aller Häuser sind von erhöhten Radonwerten betroffen. Etwa 1.900 durch Radon verursachte Lungenkrebsfälle pro Jahr wären vermeidbar. Denn oft lässt sich die Radonbelastung schon mit einfachen Mitteln aus dem Baumarkt senken.

Eine neue Animation des BfS macht sichtbar, wie sich das Gas seinen Weg ins Haus bahnt. Für jedermann verständlich erklärt sie, woher das Radon kommt, wie es die Gesundheit schädigt und wie man sich schützen kann. Die Animation ist unter >http://www.bfs.de/radon-film<; im Internetauftritt des BfS zu finden.

In welchen Regionen Deutschlands Radon ein Risiko darstellen kann, zeigt die Radonkarte des BfS, die unter >http://www.bfs.de/de/ion/radon/radon_boden/radonkarte.html<; im Internet abrufbar ist. In Risikogebieten kann eine Radonmessung sinnvoll sein. Obwohl das Gas unsichtbar ist, lässt es sich mit den richtigen Messgeräten unkompliziert, kostengünstig und genau nachweisen: Messstellen, die sich auf den Nachweis von Radon spezialisiert haben, senden kleine Behälter, sogenannte Kernspurdetektoren zu, die man z.B. im Keller, im Wohnzimmer und im Schlaf- und Kinderzimmer ins Regal oder auf den Schrank stellt. Nach mehreren Monaten bis zu einem Jahr schickt man die Behälter wieder zurück und bekommt von den Firmen das Ergebnis und eine erste Einschätzung übermittelt. Für eine Übersichtsmessung sind Messungen in drei bis vier Räumen in der Regel ausreichend.

Eine Liste von Messstellen, die besondere Anforderungen an die Qualitätssicherung erfüllen, ist unter >http://www.bfs.de/de/ion/radon/fachinfo_messung/qualitaetssicherung.html<; abrufbar.

(nach oben)