Dienstag, Oktober 20, 2020
Start Ablage Tägliche Meldungen 2012(2)

Tägliche Meldungen 2012(2)

 


Reformen bei Minijobs und Ehegattensplitting könnten 60.000 neue Vollzeitstellen schaffen

Ute Friedrich
Pressestelle
Bertelsmann Stiftung

Studie der Bertelsmann Stiftung: Durch Umgestaltung von Steuer- und Sozialversicherungsregeln weniger prekäre Arbeitsverhältnisse und gerechtere
Einkommensverhältnisse zwischen Paaren

Die derzeitigen gesetzlichen Bestimmungen bei Minijobs und Einkommensteuern von Ehepaaren verhindern das Entstehen von Arbeitsplätzen und fesseln Menschen in der Geringfügigkeitsfalle prekärer Arbeitsverhältnisse. Dagegen könnten durch eine kombinierte und gezielte Reform der gesetzlichen Regelungen für Minijobs und gleichzeitig eine Umgestaltung beim Ehegattensplitting in Deutschland 60.000 neue Vollzeitstellen entstehen. Zusätzliche Belastungen für den Staatshaushalt würden nicht entstehen. Zu diesem Ergebnis kommt eine Simulationsrechnung, die das Forschungsinstitut zur Zukunft der Arbeit (IZA) im Auftrag der Bertelsmann Stiftung durchgeführt hat und bei der zahlreiche Reformansätze auf ihre möglichen ökonomischen und sozialen Wirkungen durchgerechnet wurden. Die größten Effekte ließen sich nach der Studie erzielen, wenn einerseits das Ehegattensplitting zugunsten eines Realsplittings reformiert würde und gleichzeitig ansteigende Sozialversicherungsbeiträge sowie Einkommensteuern für Minijobs neu festgelegt würden. Auf diese Weise ließe sich die Zahl der prekären Arbeitsverhältnisse reduzieren zugunsten von zusätzlichen Vollzeitstellen mit einer besseren sozialen Daseinsvorsorge. Und neben der positiven Beschäftigungswirkung würde das Reformpaket auch zu einer gleichmäßigeren Einkommensverteilung zwischen den Partnern in Paarhaushalten führen.

Für die Studie waren zunächst fünf verschiedene Varianten im Bereich der geringfügigen Beschäftigung in den Blick genommen worden, die von der ersatzlosen Abschaffung der Mini- und Midijobs bis zur Ausweitung der Einkommensgrenzen reichen. Beim Ehegattensplitting waren drei Alternativen durchgerechnet worden, die auf bessere Beschäftigungsanreize zielen. Die besonders positiven Effekte konnten berechnet werden, wenn in beiden Bereichen kombiniert und gezielt entsprechende Reformen verwirklicht würden. Profiteure der Veränderungen wären vor allem Frauen, die ein verbessertes Einkommen, und bessere Aufstiegsmöglichkeiten erreichen könnten, bei einer gleichzeitigen Verringerung der Gefahr von Altersarmut. Profitieren könnten auch die sozialen Sicherungssysteme.

Die Studie nimmt fünf verschiedene Reformansätze im Bereich der geringfügigen Beschäftigung in den Blick. Die isolierten Arbeitsmarkteffekte dieser Reformansätze lassen sich in zwei Gruppen einteilen: Bei den Varianten, die geringfügige Beschäftigung einschränken, bleibt das gesamtwirtschaftliche Arbeitsvolumen nahezu unverändert und die Zahl der Beschäftigten steigt zwischen 33.000 bis 76.000. Demgegenüber werden aber auch mehr Tätigkeiten in Vollzeit oder vollzeitnaher Teilzeit ausgeübt. Die Varianten, die geringfügige Beschäftigung erleichtern, bringen dagegen zwischen 19.000 bzw. 95.000 mehr Menschen in Beschäftigung, führen aber auch zu einer weiteren Zerstückelung der Arbeitsverhältnisse. Reformen, die ausschließlich bei den Minijobs ansetzen, erwiesen sich von ihren Beschäftigungswirkungen stets als ambivalent.

Auf Seiten des Ehegattensplitting wurden drei Alternativen zum heutigen Ehegattensplitting analysiert: Eine komplette Abschaffung, ein Grundfreibetragssplitting mit einem übertragbarem Einkommen zwischen den Partnern in Höhe von maximal 8.004 Euro sowie einem Realsplitting mit einem maximal übertragbaren Einkommen von höchstens 13.805 Euro. Bei den beiden letzten Varianten entfiele der Splittingvorteil nicht gänzlich, er würde jedoch eingeschränkt. Damit betreffen diese Reformansätze lediglich Ehepaare mit höherem und stark ungleich verteiltem Einkommen. Alle drei Reformvarianten des Splittings lassen die Beschäftigung steigen. Bei der Abschaffung des Ehegattensplittings wären die Arbeitsmarkteffekte mit zusätzlich 77.000 Erwerbstätigen am höchsten. Nahezu genauso viele (76.000) würde das Realsplitting hervorbringen, während es beim Grundfreibetragssplitting noch 42.000 Personen sind. Außerdem entstünden bei der Einschränkung des Ehegattensplitting erhebliche Mehreinnahmen für den Staat: 24 Mrd. Euro bei der Abschaffung, 16 Mrd. Euro beim Grundfreibetragssplitting und immerhin noch 9 Mrd. Euro beim Realsplitting.

Erst die Verbindung aus Reformen bei Minijobs und Ehegattensplitting schließlich führt zu nennenswerten Beschäftigungseffekten, die sich sowohl in höherem Arbeitsvolumen als auch in mehr Stellen niederschlagen. Die bestmögliche Variante sieht vor, das gegenwärtige Ehegattensplitting durch ein Realsplitting zu ersetzen. Die Minijobs sollten ab dem ersten Euro der Einkommensteuerpflicht unterliegen und steigende Beitragssätze zur Sozialversicherung aufweisen. Damit würde die heute bestehende Regelung für Einkommen zwischen 400 und 800 Euro auf den Bereich bis 400 Euro ausgedehnt. Das zusätzlich entstehende Steueraufkommen würde zur Absenkung des Einkommensteuertarifes verwendet. Durch diese Maßnahmen ließen sich 60.000 neue Vollzeitstellen schaffen, die Zahl der Beschäftigten würde um 56.000 Personen zunehmen.

Unter den derzeitigen gesetzlichen Rahmenbedingungen sorgen Minijobs und Ehegattensplitting bislang noch dafür, dass vor allem Zweitverdiener in Paarhaushalten, zumeist Frauen, in geringfügigen Beschäftigungsformen verharren, obwohl sie aufgrund ihrer Qualifikationen und zeitlichen Möglichkeiten umfangreichere und anspruchsvollere Tätigkeiten ausüben könnten. Für die Betroffenen führt diese Geringfügigkeitsfalle zu schlechteren beruflichen Entwicklungsperspektiven, zu geringeren Ansprüchen in der Rentenversicherung und zu einer ausgeprägten Ungleichverteilung der Einkommen in den Haushalten. Gesamtwirtschaftlich mindert sich das Erwerbspotenzial und die wirtschaftliche Dynamik.

Die Experten der Bertelsmann Stiftung sehen in den aufgezeigten Reformoptionen daher große Chancen für Menschen in prekären Arbeitsverhältnissen und eine gerechtere Gestaltung der Sozialsysteme. „Es kämen mehr Menschen in Arbeit, ohne dass dies zu einer weiteren Zerstückelung der Arbeitsverhältnisse führen würde“, so Eric Thode, Arbeitsmarktexperte der Bertelsmann Stiftung. „Gerade Frauen, die etwa zwei Drittel aller derzeitigen Minijobber ausmachen, würden von den Reformen profitieren. Sie könnten ein höheres Erwerbseinkommen erzielen, hätten bessere Aufstiegsmöglichkeiten im Beruf und würden auch mehr eigene Vorsorge in der gesetzlichen Rentenversicherung betreiben, sodass nicht zuletzt auch das Risiko der Altersarmut geschmälert würde.“

Anders als in derartigen Modellen sonst üblich simuliert das Modell auch das Anpassungsverhalten der Arbeitgeber an veränderte Rahmenbedingungen. Dadurch kann ein umfassenderes Bild der voraussichtlichen Wirkungen gezeichnet werden. Ergänzend verweist der Arbeitsmarktexperte der Stiftung darauf, dass das Simulationsmodell ausschließlich analysiert, wie sich Arbeitnehmer und Arbeitgeber angesichts der Reformvarianten, aber ansonsten unter den aktuell herrschenden Rahmenbedingungen verhalten würden. Die positiven Beschäftigungs- und Verteilungseffekte der genannten Reformen könnten noch größer ausfallen, wenn weitere Maßnahmen für die Vereinbarkeit von Familie und Beruf ergriffen würden, etwa ein weiterer Ausbau von qualitativ hochwertigen Ganztagesangeboten bei Kindergärten und Schulen, familienfreundlichere flexible Arbeitszeitmo-delle und mehr Möglichkeiten zu vollzeitnahen Teilzeittätigkeiten.

Rückfragen an:

Eric Thode Senior Expert Programm Nachhaltig Wirtschaften, Bertelsmann Stiftung
Telefon: +49 52 41 / 81-81581
E-Mail: eric.thode@bertelsmann-stiftung.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Weniger Kernkraft führt kaum zu mehr Kosten für Klimaschutz

Mareike Schodder
Presse- und Öffentlichkeitsarbeit
Potsdam-Institut für Klimafolgenforschung

Ein weltweiter Ausstieg aus der Kernenergie erhöht die Kosten für Klimaschutz nur geringfügig. Mit einer Computersimulation von Energiesystem und Wirtschaft, die den Wettbewerb zwischen den verschiedenen Technologien zur Energieerzeugung umfassend abbildet, haben Wissenschaftler des Potsdam-Instituts für Klimafolgenforschung und der Universität von Dayton, Ohio, Wechselwirkungen zwischen Kernkraft- und Klimapolitiken analysiert.
Eine starke Verringerung von Treibhausgasemissionen – zur Minderung der Erderwärmung – hat einen weitaus größeren Einfluss auf die Wirtschaft als jedwede Entscheidung in der Nuklearpolitik. Das geht aus der Studie hervor, die diese Woche in den renommierten Proceedings of the National Academy of Sciences veröffentlicht wird.

„Oft wird gefragt, ob eine Beschränkung der Kernenergie – wie sie seit dem Unfall im japanischen Fukushima von manchen Ländern erwogen wird – in Kombination mit Klimapolitik nicht extrem teuer werden könnte. Unsere Studie ist die erste, die die Folgen einer großen Bandbreite von Kombinationen von Klima- und Atompolitik untersucht“, sagt Leitautor Nico Bauer. Einschränkungen der Kernkraft könnten von der Politik beschlossen werden, aber auch auf Bestimmungen von Sicherheitsbehörden zurückgehen. Dann müssten die nuklearen Kapazitäten zur Energieerzeugung ersetzt werden – fossile Brennstoffe aber könnten sich verteuern, wenn zugleich CO2-Emissionen aus Gründen des Klimaschutzes einen Preis bekommen, das ist der Kern der Bedenken.

Ein flexibles Budget für CO2-Emissionen würde kurzfristig höheren Ausstoß von Treibhausgasen erlauben

„Im Falle einer beschränkten Nutzung von Kernkraft würde ein flexibles Budget für CO2-Emmissionen kurzfristig einen höheren Ausstoß von Treibhausgasen erlauben, der aus einem Anstieg der Energieerzeugung aus Erdgas statt Kernkraft resultiert“, sagt Bauer. Zusammen mit einer Verringerung des Energiebedarfs und der Verbesserung der Energieeffizienz könnte dies helfen, die Lücke in der Stromerzeugung zu füllen. Der Gaspreis wird sich der Studie zufolge durch einen Rückgang des Bedarfs vermindern. Die Stilllegung bereits existierender Kernkraftwerke würde zudem Instandhaltungs- und Modernisierungskosten vermeiden, die zur Verlängerung der Betriebszeiten älterer Kernkraftwerke entstehen würden.

Verluste der Weltwirtschaftsleistung durch das vorzeitige Stilllegen von Kernkraftwerken entsprechen etwa 10 Prozent der Kosten für Klimaschutz, so die Autoren. Werden zusätzlich keine neuen Kernkraftwerke zugelassen, würden sich die Kosten auf bis zu 20 Prozent belaufen.

Szenarien von „Renaissance“ der Kernkraft bis „Kompletter Ausstieg“

Für ihre Studie haben die Wissenschaftler verschiedene Optionen der Atompolitik analysiert. Die Bandbreite der untersuchten Szenarien reicht von der „Renaissance“, mit einer vollen Ausnutzung bereits bestehender Kraftwerke und ihrer Modernisierung zur Laufzeitverlängerung plus Investitionen in neue Kernkraftwerke, bis zu „Kompletter Ausstieg“, bei dem bestehende Kraftwerke stillgelegt werden und es keine Investitionen in neue Kernkraft gibt. Jedem Szenario wurde eine Klimapolitik gegenübergestellt, die ein flexibles globales CO2-Budget mit einbezieht. Mit diesem Budget wird ein Preis für Kohlendioxid-Emissionen festgesetzt. Insgesamt sind die Kohlendioxid-Emissionen des globalen Energiesektors dabei von 2005 bis Ende des Jahrhunderts auf 300 Gigatonnen Kohlenstoff begrenzt. Dies repräsentiert eine Klimaschutzpolitik, die dem Zwei-Grad-Ziel entspricht.

„Ein überraschendes Ergebnis unserer Studie ist, dass es im Hinblick auf Verluste der Weltwirtschaftsleistung kaum einen Unterschied zwischen einer ‚Renaissance‘ und einem ‚Kompletten Ausstieg‘ gibt“, sagt Bauer. Während der stufenweise Ausstieg aus der Kernkraft ohne Klimaschutz mit CO2-Budget nur sehr geringe Effekte auf die Weltwirtschaftsleistung hätte, würde ein verbindliches CO2-Budget ohne gleichzeitige Einschränkung der Kernkraft eine Verringerung des Welt-Bruttoinlandsprodukts um 2,1 Prozent bis 2050 bedeuten. Durch einen zusätzlichen stufenweisen Ausstieg aus der Kernkraft stiege dieser Verlust den Berechnungen zufolge bis 2050 um etwa 0,2 Prozent. Er hätte also nur wenig zusätzliche Folgen für die Wirtschaft, da der Beitrag der Atomkraft zur Energieerzeugung relativ leicht durch alternative Technologien – darunter auch der verstärkte Einsatz erneuerbarer Energien – aufgefangen werden kann.

Artikel: Bauer, N., Brecha, R.J., Luderer, G. (2012): Economics of nuclear power and climate change mitigation policies. Proceedings of the National Academy of Sciences (Early Edition) [DOI: 10.1073/pnas.1201264109]

Weblink zum Artikel: www.pnas.org/cgi/doi/10.1073/pnas.1201264109.

Kontakt für weitere Informationen:
Potsdam-Institut für Klimafolgenforschung, Pressestelle
Telefon: +49 (0)331 288 2507
E-Mail: presse@pik-potsdam.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Placebo-Effekt und Empathie in der Schmerztherapie: keine Ursache – große Wirkung

Frank A. Miltner
Pressestelle der DGN
Deutsche Gesellschaft für Neurologie

PD Dr. Ulrike Bingel: „Beipackzettel machen Patienten krank“
Lange Zeit wurden Placebo-Effekte in der Medizin eher als störendes Phänomen betrachtet. Nun eröffnen neue Erkenntnisse die Möglichkeit, Schmerzen erfolgreicher zu bekämpfen, Nebenwirkungen zu verringern und die positiven Effekte von Arzneien zu fördern. Privatdozentin Dr. Ulrike Bingel hat mit ihren neuesten Experimenten gezeigt, dass die Erwartungshaltung auch beim Wechsel von Medikamenten deren Wirksamkeit entscheidend beeinflusst. Das heißt: Hat zum Beispiel das erste Schmerzmedikament eine schlechte Wirkung gezeigt, wird auch die Wirkung des nächsten nicht zufriedenstellend sein. „Angesichts dieser Resultate erscheint etwa das Stufenschema der WHO zur Schmerzbehandlung mit der sukzessiven Anwendung immer stärkerer Arzneien als fragwürdige Strategie“, gab die Wissenschaftlerin heute auf dem 85. Kongress der Deutschen Gesellschaft für Neurologie in Hamburg zu bedenken. Ulrike Bingel arbeitet als Oberärztin an der Klinik und Poliklinik für Neurologie des Universitätsklinikums Hamburg-Eppendorf.

Dass eine Krankheit offenbar gelindert werden kann, obwohl in der verabreichten Pille kein spezifischer Wirkstoff enthalten ist, empfanden Wissenschaftler und Ärzte bisher meist als störend. Bis heute versucht man in Studien zur Wirkung von Medikamenten und anderen Therapien, den Placebo-Effekt möglichst klein zu halten und zu kontrollieren, und man setzt Placebo-Medikamente bewusst in Vergleichsgruppen ein, um die echte Medikamentenwirkung beurteilen zu können. Umgekehrt werden Placebo-Effekte im klinischen Alltag aber nur selten genutzt, obwohl sie ganz wesentlich zum Therapieergebnis beitragen. Dies bedeutet nicht unbedingt, dass Placebo-Präparate eingesetzt werden, aber dass die Mechanismen der Placebo-Wirkung ausgenutzt werden: So ist beispielsweise belegt, dass die mit der Behandlung verbundene Erwartungshaltung einen großen Einfluss auf den Gesamterfolg einer Therapie hat.

Vernachlässigte Möglichkeiten

„Intensive Forschungen in den vergangenen 30 Jahren haben Placeboeffekte und ihr negatives Gegenstück – Nocebo-Effekte – als komplexe psychoneurobiologische Phänomene entschlüsselt und viele der beteiligten Strukturen identifiziert“, so Dr. Bingel. „Jetzt ist es an der Zeit, dieses Wissen gezielt umzusetzen, um sowohl die Patientenbehandlung als auch die Aussagekraft klinischer Studien zu optimieren“. Bereits im vergangenen Jahr hatte Dr. Bingel eine viel beachtete Studie veröffentlicht, in der die Neurologin zeigen konnte, wie die Erwartung an die Therapie die Wirkung eines Schmerzmedikamentes (Remifentanil) beeinflussen kann. Nun hat sie mit ihrem Team untersucht, ob solche Effekte auch beim Wechsel von Medikamenten auftreten. „Sehr häufig stehen Ärzte vor dieser Situation, dass eine Arznei nicht die gewünschte schmerzlindernde Wirkung zeigt. Man steigt dann um und probiert einen anderen Wirkstoff“, erläutert Dr. Bingel. Dabei wird jedoch die Erfahrung, die der Patient mit dem ersten Medikament gemacht hat, mitgenommen, und mindestens teilweise auf die Folgearznei übertragen.

Dies zeigten die Forscher, indem sie einen Teil der gesunden Freiwilligen im Versuch schlechte Erfahrungen mit einer vermeintlichen Schmerzsalbe machen ließen: Die Probanden bekamen an verschiedenen Stellen der Haut zwar die gleiche Salbe, wussten aber nicht, dass die Forscher mittels Hitze unterschiedlich starke Schmerzreize erzeugten. Tags darauf gab es dann statt der Salbe ein Schmerzpflaster, und der Schmerzreiz wurde um 30 Prozent verringert. Wer nun zuvor schlechte Erfahrungen mit der Salbe gemacht hatte, vermochte auch mit dem Pflaster weniger Schmerzlinderung festzustellen. Der Unterschied zwischen den beiden Versuchsgruppen machte 15 Punkten auf der 100 Punkte umfassenden visuellen Analog-Skala aus. „Würde man in einer Studie zwei Schmerzmittel miteinander vergleichen, wären 15 Punkte ein beträchtlicher Unterschied“, erklärt Dr. Bingel.

Nicht mit dem schwächsten Schmerzmittel beginnen

Dieser „Mitnahmeeffekt“ aber dürfte sich in der Praxis meist schädlich auswirken, befürchtet Dr. Bingel. Üblicherweise wird nämlich mit den schwächsten Arzneien begonnen, und erst nach deren Versagen sollen Ärzte die jeweils nächststärkere Medikamentenklasse erproben – so empfiehlt es zum Beispiel die Weltgesundheitsorganisation (WHO) mit ihrem Stufenschema zur Schmerzbehandlung, das auch in Deutschland beachtet wird.
„Da offenbar Lernvorgänge auch bei pharmakologischen Behandlungen eine Rolle spielen, ist es wichtig, ein Therapieversagen zu vermeiden“, sagt Dr. Bingel und verweist darauf, dass Patienten zu Hause und auch in der Klinik oft wochenlang unter wirkungslosen Arzneien leiden, bevor eine Umstellung erfolgt, und dass dann die schlechte Erfahrung die Erfolgschancen für das nächste Medikament schmälert.

Nocebo-Effekt durch Beipackzettel

Negative Erwartungen wecken auch die Beipackzettel, die aus juristischen Gründen allen verschreibungspflichtigen Arzneien hinzugefügt werden. „Sie sind aus Sicht der Nocebo-Forschung eine Katastrophe und machen flächendeckend Patienten krank, indem sie gerade jene Nebenwirkungen vermehrt hervorrufen, die dort aufgelistet sind“, kritisiert Dr. Bingel. Umgekehrt würde eine ausführliche Aufklärung über den zu erwartenden Nutzen einer Therapie – idealerweise durch den behandelnden Arzt – deren Wirksamkeit erhöhen.
„Der Schlüssel ist eine wertschätzende und einfühlsame Arzt-Patienten-Beziehung sowie eine verständliche Information über Erkrankung und Therapie, die die positiven Aspekte betont, ohne unrealistische Ziele zu setzen“, sagt die Neurologin. „Das ärztliche Gespräch bestimmt maßgeblich die Wirksamkeit von Therapien und muss deshalb auch entsprechend honoriert werden.“

Quelle
Bingel U et al. The effect of treatment expectation on drug efficacy: imaging the analgesic benefit of the opioid remifentanil. Sci Transl Med. 2011 Feb 16;3(70):70ra14

Fachlicher Kontakt bei Rückfragen
PD Dr. med. Ulrike Bingel
Oberärztin an der Klinik und Poliklinik für Neurologie
Universitätsklinikum Hamburg-Eppendorf
Martinistr. 52, 20246 Hamburg
Tel.: +49 (0)40-7410-53570, E-Mail: bingel@uke.uni-hamburg.de

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren mehr als 7000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist die Bundeshauptstadt Berlin. http://www.dgn.org

1. Vorsitzender: Prof. Dr. med. Wolfgang Oertel
2. Vorsitzender: Prof. Dr. med. Heinz Reichmann
3. Vorsitzender: Prof. Dr. med. Martin Grond
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter

Geschäftsstelle
Reinhardtstr. 27 C, 10117 Berlin, Tel: +49 (0)30-531437930, E-Mail: info@dgn.org

Quelle: Informationsdienst Wissenschaft

(zurück)


Biogas bedarfsgerecht bereitstellen – wo liegt das Optimum?

Antje Sauerland
Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Neues Forschungsprojekt zur Ermittlung des technisch-ökonomischen Potentials einer bedarfsgerechten Biogasbereitstellung gestartet.
Die Möglichkeit Strom bedarfsgerecht bereit zu stellen, damit die Einspeisung von Wind und Sonne auszugleichen und somit einen Beitrag zur Sicherheit des Stromsystems beizutragen, ist die Zukunft von Biogas. Mit der Flexibilitätsprämie des EEG wurden erste Anreize für einen solchen Betrieb gesetzt. Das im BMU-Förderprogramm „Energetische Biomassenutzung“ neu gestartete Forschungsvorhaben OptFlex Biogas des Deutschen Biomasseforschungszentrums und dem Stromhändler Next Kraftwerke widmet sich der Frage, welche technischen Eigenschaften einer Biogasanlage optimal für eine gewinnbringende Vermarktung am Strommarkt sind. Neben dem technisch-ökonomischen Optimum stehen die Treibhausgaseffekte, die durch die Verlagerung der Stromproduktion entstehen, im Fokus.

Aktuell produzieren mehr als 7.000 Biogasanlagen in Deutschland Strom. Die Einspeisung erfolgt vergleichsweise kontinuierlich, da der optimale Betrieb im Rahmen des festen Einspeisetarifs des EEG bei einer maximalen Auslastung der eingesetzten Betriebsmittel liegt. Viele Neuanlagen besitzen heute einen Auslastungsgrad von 90 % bis 95 % und zum Teil darüber. Die Erzeugung des Gesamtbestandes stellt somit eine vergleichsweise sichere Bereitstellung von Grundlaststrom dar. Aufgrund des steigenden Anteils der fluktuierenden Erneuerbaren Energien, wie Wind und Photovoltaik, wird Grundlaststrom zunehmend ein Problem werden, da diese ihre Produktion nicht verlagern und nur mit hohen Kosten zwischenspeichern können. Der Bedarf an flexiblen Kraftwerken mit geringeren Betriebs¬stunden wächst. Biogasanlagen können durch Erweiterung der installierten Leistung, bspw. durch die Installation eines weiteren Blockheizkraftwerkes (BHKWs), und bei Bedarf einer Erhöhung der Gas- und Wärmespeicherkapazitäten eine bedarfsgerechtere Betriebsweise bereitstellen.

Die durch die Anlagenanpassung verursacht Kosten sollen durch die Erlöse, die im Rahmen der Direktvermarktung in Verbindung mit der Flexibilitätsprämie erzielt werden, ausgeglichen werden. Der Frage, welche Anlagenausstattung die höchst möglichen Gewinne bei einer optimierten Vermarktung des erzeugten Strom an der Strombörse verspricht, gehen der Stromhändler Next Kraftwerke GmbH und das DBFZ Deutsche Biomasseforschungszentrum gGmbH im Rahmen des BMU-Programms „Energetische Biomassenutzung“ geförderten Verbundvorhabens „Ermittlung eines technisch-ökonomisch optimierten Betriebs von flexiblen Biogasanlagen“ (FKZ: 03KB073) nach. Zur Beantwortung dieser Frage werden verschiedene Praxisanlagen, die bereits die neuen Regelungen des EEG 2012 nutzen bzw. planen diese zu nutzen, detailliert untersucht. Der Betrieb der Anlagen wird über einen längeren Zeitraum betrachtet und auf mögliche technische Optimierungspotenziale analysiert. Darüber hinaus werden für die entsprechenden Anlagen unterschiedliche Vermarktungsstrategien entwickelt, um theoretische Erlöse bei veränderten Betriebsweisen zu ermitteln.

Neben der technisch-ökonomischen Optimierung werden im Rahmen des Vorhabens weiter die Treibhausgaseffekte, die durch die Verlagerung entstehen, betrachtet. Zum einen werden die an der Anlage selbst entstehen Emissionen und zum anderen die durch den Ersatz fossiler Energieträger sowie die durch eine mögliche Reduzierung der Abregelung fluktuierender Erneuerbarer Energien eingesparten Emissionen bilanziert.
Die Ergebnisse des zwei Jahre laufenden Vorhabens (2012-2014) sollen Anlagenbetreibern praxisnah die Möglichkeiten und Chancen der bedarfsgerechten Strombereitstellung zeigen, sowie Hinweise für eine optimierte Erweiterung weiterer Anlagen geben. Ferner sollen für den Gesetzgeber Handlungsempfehlungen für eine weitere praxisgerechte Ausgestaltung des Förderrahmens der bedarfsgerechten Strombereitstellung aus Biogas gegeben werden.

Kontakt

DBFZ Deutsches Biomasseforschungszentrum gemeinnützige GmbH
Torgauer Straße 116, 04347 Leipzig
Tel. +49 (0)341 2434 – 119
E-Mail: antje.sauerland@dbfz.de

Programmbegleitung des BMU-Förderprogramms „Energetische Biomassenutzung“
Bianca Stur – Öffentlichkeitsarbeit
Telefon: +49 (0) 341 2434-439
E-Mail: bianca.stur@dbfz.de

Projektkoordination OptFlex Biogas
Alexander Krautz – Projektleiter (DBFZ)
Telefon: +49 (0) 30 18305-4683
E-Mail: alexander.krautz@dbfz.de

Next Kraftwerke GmbH
Hendrik Sämisch (Geschäftsführer)
Telefon: +49 (0) 221 82 00 85-52
E-Mail: saemisch@next-kraftwerke.de

Anhang
Presseinformation: Biogas bedarfsgerecht bereitstellen – wo liegt das Optimum?
http://idw-online.de/de/attachment19288

Quelle: Informationsdienst Wissenschaft

(zurück)


Deutschland droht Bevölkerungsrückgang von 25 Prozent

Gabriele Rutzen
Presse und Kommunikation
Universität zu Köln

Deutschland droht Bevölkerungsrückgang von 25 Prozent
Geburtendefizit in Deutschland wächst in 50 Jahren bis auf über 500.000 Personen jährlich

Bis zum Jahr 2060 könnte die Einwohnerzahl in Deutschland um 25 Prozent abnehmen. Während heute noch etwa 82 Millionen Menschen hier leben, werden es dann voraussichtlich nur noch rund 61 Millionen sein, zumindest, wenn etwa gleich viele Menschen aus- wie einwandern.

Die Zahlen entstammen einer aktuellen Studie von Professor Dr. Eckart Bomsdorf von der Wirtschafts- und Sozialwissenschaftlichen Fakultät der Universität zu Köln. Unter Mitarbeit von Dipl.-Kfm. Dipl.-Volksw. Jörg Winkelhausen untersuchte Bomsdorf verschiedene Aspekte der demografischen Entwicklung in Deutschland bis zum Jahr 2060.
Die Ursache für die schrumpfende Bevölkerung ist das immer größer werdende Geburtendefizit. Heute sterben in Deutschland jedes Jahr etwa 200.000 Menschen mehr, als geboren werden. Bis zum Jahr 2060 könnte die Differenz zwischen Geburten und Sterbefällen auf über 500.000 steigen. Das entspricht etwa der Hälfte der Einwohnerzahl Kölns.

Anhaltspunkte für steigende Geburtenzahlen gibt es laut Bomsdorf gegenwärtig nicht. Die einzige Möglichkeit, dem Bevölkerungsrückgang entgegenzuwirken, sind aktuell demnach steigende Einwandererzahlen. „Allerdings stellt sich auch immer wieder die Frage, wieweit es ethisch vertretbar ist, anderen Ländern gerade die Hochqualifizierten abzuwerben“, gibt Bomsdorf zu bedenken. Geht man aber von einem positiven Wanderungsüberschuss von 150.000 jährlich aus – das bedeutet, dass 150.000 mehr Menschen einwandern als auswandern – wird die Bevölkerung statt bis auf 61 Millionen nur auf 70 Millionen im Jahr 2060 zurückgehen.

Über die Bevölkerungszahlen hinaus untersuchte die Studie u.a. auch die Entwicklung der Altersstruktur in Deutschland. Das Ergebnis: Die Bevölkerung wird im Durchschnitt wesentlich älter. Die Hälfte der Bevölkerung wird 2060 älter sein als 51 Jahre sein. Besonders deutlich wird die Verschiebung der Altersstruktur, wenn man das Verhältnis zwischen Kindern und alten Menschen betrachtet. Heute gibt es in Deutschland etwa gleich viele Kinder unter 6 Jahren wie Menschen über 80, bei beiden sind es etwa 4 Millionen. In 40 Jahren sieht es ganz anders aus: Auf nur noch 3 Millionen Kinder unter 6 kommen dann 10 ½ Millionen Menschen über 80 Jahre. Gegenwärtig ist jeder zwanzigste Einwohner älter als 80 Jahre, im Jahr 2060 wird es jeder siebente sein.
Die Bevölkerung nimmt also insgesamt ab und wird gleichzeitig älter. „In der Kombination ist das eine doppelte Herausforderung nicht nur für die Sozialsysteme, weil immer mehr Alte immer weniger Erwerbstätigen gegenüber stehen“, so Bomsdorf dazu. Wolle man den Anteil der Bevölkerung im Erwerbsalter an der Gesamtbevölkerung bis 2060 annähernd konstant halten, müsse vereinfacht gesagt die Altersgrenze der Erwerbsbevölkerung zur Rentnergeneration von heute 65 auf 71 Jahre 2060 steigen. Bomsdorf zufolge bedeutet das nicht, dass das gesetzliche Rentenalter auf diese Höhe gesetzt werden muss, vielmehr müsse es zu einer grundsätzlichen Flexibilisierung der Altersgrenze in der Rentenversicherung kommen.

Bei Rückfragen: Professor Eckart Bomsdorf,
Tel.: +49-221-470-2982,
bomsdorf@wiso.uni-koeln.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Die Behandlung der Migräne – bewährte Therapien, neue Optionen

Frank A. Miltner
Pressestelle der DGN
Deutsche Gesellschaft für Neurologie

In Deutschland leiden über 10 Millionen Menschen unter Migräne. Somit gehört die Migräne zu den häufigsten Gesundheitsproblemen und die Erkrankung kann das Allgemeinbefinden sowie das Alltagsgeschehen erheblich beeinträchtigen. Viele Patienten versuchen, die Symptome mit freiverkäuflichen Medikamenten aus der Apotheke zu lindern. Doch diese zeigen nicht immer die erhoffte Wirkung. Vielmehr sind in jüngster Zeit zahlreiche neue Therapieoptionen entstanden. Die Deutsche Gesellschaft für Neurologie (DGN) hat nun zusammen mit der Deutschen Migräne- und Kopfschmerz-Gesellschaft (DMKG) ihre Leitlinien zur Therapie der Migräne aktualisiert, um die medizinische Versorgung nachhaltig zu verbessern.
„Das erklärte therapeutische Ziel ist es, akut auftretende Migräneattacken schnell und nebenwirkungsarm zu behandeln. Dadurch reduziert sich der Leidensdruck der Patienten entscheidend“, erklärte Professor Hans-Christoph Diener, Direktor der Neurologischen Universitätsklinik Essen, heute auf dem Kongress der Deutschen Gesellschaft für Neurologie in Hamburg.

Die Entwicklung und Einführung der sogenannten Triptane hat zu einer entscheidenden Verbesserung der Behandlungsmöglichkeiten der Migräne geführt. Anfälle, die früher teils tagelang anhielten, können nun innerhalb von Stunden gut kontrolliert werden. Triptane stellen eine wertvolle Bereicherung für Migränepatienten dar – wenn die Gegenanzeigen beachtet und die Nebenwirkungen sorgfältig abgewogen werden. Sie sollen insbesondere dann eingesetzt werden, wenn andere Schmerzmittel wie Ibuprofen oder Acetylsalicylsäure nicht wirksam sind.

Vorbeugen ist möglich

Eine medikamentöse Migräneprophylaxe kann bei einem gehäuften Auftreten von Anfällen, bei Nicht-Ansprechen, bei Kontraindikationen oder Nebenwirkungen der Behandlung, bei schwerer Intensität und starker Behinderung im Alltag angezeigt sein. Migräneprophylaktika der ersten Wahl sind Beta-Blocker wie Propranolol, Calciumkanalblocker wie Flunarizin und die Antiepileptika Topiramat und Valproinsäure. Valproinsäure hat sich in der Migräneprophylaxe bei Erwachsenen, nicht jedoch bei Kindern und Jugendlichen, etabliert und wird von den Krankenkassen erstattet.

Nicht alle neuen Therapiemaßnahmen sind auch effektiv

Aktuelle Studiendaten zeigen, dass der Wirkstoff Topiramat nicht nur zur Vorbeugung, sondern auch bei chronischer Migräne wirksam ist, wobei die Kombination mit dem Betablocker Propranolol die Wirksamkeit nicht erhöht und daher nicht erforderlich ist. Auch Botulinumtoxin A, kurz: Botox, lindert die Symptome bei chronischer Migräne. Jüngste Forschungsergebnisse legen einen Zusammenhang zwischen Migräne und einem häufigen Herzfehler nahe, dem offenen Foramen ovale. Der Verschluss dieses Defektes bei Migräne mit Aura führt jedoch nicht zur Attackenfreiheit und sollte außer im Rahmen von Studien deshalb nicht durchgeführt werden.

Darüber hinaus wird derzeit wird über ein neues operatives Verfahren zur Behandlung der Migräne diskutiert (Currogator-Operation). Dabei wird ein Muskel, der zwischen Nasenwurzel und Augenbraue liegt, durchtrennt, was zu einer Verbesserung der Symptome führen soll. „Es existiert keinerlei wissenschaftliche Grundlage für dieses Verfahren, und es liegen auch keine kontrollierten Ergebnisse vor, sodass vor dieser Operation dringend abgeraten wird“, betont Professor Diener ausdrücklich.

Medikamentöse und nichtmedikamentöse Therapien kombinieren

Ziel der effektiven Migränetherapie ist, die Lebensqualität durch Verminderung der Anfallfrequenz, der Anfallstärke und Anfalllänge zu verbessern. Die medikamentöse Therapie sollte grundsätzlich durch Techniken der Verhaltenstherapie und regelmäßigen Ausdauersport ergänzt werden. Bei Patienten mit einer hochfrequenten Migräne (mehr als drei Attacken pro Monat) sowie erheblicher Einschränkung der Lebensqualität sollte auch eine verhaltenspsychologische Therapie angestrebt werden.

Fachlicher Kontakt bei Rückfragen
Prof. Dr. med. Hans-Christoph Diener
Direktor der Neurologischen Universitätsklinik Essen
Hufelandstr. 55, 45122 Essen
Tel.: +49 (0)201-7232460
E-Mail: h.diener@uni-essen.de

Die Deutsche Gesellschaft für Neurologie e.V. (DGN)
sieht sich als neurologische Fachgesellschaft in der gesellschaftlichen Verantwortung, mit ihren mehr als 7000 Mitgliedern die neurologische Krankenversorgung in Deutschland zu verbessern. Dafür fördert die DGN Wissenschaft und Forschung sowie Lehre, Fort- und Weiterbildung in der Neurologie. Sie beteiligt sich an der gesundheitspolitischen Diskussion. Die DGN wurde im Jahr 1907 in Dresden gegründet. Sitz der Geschäftsstelle ist die Bundeshauptstadt Berlin. http://www.dgn.org

1. Vorsitzender: Prof. Dr. med. Wolfgang Oertel
2. Vorsitzender: Prof. Dr. med. Heinz Reichmann
3. Vorsitzender: Prof. Dr. med. Martin Grond
Geschäftsführer: Dr. rer. nat. Thomas Thiekötter

Geschäftsstelle
Reinhardtstr. 27 C, 10117 Berlin, Tel: +49 (0)30-531437930, E-Mail: info@dgn.org

Quelle: Informationsdienst Wissenschaft

(zurück)


Leitende Komposite zur Meerwasserentsalzung

Britta Widmann
Presse und Öffentlichkeitsarbeit
Fraunhofer-Gesellschaft

Meerwasser gibt es in rauen Mengen, Trinkwasser dagegen ist knapp. Entsalzungsanlagen können das Meerwasser umwandeln. Für diese Anlagen braucht man jedoch Rohre aus einem Spezialstahl oder Titan – teures Material, das immer schwerer zu beschaffen ist. Polymerkomposite, die Wärme übertragen, könnten das Titan bald ersetzen. Auf der Messe Composites vom 9. bis 11. Oktober in Düsseldorf stellen Fraunhofer-Forscher den wärmeleitenden Kunststoff vor (Halle 8a, Stand A11).
Trinkwasser ist ein knappes Gut – das gilt mittlerweile nicht mehr allein für Wüstenregionen. Auch in Mittelmeerländern wie Spanien und Portugal ist Süßwasser in den heißen Sommermonaten rar. Anlagen, die das Meerwasser entsalzen und so in Trinkwasser umwandeln, sind daher stark im Kommen. Das Prinzip der Entsalzung: Meerwasser wird auf Rohre gesprüht, durch die heißes Gas oder Wasser strömt und die so erhitzt werden. Reines Wasser verdampft aus dem Meerwasser, zurück bleibt die salzige Ablauge. Der Dampf wiederum lässt sich auffangen und abkühlen. Dieses Verfahren stellt vielfältige Ansprüche an das Material und dessen Eigenschaften: Das Rohrmaterial muss Wärme übertragen und besonders robust sein gegen Korrosion und Belagsbildung – und das über einen langen Zeitraum. Damit das Wasser gut verdampfen kann, muss sich das Rohrmaterial zudem gut durch das Meerwasser benetzen lassen. Die Hersteller verwenden daher nur Titan und hochlegierte Stähle. Diese Materialien sind jedoch sehr teuer. Zudem steigt die Nachfrage nach Titan stetig – denn im Zuge des Leichtbaus braucht auch die Luftfahrtindustrie diesen Werkstoff. Die Folge sind Lieferverzögerungen und ein weiterhin steigender Preis.

Forscher des Fraunhofer-Institut für Fertigungstechnik und Angewandte Materialforschung IFAM in Bremen entwickeln nun eine Alternative zu den Titanrohren: Rohre aus Polymerkompositen. Das Besondere: Die Polymerkomposite sind zwar ein Kunststoff, aber sie übertragen dennoch Wärme. Ein weiterer Vorteil: Sie lassen sich als Endlosware herstellen und sind entsprechend kostengünstiger als die Metallrohre. Doch wie haben es die Forscher geschafft, das Polymer wärmeleitfähig zu machen? »Wir haben Metallpartikel in das Material eingefügt, genauer gesagt geben wir bis zu 50 Volumenprozent Kupfermikrofasern hinzu. Die Verarbeitungseigenschaften des Komposits ändern sich dadurch nicht, es lässt sich weiterhin wie ein Polymer verarbeiten«, sagt Arne Haberkorn, Wissenschaftler am IFAM.

Das Material an sich haben die Wissenschaftler bereits entwickelt, nun wollen sie seine Wärmeleitfähigkeit optimieren. Dazu bauen sie die Rohre in eine Pilot-Meerwasserentsalzungsanlage ein: Hier testen sie ihre Wärmeleitfähigkeit, überprüfen, wie viel Belag sich durch Mikroorganismen auf den Rohren bildet und wie stark der Werkstoff in der salzigen Umgebung korrodiert. Anhand dieser Ergebnisse optimieren sie die Kompositeigenschaften. Den Verdampfungsprozess haben die Forscher so eingestellt, dass er bei einer Temperatur von 70 Grad Celsius abläuft – durch die Rohre strömt also 70 Grad heißes Gas. Das bietet einige Vorteile: Es bildet sich weniger Belag auf den Rohren, das Material korrodiert nicht so schnell und der Druckunterschied zwischen Innen- und Außenseite des Rohres wird nicht so groß.

Die Einsatzgebiete für den Kunststoff beschränken sich nicht auf die Meerwasserentsalzung. »Wir haben die Rohre für die Entsalzungsanlagen entwickelt, da diese die höchsten Anforderungen an die Polymerkomposite stellen. Das System lässt sich problemlos auch in der Lebensmittel- und Pharmaindustrie einsetzen«, sagt Haberkorn. Auf der Messe Composites vom 9. bis 11. Oktober in Düsseldorf stellen die Forscher den wärmeleitenden Kunststoff vor (Halle 8a, Stand A11).

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2012/september/leitende-k…

Quelle: Informationsdienst Wissenschaft

(zurück)


Urologen veröffentlichen Präventions-Ratgeber

Bettina-Cathrin Wahlers
Pressestelle der DGU
Deutsche Gesellschaft für Urologie e.V.

Rauchstopp für Blase und Nieren, Abspecken für Potenz und Kontinenz! Schmerzhafte Harnsteine vermeiden, Hodenhochstand frühzeitig behandeln, um Folgeerkrankungen zu verhindern: Vielen urologischen Erkrankungen kann man vorbeugen. Mit ihrem neuen Patientenratgeber wollen die Deutsche Gesellschaft für Urologie e.V. (DGU) und der Berufsverband der Deutschen Urologen e.V. die notwendige Aufklärung in der Bevölkerung forcieren.
Im Rahmen der gestrigen Eröffnungs-Pressekonferenz des 64. DGU-Kongresses in Leipzig wurde der „Ratgeber zur Prävention urologischer Erkrankungen“ der Öffentlichkeit vorgestellt. Die farbige Broschüre kann ab sofort online auf der Website der Deutschen Urologen bestellt werden. Bis zu 50 Exemplare sind kostenlos. Anforderungsformular und Bestellmodalitäten finden sich auf der Startseite von www.urologenportal.de

Die Zahl altersbedingter urologischer Erkrankungen wächst mit steigender Lebenserwartung. „Harninkontinenz und die gutartige Prostatavergrößerung sind millionenfach verbreitete Volkskrankheiten, denen wir durchaus vorbeugen können. Gleichzeitig verursachen Überernährung und Bewegungsmangel in unserer Wohlstandsgesellschaft schon in jungen Jahren immer öfter sogenannte Lifestyle-Erkrankungen wie Diabetes mellitus, Fettstoffwechselstörungen, Fettleibigkeit und Bluthochdruck, die mit einer Vielzahl vermeidbarer urologischer Erkrankungen einhergehen. Diese Zusammenhänge wollen wir den Menschen in unserem Ratgeber nahebringen“, sagt DGU-Pressesprecherin Prof. Dr. med. Sabine Kliesch.

Verständlich und kompakt geschrieben, informiert die 33 Seiten starke Broschüre über zahlreiche, weit verbreitete urologische Erkrankungen, vorbeugende Maßnahmen und klärt über die Folgen unseres Lebensstils für Blase, Niere und Prostata, für die Fruchtbarkeit und die Potenz auf. Außerdem wird erklärt, welche urologischen Krankheiten frühzeitig behandelt werden sollten, um Begleiterkrankungen zu verhindern oder zu lindern. Moderne Behandlungsmethoden werden beschrieben, weiterführende Informationsquellen und Beratungsadressen benannt. Die Patienteninformation kann von Interessierten, von Apotheken, Gesundheitsämtern und -beratungsstellen angefordert werden.

Der „Ratgeber zur Prävention urologischer Erkrankungen“ ist Teil einer Initiative der Deutschen Urologen, die neue Konzepte der Primärprävention in der urologischen Versorgung verankern wollen. Im wissenschaftlichen Programm des laufenden 64. DGU-Kongresses wird zum Beispiel eine „Jungensprechstunde“ diskutiert. „Mit dem Wissen, dass das Metabolische Syndrom mit Diabetes mellitus, Herz-Kreislauferkrankungen und nicht zuletzt der Induktion von Malignomen unser Leben bedroht, gilt es auch für die Urologie, Primärprävention anzubieten, um Steinleiden, Erektionsstörungen und Probleme der Harninkontinenz auf dem Boden diabetischer und neurodegenerativer Erkrankungen so gering wie möglich zu halten“, sagt DGU-und Kongresspräsident Prof. Dr. med. Dr. h.c. Stefan C. Müller.

Weitere Informationen:
http://www.dgu-kongress.de
http://www.urologenportal.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Phosphor-Recycling aus Abwasser

Dr.-Ing. Bodo Weigert
Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Europäisches Verbundforschungsvorhaben P-REX wird die Entwicklung der Anlagentechnik zur Rückgewinnung von Phosphor aus Abwasser vorantreiben
Abwasser ist nicht nur einfach Abfall, der bei der Abwasserbehandlung anfallende Klärschlamm enthält neben viel Energie auch lebenswichtige Nährstoffe wie zum Beispiel Phosphor und Stickstoff. Daher war es lange Tradition, den Schlamm direkt als Dünger auf den Feldern auszubringen. Diese Praxis ist allerdings immer mehr umstritten. Denn im Schlamm können neben erwünschten Nährstoffen auch Schadstoffe wie Schwermetalle oder organische Spurenstoffe enthalten sein, die möglichst nicht in die Nahrungskette gelangen sollten.

In der Landwirtschaft wird daher heute überwiegend mit künstlichen Pflanzendüngern gearbeitet. Hierbei gibt es allerdings ein Problem: die Verfügbarkeit des zugesetzten Phosphors, der in nur wenigen Regionen der Erde wie z.B. China oder Marokko bergmännisch als Rohphosphat abgebaut wird, ist begrenzt. Dies hat sich in den letzten Jahren schon deutlich auf den Rohstoffmärkten bemerkbar gemacht. Kostete eine Tonne Rohphosphat 2006 durchschnittlich 35€, lag der Preis für die gleiche Menge 2008 schon um ein Vielfaches höher mit steigender Tendenz.

Europa ist zu 90% von importiertem Rohphosphat abhängig. Deutschland importiert jährlich 120 Tausend Tonnen dieses Pflanzennährstoffs in Form von Mineraldünger. Gleichzeitig sind 70 Tausend Tonnen Phosphor im Abwasserstrom enthalten und werden meist nicht genutzt. Ein gezieltes Recycling dieses Stoffs aus Abwasser könnte in Deutschland bis zu 60% des Bedarfs decken. Zahlreiche Verfahren wurden bereits in Pilotvorhaben entwickelt, allerdings kam bisher kaum ein Verfahren in großtechnischem Maßstab zur Anwendung.

Dies liegt laut Andreas Hartmann, Geschäftsführer des Kompetenzzentrums Wasser Berlin, vor allem daran, dass in der bisherigen Forschung der Fokus bislang zu einseitig auf die Phosphorausbeute, aber zu wenig aber auf die Praktikabilität von Verfahren gelegt wurde.
Dies soll sich nun ändern. Die vom Kompetenzzentrum Wasser Berlin geleitete europäische Forschungsinitiative P-REX ist angetreten, die Entwicklung von effizienten technischen Lösungen des Phosphor-Recyclings aus Abwasser in Europa zu beschleunigen.
In enger Zusammenarbeit von Wissenschaft, Unternehmen und Fachleuten aus der Landwirtschaft sollen die besten verfügbaren Recycling-Verfahren bewertet werden. Dazu zählt neben verfahrenstechnischen Lösungen explizit auch die Option der direkten landwirtschaftlichen Verwertung. Ziel ist es, die bisher unter 10% liegende Recyclingquote von Phosphor aus Abwasser auf 80% zu erhöhen. Die Phosphor-Ausbeute ist aber nicht das einzige Bewertungskriterium. Mit auf dem Prüfstand steht die tatsächliche Wirksamkeit der Recyclingprodukte als Düngemittel.
Weiterhin soll das Markpotenzial von einzelnen Recycling-Verfahren und Recycling-Produkten untersucht werden.
Das Projekt bearbeiten 15 Partner aus sieben europäischen Ländern, darunter sind neun mittelständische Unternehmen, Das Projektvolumen beträgt 4,4 Mio.€ über 3 Jahre Projektdauer; die EU-Förderung beträgt 2,9 Mio.€.

„P-Rex“ auf einen Blick:“

Projekttitel:
Nachhaltiges Klärschlammmanagement zur Förderung des Phosphorrecyclings und der Energieeffizienz (P-REX)

Volumen:
4,4 Mio.€ über 3 Jahre Projektdauer; die EU-Förderung beträgt 2,9 Mio.€

Konsortium:
15 Partner aus 7 Ländern, darunter 9 KMU.

Ziele:
Demonstration und systematische Validierung von technischen Prozessen und Anlagen;
Systematische Bewertung der Recyclingprodukte hinsichtlich ihrer Wirkung als Düngemittel; Untersuchung des Marktpotenzials für Recycling-Technik und Recyclingprodukte; Entwicklung von Strategien der Phosphor-Rückgewinnung aus Abwässern unter Berücksichtigung von regionalen Randbedingungen

Web:
http://www.p-rex.eu

Leitung:
Dr. Christian Kabbe
christian.kabbe@kompetenz-wasser.de

Partner:
Agro Plus Handelsunternehmen eU (Österreich), ASIO, spol. s r.o. (Tschechien,
BSH Umweltservice AG (Schweiz), Berliner Wasserbetriebe (assoziierter Partner) (Deutschland), BAM Bundesanstalt für Materialforschung und -prüfung (Deutschland,
Fachhochschule Nordwestschweiz (Schweiz), Ingitec GmbH (Deutschland), IASP an der Humboldt-Universität zu Berlin (Deutschland), Kompetenzzentrum Wasser Berlin gGmbH (Deutschland),LimCo International GmbH (Deutschland), Outotec Oy (Finnland), P.C.S. Pollution Control Service GmbH (Deutschland), PFI Planungsgemeinschaft GbR (Deutschland), Proman Management GmbH (Österreich), Solintel M&P, S.L. (Spanien), Veolia Eau (Frankreich)

Weitere Informationen:
http://www.kompetenz-wasser.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Kinder und Suchmaschinen: Was suchen sie? Wie suchen sie? Und – was finden sie?

Andrea Macion
Öffentlichkeitsarbeit/Wissenschaftliches Referat beim Vorstand
Deutsches Jugendinstitut e.V.

Welche Suchmaschinen nutzen Kinder im Internet? Nach welchen Inhalten suchen Kinder, und was wählen sie dabei aus? Antworten auf diese und weitere Fragen debattieren Expertinnen und Experten auf der wissenschaftlichen Fachtagung „Informationsverhalten von Kindern im Internet“ des Deutschen Jugendinstituts (DJI) und der Landesanstalt für Medien NRW (LfM) am 6. November 2012 in Berlin.
Teilhabe an der Wissens- und Informationsgesellschaft bedeutet, dass auch Kinder das Internet als Informationsquelle nutzen können. Doch nicht alles, was sie dort anhand allgemeiner Suchmaschinen wie beispielsweise Google, Yahoo u.a. finden, ist für sie verständlich und geeignet. Kindgerechte Informationen anzubieten, ist dagegen erklärtes Ziel von speziellen Kindersuchmaschinen wie Blinde Kuh, fragFINN oder Helles Köpfchen. Sie leisten damit einen wichtigen Beitrag zum Kinder- und Jugendmedienschutz.

Um das Informationsverhalten und den tatsächlichen Informationsbedarf von Kindern zu erforschen, analysierten Mitarbeiter/innen des DJI-Projekts „Informationsverhalten von Kindern im Internet“ sogenannte „Logfiles“ dieser Kindersuchmaschinen mit mehr als 600.000 Suchanfragen. Von Interesse war, wie Kinder Suchanfragen formulieren, wie sie sich auf der Ergebnisliste bewegen und ob die kindgerechten Suchmaschinen die nachgefragten Themen auch inhaltlich bedienen. In einer begleitenden Beobachtungsstudie wurden zudem Recherchekompetenzen und Informationsverarbeitungsstrategien von Kindern untersucht.
Alle Ergebnisse des Forschungsprojektes präsentieren die DJI-Wissenschaftler um Projektleiterin Dr. Christine Feil erstmals auf der Berliner Veranstaltung und diskutieren diese mit namhaften Expertinnen und Experten aus Wissenschaft, Politik und Fachpraxis.

Die Tagung findet am 6. November 2012 von 10:00 Uhr bis 16.30 Uhr statt.
Ort: Hotel Aquino Tagungszentrum, Katholische Akademie, Hannoversche Straße 5b, 10115 Berlin-Mitte

Programm sowie Onlineanmeldung zur Fachtagung unter:
http://www.dji-fachtagung.de/informationsverhalten/
Interessierte sind herzlich eingeladen. Es wird keine Tagungsgebühr erhoben.

Weitere Informationen:
http://www.dji.de – Homepage des Deutschen Jugendinstituts (DJI)
http://www.lfm-nrw.de/ -Homepage der Landesanstalt für Medien Nordrhein-Westfalen (LfM)

Quelle: Informationsdienst Wissenschaft

(zurück)


Warum Kontaktallergene nur manche Menschen krank machen

Doreen Winkler
Stabsstelle Presse- und Öffentlichkeitsarbeit
Universitätsklinikum Freiburg

Freiburger Forscher entschlüsseln Schutzfunktion des Immunsystems

Das allergische Kontaktekzem ist eine akute oder chronische entzündliche Hauterkrankung, die durch eine Überempfindlichkeitsreaktion auf bestimmte Chemikalien oder Metallionen, sogenannte Kontaktallergene, ausgelöst wird. Aktuell sind mehr als 4000 verschiedene Kontaktallergene bekannt.
Die Häufigkeit des allergischen Kontaktekzems in der Bevölkerung wird auf 2% bis 6% geschätzt und die sogenannte Lebenszeitprävalenz, die angibt, wie hoch die Wahrscheinlichkeit ist, dass jemand im Laufe seines Lebens eine Kontaktallergie entwickelt, liegt bei 15%. Die meisten Kontaktallergien entstehen am Arbeitsplatz, wo die Betroffenen regelmäßig mit entsprechenden Substanzen in Berührung kommen, das Krankheitsbild gehört zu den häufigsten Ursachen für Berufsunfähigkeiten, die oftmals auch Umschulungen notwendig machen. Daher arbeiten Forscherinnen und Forscher intensiv daran, die Mechanismen der Entstehung des allergischen Kontaktekzems besser zu verstehen und Strategien zu entwickeln, wie die allergische Überempfindlichkeitsreaktion zu verhindern ist.

Tatsächlich reagiert der Großteil der Normalbevölkerung nicht auf Kontaktallergene. Daher stellt sich Hautärztinnen und Hautärzten schon seit längerem die die Frage, ob das „Vertragen“ der Kontaktallergene daher kommt, dass der Körper diese Substanzen einfach ignoriert, oder ob es sich hierbei um einen aktiv gesteuerten Prozess handelt, in dem das Immunsystem lernt, derartige Substanzen zu tolerieren. Inzwischen weiß man, dass es bei Kontakt mit geringsten Konzentrationen von Kontaktallergenen zu dem Phänomen der Kontakttoleranz kommt, das heißt der wiederholte Kontakt mit extrem niedrigen Konzentrationen von Kontaktallergenen führt tatsächlich zu einem Schutz vor Allergien. Wie das genau funktioniert, wurde nun in einer aktuellen Arbeit der Forschergruppe Allergologie unter der Leitung von Prof. Dr. Thilo Jakob am Universitätsklinikum Freiburg entschlüsselt. In Zusammenarbeit mit einer Forschergruppe des Universitätsklinikums Mainz konnte das Freiburger Team zeigen, dass geringste Konzentrationen des Kontaktallergens zu einer Aktivierung von sogenannten regulatorischen T-Zellen führen, die wiederum dendritische Zellen so beeinflussen, dass sie sich tolerant zeigen und dafür sorgen, dass die für die allergischen Entzündungen der Haut verantwortlichen allergenspezifischen T-Zellen gezielt
ausgeschaltet werden. Das Team um Prof. Dr. Thilo Jakob hofft nun, dass die hieran beteiligten Mechanismen künftig gezielt beeinflusst und die Toleranzentstehung hierdurch verstärkt werden kann. Denkbar sind dafür zwei Ansätze. „Wir könnten die zur Toleranz führenden Mechanismen präventiv unterstützen und damit die Entstehung einer Kontaktallergie verhindern. Interessant wäre aber auch ein therapeutischer Ansatz, mit dem bei bereits bestehender Kontaktallergie das Immunsystem so umprogrammiert wird, dass der Kontakt mit der entsprechenden Substanz wie-der toleriert wird“, erklärt Prof. Dr. Thilo Jakob. Dieses Vorgehen wäre besonders für die Allergene von Bedeutung, die sich im Alltag schlecht meiden lassen.
Titel der Originalveröffentlichung:

Crosstalk of regulatory T cells and tolerogenic dendritic cells prevents contact allergy in subjects with low zone tolerance, Allergy and Clinical Immunology

Kontakt:
Prof. Dr. med. Thilo Jakob
Allergologie und Immundermatologie
Universitätsklinikum Freiburg
Tel.: 0761-270-67140
E-Mail: thilo.jakob@uniklinik-freiburg.de

Weitere Informationen:
http://www.jacionline.org/article/S0091-6749%2812%2901026-3/abstract
http://doi.org/10.1016/j.jaci.2012.06.022

Quelle: Informationsdienst Wissenschaft

(zurück)


„Burnout“ und Depression am Arbeitsplatz: Wie können Arbeitgeber damit umgehen?

Susanne Janicke
Presse- und Öffentlichkeitsarbeit
Stiftung Deutsche Depressionshilfe

Depressive Erkrankungen gehören in den europäischen Ländern zu den häufigsten Erkrankungen und gehen mit den meisten mit schweren Beeinträchtigungen gelebten Lebensjahren einher. Die Depression ist die mit Abstand größte Herausforderung im Bereich psychischer Erkrankungen in der Arbeitswelt und etwa 11 Prozent der EU Bürger erkranken im Laufe ihres Lebens an einer Depression. Aktuelle Zahlen deutscher Krankenkassen zeigen: Der Anteil an Fehltagen durch psychische Erkrankungen steigt kontinuierlich. Krankheitsbedingte längere Ausfälle im Job und immer häufiger auch Berufsunfähigkeit sind Folgen depressiver Erkrankungen. Grund genug für Unternehmen, sich dieser Thematik anzunehmen. Doch während es für die vielen körperlichen Erkrankungen, wie zum Beispiel Rückenbeschwerden, bereits Präventionsangebote, Maßnahmenkataloge und Wiedereingliederungshilfen gibt, steht man den psychischen Erkrankungen von Mitarbeitern vielfach immer noch eher unvorbereitet gegenüber. Mit dem Aktionsnetz Depression am Arbeitsplatz bietet die Stiftung Deutsche Depressionshilfe Führungskräften und Gesundheitsverantwortlichen in Unternehmen eine aktive Unterstützung. „Wissensdefizite seitens der Betroffenen und der Personalverantwortlichen in den Betrieben bezüglich der Symptome und Ursachen der Depression sowie ihrer Auswirkungen auf das Arbeits- und Sozialverhalten sind oft Ursache für eine verspätete oder suboptimale Behandlung“, sagt Privatdozentin Dr. Christine Rummel-Kluge, Fachärztin für Psychiatrie und Psychotherapie und Geschäftsführerin der Stiftung Deutsche Depressionshilfe, anlässlich des 9. Europäischen Depressionstages am 1. Oktober 2012. „Hier können wir Abhilfe schaffen: In Vorträgen und Schulungen informieren wir Führungskräfte über die Depression und andere psychische Erkrankungen. Durch diese Wissensvermittlung und die Möglichkeit, in Rollenspielen das Gespräch mit erkrankten Mitarbeitern zu trainieren, erleben wir immer wieder, dass Führungskräfte einen besseren Zugang zu diesem Themenkomplex finden.“

„Psychosoziales Coaching – Unterstützung bei der Re-Integration psychisch Kranker Langzeitarbeitsloser
Aber nicht nur im Berufsleben, sondern auch bei Langzeitarbeitslosen sind psychische Erkrankungen häufig, werden oft nicht erkannt und bleiben unbehandelt. In der Folge verhindert die psychische Erkrankung oft eine Re-Integration in den Arbeitsmarkt. So fällt depressiven Menschen zum Beispiel die Arbeitsplatzsuche auf Grund der mit der Krankheit verbundenen Antriebslosigkeit besonders schwer, und sie können sich krankheitsbedingt in Bewerbungsgesprächen oft nicht positiv darstellen. Modellprojekte zum „Psychosozialen Coaching“ bei Langzeitarbeitslosen in München und Leipzig konnten zeigen, dass mit diesem zusätzlichen Angebot eine sogenannte „Lotsenfunktion“ erfolgreich umgesetzt werden konnte. Langzeitarbeitslose Personen mit psychischen Erkrankungen können so identifiziert werden, die gar nicht oder nicht leitlinienkonform behandelt werden, um nach einer umfassenden Diagnostik bei entsprechender Indikation in das bestehende Versorgungssystem gelotst zu werden. So kann dann die psychische Erkrankung als Vermittlungshemmnis beseitigt werden. Die Stiftung Deutsche Depressionshilfe unterstützt deshalb die bundesweite Ausweitung des erfolgversprechenden Modellprojektes „Psychosoziales Coaching“.

Kontakt:
Privatdozentin Dr. Christine Rummel-Kluge (Geschäftsführerin)
Prof. Dr. Ulrich Hegerl (Vorstandsvorsitzender)
Stiftung Deutsche Depressionshilfe
Semmelweisstr. 10, 04103 Leipzig
Tel.: 0341.97 24 49 3, Fax: 0341.97 24 59 9
info@deutsche-depressionshilfe.de
http://www.deutsche-depressionshilfe.de/

Stiftung Deutsche Depressionshilfe
Depression erforschen – Betroffenen helfen – Wissen weitergeben
Ziel der Stiftung Deutsche Depressionshilfe (Nachfolge des Kompetenznetzes Depression, Suizidalität) ist es, einen wesentlichen Beitrag zur besseren Versorgung depressiv erkrankter Menschen und zur Reduktion der Zahl der Suizide in Deutschland zu leisten. Forschungsförderung und Aufklärungs-aktivitäten zum Thema Depression sollen dazu beitragen, Betroffenen zu einer optimalen Behandlung sowie mehr Akzeptanz in der Gesellschaft zu verhelfen.

Weitere Informationen:
http://www.deutsche-depressionshilfe.de/pm-neunter-europaeischer-depressionstag….

Anhang
Pressemitteilung „Burnout“ und Depression am Arbeitsplatz: Wie können Arbeitgeber damit umgehen?
http://idw-online.de/de/attachment19104

Quelle: Informationsdienst Wissenschaft

(zurück)


Das chemische Gedächtnis des Meerwassers

Ralf Röchert
Communications Department
Alfred-Wegener-Institut für Polar- und Meeresforschung

Wissenschaftler untersuchen die im Ozean gelösten Biomoleküle und lesen in ihnen wie in einem Geschichtsbuch des Meeres
Wasser vergisst nicht, sagt Prof. Boris Koch, Chemiker am Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft. Egal, was im Meer passiert: Ob die Sonne scheint, Algen blühen oder eine Schule Delfine durch ein Seegebiet schwimmt – alles und jeder hinterlässt biomolekulare Spuren. Einige von ihnen können Boris Koch und Kollegen jetzt mithilfe einer Kombination neuer Techniken ausfindig machen und zurückverfolgen. Wie diese Analysen funktionieren und welche Vorgänge im Meer die Forscher bisher aufdecken konnten, berichten die Wissenschaftler in einem Sonderband der Open-Access-Fachzeitschrift Biogeosciences.

Tümpel, Torflöcher und Straßengräben voll abgestandenem Regenwasser haben den Chemiker Boris Koch früher nie interessiert. „Ich dachte damals: Ein jeder kennt diese braune Brühe; was soll an ihr schon interessant sein. Heute arbeiten wir mit genau jenen Substanzen, die das Wasser im Straßengraben so braun färben – genauer gesagt mit gelöstem organischen Material, das nicht nur in Tümpeln, sondern natürlich auch in den Weltmeeren vorkommt“, sagt Boris Koch, der das Forschungsprojekt initiiert hat und Mitherausgeber des Sonderbandes ist.

In den Ozeanen ist die Konzentration dieser sogenannten Biomoleküle pro Liter Wasser zwar geringer als im Straßengraben. Würde man jedoch alles Meerwasser dieser Welt durch ein biomolekül-durchlässiges Sieb kippen und alle darin enthaltenen Bestandteile in Kohlenstoff-Einheiten umrechnen, sähe das Verhältnis anders aus: Im Sieb lägen schätzungsweise 25 Milliarden Tonnen gebundener Kohlenstoff. Er stammt hauptsächlich aus den Überresten von abgestorbenen Meeresorganismen aber auch aus der Biomasse lebender Wale, Fische, Algen, Bakterien, Seegras und anderen Meeresbewohnern. Unterhalb des Siebes würden sich dagegen etwa 662 Milliarden Tonnen gelöster organischer Kohlenstoff türmen, bestehend aus Zehntausenden verschiedenen Substanzen.

Diese vielen Substanzen haben Boris Kochs Neugierde geweckt: „Unsere Arbeit mit gelöstem organischen Material bringt zwei grundlegende Schwierigkeiten mit sich: Zum einen wissen wir bis heute nicht, wie viel organisches Material in das Meer gelangt oder dort produziert wird und warum nicht alles biologisch abgebaut wird. Zum anderen sind die einzelnen gelösten Biomoleküle so gering konzentriert, dass wir unsere Wasserproben stets anreichern müssen, um das darin enthaltene gelöste organische Material in einem ultrahochauflösenden Massenspektrometer am Helmholtz Zentrum München untersuchen zu können“, sagt Koch, der eine Kooperationsprofessur zwischen dem Alfred-Wegener-Institut und der Hochschule Bremerhaven innehat und Meereschemie lehrt.

Mit Hilfe dieses Massenspektrometers am Helmholtz Zentrum München, dem Deutschen Forschungszentrum für Gesundheit und Umwelt, ist es dem Wissenschaftler-Team um Boris Koch erstmals gelungen, im Zuge einer einzigen Messung Tausende Einzelkomponenten des gelösten organischen Materials, kurz DOM, (engl. dissolved organic matter) auf einmal zu identifizieren. „Das Gerät nennt uns die chemische Summenformel eines jeden Moleküls und gibt an, wie viel Kohlenstoff, Sauerstoff, Wasserstoff oder Stickstoff es enthält. Diese Angaben benötigen wir, um herauszufinden, woher das einzelne Molekül stammen könnte“, erklärt Boris Koch.

Am Ende der Analyse im Massenspektrometer ergibt sich so ein chemischer Fingerabdruck, der im Zuge statistischer Berechnungen konkrete Rückschlüsse auf jenes Wasser zulässt, in dem das gelöste organische Material einst geschwommen ist. „Wir stehen erst am Anfang unserer Untersuchungen. Es scheint jedoch, als hätten wir mit dieser neuen Methode eine Möglichkeit gefunden, den chemischen Gedächtnisspeicher des Wassers zu nutzen“, sagt Boris Koch. So können die Wissenschaftler zum Beispiel sagen, wie alt das gelöste Material ist, ob es bei seinem Weg durch die Weltmeere starker Sonneneinstrahlung ausgesetzt war oder welche Bakterien und Planktonarten vermutlich einst im selben Wasserkörper geschwommen sind.

„Wir können sogar verfolgen, welcher Anteil des DOM seine Spuren in der Atmosphäre hinterlässt. Gischt und Wellen können DOM nämlich in die Luft transportieren, wo es einen wesentlichen Einfluss auf das Klima hat“, ergänzt Dr. Philippe Schmitt-Kopplin vom Institut für Ökologische Chemie am Helmholtz Zentrum München. Denn die wichtigsten Fragen zum DOM kommen aus der Klimaforschung. Boris Koch: „Das gelöste organische Material im Ozean ist eines der größten aktiven Kohlenstoffreservoirs der Erde. Doch bisher wird seine Speicherkapazität in der Klimaforschung nur wenig berücksichtigt, dabei bindet es Kohlendioxid über Zeiträume von 3000 Jahren und mehr – so alt war unser Probenmaterial im Durchschnitt.“

Für den Wissenschaftler vom Alfred-Wegener-Institut geht es nun darum, diese Wissenslücken zu schließen und mehr über die Rolle des DOM im globalen Kohlenstoffkreislauf herauszufinden. Anwendung dürfte das chemische Analyseverfahren zudem in anderen Teildisziplinen der Meeresforschung finden: „Ozeanografen könnten den chemischen Fingerabdruck des DOM immer dann zu Rate ziehen, wenn sich Wassermassen anhand von Temperatur- und Salzgehaltwerten allein nicht unterscheiden lassen. Zudem wollen wir auf einer der nächsten Expeditionen des Forschungsschiffes Polarstern gemeinsam mit Biologen untersuchen, ob das DOM der Wassermassen entlang der Wanderrouten Südlicher Seeelefanten bestimmte chemische Gemeinsamkeiten aufweist. Vielleicht finden wir ja einen Beweis dafür, dass sich diese Meeressäuger mithilfe des ‚Wasserduftes‘ orientieren“, sagt Chemiker Boris Koch.

Er persönlich sieht heute in Anbetracht der neuen Erkenntnisse auch jeden Wassergraben mit anderen Augen. Koch: „Jetzt wissen wir, dass echte chemische Informationen in jedem Wassertropfen stecken und dank der neuen Technik können wir diese jetzt auch greifbar machen.“

Hintergrundwissen: Was ist DOM?
Gelöstes organisches Material (engl. dissolved organic matter, DOM) im Ozean ist eines der größten aktiven, organischen Kohlenstoffreservoirs der Erde. Die globale Menge des im DOM gespeicherten Kohlenstoffs (662 Milliarden Tonnen) ist vergleichbar mit der Gesamtmenge an Kohlenstoff im atmosphärischen Kohlendioxid (aktuell 835 Milliarden Tonnen) und in Landpflanzen (610 Milliarden Tonnen). Sie übertrifft zudem die Menge des Kohlenstoffes, der in lebenden marinen Tieren, Pflanzen und Bakterien gespeichert ist (rund 3 Milliarden Tonnen) um das 200-fache.
Das organische Material wird durch Primärproduzenten wie Pflanzen und Plankton bei der Photosynthese aus atmosphärischem Kohlendioxid aufgebaut. Dies geschieht sowohl an Land (Pflanzen) als auch im Meer (Algen). Das gebildete DOM wird entweder über die Flüsse in die Ozeane transportiert oder es wird direkt im Meerwasser oder im Meereis zum Beispiel durch Algen freigesetzt und durch mikrobiellen Abbau verändert. In den flachen Küstengewässern und im offenen Ozean nehmen Bakterien einen Teil des DOM als wichtigste organische Energiequelle auf. Sie zersetzen das Material und zerlegen es in seine Grundbaustoffe. Das dabei entstehende Kohlendioxid löst sich im Wasser und kann somit auch wieder in die Atmosphäre entweichen.
Der andere Teil des frisch eingetragenen DOM wird erst einmal nicht von Bakterien abgebaut, sondern chemisch verändert und widersteht den Abbauprozessen über einen Zeitraum von bis zu 5000 Jahren – ein Vorgang, der aus chemischer Sicht sehr ungewöhnlich ist. Denn im Grunde sollte die sauerstoffreiche Wassersäule einen raschen mikrobiellen Abbau des organischen Materials begünstigen. Die zwei großen Fragen lauten nun: Warum werden die Abbauprozesse unterbrochen und warum bleibt ein erheblicher Teil des atmosphärischen Kohlenstoffs im DOM der Ozeane gespeichert und zirkuliert für lange Zeit durch die Weltmeere? Marines DOM wirkt nämlich auf diese Weise als Puffer im organischen Kohlenstoffkreislauf.
Trotz dieser offensichtlich großen Bedeutung des DOM war dessen Einordnung in den globalen Kohlenstoffkreislauf bislang kaum möglich. Die komplexe Zusammensetzung des DOM stellte eine enorme analytische Herausforderung dar. Infolgedessen gab es nur unzureichende Informationen über die exakten Quellen des DOM, die Bildungs- und Abbauprozesse sowie seine Bindungsmechanismen mit Mineralien und Schwermetallen.

Hinweise für Redaktionen: Der Biogeoscience-Sonderband mit dem Titel Molecular biogeochemical provinces in the eastern Atlantic Ocean ist unter http://www.biogeosciences.net/special_issue95.html online abrufbar.

An den Studien waren neben Forschenden vom Alfred-Wegener-Institut für Polar- und Meeresforschung und dem Helmholtz Zentrum München, Deutsches Forschungszentrum für Gesundheit und Umwelt, auch Wissenschaftler vom Helmholtz-Zentrum Geesthacht, Zentrum für Materialforschung und Küstenforschung sowie von der Virginia Commonwealth University in Richmond, US-Bundesstaat Virginia, maßgeblich beteiligt.

Druckbare Bilder und Grafiken finden Sie in der Online-Version dieser Pressemitteilung unter http://www.awi.de/de/aktuelles_und_presse/pressemitteilungen/.

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: Informationsdienst Wissenschaft

(zurück)


Neue Waffe gegen die Krankenhauskeime? Studie weist MRSA-Schutz durch Vitamin B3 nach

Alice Büsch
Presse- und Informationsstelle
Westfaelische Wilhelms-Universität Münster

Vitamin B3 schützt vor gefährlichen Keimen: Eine Forschergruppe um den Krebsforscher Privatdozent Dr. med. Nils Thoennissen von Universität Münster und seinen neuseeländischen Kollegen Dr. Pierre Kyme, PhD, hat in den USA herausgefunden, dass hohe Dosen von Nicotinamid (Vitamin B3) bei der Bekämpfung bestimmter Bakterien, die als „Krankenhauskeime“ gefürchtet sind, helfen. Die Ergebnisse hat das Team nun im „Journal of Clinical Investigation“ veröffentlicht.

Nicotinamid wirkt unter anderem gegen diejenigen Stämme des Bakteriums Staphylococcus aureus (S. aureus), die gegen viele Antibiotika resistent sind und sich deshalb nur schwer bekämpfen lassen. Zwar tragen rund 70 Prozent aller Menschen S. aureus unbeschadet auf der Haut, bei bereits geschwächten Patienten kann das Bakterium jedoch zu Haut- und Weichgewebeinfektionen sowie zu Lungen- und Knochenentzündungen führen – deshalb sind die antibiotikaresistenten Stämme gerade in Krankenhäusern gefährlich.

„Bestimmte weiße Blutkörperchen – die neutrophilen Granulozyten – spielen im angeborenen Immunsystem eine wichtige Rolle bei der aktiven Bekämpfung schädlicher Mikroorganismen“, erläutert Thoennissen. „In unseren Versuchen haben hohe Nicotinamid-Dosen die Neutrophile sowohl bei lebenden Mäusen als auch im menschlichen Blut im Reagenzglas gestärkt. Die Neutrophile schütteten dadurch vermehrt antibakteriell wirkende Stoffe aus.“ Die Vitamingabe wirkte in Experimenten gegen MRSA und gegen Pseudomonas, eine weitere Bakteriengattung, die zunehmend in antibiotikaresistenter Form auftritt.

Riskant scheinen die in den ersten Versuchen verwendeten Nicotinamid-Dosen nicht zu sein, in anderem Zusammenhang haben sie sich längst bewährt: „Vor der Bestrahlung von Krebspatienten kann Nicotinamid in hohen Dosen verabreicht werden, um das Ansprechen von bestimmten soliden Tumoren zu erhöhen“, sagt der Krebsforscher Thoennissen. „Die bisher eingesetzten Dosen entsprechen etwa dem 300-fachen der von der Deutschen Gesellschaft für Ernährung empfohlenen Tageszufuhr“. Nebenwirkungen, so Thoennissen, seien erst bei noch größeren Mengen zu erwarten, jedoch fehlen hier groß angelegte Studien. Der neue Angriffsweg gegen multiresistente Keime könnte in Zukunft in Krankenhäusern und anderen Risikoumgebungen sowohl vorbeugend als auch therapeutisch genutzt werden. Zuvor sind klinische Studien nötig, um die Wirksamkeit am lebenden Menschen zu belegen und mögliche Risiken und Nebenwirkungen aufzudecken.

Thoennissen forschte von Anfang 2008 bis Mitte 2010 an der University of California, Los Angeles (UCLA). Das Forschungsvorhaben, in dem die Forscher überraschend auf die Nicotinamid-Wirkung bei der Keimbekämpfung stießen, war ursprünglich ein Nebenprojekt zur Untersuchung von immundefekten Mäusen. Inzwischen arbeitet und forscht Thoennissen wieder in der Medizinischen Klinik A des Universitätsklinikums Münster. Im Juni wurde er für für ein anderes Thema – solide Tumoren und Akute Myeloische Leukämie – mit dem mit 10.000 Euro dotierten Nachwuchsförderpreis der Universität Münster ausgezeichnet.

Weitere Informationen:
http://www.jci.org/articles/view/62070 Link zur Studie

Quelle: Informationsdienst Wissenschaft

(zurück)


Deutscher Umweltpreis für Fraunhofer-Forscher: Konzentriertes Sonnenlicht

Birgit Niesing, Fraunhofer-Gesellschaft
Presse und Öffentlichkeitsarbeit
Fraunhofer-Gesellschaft

Erfolg für Solar-Experten: Dr. Andreas Bett vom Fraunhofer ISE und Hansjörg Lerchenmüller von der Firma Soitec erhalten den Deutschen Umweltpreis 2012. Bundespräsident Joachim Gauck ehrt sie für die Entwicklung und industrielle Umsetzung von Konzentrator-Photovoltaik-Systemen am 28. Oktober mit der Auszeichnung.
Klimawandel, versiegende fossile Ressourcen, wachsende Weltbevölkerung – wenn wir künftig eine zuverlässige, umweltfreundliche Energieversorgung wollen, brauchen wir neue Lösungen. Die Sonne liefert unbegrenzt sauberen Strom und kann so helfen, den Energiebedarf zu decken. Um das Potenzial der Sonnenenergie besser auszuschöpfen, muss die Photovoltaik-Technik aber noch effizienter und kostengünstiger werden. Hier setzen die Arbeiten von Andreas Bett vom Fraunhofer-Institut für Solare Energiesysteme ISE in Freiburg und Hansjörg Lerchenmüller von dem Unternehmen Soitec an: Sie haben Konzentrator-Photovoltaik-Systeme auf der Basis von Mehrfachsolarzellen entwickelt und industriell umgesetzt. Damit lässt sich etwa doppelt so viel Energie aus Sonnenlicht in Strom umwandeln wie dies auf Basis von Silizium möglich ist. Für diese Technologie werden die beiden Photovoltaik-Experten mit dem Deutschen Umweltpreis 2012 geehrt.

Die mit 500 000 Euro dotierte Auszeichnung ist einer der bedeutendsten Umweltpreise in Europa. In diesem Jahr geht der Preis an zwei Projekte. Neben den Konzentrator-Photovoltaik-Experten wird auch Günther Cramer, Mitbegründer und Aufsichtsratschef der SMA Solar Technology AG in Kassel, für seine weltweit marktführende Photovoltaikwechselrichter-Entwicklung geehrt.

Stromausbeute verdoppelt

Doch wie gelingt es, mit Mehrfachsolarzellen die Stromausbeute zu verdoppeln? Herkömmliche Solarzellen aus Silizium können nicht das gesamte Spektrum des Sonnenlichts in Strom umwandeln. Die Preisträger verwenden daher mehrere unterschiedliche Halbleitermaterialien. Sie stapeln Lagen aus Galliumindiumphosphid, Galliumindiumarsenid und Germanium übereinander und können so die Sonnenenergie nahezu komplett einfangen. Vor drei Jahren erzielte das Forscherteam um Andreas Bett damit im Labor einen Wirkungsgrad von 41,1 Prozent – damals Weltrekord.

Sonnenlicht wird gebündelt

Die Herstellung von Dreifachsolarzellen ist aufwändig und teuer. Um Mehrfachsolarzellen dennoch preiswert zu fertigen, greifen die Forscher zu einem Trick. Sie setzen vor jede Zelle eine Linse, die das Sonnenlicht 500-fach bündelt. Nun genügen winzige Halbleiter von nur drei Millimeter Durchmesser, um den fokussierten Lichtstrahl aufzufangen. »Der Einsatz dieser kostengünstigen fokussierenden Optik ermöglicht einen sparsamen Einsatz der vergleichsweise teuren Halbleitermaterialien. Je nach Konzentrationsfaktor benötigt man nur ein Fünfhundertstel bis Tausendstel des Halbleitermaterials – und erhöht dennoch die Effizienz der Solarzelle«, erläutert Dr. Andreas Bett, Bereichsleiter »Materialien – Solarzellen und Technologie« und stellvertretender Institutsleiter am Fraunhofer ISE.

Effizienz der Mehrfachsolarzellen gesteigert

Bett ist es gemeinsam mit seinen Kolleginnen und Kollegen am Fraunhofer ISE gelungen, die Effizienz von Mehrfachsolarzellen zu verbessern und den Aufbau der Konzen-trator-Photovoltaik-Module zu optimieren. Zur industriellen Umsetzung wurde die Firma Concentrix im Jahr 2005 in Freiburg gegründet. Vier Jahre später hat das Unternehmen Soitec den spin off übernommen. Hansjörg Lerchenmüller, ehemaliger Mitstreiter am Fraunhofer ISE, treibt seit der Ausgründung die Kommerzialisierung und Internationalisierung voran. Soitec hat das Konzept der Konzentrator-Photovoltaik-Module erfolgreich in die Serienfertigung transferiert und ist heute einer der Weltmarktführer. Die industriell hergestellten Module haben einen Wirkungsgrad von 30 Prozent. Einen Wert, den Lerchenmüller und Bett in den kommenden Jahren noch steigern wollen.

Die Konzentrator-Photovoltaik-Module benötigen direkte Sonneneinstrahlung. Sie sind deshalb besonders für den Einsatz in Südeuropa, Nordafrika, dem Südwesten der USA oder im Nahen Osten in Solarparks geeignet. Solarkraftwerke des Unternehmens Soitec – mit einer Gesamtleistung von über 10 Megawatt – stehen bereits in 14 Ländern weltweit.

Über den Umweltpreis
Die Deutsche Bundesstiftung Umwelt DBU vergibt jährlich Ende Oktober die mit 500 000 Euro höchstdotierte Umweltauszeichnung Europas. Seit 1993 ehrt die DBU mit dem Deutschen Umweltpreis Persönlichkeiten für ihre herausragenden Leistungen und den Einsatz im Umweltschutz.

Über das Fraunhofer ISE
Mit 1200 Mitarbeitern ist das in Freiburg angesiedelte Fraunhofer-Institut für Solare Energiesysteme ISE das größte europäische Solarforschungs-Institut. Das Fraunhofer ISE setzt sich für ein nachhaltiges, wirtschaftliches, sicheres und sozial gerechtes Energieversorgungssystem ein. Es schafft technische Voraussetzungen für eine effiziente und umweltfreundliche Energieversorgung, sowohl in Industrie- als auch in Schwellen- und Entwicklungsländern. Hierzu entwickelt das Institut Materialien, Komponenten, Systeme und Verfahren in insgesamt acht Geschäftsfeldern: Energieeffiziente Gebäude und Gebäudetechnik, Angewandte Optik und funktionale Oberflächen, Solarthermie, Silicium-Photovoltaik, Photovoltaische Module und Systeme, Alternative Photovoltaik-Technologien, Regenerative Stromversorgung sowie Wasserstofftechnologie. Das Institut verfügt über mehrere akkreditierte Testzentren.

Über Soitec
Soitec ist ein internationaler Marktführer in der Entwicklung und Herstellung neuartiger Materialien für die Halbleiterindustrie und ein Vorreiter im Bereich Energie und Elektronik. Soitec stellt unter anderem Substrate für die Mikroelektronik, wie etwa SOI (Silicon-on-Insulator) und Konzentrator-PV-Systeme her. Soitecs Schlüsseltechnologien sind Smart CutTM, Smart StackingTM und ConcentrixTM. Außerdem verfügt das Unternehmen über besondere Expertise im Bereich Epitaxie. Diese Produkte finden Anwendung in der Verbraucherelektronik, mobilen Geräten, Mikroelektronik, Telekommunikation sowie in der Automobilelektronik, in der Beleuchtung und in Solarkraftwerken. Soitec verfügt über Produktionsanlagen und Forschungszentren in Frankreich, Singapur, Deutschland und den Vereinigten Staaten.

Weitere Informationen:
http://www.dbu.de
http://www.ise.fraunhofer.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Studie zu geschlechtsspezifischen Unterschieden beim Autokauf

Dr. Christian Sonntag
Referat Presse- und Öffentlichkeitsarbeit
Hochschule Niederrhein – University of Applied Sciences

Frauen und Männer haben beim Autokauf häufig ähnliche Anforderungen an ihr nächstes Fahrzeug. Unterschiede gibt es bei einzelnen Aspekten wie Sicherheit oder Sparsamkeit, was jedoch auch auf unterschiedliche Lebensumstände zurückzuführen ist. Zu diesem Ergebnis kommt eine neue Studie des Kompetenzzentrums Frau und Auto der Hochschule Niederrhein. Die Studie vergleicht die Ergebnisse umfangreicher empirischer Untersuchungen aus den Jahren 2005 und 2010. Insgesamt wurden über 4200 Personen befragt.
„Die Daten aus zwei Befragungen im Abstand von fünf Jahren erlauben es uns erstmals, gewisse Trendaussagen zu machen“, sagt Prof. Dr. Doris Kortus-Schultes, Leiterin des Kompetenzzentrums Frau und Auto. Die Kernaussage der umfangreichen Studie fasst sie in einem Satz zusammen: „Anscheinend haben sich Hersteller, Autohäuser und Werkstätten in den vergangenen fünf Jahren besser auf die Bedürfnisse der Frauen eingestellt.“

Band 9 aus der hauseigenen Schriftenreihe ist so etwas wie eine Zwischenbilanz des Kompetenzzentrums, das seit knapp zehn Jahren die unterschiedlichen Bedürfnisse von Männern und Frauen beim Autokauf untersucht. Immer wieder haben die Wissenschaftler um Doris Kortus-Schultes dabei festgestellt, dass es das typische Frauen-Auto nicht gibt. Geschlechtsspezifische Unterschiede gibt es aber durchaus.

Diese fangen schon vor dem Kauf an. Zwar gehört für beide Gruppen der Besuch des Autohauses ganz wesentlich zur Vorbereitung eines Autokaufs dazu. Aber um weitere Informationen zu sammeln, gehen Männer und Frauen unterschiedliche Wege: Während Männer – je nach Alter – Auto-Magazine studieren (über 56 Jahre: 63 Prozent) oder sich im Internet auf einschlägigen Autoseiten informieren (unter 35 Jahre: 80 Prozent), fragen Frauen häufiger Bekannte nach ihrer Meinung. 90 Prozent der Frauen unter 35 holen sich ihre Informationen am liebsten im Freundes- und Verwandtenkreis, wobei die Nutzung sozialer Online-Netzwerke eine wichtige Rolle spielt.

„Frauen sind kontaktfreudig und kommunikativ, sie suchen den Austausch im Vorfeld des Autokaufs“, sagt Kortus-Schultes. Bei Männern hingegen werde erwartet, dass sie bereits einiges über Autos wissen. Sie würden im Gespräch in erster Linie ihre eigene Expertise weitergeben. Dazu passt, dass Männer eine längere Probefahrt beim Kauf bevorzugen. „Sie brauchen weniger den Rat vom Händler, sondern glauben, dass sie sich selbst am besten ein Bild vom Auto machen können“, interpretiert die Professorin für Marketing und Handelsbetriebslehre.

Wenn es um die Eigenschaften des künftigen Wagens geht, achten Frauen vor allem auf den Verbrauch. „Sie leiden besonders unter dem ,pain at the pump‘, weil sie die Tankrechnung häufig aus der Haushaltskasse bezahlen müssen“, so Kortus-Schultes. Für 97 Prozent der Frauen unter 55 Jahren ist der Spritverbrauch des nächsten Autos von entscheidender Bedeutung. Männern, vor allem den unter 35-Jährigen, ist der Verbrauch deutlich weniger wichtig.

Während Männer auf eine Klimaanlage nicht verzichten wollen, achten Frauen auf Funktionalitäten im Alltag, also die Höhenverstellbarkeit der Sitze, eine niedrige Ladekante am Kofferraum sowie Einparkhilfen. „All diese Funktionen, die etwas damit zu tun haben, wie sich das Auto im Alltag bewährt, werden für die Frauen in zunehmendem Alter wichtiger“, sagt Kortus-Schultes.

Ein weiteres Ergebnis der Studie ist, dass Frauen anspruchsvoller, aber auch zufriedener mit den Angeboten der Hersteller geworden sind. „Dies könnte ein Hinweis darauf sein, dass die Autohäuser Fortschritte gemacht haben in ihrem Bemühen, sich auf die Zielgruppe Frau einzustellen“, sagt Doris Kortus-Schultes, die seit knapp zehn Jahren das Kompetenzzentrum Frau und Auto leitet.

Für sie hat es in diesem Zeitraum ohnehin zahlreiche signifikante Änderungen gegeben: „Als 2004 die neue S-Klasse vorgestellt wurde, gestand der Marketing-Chef von Mercedes, an Frauen nicht gedacht zu haben. Das ist heute nicht mehr möglich.“ So sei in China, einem wichtigen Absatzmarkt für deutsche Premiummarken, der Anteil an Frauen, die eine S-Klasse fahren, mittlerweile zweistellig.

Für die Studie „Frau und Auto: Ergebnisse empirischer Untersuchungen aus 2005 und 2010″ wurden mit einem standardisierten Fragebogen in zwei Erhebungswellen jeweils über 2000 Personen befragt. Die Befragungen wurden zum Teil im Rahmen von Seminaren durchgeführt. Interviewer waren Studierende der Hochschule Niederrhein.

Die komplette Studie kann über den Cuvillier Verlag Göttingen bezogen werden. Weitere Informationen erteilt zudem Prof. Dr. Doris Kortus-Schultes, Email: doris.kortus-schultes@hs-niederrhein.de

Quelle: Informationsdienst Wissenschaft

(zurück)


DGT: Rauchverbot contra Krebs zeigt erste Erfolge

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Rauchverbot contra Krebs
Verbesserter Nichtraucherschutz zeigt erste Erfolge

Karlsruhe – Jährlich sterben in der Bundesrepublik etwa 3 300 Menschen an den Folgen des Passivrauchens, zehn Prozent davon an Lungenkrebs. Experten der Deutschen Gesellschaft für Thoraxchirurgie (DGT) gehen davon aus, dass Zigarettenqualm die häufigste Ursache für Lungenkrebs bei Nichtrauchern ist. Ob und wie verbesserter Nichtraucherschutz zur Krebsvorbeugung beigetragen hat, diskutierten Experten im Rahmen der 21. Jahrestagung der DGT vom 27. bis 29. September 2012 in Karlsruhe. Rauchverbot contra Krebs ist auf dem Kongress außerdem Thema einer Pressekonferenz der DGT.
Knapp 20 Millionen Deutsche greifen täglich zur Zigarette – und nehmen mit jedem Zug etwa 4 800 überwiegend giftige Substanzen auf. Doch nicht nur sie sind gefährdet an Bronchitis, Raucherbein, Herz-Kreislauferkrankungen oder Krebs zu erkranken, sie schädigen auch ihre nicht rauchenden Mitmenschen. So sterben laut einer von der Weltgesundheitsorganisation (WHO) in 192 Ländern durchgeführten Studie weltweit pro Jahr etwa 600 000 Menschen an den Folgen des Passivrauchens. „Wir gehen davon aus, dass für Nichtraucher die Passivrauchbelastung die maßgebliche Ursache für Lungenkrebs ist“, sagt im Vorfeld der DGT-Jahrestagung deren Leiter Dr. med. Dr. rer. nat. Heribert Ortlieb, Leitender Arzt der Thoraxchirurgie an der Stadtklinik Baden-Baden.

Die WHO führt Zigarettenqualm als krebserregende Substanz der Gift-Stufe 1 – genauso wie den giftigen Baustoff Asbest. „Immerhin sind allein 40 Substanzen im Rauch kanzerogen, also krebserzeugend“, erklärt Dr. med. Johannes Schildge, Chefarzt der Abteilung Pneumologie an den St. Vincentius-Kliniken in Karlsruhe. Entsprechend sterben hierzulande jährlich genauso viele Menschen an den Folgen des Passivrauchens wie im Straßenverkehr. Immerhin sind fast die Hälfte der Deutschen – darunter Kinder, Heranwachsende und Schwangere – zu Hause oder am Arbeitsplatz Tabakrauch ausgesetzt. Daran habe laut DGT auch das Gesetz zum Schutz der Bevölkerung vor den Folgen des Passivrauchens von 2004 bislang nicht viel geändert.

Zwar herrscht seit 2007 ein generelles Rauchverbot in Dienstgebäuden des Bundes. Auf Länderebene ist dies nicht einheitlich geregelt. „Konsequenter Nichtraucherschutz ist insbesondere in der Gastronomie nicht gegeben“, so Dr. Schildge. Dabei bewiesen Studien, dass rauchfreie Luft die Gesundheit schont: Die Schadstoffkonzentration in Blut und Atemluft nimmt nachweisbar ab, die Funktion der Atemwege bessern sich. Auch eine Studie im Auftrag der DAK-Krankenkasse lässt hoffen: Innerhalb von fünf Jahren werteten Wissenschaftler Krankenhausdaten von mehr als drei Millionen Versicherten aus. Schon ein Jahr nach Inkrafttreten des Nichtraucherschutzgesetzes gab es bei der DAK 1 430 Angina-pectoris-Fälle und 450 Herzinfarkt-Einweisungen weniger als im Vorjahr.

Für einen statistisch belegbaren Einfluss auf die Häufigkeit von Krebs sei der Beobachtungszeitraum noch zu kurz, räumt Dr. Schildge ein. Allerdings beschreiben Studien aus Schottland, Italien und den USA einen Rückgang der Herzinfarktrate nach Inkrafttreten umfangreicher Rauchverbote. Der Experte vermutet: „Für Krebs dürfte langfristig das Gleiche gelten, vorausgesetzt, das Rauchverbot wird konsequent durchgesetzt.“

Krebsrisiken durch Passivrauchen und andere Umweltschadstoffe sind nur ein Thema der 21. Jahrestagung der DGT in Karlsruhe. Die Experten diskutieren verschiedenste Aspekte der chirurgischen Behandlung von Erkrankungen in Bauch- und Brustraum. Unter dem Motto „Kooperationen“ erörtern sie thoraxchirurgische Themen auch interdisziplinär und beziehen dabei Ärzte aus Pathologie, Onkologie, Radiologie und Pneumonologie ein. Im Rahmen einer Pressekonferenz der DGT am 27. September informieren sie unter anderem über neueste Techniken bei Lungentransplantationen.

Quelle: Informationsdienst Wissenschaft

(zurück)


Deutschlandweite Studie zur Tabakentwöhnung sucht weitere Teilnehmer

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Wie effektiv ist ein kompakter Gruppenkurs? / Bereits 200 Rauchende machen mit / Thoraxklinik am Universitätsklinikum Heidelberg ist Studienzentrum
Wer mit dem Rauchen aufhören möchte, kann dies im Rahmen der deutschlandweiten Studie „BisQuits“ (Brief Intervention Study For Quitting Smoking) tun: Wissenschaftler vergleichen dabei in drei Studiengruppen, wie effektiv ein Kompaktkurs über zwei Termine ist verglichen mit etablierten mehrwöchigen Entwöhnungskursen sowie mit einer kurzen Beratung zum Rauchstopp. Bereits über 200 Rauchende nehmen an der Studie teil. In Heidelberg ist die Thoraxklinik am Universitätsklinikum Heidelberg, Raucherambulanz, Abteilung Pneumologie und Beatmungsmedizin, Studienzentrum. Raucher, die älter als 18 Jahre sind, können sich wenden an Oberarzt Privatdozent Dr. Michael Kreuter, Tel.: 06221 / 396-2888, E-Mail: heidelberg@bisquits-studie.de.

„Der Großteil der Rauchenden ist mit dem eigenen Rauchverhalten unzufrieden und möchte damit eigentlich aufhören“, so der Heidelberger Studienleiter Dr. Michael Kreuter. „Bei einigen reicht dann z.B. ein Studienflyer oder ein Zeitungsbericht aus, um den Impuls in Gang zu setzen.“ Eine erste Zwischenauswertung zeigt, dass in allen drei Studienarmen Raucher erfolgreich aufgehört haben. Wissenschaftlich belastbare Ergebnisse können jedoch erst nach Studienende erwartet werden.

Der bisherige Trend bestätigt die Annahme der Studienverantwortlichen, dass die Entwöhnungsquote vom Ratschlag über den Kompaktkurs bis zum mehrwöchigen Entwöhnungskurs ansteigt. Für die Studie steht jedoch die Effizienz der einzelnen Maßnahme mit auf dem Prüfstand. So wäre es möglich, dass mit dem Kompaktkurs mehr Raucher erreicht und entwöhnt werden können als mit dem etablierten Kursangebot.

Studienteilnehmer werden zufällig zugeteilt

Im Rahmen des Erstgespräches werden die Studienteilnehmer auf eine der drei Studiengruppen per Zufallsverfahren zugeteilt. Drei Monate nach dem Ende der jeweiligen Intervention erfolgt ein kurzes Telefoninterview. Weitere Untersuchungen am Studienzentrum werden nach sechs und zum Studienende nach zwölf Monaten durchgeführt. Nach dem Ende der Studie erhalten Teilnehmer eine Aufwandsentschädigung. „Hervorgehoben werden muss, dass die Studie unter realen Bedingungen stattfindet“, so Dr. Michael Kreuter. Das bedeutet, dass Studienteilnehmer für Gruppenkurse bezahlen müssen. „Wir möchten damit eine Verzerrung der Ergebnisse durch künstliche Studienbedingungen vermeiden.“ Für mehrwöchige Kurse erhalten die Teilnehmer von den Krankenversicherungen einen Teil der Kursgebühren wieder zurück erstattet. Dies soll mit der Studie auch für den Kompaktkurs erreicht werden.

Bis zu fünf Prozent der Raucher, die ohne Unterstützung aufhören, schaffen es langfristig

Tabakrauch ist ein Gemisch aus über 4.800 chemischen Substanzen, von denen die meisten gesundheitsschädlich und über 90 krebserzeugend oder sehr wahrscheinlich krebserzeugend sind. Jeder zweite Raucher stirbt vorzeitig an tabakrauchbedingten Folgeerkrankungen wie z. B. Gefäß-, Herz-, Lungen- oder Krebserkrankungen. Drei bis fünf Prozent der Raucher, die ohne Unterstützung aufhören, schaffen es langfristig.

Die BisQuits-Studie möchte insgesamt 800 Teilnehmer einschließen und wäre damit eine der größten Entwöhnungsstudien in Deutschland. Weitere Informationen, auch zu den Studienzentren in Stuttgart, München, Chemnitz und Berlin, gibt es im Internet unter http://www.bisquits-studie.de oder können in der Studienzentrale Heidelberg abgefragt werden (Tel. 06221-396-2888, Fax -2889).

Ansprechpartner
PD Dr. Michael Kreuter
Abteilung Pneumologie und Beatmungsmedizin
Thoraxklinik Heidelberg
Tel.: 06221 / 396-2888
E-Mail: heidelberg@bisquits-studie.de

Thoraxklinik-Heidelberg gGmbH
Die Thoraxklinik Heidelberg ist ein Krankenhaus der Maximalversorgung mit einer über hundertjährigen Geschichte und seit 2009 zertifiziertes Lungenkrebszentrum. Sie ist eine Klinik am Universitätsklinikum Heidelberg und arbeitet eng mit dem Deutschen Krebsforschungszentrum zusammen. Die Klinik ist einer der Partner des Nationalen Centrum für Tumorerkrankungen Heidelberg (NCT). Als eine der größten Lungenfachkliniken in Deutschland werden mit 310 Planbetten sowie 3 OP-Sälen medizinische Leistungen und ca. 2.300 Operationen bei Thoraxerkrankungen durchgeführt. Ein besonderer Schwerpunkt (über 60% der ca. 18.000 Fälle pro Jahr) liegt in der Behandlung von bösartigen Lungenerkrankungen, der Pleura, des Mediastinums, der Brustwand und angrenzender Regionen.
http://www.thoraxklinik-heidelberg.de

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Julia Bird
Referentin Unternehmenskommunikation / Pressestelle
des Universitätsklinikums Heidelberg und der
Medizinischen Fakultät der Universität Heidelberg
Im Neuenheimer Feld 672
69120 Heidelberg
Tel.: 06221 56-7071
Fax: 06221 56-4544
E-Mail: julia.bird@med.uni-heidelberg.de

Diese Pressemitteilung ist auch online verfügbar unter
http://www.klinikum.uni-heidelberg.de/presse

Weitere Informationen:
http://www.bisquits-studie.de
http://www.thoraxklinik-heidelberg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Einkommen und Lebenserwartung: Menschen mit hohen Einkommen leben länger

Monika Wimmer
Pressestelle
Deutsches Institut für Wirtschaftsforschung DIW Berlin

Menschen in wohlhabenden Haushalten haben im Alter von 65 Jahren eine im Durchschnitt deutlich höhere Lebenserwartung als Menschen in Haushalten mit niedrigen Einkommen. Das ist das zentrale Ergebnis einer Studie, die DIW-Forscher zusammen mit Wissenschaftlern des Robert Koch-Institut (RKI) auf der Basis von Daten der großen Wiederholungsbefragung Sozio-oekonomisches Panel (SOEP) erstellt haben. Frauen aus armutsgefährdeten Haushalten haben demnach eine um dreieinhalb Jahre geringere Lebenserwartung als wohlhabende Frauen. Männer aus armutsgefährdeten Haushalten und solche mit prekären Einkommen leben durchschnittlich fünf Jahre kürzer als ihre wohlhabenden Geschlechtsgenossen.
Untersucht wurde auch, welche Faktoren es sind, deren Berücksichtigung den statistischen Zusammenhang zwischen Einkommen und fernerer Lebenserwartung von 65-Jährigen verringern. Unter fernerer Lebenserwartung versteht man die Anzahl an Jahren, die ein Mensch im Durchschnitt noch zu leben hat, wenn er ein bestimmtes Alter erreicht hat.

„Unsere Studie legt die Interpretation nahe, dass die geringere Lebenserwartung von Frauen in Haushalten mit geringen Einkommen zum Teil mit der psychischen Belastung wegen finanzieller Knappheit sowie mit schwächeren sozialen Netzwerken in Zusammenhang stehen“, sagt der DIW-Forscher Martin Kroh, der die Untersuchung zusammen mit Hannes Neiss vom DIW sowie Thomas Lampert und Lars Kroll vom Robert Koch-Institut erstellt hat. „Bei Männern in Haushalten mit geringen Einkommen scheinen in der statistischen Betrachtung eine niedrige Bildung und ein körperlich belastendes Arbeitsleben die durchschnittliche Lebenserwartung zu verringern“.

Als Indikator für die psychische Belastung durch finanzielle Knappheit haben die Forscher unter anderem die „Einkommenszufriedenheit“ der Befragten herangezogen. Die Untersuchung zeigt, dass Frauen mit einer geringen Einkommenszufriedenheit im Renteneintrittsalter eine niedrigere Lebenserwartung haben als ihre Geschlechtsgenossinnen mit einer mittleren oder hohen Einkommenszufriedenheit. Ein weiteres Ergebnis: 65-jährige Frauen, die wenig Kontakt zu Freunden und Nachbarn pflegen und selten kulturelle Veranstaltungen besuchen, haben in der statistischen Betrachtung eine geringere Lebenserwartung als Gleichaltrige mit einem besser ausgebauten sozialen Netz.

Bei den Männern mit geringen Einkommen stehen sowohl ihre Bildung als auch ihr Arbeitsleben in einem engen statistischen Zusammenhang mit der Lebenserwartung: Männer, die keinen oder lediglich einen Haupt- oder Realschulabschluss haben, leben im Durchschnitt kürzer als Männer mit Abitur oder Studium. Das gilt auch für diejenigen, die einen körperlich belastenden Beruf erlernt haben. „Vollständig ließe sich die kürzere Lebenserwartung von Männern mit geringen Einkommen dadurch jedoch nicht statistisch beschreiben“, sagt Hannes Neiss, einer der DIW-Autoren. Ein signifikanter Unterschied in der ferneren Lebenserwartung bliebe auch dann bestehen, wenn für eine Vielzahl weiterer Faktoren, die im Zusammenhang mit der Lebenserwartung stehen, statistisch kontrolliert wird. In diese Analyse sind Ereignisse des frühen Erwachsenenalters (Bildung, Demographie, Elternhaus), des Lebenslaufs (berufliche Belastungen) und der Situation im Renteneintrittsalter (ökonomische Unsicherheit, Freizeitaktivität und soziale Netzwerke sowie Gesundheit) eingegangen.

Mit Blick auf die Chancengleichheit auf gesundes Altern empfehlen die Autoren eine Verbesserung des Arbeitsschutzes und der betrieblichen Gesundheitsförderung. Darüber hinaus müssten Präventionsmaßnahmen und gesundheitliche Aufklärungskampagnen gestärkt werden, die das Gesundheitsbewusstsein von weniger gebildeten Menschen deutlicher als bisher berücksichtigen.

STICHWORT SOEP:

Das Sozio-oekonomische Panel (SOEP) ist die größte und am längsten laufende multidisziplinäre Langzeitstudie in Deutschland. Das SOEP ist am DIW Berlin angesiedelt und wird als Teil der Forschungsinfrastruktur in Deutschland unter dem Dach der Leibniz-Gemeinschaft (WGL) von Bund und Ländern gefördert. Für das SOEP werden jedes Jahr mehr als 20 000 Menschen in rund 11 000 Haushalten vom Umfrageinstitut TNS Infratest Sozialforschung befragt. Die Daten des SOEP geben unter anderem Auskunft über Einkommen, Erwerbstätigkeit, Bildung und Gesundheit. Weil jedes Jahr dieselben Personen befragt werden, können nicht nur langfristige gesellschaftliche Trends, sondern auch die gruppenspezifische Entwicklung von Lebensläufen besonders gut analysiert werden.

Link zur Studie im DIW Wochenbericht:
http://www.diw.de/documents/publikationen/73/diw_01.c.408359.de/12-38.pdf

Weitere Informationen:
http://www.diw.de/soep
http://www.facebook.com/soepnet.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Schmerzen in den Beinen können vor Herzinfarkt warnen

Pierre König
Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Auch wenn es erstaunen mag: Bestimmte Formen von Beinschmerzen können ein erhöhtes Herzinfarktrisiko anzeigen. Wachsamkeit ist insbesondere bei Wadenschmerzen geboten, die beim Gehen auftreten und beim Stehenbleiben nachlassen. Gleiches gilt für Schmerzen, die sich beim Hinlegen in der Zehenregion bemerkbar machen, vor allem wenn Aufstehen für Linderung sorgt.

Denn beide Schmerzformen sind ein typisches Symptom einer Arteriosklerose, bei der es aufgrund von Ablagerungen in den Adern an unterschiedlichen Stellen des Körpers zu Durchblutungsstörungen kommt, wie Prof. Dr. med. Eike Sebastian Debus von der Klinik für Gefäßmedizin am Universitären Herzzentrum Hamburg in der neuesten Ausgabe des Internet-Newsletters der Deutschen Herzstiftung betont.

Da die Beine bei einer Arteriosklerose, in der Umgangssprache Gefäßverkalkung genannt, im Vergleich zum Herzen häufig erst relativ spät betroffen sind, ist bei solchen Beinschmerzen oft schon eine deutliche Verkalkung der Herzkranzgefäße vorhanden, was im Laufe der Zeit zu einem Herzinfarkt führen kann.

Betroffene sollten deshalb beim Arzt unbedingt darauf bestehen, dass nicht nur ihre Beine untersucht werden, sondern in regelmäßigen Abständen auch das Herz. Wie ernst die Herzinfarktgefahr zu nehmen ist, unterstreichen statistische Erhebungen, wonach 75 % der Betroffenen später einem Herzinfarkt erliegen, was weit über dem Bundesdurchschnitt liegt.

Wie man sich am wirksamsten vor einer Arteriosklerose schützen kann, die in Deutschland bei etwa einer Million Menschen für Beinschmerzen verantwortlich ist, erläutert die Herzstiftung auf ihrer Internetseite unter www.herzstiftung.de/schmerzen-in-den-beinen. Für Tipps zu Herzerkrankungen können Betroffene zudem den kostenfreien Patienten-Newsletter der Herzstiftung abonnieren: www.herzstiftung.de/Newsletter

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Pierre König / Michael Wichert
Tel. 069/955128-140/ -114
Fax: 069/955128-345
E-Mail: wichert@herzstiftung.de
koenig@herzstiftung.de
www.herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de
http://www.herzstiftung.de/schmerzen-in-den-beinen

Quelle: Informationsdienst Wissenschaft

(zurück)


Forschung online: Neue Messtechnik ermöglicht innovative Beobachtungen zur Beschreibung der Nordsee

Ralf Röchert
Communications Department
Alfred-Wegener-Institut für Polar- und Meeresforschung

Gemeinsame Pressemitteilung: Helmholtz-Zentrum Geesthacht und Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft
Bremerhaven/Geesthacht, den 20. September 2012. Das Institut für Küstenforschung am Helmholtz-Zentrum Geesthacht und das Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft richten den ersten Unterwasser-Datenknoten in der Nordsee ein. Der Unterwasserknoten funktioniert wie eine „Datensteckdose“ am Meeresboden an die bis zu zehn Messeinheiten angeschlossen werden können. So ist es möglich Wassertemperatur, Algenkonzentrationen und den Meeresboden ganzjährig live zu untersuchen. Die Messwerte gehen online direkt zu den Wissenschaftlern. Am 20. September wird der Unterwasserknoten vor Helgoland in einer Tiefe von zehn Metern installiert.

Der vom Helmholtz-Zentrum Geesthacht konzipierte und gemeinsam mit dem Alfred-Wegener-Institut für Polar- und Meeresforschung (AWI) entwickelte Unterwasser-Datenknoten macht es möglich, zukünftig den Zustand der Nordsee auch in schwer zugänglichen Gebieten ganzjährig zu beobachten. Die langen Datenreihen sind eine wichtige Grundlage, um Fragen zu Umweltveränderungen in der Nordsee zu beantworten. Zwei erfolgreiche Testphasen hat der Knoten bereits hinter sich. Jetzt wird das Messsystem 700 Meter nördlich von Helgoland fest installiert. Ein Team des wissenschaftlichen Tauchzentrums am AWI wird den Knoten auf dem Meeresboden anschließen. Dort wird er mehrere Jahre verbleiben. Die am Unterwasserknoten gemessenen Daten fließen auch in die historische Langzeitdatenreihe „Helgoland Reede“ des AWI ein.

Der Unterwasserknoten selbst besteht aus einem 600 Kilogramm schweren Trägergestell, an dem die Anschlüsse für Messgeräte angebracht sind. Von Helgoland aus versorgt ein Kabel die Geräte mit Strom. So sind die Messgeräte nicht wie sonst üblich auf Batterien angewiesen, sondern können wartungsfrei langfristig im Einsatz sein. Ein Glasfaserkabel überträgt die Messdaten online zu den Wissenschaftlern und macht es möglich, Messgeräte von Land aus fernzusteuern. Die Küstenforscher haben mit dieser Konstruktion den ersten Unterwasserknoten für den Einsatz in bis zu 300 Meter tiefen Gewässern mit starkem Seegang entwickelt. Denn durch das schwere Gewicht wird der Knoten selbst bei Stürmen nicht bewegt.

Der Unterwasserknoten ist Teil des vom Helmholtz-Zentrum Geesthacht konzipierten Beobachtungs- und Analysesystems COSYNA (Coastal Observation System for Northern and Arctic Seas). Fest installierte Sensoren messen regelmäßig Strömungen, Salzgehalt, Sauerstoff und weitere Parameter. Diese Daten fließen in Computermodelle ein, die beispielsweise die Meeresströmung vorhersagen. Forschergruppen können den Knoten nutzen und weitere Messgeräte anschließen. Beispiele sind ein Stereo Kamerasystem des AWI, das Fische und Quallen automatisch beobachtet und vermisst. Zwei mit Sensoren bestückte Unterwassergestelle des AWI und des Bremer Zentrums für Marine Umweltwissenschaften erfassen physikalische Prozesse in Bodennähe sowie den Nährstoffaustausch zwischen Boden und Wasser. Alle Daten fließen in die vom Helmholtz-Zentrum Geesthacht betriebene COSYNA Datenbank ein.

Hintergrund

Der Unterwasserknoten wurde vom Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht in Kooperation mit dem Alfred-Wegener-Institut für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft und den Industriepartnern 4H Jena und LothEngineering entwickelt. Der Knoten ist Teil des vom Helmholtz-Zentrum Geesthacht und seinen Partnern entwickelten Beobachtungs- und Analysesystems COSYNA (Coastal Observation System for Northern and Arctic Seas) zur Überwachung des küstennahen Bereichs der Nordsee und der arktischen Meere. Die Investitionskosten belaufen sich auf 600.000 Euro. Die Biologische Anstalt Helgoland, die zum Alfred-Wegener-Institut gehört, übernimmt die Betreuung des Knotens vor Ort.
Der Unterwasserknoten ist Teil der in COSYNA durchgeführten routinemäßigen Beobachtung der Nordsee und trägt damit zur Erfassung von Ökosystem-Veränderungen an der Helgoland Reede bei. Die Datenanalyse erfolgt im Institut für Küstenforschung und an der Biologischen Anstalt Helgoland. Über das COSYNA Internetportal werden die Daten öffentlich zugänglich gemacht.

Weitere Informationen

Zur Seite des Küstenbeobachtungssystems COSYNA: http://www.cosyna.de
Zur Seite des wissenschaftlichen Tauchzentrums des Alfred-Wegener-Instituts für Polar- und Meeresforschung: http://www.awi.de/en/infrastructure/underwater/scientific_diving/
Zur Bildgalerie Unterwasserknoten: http://www.awi.de/de/aktuelles_und_presse/pressemitteilungen/fotos_mit_sperrfrist/pressemitteilung_20120913/

Zur Seite des Instituts für Küstenforschung am Helmholtz-Zentrum Geesthacht: http://www.hzg.de/institute/coastal_research/index.html.de

Das Alfred-Wegener-Institut forscht in der Arktis, Antarktis und den Ozeanen der mittleren und hohen Breiten. Es koordiniert die Polarforschung in Deutschland und stellt wichtige Infrastruktur wie den Forschungseisbrecher Polarstern und Stationen in der Arktis und Antarktis für die internationale Wissenschaft zur Verfügung. Das Alfred-Wegener-Institut ist eines der 18 Forschungszentren der Helmholtz-Gemeinschaft, der größten Wissenschaftsorganisation Deutschlands.

Quelle: Informationsdienst Wissenschaft

(zurück)


Vitamin C und Beta-Carotin könnten vor Demenz schützen

Annika Bingmann
Pressestelle
Universität Ulm

Vergesslichkeit, Orientierungslosigkeit und eine verminderte geistige Leistungsfähigkeit…rund 700 000 Deutsche leiden an der Alzheimerschen Krankheit. Jetzt haben Ulmer Forscher um die Epidemiologin Professorin Gabriele Nagel und die Neurologin Professorin Christine von Arnim herausgefunden, dass die Konzentration der Antioxidantien Vitamin C und Beta-Carotin im Blutserum von Alzheimer-Patienten im Anfangsstadium niedriger ist als bei Gesunden.
Womöglich kann also über die Ernährung Einfluss auf Krankheitsentstehung und -verlauf genommen werden. Die Studie, für die 74 Personen mit leichter Demenz und eine gesunde Kontrollgruppe untersucht worden sind, ist in der Online-Ausgabe der Fachzeitschrift Journal of Alzheimer’s Disease (JAD) erschienen.

Morbus Alzheimer zählt zu den neurodegenerativen Krankheiten: Veränderungen im Gehirn durch so genannte Amyloid-ß-Plaques, Fibrillendegeneration sowie den Untergang von Nerven-Kontaktstellen (Synapsen) werden für die charakteristischen Symptome verantwortlich gemacht. Dabei steht Oxidativer Stress, bei dem die Sauerstoffverwertung im Körper behindert ist, im Verdacht, die Krankheitsentstehung zu begünstigen. Oxidativem Stress kann mit so genannten Antioxidantien entgegengewirkt werden. Ob die Konzentration der Antioxidantien Vitamin C und E, Beta-Carotin sowie Lycopin und Koenzym Q10 im Blut von Alzheimerpatienten nach unten abweicht, haben die Wissenschaftler in dem jetzt publizierten Fachbeitrag untersucht. „Um die Alzheimersche Krankheit beeinflussen zu können, müssen wir mögliche Risikofaktoren kennen“, sagt Gabriele Nagel zur Motivation für den Fachbeitrag.

Die Studienteilnehmer rekrutieren sich aus der Querschnittstudie „IMCA ActiFE“ (Activity and Function in the Elderly in Ulm), für die eine repräsentative Stichprobe von insgesamt rund 1500 Senioren untersucht wurde. Die 65- bis 90-Jährigen aus Ulm und Umgebung haben sich verschiedenen neuropsychologischen Tests unterzogen und Fragen zu ihrem Lebensstil beantwortet. Weiterhin wurde ihr Blut untersucht und der Body-Mass-Index (BMI), also das Verhältnis von Gewicht und Körpergröße, berechnet. Für die aktuelle Studie verglichen die Wissenschaftler 74 Personen (Durchschnittsalter 78,6 Jahre), bei denen „milde Demenz“ festgestellt wurde, mit einer Kontrollgruppe aus 158 gesunden Altersgenossen. Mit interessanten Ergebnissen: Die Konzentration von Vitamin C und Beta-Carotin war im Blut dementer Studienteilnehmer signifikant geringer als bei der Kontrollgruppe. Für alle anderen untersuchten Antioxidantien (Vitamin E, Lycopin, Koenzym Q10) wurde kein entsprechender Zusammenhang festgestellt.
Potentielle Störvariablen wie Schulbildung, Familienstand, BMI, Zigaretten- und Alkoholkonsum sind bei der Auswertung berücksichtigt worden. Möglicherweise könnten aber Faktoren wie die Zubereitung und Lagerung von Lebensmitteln sowie etwa Stress der Studienteilnehmer die Ergebnisse beeinflusst haben. Deshalb sollten die neuen Erkenntnisse in weiterführenden Untersuchungen bestätigt werden: „Längsschnittstudien mit mehr Teilnehmern sind notwendig, um den Einfluss von Vitamin C und Beta-Carotin auf die Alzheimersche Krankheit genauer zu untersuchen“, sagt Gabriele Nagel.
Vitamin C findet sich zum Beispiel in Zitrusfrüchten, Beta-Carotinoide werden über Karotten, Spinat oder etwa Aprikosen aufgenommen.

Die jetzt veröffentlichte Studie ist vom Landesministerium für Wissenschaft, Forschung und Kunst (MWK) im Zuge der Förderung des Geriatrischen Zentrums Ulm/Alb-Donau sowie von der Europäischen Union (IMCA ActiFE) unterstützt worden. Aus Ulm waren weiterhin Professor Albert Ludolph (Ärztlicher Direktor Klinik für Neurologie) und Professor Matthias Riepe von der Klinik für Psychiatrie und Psychotherapie II sowie Professor Richard Peter und Florian Herbolsheimer vom Institut für Epidemiologie und Medizinische Biometrie beteiligt. Außerdem finden sich Professor Thorsten Nikolaus vom Geriatrischen Zentrum Ulm/Alb-Donau und Professor Hans Biesalski (Universität Hohenheim) unter den Autoren.

Weitere Informationen: Prof. Dr. Gabriele Nagel, Tel.: 0731/50-31073, gabriele.nagel@uni-ulm.de
Prof. Dr. Christine v. Arnim, Tel.: 0731/500-63015, christine.arnim@uni-ulm.de

Christine A.F. von Arnim, Florian Herbolsheimer, Thorsten Nikolaus, Richard Peter, Hans K. Biesalski, Albert C. Ludolph, Matthias Riepe, Gabriele Nagel, and the ActiFE Ulm study group: Dietary Antioxidants and Dementia in a Population-Based Case-Control Study among Older People in South Germany. Journal of Alzheimer’s Disease. DOI 10.3233/JAD-2012-120634

Weitere Informationen:
http://iospress.metapress.com/content/h3215182vr7h5830/

Quelle: Informationsdienst Wissenschaft

(zurück)


Abwasser – ein Wertstoff!

Dr.-Ing. Bodo Weigert
Presse- und Öffentlichkeitsarbeit
KompetenzZentrum Wasser Berlin gGmbH (KWB)

Kompetenzzentrum Wasser Berlin leitet neues europäisches Demonstrationsvorhaben zur Rückgewinnung von Phosphor aus Abwasser
Ohne Phosphor kein Leben. Phosphor ist daher auch wesentlicher Bestandteil von Pflanzendünger. Jeder Bundesbürger nimmt täglich ungefähr zwei Gramm dieses Elements mit der Nahrung zu sich. Was der Körper nicht braucht, wird über die Toilette ausgeschieden und landet in der Kläranlage. Da Phosphor als knapper Rohstoff auf dem Weltmarkt zu immer höheren Preisen gehandelt wird, ist es mehr denn je geboten, diesen Stoff aus Abwasser zurückzugewinnen.
Die europäische Forschungsinitiative P-REX, die vom Kompetenzzentrum Wasser Berlin geleitet wird, soll in Europa die Entwicklung von effizienten technischen Lösungen des Phosphor-Recyclings aus Abwasser beschleunigen. Am Vorhaben, das von der EU mit 2,9 Mio. € finanziert wird, sind 15 europäische Forschungseinrichtungen, Unternehmen sowie auch die Berliner Wasserbetriebe beteiligt, die im Klärwerk Waßmannsdorf nach einem eigenen Patent bereits täglich zwei Tonnen Phosphordünger aus Klärschlamm gewinnen.

Kontakt:
Kompetenzzentrum Wasser Berlin gGmbH
Dr.-Ing. Bodo Weigert, Sprecher
Tel: +49 30 53653 841
bodo.weigert@kompetenz-wasser.de

Weitere Informationen:
http://www.kompetenz-wasser.de

Quelle: Informationsdienst Wissenschaft

(zurück)


600 gesunde Kinder für Herzuntersuchung gesucht

Dr. Inka Väth
Abteilung Presse und Kommunikation
Rheinische Friedrich-Wilhelms-Universität Bonn

Ab sofort suchen die Kinderkardiologen des Universitätsklinikums Bonn im Rahmen einer Studie Kinder und Jugendliche zwischen 0 und 18 Jahren, die bereit sind, ihr Herz mittels 3D-Echtzeit-Echokardiographie untersuchen zu lassen. Ziel ist es, Normwerte für gesunde Kinderherzen zu ermitteln, damit diese Ultraschallmethode zukünftig als Standardverfahren eingesetzt werden kann. Denn die Normwerte helfen dabei, Untersuchungsergebnisse zuverlässig zu interpretieren, um die Herzfunktionen von kranken Kindern noch besser beurteilen zu können. Bislang gab es nur wenige Studien mit aussagekräftigen Ergebnissen. Die Untersuchung in diesem Umfang ist weltweit die erste ihrer Art.
„Ob groß oder klein, kräftig oder dünn, alle Kinder, die sich untersuchen lassen, helfen uns weiter. Nur so bekommen wir vielseitige und aussagekräftige Ergebnisse“, erklärt Dr. Ulrike Herberg, Oberärztin der Kinderkardiologie an der Kinderklinik des Universitätsklinikums Bonn und medizinische Leiterin der Studie. Ziel der vergleichenden Studie ist es, Normwerte für Herzgrößen und Herzfunktionen zu finden. Diese Normwerte erleichtern es, Ultraschallbefunde einzuordnen, verhelfen den Ergebnissen zu mehr Objektivität und führen so zu einer schnelleren Hilfe für die kleinen Herzpatienten.

Exakter Blick in Kinderherzen

Der Ultraschall des Herzens, die so genannte Echokardiographie, ist die entscheidende Untersuchungsmethode bei der Erkennung von Herzfehlern. Dabei eröffnet die dreidimensionale (3D)-Echokardiographie neue Möglichkeiten, denn sie erfasst das Herz als räumliches Gebilde. Im Gegensatz zu den konventionellen 2D-Ultraschalluntersuchungen, kann so die Funktion und die Größe des Herzens in allen drei Dimensionen beurteilt werden. Dies hilft insbesondere dabei, unregelmäßig geformte Herzkammern zu erkennen, die zum Beispiel kleiner sind als üblich oder sich auf eine falsche Weise bewegen.

„Die herkömmlichen Geräte liefern nur zweidimensionale Schnittbilder, beispielsweise quer durch die Herzkammern“, erklärt Dr. Herberg. Die Schnittbilder müssen dann im Kopf zu einem dreidimensionalen Modell zusammengesetzt werden. „Dazu benötigt man schon bei einem unbewegten Organ ein exzellentes räumliches Vorstellungsvermögen und viel Erfahrung – umso mehr beim Herzen, das sich regelmäßig zusammenzieht und dann wieder mit Blut füllt“, betont Dr. Herberg.

Diagnostik weniger belastend

Die Ergebnisse der Studie dienen der Optimierung und Standardisierung der 3D-Echtzeit-Echokardiographie. So kann vielen Kindern mit Herzproblemen ein langjähriger Diagnose-Marathon erleichtert werden. Die Ultraschall-Untersuchungen sind sowohl nebenwirkungs- als auch schmerzfrei und können beliebig oft wiederholt werden.

Finanziert wird die Studie durch die „Fördergemeinschaft Deutsche Kinderherzzentren e.V.“ (http://www.kinderherzen.de). Neben Bonn als Studienzentrale sind das Klinikum Großhadern München und das Herzzentrum Bad Oeynhausen an dem Forschungsprojekt beteiligt.

Anmelden können sich die jungen Teilnehmer in der Kinderkardiologie der Universitätskinderklinik Bonn unter 0228/287-33256. Eine Einverständniserklärung der Eltern ist erforderlich und wird bei Anmeldung zugesandt. Sofern bei der Untersuchung Auffälligkeiten festgestellt werden, werden die Eltern umgehend informiert. Die Untersuchung dauert ca. eine Stunde. Zehn Euro erhalten die Probanden als Aufwandsentschädigung.

Kontakt:
Dr. Ulrike Herberg
Oberärztin der Abteilung für Kinderkardiologie
Universitätsklinikum Bonn
Telefon: 0228-287-33256
Mail: ulrike.herberg@ukb.uni-bonn.de

Quelle: Informationsdienst Wissenschaft

(zurück)


450.000 Euro für den Umweltschutz – BMBF fördert Projekt der Umweltingenieure

Julia Wunderlich
Presse- und Öffentlichkeitsarbeit
Hochschule Ostwestfalen-Lippe

Nachhaltige Technologien und strategische Partnerschaften sind gefragt, damit Klimawandel und schwindende Ressourcen für nachfolgende Generationen nicht zum unlösbaren Problem werden. Beides vereint das Verbundprojekt „Technologien zum nachhaltigen Gewässer- und Umweltschutz von Küstenlandschaften in Vietnam (EWATEC-COAST)“, an dem die Hochschule Ostwestfalen-Lippe beteiligt ist. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt mit rund drei Mio. Euro für die Dauer von drei Jahren, von denen ca. 450.000 Euro an die Hochschule OWL gehen.
Vietnam mit seiner über 3.000 Kilometer langen Küste kämpft seit Jahren unter den Folgen von Umweltverschmutzungen durch Industriebetriebe, von Naturkatastrophen und globalen Klimaveränderungen. Sturmfluten und Binnenhochwasser fordern Menschenleben und sorgen für hohe ökonomische Schäden. Eine integrierte und nachhaltige Wasserwirtschaft wäre dringend notwendig, jedoch fehlen den Kommunen und Verwaltungen ausgereifte Planungsgrundlagen und nachhaltige Umwelttechnologien.

An diesem Punkt setzt das Verbundprojekt an, das im Rahmen des Programms „Internationale Partnerschaften für nachhaltige Klimaschutz- und Umwelttechnologien und -dienstleistungen (CLIENT)“ gefördert wird. Die Projektleitung liegt bei Professor Günter Meon von der TU Braunschweig, sein Stellvertreter ist Professor Joachim Fettig vom Fachbereich Umweltingenieurwesen und Angewandte Informatik der Hochschule OWL. Er übernimmt außerdem mit der industriellen Wasserwirtschaft eines der neun Teilprojekte. Ebenfalls involviert ist Professor Klaus Maßmeyer, der seine Kompetenzen im Bereich Meteorologie und Schadstoffausbreitung einbringt. Die Kollegen vom Fachbereich Umweltingenieurwesen und Angewandte Informatik blicken auf langjährige Forschungserfahrungen auch in Vietnam zurück.

Die Untersuchungsgebiete des Verbundvorhabens – die Thi-Vai-Flusslandschaft und der Can-Gio-Mangrovenwald – liegen im Süden Vietnams. Beide leiden unter erheblichen Umweltschäden. Der Thi-Vai-Fluss gilt bereits seit 1995 wegen zahlreicher Abwassereinleitungen als ökologisch tot. Das Ziel des Projekts ist die Entwicklung und Bereitstellung sowie der Einsatz von Wasser- und Umwelttechnologien. Im Teilprojekt Industrielle Wasserwirtschaft sollen vor allem die Nutzung von Wasser durch Industriebetriebe und die Reinigung des entstehenden Abwassers verbessert werden. Ortsansässige Firmen benötigen zukünftig moderne Abwassertechnologien, um die Verschmutzung der Umwelt zu verringern. „Teile der Anlagen, mit denen wir die Abwasserreinigung demonstrieren wollen, werden in Deutschland gefertigt und nach Vietnam gebracht. Die Koordination der notwendigen Schritte gehört auch zu meinen Aufgaben“, erklärt Professor Fettig.

Darüber hinaus soll als Dienstleistungstool ein sogenanntes Managementsystem entwickelt und installiert werden, um die Umwelt- und Lebensbedingungen im Untersuchungsgebiet nachhaltig zu verbessern. Hierbei handelt es sich um ein modellbasiertes Instrumentarium für wasserwirtschaftliche Planungen. So werden zum Beispiel die Wassermenge und die Wasserqualität erfasst und modelliert sowie meteorologische und hydrologische Daten bereitgestellt.

Die Projektpartner von EWATEC-COAST bringen Kompetenzen aus verschiedenen Bereichen ein. Neben der TU Braunschweig und der Hochschule OWL sind die Universitäten Köln und Siegen involviert. Außerdem erfolgt die Zusammenarbeit mit den Firmen A3 Water Solutions, Gelsenkirchen, enviplan, Lichtenau sowie dem Institut für Wassermanagement IfW aus Braunschweig und dem Ingenieurbüro IWUD (Ingenieure für Wasser, Umwelt und Datenverarbeitung) aus Höxter. Die Verbundpartner treffen sich im Oktober in Vietnam, um die Zusammenarbeit mit vietnamesischen Partnerinstitutionen sowie mit Behörden und Firmen zu konkretisieren..

Quelle: Informationsdienst Wissenschaft

(zurück)


UDE: Silber ist doch kein gut verträglicher Bakterienkiller

Katrin Koster
Pressestelle
Universität Duisburg-Essen

Das seit Langem wegen seiner antibakteriellen Wirkung medizinisch eingesetzte Silber schädigt in der benötigten Dosis auch menschliche Gewebezellen. Zusätzlich schwächt ein Bluteiweiß die Wirkung auf Bakterien. Das belegte jüngst ein Team um Prof. Dr. Stephan Barcikowski vom Center for Nanointegration (CENIDE) der Universität Duisburg-Essen (UDE) in drei aufeinander aufbauenden Veröffentlichungen.
Silber wirkt nachweislich antibakteriell – daher stellte man aus ihm schon in der Antike Trinkgefäße her. Die Idee, Medizinprodukte mit integriertem Silber zu versehen, um so die Heilung zu fördern und Entzündungen verhindern, klingt daher erst mal gut. Und so realisierte die Arbeitsgruppe Testserien mit Silber-Nanopartikeln, die die Wissenschaftler per Lasertechnik selbst hergestellt hatten. Diese betteten sie in verschiedene Kunststoffe ein. Dadurch sind die Nanopartikel fest im Material gebunden und gelangen nicht in den Körper. Sie geben aber wegen ihrer großen Oberfläche ausreichend Silberionen, also die lösliche Form des Silbers, ab. Diese Ionen sind der eigentliche Wirkstoff, der Bakterien z. B. an einer Wunde tötet und so Entzündungen vermeiden soll. Zum Schutz von Medizinprodukten oder zur Abdeckung von Brandwunden also eigentlich eine gute Lösung.

Versuche mit verschiedenen Bakterien in Zusammenarbeit mit der Klinik von Prof. Dr. Meike Stiesch der Medizinischen Hochschule Hannover bestätigten die keimtötende Wirkung. Doch nachfolgende Untersuchungen zeigten, dass die Silberionen in der gleichen Konzentration auch Fibroblasten – Bindegewebszellen, die nach einer Verletzung für die Heilung wichtig sind – nennenswert schädigten. „Das hatten wir so natürlich nicht erwartet, da Silber bereits vielfältig in der Medizin eingesetzt wird“, berichtet Barcikowski, Inhaber des Lehrstuhls „Technische Chemie I“ an der UDE und Chefredakteur der Fachzeitschrift „BioNanoMaterials“. „Aber weitergehende Tests haben bewiesen, dass tatsächlich die Ionen die Zellen geschädigt haben und nicht etwa der Kunststoff, wie wir zunächst vermuteten.“

Versetzten die Forscher die Proben zusätzlich mit Albumin, einem Eiweiß, das im menschlichen Blut und damit natürlich auch an Wunden vorkommt, verschlechterte das zudem die antibakterielle Wirkung des Silbers, während die zellschädigende Wirkung gleich blieb. Hier ist die therapeutische Breite, d.h. das Verhältnis zwischen wirksamer und schädlicher Dosis daher extrem klein, sodass der praktische Einsatz riskant ist.

Weitere Studien hinterfragen, ob man gezielt nur die wundheilende Wirkung von Nanomaterialien nutzen kann. Das Projekt „ln-situ Konjugation von Nanopartikeln beim Ultrakurzpuls-Laserstrahlabtragen in Monomerlösungen für das Elektrospinnen auf Brandwunden“ im DFG-Schwerpunktprogramm 1327 „Sub-l00 nm-Strukturen“ geht dieser Frage derzeit nach: Hier untersucht das Team um Barcikowski gemeinsam mit der RWTH Aachen und der Medizinischen Hochschule Hannover den Einsatz von Nanopartikeln aus „sanfteren“ Materialien wie Zink, Eisen und Magnesium zur Heilung von Brandwunden. So wollen die Wissenschaftler verträglichere Nanomaterialien testen und später für die Therapie nutzbar machen.

DOI der Originalpublikationen:
• 10.1002/adem.201180016
• 10.1039/c2ra20546g
• 10.2351/1.4730803

Quelle: Informationsdienst Wissenschaft

(zurück)


Wochenarbeitszeit wieder auf Vorkrisen-Niveau

Wolfgang Braun
Presse- und Öffentlichkeitsarbeit
Institut für Arbeitsmarkt- und Berufsforschung der Bundesagentur für Arbeit (IAB)

Die tarifliche bzw. betriebsübliche Arbeitszeit vollzeitbeschäftigter Arbeitnehmer in Deutschland lag im zweiten Quartal 2012 bei durchschnittlich 38,22 Wochenstunden. Damit ist das Niveau von 2008 erstmals wieder erreicht. Das berichtete das Institut für Arbeitsmarkt- und Berufsforschung (IAB) am Dienstag.
Bezogen auf alle Erwerbstätigen wurden im zweiten Quartal 2012 insgesamt etwas weniger Stunden als im Vorjahresquartal gearbeitet: Die Zahl der geleisteten und bezahlten Arbeitsstunden je Erwerbstätigen ist um 0,3 Prozent leicht rückläufig und liegt bei 331,8 Stunden. „Den Betrieben stand aufgrund der Lage der Feiertage in diesem Quartal ein Arbeitstag weniger zur Verfügung als im Vorjahr. Das ist ausschlaggebend für den leichten Rückgang der Arbeitszeit“, erläuterten die Arbeitsmarktforscherinnen Ines Zapf und Jennifer Vallé.

Da rund 500.000 Menschen mehr erwerbstätig waren als im zweiten Quartal 2011, führt der Rückgang der Arbeitszeit nicht zu einem Sinken des Arbeitsvolumens. Dieses stieg im zweiten Quartal des Jahres 2012 im Vergleich zum Vorjahresquartal um 0,9 Prozent auf 13,8 Milliarden Stunden.

Das Guthaben auf den Arbeitszeitkonten sank jedoch das zweite Quartal in Folge. Zudem machten die Beschäftigten im zweiten Quartal 2012 weniger bezahlte Überstunden als im Vorjahresquartal. Positiv auf das Arbeitsvolumen wirkte dagegen der Krankenstand, der im ersten Quartal 2012 mit 3,37 Prozent aller Arbeitnehmer unter dem Niveau des Vorjahres lag.

Die Zahl der Kurzarbeiter betrug im Durchschnitt des zweiten Quartals 2012 rund 100.000 Personen. Im zweiten Quartal des Vorjahres waren es noch 121.000.

Eine Tabelle zur Entwicklung der Arbeitszeit steht im Internet unter http://doku.iab.de/grauepap/2012/tab-az1202.pdf.

Quelle: Informationsdienst Wissenschaft

(zurück)


Was Kinder zappelig macht

Gunnar Bartsch
Presse- und Öffentlichkeitsarbeit
Julius-Maximilians-Universität Würzburg

Es gibt einen Zusammenhang zwischen ADHS, Schwangerschaftsdiabetes und Armut. Diesen bereits vor wenigen Monaten veröffentlichten Befund haben Mediziner aus Würzburg und Dresden jetzt bestätigt. Sie haben dafür die Daten von mehr als 13.000 Kindern und Jugendlichen ausgewertet.

Kinder aus armen Familien tragen ein erhöhtes Risiko, eine Aufmerksamkeitsdefizit-/Hyperaktivitätsstörung ADHS zu entwickeln. Darüber hinaus steigt das Risiko auch dann, wenn ihre Mütter eine Schwangerschaftsdiabetes entwickeln. Dieses Ergebnis haben US-amerikanische Wissenschaftler Anfang des Jahres publiziert. Für ihre Studie hatten sie 212 Kinder im Alter von drei bis vier Jahren und danach noch einmal im Alter von sechs Jahren getestet.

„Wir haben diese Veröffentlichung mit großem Interesse gelesen“, sagt Professor Marcel Romanos, Leiter der Würzburger Universitätsklinik für Kinder- und Jugendpsychiatrie, Psychosomatik und Psychotherapie. Allerdings seien deren Aussagen unter anderem wegen der geringen Zahl an Teilnehmern aus wissenschaftlicher Sicht eingeschränkt. „Wir haben deshalb untersucht, ob sich diese Ergebnisse in einer Studie mit sehr viel mehr Teilnehmern bestätigen lassen“, so Romanos.

Gemeinsam mit Professor Jochen Schmitt, Direktor des Zentrums für evidenzbasierte Gesundheitsversorgung an der TU Dresden, hat Romanos Daten aus der Studie zur Gesundheit von Kindern und Jugendlichen in Deutschland KiGGS analysiert. In dieser repräsentativen Studie hat das Robert Koch-Institut die gesundheitliche Entwicklung von mehr als 17.000 Kindern und Jugendlichen über den Zeitraum von 2003 bis 2006 hinweg erfasst. Die Daten von insgesamt 13.488 Kindern im Alter von drei bis 17 Jahren haben Romanos und Schmitt in ihre Auswertung einbezogen.

Rauchen schadet, Stillen nutzt

Der Ergebnis: „Unsere Studie bestätigt auch in einer großen Stichprobe den Zusammenhang zwischen einem geringen soziökonomischen Status, dem Auftreten von Schwangerschaftsdiabetes und ADHS“, erklärt Professor Jochen Schmitt.

Allerdings stießen die beiden Wissenschaftler in ihrer Untersuchung auf weitere Zusammenhänge: Demnach sinkt das Risiko für Kinder an ADHS zu erkranken möglicherweise, wenn sie ausreichend lange gestillt werden. Raucht ihre Mutter hingegen während der Schwangerschaft, nimmt das Risiko zu. Es steigt auch, wenn bei den Kindern um den Geburtstermin herum gesundheitliche Probleme aufgetaucht sind.

Die Schlussfolgerung aus diesen Befunden lautet nach Ansicht der beiden Mediziner deshalb: „Präventionsprogramme, die an diesen Punkten ansetzen, könnten dazu beitragen, die Häufigkeit von ADHS zu verringern.“

Prenatal and Perinatal Risk Factors for Attention-Deficit/Hyperactivity Disorder, Jochen Schmitt, Marcel Romanos, Archives of Pediatrics & Adolescent Medicine, Published online September 10, 2012. doi:10.1001/archpediatrics.2012.1078

Kontakt

Prof. Dr. Marcel Romanos, T: (0931) 201-78000
E-Mail: romanos@kjp.uni-wuerzburg.de

Prof. Dr. Jochen Schmitt, T: (0351) 458-6494
E-Mail: Jochen.Schmitt@uniklinikum-dresden.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Biogas-Gärreste als Phosphorlieferant

Dr. Torsten Gabriel
Presse- und Öffentlichkeitsarbeit
Fachagentur Nachwachsende Rohstoffe e.V.

Uni Rostock erforscht Phosphorkreislauf in der Kette Gärreste-Boden-Pflanze

Die Agrar- und Umweltwissenschaftliche Fakultät der Universität Rostock testet seit August 2012 die Wirkung unbehandelter und separierter Gärreste aus Biogasanlagen auf das Pflanzenwachstum und die Phosphor-Pools im Boden. Ein Ziel der Untersuchungen ist die Optimierung der Nährstoff- und Humuswirkung von Gärresten als Beitrag zum Ressourcenschutz und zur Bodenfruchtbarkeit.

Das Bundesministerium für Ernährung, Landwirtschaft und Verbraucherschutz (BMELV) fördert das Vorhaben mit Mitteln aus dem Energie- und Klimafonds der Bundesregierung über seinen Projektträger, die Fachagentur Nachwachsende Rohstoffe e. V. (FNR).

Phosphor (P) gehört zu den wichtigen Pflanzennährstoffen, jedoch sind seine weltweiten Vorkommen stark begrenzt. Vor diesem Hintergrund gewinnt die effiziente Nutzung von phosphorhaltigen Gärresten aus Biogasanlagen stark an Bedeutung, um den bereits im landwirtschaftlichen System befindlichen Phosphor möglichst im Kreislauf zu führen. In Deutschland fallen pro Jahr schon heute mehrere 100.000 Tonnen Gärreste aus Biogasanlagen an.

Voraussetzung für den effizienten Einsatz von Gärresten als Düngemittel ist ein genaues Verständnis ihrer P-Düngewirkungen. Das jetzt gestartete Projekt soll dieses Verständnis erweitern und in Form von Veröffentlichungen und Praxisempfehlungen an Forschungseinrichtungen, Berater und Landwirte weitergeben.

Nicht aufbereitete Gärreste eignen sich nur bedingt als Phosphor-Dünger: In ihnen ist der P-Gehalt in Relation zum Stickstoff-Gehalt häufig gering. Die Trennung fester und flüssiger Bestandteile im Gärrest reichert beide Elemente jedoch spezifisch an: Während Phosphor zum großen Teil in der Festphase verbleibt, befindet sich der gelöste Stickstoff überwiegend in der Flüssigphase. Auf diese Art ließe sich Phosphor zudem in eine ökonomisch transportwürdige Form überführen. Zudem ermöglicht die Fest-Flüssig-Trennung eine bedarfsgerechte Dosierung der P-Düngung.

Im jetzt angelaufenen Vorhaben untersuchen die Forscher unter Labor-, Gewächshaus- und Feldbedingungen die Machbarkeit und die längerfristigen Auswirkungen dieses Ansatzes. Forschungsbedarf besteht insbesondere bezüglich der substratspezifischen Unterschiede in der P-Zusammensetzung der Gärreste. Im Projekt sind deshalb Untersuchungen von Gärresten aus verschiedenen Substratmischungen von 30 Praxisbiogasanlagen geplant.

Wie gut die Pflanzen Phosphor aufnehmen können, hängt auch von der Pflanzenart ab. Deshalb sind unter anderem Versuche im Mischfruchtanbau, etwa mit Mais-Bohnen-Gemengen, geplant.

Informationen und Ansprechpartner zum Projekt stehen auf www.fnr.de unter dem Förderkennzeichen 22400112 bereit.

Weitere Informationen:
http://www.nachwachsenderohstoffe.de/projekte-foerderung/projekte/suche/
http://www.fnr.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Mangelernährung im Alter: das unterschätzte Problem

Nina Meckel
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Bei der Diskussion um die Ernährung geht es häufig um Übergewicht und seine schädlichen Folgen für Herz, Kreislauf und Gelenke. Dabei gerät die Kehrseite der Medaille aus dem Blick: Mehr als 80 Prozent der alten Patienten, die in eine Klinik kommen, haben ein hohes Risiko für Mangelernährung oder sind akut mangelernährt – mit zum Teil dramatischen Folgen. Das Wiegen der Patienten und die Bestimmung des so genannten Body-Mass-Index reichen oft nicht aus, um die Bedrohung zu erkennen. Die Deutsche Gesellschaft für Geriatrie (DGG) empfiehlt daher ein einfaches Screening für die klinische Routine.

Neue Zahlen zur Mangelernährung im Alter
„Mangelernährung im Alter ist kein Randproblem“, betont der Präsident elect der DGG, Prof. Dr. Ralf-Joachim Schulz aus Köln, auf dem Gemeinsamen Gerontologie- und Geriatriekongress Bonn2012 vom 12. bis 15. September.
Eine neue Erhebung des Lehrstuhls für Geriatrie der Uniklinik Köln unter 1.252 ernährungstherapeutisch betreuten Patienten belegt dies. Danach sind lediglich 17,7 Prozent der durchschnittlich 80 Jahre alten Patienten gut ernährt, bei 58,7 Prozent besteht ein deutliches Risiko für Mangelernährung und 23,6 Prozent der Patienten sind akut mangelernährt (2).

Die Konsequenzen
Eine Mangelernährung hat für die Betreffenden erhebliche Auswirkungen: Das Immunsystem wird schwächer und die Muskelkraft sinkt, der Betreffende ist insgesamt krankheitsanfälliger, Wunden heilen schlechter. Außerdem sind mangelernährte Patienten eher müde und geistig weniger leistungsfähig, auch der Antrieb und die Lebensfreude gehen zurück. Mangelernährte Patienten erholen sich schwerer von Krankheiten und müssen häufig länger in der Klinik bleiben. Das Risiko, an Krankheiten zu sterben, ist deutlich höher.

Wann Mangelernährung beginnt
Einen einfach zu ermittelnden Hinweis für eine Mangelernährung bietet der Body-Mass-Index. Er berechnet sich aus dem Gewicht geteilt durch die Größe im Quadrat. Ein 1,80 Meter großer Mann, der 80 Kilogramm wiegt, hat einen BMI von 80/1,80^2, also 24,7 kg/m². Ein BMI unter 20 weist auf eine Mangelernährung hin, fällt der Wert unter 18,5 kg/m² ist der Betreffende sicherlich mangelernährt.
Die Kölner Untersuchung belegt aber, dass der BMI nicht ausreicht, um mangelernährte Patienten zu erkennen. Laboruntersuchungen auf die Nährstoffe Vitamin D, Cobalamin und Folsäure, bei denen im höheren Alter ein Risiko für eine Unterversorgung besteht, zeigten, dass viele mangelernährte Patienten einen unauffälligen BMI haben. „Wir empfehlen für die klinische Routine daher neben der Bestimmung des BMI sechs einfache Fragen, die den Ernährungszustand des Patienten beleuchten“, so Schulz. Diese betreffen
– einen Gewichtsverlust in den vergangenen Monaten
– die Mobilität des Patienten
– die Selbstständigkeit bei der Essensaufnahme
– die Zahl der Hauptmahlzeiten
– die Flüssigkeitszufuhr und
– die subjektive Gesamteinschätzung des Gesundheitszustandes durch den Patienten.
Der einfach auszufüllende Erhebungsbogen erfordert während des Patientengespräches in der Klinik knapp fünf Minuten.
Obgleich der Nutzen eines frühzeitigen Screenings auf Mangelernährung bekannt ist, stellte die Arbeitsgruppe Ernährung der DGG in einer Umfrage fest, dass nur 40 Prozent der geriatrischen Kliniken in Deutschland entsprechende Screenings umsetzen (1).

Ursachen für Mangelernährung im Alter
„Die Mangelernährung im Alter hat viele Ursachen“, betont Schulz. Ältere Menschen sind oft weniger hungrig, das Sättigungsgefühl stellt sich eher ein. Ein Grund dafür könnte sein, dass sich der Magen bei älteren Menschen langsamer entleert (3).
Wichtig und oft unterschätzt sind Geruchs- und Geschmacksstörungen: Sie vermindern den Genuss beim Essen und führen dazu, dass die Betreffenden Mahlzeiten auslassen. Geruchs- und Geschmacksstörungen sind häufig: Rund die Hälfte der älteren Menschen sind davon betroffen. Auch Kau- und Schluckbeschwerden sind als Ursachen für eine zu geringe Nahrungsaufnahme häufig.
Wichtig sind außerdem unerwünschte Arzneimittelwirkungen wie Mundtrockenheit oder Übelkeit. Auch sie führen dazu, dass die Patienten zu wenig essen.
Schließlich kann nahezu jede akute oder chronische Erkrankung eine Mangelernährung auslösen. Wichtige Beispiele sind Infektionen, operative Eingriffe und Schilddrüsenerkrankungen.

Neben den körperlichen Ursachen betont Schulz auch die psychosozialen Hintergründe: „Ein häufiger Grund ist Einsamkeit. Allein zu kochen und zu essen macht den Betreffenden keine Freude, deshalb verringern sie ihre Mahlzeiten nach und nach immer mehr“, so der Geriater.
Immer bedeutsamer werden außerdem Demenzen. Die meisten Patienten verlieren im Verlauf der Erkrankung deutlich an Gewicht. In frühen Stadien sind dafür eher neurologische und hormonelle Faktoren verantwortlich, schreitet die Krankheit fort, führen die kognitiven Defizite zu immer größeren Problemen auch beim Essen (3).

1 Smoliner C, Volkert D, Wirth R. Management of malnutrition in geriatric hospital units in Germany. Z Gerontol Geriatr. 2012 Jun 27. [Epub ahead of print]

2 Noreik, Michaela: Evaluation der Ernährungstherapie in einer geriatrischen Klinik – Analyse von Effekt, Kosten und Nutzen der Ernährungstherapie in einer Jahresbilanz. Dissertation am Lehrstuhl für Geriatrie der Universität zu Köln. Eingereicht

3 Bauer JM, Wirth R, Volkert D et al, Malnutrition, Sarkopenie und Kachexie im Alter – Von der Pathophysiologie zur Therapie. Dtsch Med Wochenschr 2008; 133:305-310

Weitere Informationen:
http://www.dggeriatrie.de/presse/438-pressekonferenz-der-dgg-in-bonn-mangelernae…

Quelle: Informationsdienst Wissenschaft

(zurück)


Burn-Out-Prävention in kleinen Unternehmen

Dr. Christian Sonntag
Referat Presse- und Öffentlichkeitsarbeit
Hochschule Niederrhein – University of Applied Sciences

Das Forschungsprojekt BeFunt unter Federführung des Instituts A.U.G.E. (Institut für Arbeitssicherheit, Umweltschutz, Gesundheitsförderung und Effizienz) der Hochschule Niederrhein beschäftigte sich mit einem Tabu-Thema: Burn-Out-Prävention in kleinen Unternehmen. In Zusammenarbeit mit den Unternehmen wurden zudem Lösungswege erarbeitet.

Marten Mey vergleicht die Arbeit des Forschungsprojekts BeFunt gerne mit einem Luftballon: Wenn dieser beim Aufpumpen zu platzen drohe, würde man ja schließlich auch die Luftzufuhr drosseln und damit den Druck herausnehmen. Wenn dagegen Mitarbeiter eines Unternehmens psychisch erkrankten, suchten Arbeitgeber die Ursache dafür stets beim Mitarbeiter und nicht bei den Unternehmen. Dabei müsse man bei den Unternehmen ansetzen, um den Druck auf die Mitarbeiter zu verringern, sagt Marten Mey, der wissenschaftlicher Mitarbeiter beim Forschungsinstitut A.U.G.E. der Hochschule Niederrhein ist.

Genau das hat das Forschungsprojekt BeFunt in den vergangenen zwei Jahren geleistet. Das vom A.U.G.E. Institut geleitete Forschungsprojekt fragte nach den Ursachen für Stress, Arbeitsüberlastung und daraus resultierende psychische Erkrankungen in Klein- und Kleinstunternehmen und erarbeitete gemeinsam mit den Unternehmen Lösungen, um die psychische Gesundheit der Mitarbeiter zu erhalten. „Die Zahlen der Krankenkassen belegen, dass Fragen der psychischen Gesundheit für die Arbeits- und Beschäftigungsfähigkeit der Menschen immer wichtiger werden“, sagt Prof. Dr. Lutz Packebusch, Leiter des A.U.G.E-Instituts und Projektleiter.

So hat in den vergangenen zehn Jahren die Zahl der durch psychische Belastungen verursachten Krankheitstage erheblich zugenommen: bei Männern um 42 Prozent, bei Frauen sogar um 63 Prozent. Psychische Erkrankungen sind Ursache Nummer eins für gesundheitsbedingte Frühverrentungen. „In manchen Unternehmen bekommen die Mitarbeiter reihenweise einen Burn-out, aber die Unternehmer kümmern sich erst darum, wenn ihre Mitarbeiter krankheitsbedingt ausfallen“, kritisiert Marten Mey den in der Praxis überwiegenden Umgang mit psychischen Erkrankungen.
Das Projekt BeFunt hat es sich zum Ziel gesetzt, die Gesundheit der Beschäftigten in Klein- und Kleinstbetrieben in Nordrhein-Westfalen zu erhalten und zu fördern. Projektpartner waren die Prospektiv GmbH, das DGB-Bildungswerk, die IKK classic, die Landschaftsverbände Rheinland und Westfalen-Lippe, die Berufsgenossenschaften Holz und Metall , Gesundheitsdienst und Wohlfahrtspflege und der Arbeitsmedizinisch-Sicherheitstechnische Dienst der Berufsgenossenschaft der Bauwirtschaft, die Psychotherapeutenkammer NRW und Innungen. Die Wissenschaftler des A.U.G.E-Instituts und der Prospektiv GmbH arbeiteten dafür mit zehn Kleinbetrieben mit vier bis 45 Mitarbeitern zusammen und klopften die Arbeitsprozesse in den Unternehmen nach möglichen „Krankmachern“ ab.

Sie unterteilten die Arbeitsprozesse in einzelne Abschnitte und fragten nach den spezifischen Belastungen, die sich bei jedem einzelnen Arbeitsschritt ergeben. „So konnten wir passgenau die Überlastungen herausfiltern“, sagt Prof. Dr. Thomas Langhoff vom A.U.G.E. Institut. Ein Ergebnis der Untersuchung: Stress ergibt sich häufig aus den Mängeln bei einzelnen Arbeitsabläufen.

Die Wissenschaftler erstellten außerdem einen Leitfaden, um psychische Belastungen bei der Arbeit zu reduzieren und Gesundheits-Ressourcen bereit zu stellen. Auf der Basis von Bonus- oder Prämiensystemen wurden nachhaltige Präventionssysteme weiterentwickelt. Außerdem wurde eine Fallbeispielsammlung zum betrieblichen Eingliederungsmanagement bei psychischen Erkrankungen verfasst und es wurde ein Hinweiskatalog erstellt, der hilft, frühzeitig die Symptome arbeitsbedingter psychischer Beeinträchtigungen zu erkennen. Die Ergebnisse können ab Ende September auf der Projekthomepage unter www.befunt.de abgerufen werden.

Das Forschungsprojekt „Erhalt und Förderung psychischer Gesundheit besonders belasteter Berufs- und Funktionsgruppen in Klein- und Kleinstunternehmen“ (BeFunt) wurde von der EU/Europäischer Sozialfonds und dem Ministerium für Arbeit, Integration und Soziales des Landes Nordrhein-Westfalen gefördert. Das Forschungsinstitut A.U.G.E. ist am Fachbereich Wirtschaftsingenieurwesen der Hochschule Niederrhein angesiedelt.

Weitere Informationen erteilt Dr. Christian Sonntag, Referat für Presse- und Öffentlichkeitsarbeit, Tel.: 02151 822-3610; Email: christian.sonntag@hs-niederrhein.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Energy-Drinks erhöhen Herzmuskel-Leistung

Christiane Limberg
Pressestelle
Deutsche Gesellschaft für Kardiologie – Herz- und Kreislaufforschung e.V.

Der Konsum von Energy-Drinks, die Koffein und Taurin enthalten, erhöht die Kontraktilität des Herzens, und damit die Herzmuskel- und die Auswurfleistung. Das zeigt eine italienische Studie, die auf dem Kongress der Europäischen Kardiologengesellschaft (ESC) in München präsentiert wurde.

Das Team der Universität Siena untersuchte 35 gesunde weibliche und männliche Probanden in einem Durchschnittsalter von 25 Jahren, die eine nach Körpergewicht standardisierte Menge eines Energy-Drinks tranken, vorher aber für zwölf Stunden keine Nahrungsmittel oder Getränke zu sich nehmen durften. Nach einer Stunde wurden verschiedene Parameter für die Herzfunktion mittels modernstem Herzultraschall (Speckle-Trecking-Echokardiographie) gemessen. Der systolische Blutdruck stieg um 2,6, und der diastolische um 6 Prozent an. „Nimmt man die gemessenen Werte zusammen, so lässt sich eine verstärkte Kontraktion beider Herzkammern feststellen und somit ein positiver Effekt auf die Herzmuskel-Leistung“, so Dr. Matteo Cameli von der Universität Siena, Italien. „Das könnte sich mit dem inotropen, also Herzschlag-steigernden Effekt von Taurin erklären lassen, das die Kalzium-Ausschüttung beeinflusst.“

„Aus den jetzt vorliegenden Ergebnissen könnten sich allerdings keine Empfehlungen ableiten lassen“, so Prof. Dr. Eckart Fleck (Deutsches Herzzentrum Berlin), Pressesprecher der Deutschen Kardiologengesellschaft: „Wir sehen einmal grundsätzlich, dass diese Substanzen sofort verstoffwechselt werden können und bei Gesunden die Herzleistung erhöhen. Aber was bei einem Langzeit-Konsum passiert, welche Auswirkungen der Konsum solcher Drinks bei sportlicher Betätigung oder besonders bei Herzkranken hat, ist noch nicht untersucht.“

Quelle:
ESC-Abstract 3529: Cameli et al., Acute effects of an energy drink on myocardial function assessed by conventional echo-Doppler analysis and by speckle tracking echocardiography on young healthy subjects.

ESC-Medienkontakt für deutschsprachige Medien:
Dr. Birgit Kofler, Roland Bettschart
B&K Bettschart & Kofler Kommunikationsberatung
E-Mail: kofler@bkkommunikation.com; bettschart@bkkommunikation.com

Weitere Informationen:
http://www.escardio.org

Quelle: Informationsdienst Wissenschaft

(zurück)


450.000 Euro für den Umweltschutz – BMBF fördert Projekt der Umweltingenieure

Julia Wunderlich
Presse- und Öffentlichkeitsarbeit
Hochschule Ostwestfalen-Lippe

Nachhaltige Technologien und strategische Partnerschaften sind gefragt, damit Klimawandel und schwindende Ressourcen für nachfolgende Generationen nicht zum unlösbaren Problem werden. Beides vereint das Verbundprojekt „Technologien zum nachhaltigen Gewässer- und Umweltschutz von Küstenlandschaften in Vietnam (EWATEC-COAST)“, an dem die Hochschule Ostwestfalen-Lippe beteiligt ist. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das Projekt mit rund drei Mio. Euro für die Dauer von drei Jahren, von denen ca. 450.000 Euro an die Hochschule OWL gehen.
Vietnam mit seiner über 3.000 Kilometer langen Küste kämpft seit Jahren unter den Folgen von Umweltverschmutzungen durch Industriebetriebe, von Naturkatastrophen und globalen Klimaveränderungen. Sturmfluten und Binnenhochwasser fordern Menschenleben und sorgen für hohe ökonomische Schäden. Eine integrierte und nachhaltige Wasserwirtschaft wäre dringend notwendig, jedoch fehlen den Kommunen und Verwaltungen ausgereifte Planungsgrundlagen und nachhaltige Umwelttechnologien.

An diesem Punkt setzt das Verbundprojekt an, das im Rahmen des Programms „Internationale Partnerschaften für nachhaltige Klimaschutz- und Umwelttechnologien und -dienstleistungen (CLIENT)“ gefördert wird. Die Projektleitung liegt bei Professor Günter Meon von der TU Braunschweig, sein Stellvertreter ist Professor Joachim Fettig vom Fachbereich Umweltingenieurwesen und Angewandte Informatik der Hochschule OWL. Er übernimmt außerdem mit der industriellen Wasserwirtschaft eines der neun Teilprojekte. Ebenfalls involviert ist Professor Klaus Maßmeyer, der seine Kompetenzen im Bereich Meteorologie und Schadstoffausbreitung einbringt. Die Kollegen vom Fachbereich Umweltingenieurwesen und Angewandte Informatik blicken auf langjährige Forschungserfahrungen auch in Vietnam zurück.

Die Untersuchungsgebiete des Verbundvorhabens – die Thi-Vai-Flusslandschaft und der Can-Gio-Mangrovenwald – liegen im Süden Vietnams. Beide leiden unter erheblichen Umweltschäden. Der Thi-Vai-Fluss gilt bereits seit 1995 wegen zahlreicher Abwassereinleitungen als ökologisch tot. Das Ziel des Projekts ist die Entwicklung und Bereitstellung sowie der Einsatz von Wasser- und Umwelttechnologien. Im Teilprojekt Industrielle Wasserwirtschaft sollen vor allem die Nutzung von Wasser durch Industriebetriebe und die Reinigung des entstehenden Abwassers verbessert werden. Ortsansässige Firmen benötigen zukünftig moderne Abwassertechnologien, um die Verschmutzung der Umwelt zu verringern. „Teile der Anlagen, mit denen wir die Abwasserreinigung demonstrieren wollen, werden in Deutschland gefertigt und nach Vietnam gebracht. Die Koordination der notwendigen Schritte gehört auch zu meinen Aufgaben“, erklärt Professor Fettig.

Darüber hinaus soll als Dienstleistungstool ein sogenanntes Managementsystem entwickelt und installiert werden, um die Umwelt- und Lebensbedingungen im Untersuchungsgebiet nachhaltig zu verbessern. Hierbei handelt es sich um ein modellbasiertes Instrumentarium für wasserwirtschaftliche Planungen. So werden zum Beispiel die Wassermenge und die Wasserqualität erfasst und modelliert sowie meteorologische und hydrologische Daten bereitgestellt.

Die Projektpartner von EWATEC-COAST bringen Kompetenzen aus verschiedenen Bereichen ein. Neben der TU Braunschweig und der Hochschule OWL sind die Universitäten Köln und Siegen involviert. Außerdem erfolgt die Zusammenarbeit mit den Firmen A3 Water Solutions, Gelsenkirchen, enviplan, Lichtenau sowie dem Institut für Wassermanagement IfW aus Braunschweig und dem Ingenieurbüro IWUD (Ingenieure für Wasser, Umwelt und Datenverarbeitung) aus Höxter. Die Verbundpartner treffen sich im Oktober in Vietnam, um die Zusammenarbeit mit vietnamesischen Partnerinstitutionen sowie mit Behörden und Firmen zu konkretisieren..

Quelle: Informationsdienst Wissenschaft

(zurück)


Neue Methode: Forscherteam analysiert Stressbiologie von Säuglingen

Dr. Josef König
Pressestelle
Ruhr-Universität Bochum

Nicht nur bei Erwachsenen steigt die Konzentration des Stresshormons Cortisol im Speichel nach dem Aufwachen deutlich an, sondern auch bei Neugeborenen. Das berichtet ein Forscherteam der Ruhr-Universität Bochum und aus Basel in der Zeitschrift Psychoneuroendocrinology. Damit bietet sich eine neue, nicht-invasive und unkomplizierte Möglichkeit, die Aktivität des Stresssystems bereits im Säuglingsalter zu erfassen. Das öffnet nicht nur Wege, um bislang ungeklärte Forschungsfragen in Angriff zu nehmen, sondern könnte in Zukunft auch helfen, bei Neugeborenen Krankheiten hormonproduzierender Organe wie der Nebenniere zu diagnostizieren.

Stressfrei Stress testen
Neue Methode: Forscherteam analysiert Stressbiologie von Säuglingen
Schwangerschaftsdauer sagt Stressantwort in den ersten Lebensmonaten vorher

Nicht nur bei Erwachsenen steigt die Konzentration des Stresshormons Cortisol im Speichel nach dem Aufwachen deutlich an, sondern auch bei Neugeborenen. Das berichtet ein Forscherteam der Ruhr-Universität Bochum und aus Basel in der Zeitschrift Psychoneuroendocrinology. „Damit bietet sich eine neue, nicht-invasive und unkomplizierte Möglichkeit, die Aktivität des Stresssystems bereits im Säuglingsalter zu erfassen“, sagt Prof. Dr. Gunther Meinlschmidt von der Klinik für Psychosomatische Medizin und Psychotherapie des LWL-Universitätsklinikums der RUB. Das öffnet nicht nur Wege, um bislang ungeklärte Forschungsfragen in Angriff zu nehmen, sondern könnte in Zukunft auch helfen, bei Neugeborenen Krankheiten hormonproduzierender Organe wie der Nebenniere zu diagnostizieren.

Stresshormone testen: Leicht bei Erwachsenen, schwer bei Neugeborenen

Bei Erwachsenen untersuchen Wissenschaftler Stresshormone üblicherweise, indem sie die Probanden im Experiment einer stressigen Situation aussetzen. Da ein vergleichbares Vorgehen aus ethischen Gründen bei Neugeborenen nicht denkbar ist, ist es wesentlich schwerer herauszufinden, wie gut ihr Stresssystem entwickelt ist. Das deutsch-schweizerische Forscherteam umging dieses Problem, indem es eine natürliche „Stresssituation“, nämlich das Aufwachen, betrachtete. Bei Erwachsenen steigt die Cortisol-Konzentration nach dem Aufwachen an, vermutlich um den Körper auf die Anforderungen des Tages vorzubereiten. In welchem Alter sich diese Cortisol-Reaktion ausbildet, war bislang unbekannt.

Neugeborene zeigen Cortisol-Anstieg nach dem Aufwachen

Daten von 64 Neugeborenen im Alter von drei Wochen bis sechs Monaten gingen in die Studie ein. Die Eltern ließen ihre Kinder zu Hause an zwei Tagen an einem kleinen Wattestäbchen lutschen, jeweils nach dem Aufwachen und eine halbe Stunde später. Im so gewonnenen Speichel bestimmten die Forscher die Cortisol-Konzentration. In 63 % der Fälle stieg die Cortisol-Menge nach dem Aufwachen deutlich an. Dabei spielte weder die Uhrzeit eine Rolle, zu der das Kind erwachte, noch die Tatsache, ob das Baby nach dem Erwachen gestillt wurde oder nicht.

Je kürzer die Schwangerschaft, desto geringer der Cortisol-Anstieg

Stattdessen hatte die Länge der Schwangerschaft einen Einfluss. Je früher die Kinder zur Welt gekommen waren, desto geringer war der Cortisol-Anstieg nach dem Aufwachen. „Möglicherweise ist das Stresshormonsystem bei Babys nach kürzerer Schwangerschaft weniger ausgereift. Das könnte negative Konsequenzen haben“, vermutet Privatdozentin Dr. Marion Tegethoff von der Fakultät für Psychologie der Universität Basel. Da Cortisol das Immunsystem hemmen kann, könnte es durch einen fehlenden Cortisol-Anstieg zu überschießenden Immunreaktionen wie bei Allergien kommen.

Neue Forschungsfragen per Speicheltest angehen

Stress erhöht das Risiko für psychische und körperliche Erkrankungen. Nun steht eine neue Methode zur Verfügung, um auch bei Neugeborenen das Stresssystem einfach zu untersuchen. Prof. Meinlschmidt, Leiter der Forschungssektion für Psychobiologie, Psychosomatik und Psychotherapie am LWL-Universitätsklinikum Bochum erläutert künftige Forschungsfragen: „Bei manchen Nagern ist die hormonelle Stressantwort in den ersten Lebenswochen für einen spezifischen Zeitraum nahezu abgeschaltet – womöglich um Organe zu schützen, die sich in dieser Zeit entwickeln. Ob es eine vergleichbare Phase auch beim Menschen gibt, ist noch unbekannt, da es aus ethischen Gründen bislang nicht möglich war, in regelmäßigen Abständen die hormonelle Stressreaktion zu testen.“

Titelaufnahme

M. Tegethoff, N. Knierzinger, A.H. Meyer, G. Meinlschmidt (2012): Cortisol awakening response in infants during the first six postnatal months and its relation to birth outcome, Psychoneuroendocrinology, doi: 10.1016/j.psyneuen.2012.08.002

Weitere Informationen

Prof. Dr. Gunther Meinlschmidt; Forschungssektion für Psychobiologie, Psychosomatik und Psychotherapie; Klinik für Psychosomatische Medizin und Psychotherapie, LWL-Universitätsklinikum der Ruhr-Universität, Alexandrinenstrasse 1-3, 44791 Bochum, Tel. 0234/5077-3173
gunther.meinlschmidt@rub.de

Angeklickt

Klinik für Psychosomatische Medizin und Psychotherapie des LWL-Universitätsklinikum der RUB
http://www.lwl-uk-bochum.de/klinik-fuer-psychosomatische-medizin-und-psychothera…

Research Department of Neuroscience der RUB
http://www.rd.ruhr-uni-bochum.de/neuro/index.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Energiewende kann sich für ländliche Regionen und ihre Bürger lohnen

Adelheid Joswig-Erfling
Wissenschaftliche Dienste
Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR)

IzR 9/10.2012: Bürgerinvestitionen in die Energiewende
Durch die Energiewende und den starken Ausbau erneuerbarer Energien wird der ländliche Raum in Deutschland zu einem bedeutenden Energiestandort. In diesem Zuge werden unsere gewachsenen Agrar- und Kulturlandschaften ihr Gesicht erheblich verändern. Wie lässt sich dafür die Akzeptanz der Bevölkerung vor Ort gewinnen? Erfolg versprechen eine eigenständige regionale oder lokale Organisation der neuen Energieproduktion unter Mitsprache und wirtschaftlicher Beteiligung der Bürger sowie der Faktor regionale Wertschöpfung. Je mehr die Bevölkerung vor Ort an der Energieproduktion beteiligt wird und je positiver sich diese auf die gesamte wirtschaftliche Situation des eigenen Wohnorts oder der Region auswirkt, desto eher werden die Menschen die Veränderungen ihrer Umwelt mittragen.

Diese umweltpsychologischen und regionalwirtschaftlichen Aspekte der Energiewende werden im aktuellen Heft der Fachzeitschrift „Informationen zur Raumentwicklung“ von einschlägigen Experten erläutert. Es beleuchtet die räumlichen Auswirkungen der Energiewende und diskutiert geeignete Formen der Bürgerbeteiligung an örtlichen oder regionalen Energiekonzepten. Insbesondere zeigt das Heft – auch an konkreten Beispielen – finanzielle Beteiligungsmöglichkeiten von Bürgern im Bereich erneuerbarer Energien auf. Diese reichen von der Mitgliedschaft in einer örtlichen Energiegenossenschaft bis zu Anlageprodukten regionaler Geldinstitute für energetische Investitionen in der Region.

Informationen zur Raumentwicklung (IzR), Heft 9/10.2012:
Bürgerinvestitionen in die Energiewende
Herausgeber: Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) im Bundesamt für Bauwesen und Raumordnung, Bonn
ISSN 0303-2493
Vertrieb: Steiner Verlag und Buchhandel

Fachlicher Ansprechpartner: Dr. Peter Jakubowski, BBSR
peter.jakubowski@bbr.bund.de

Die IzR ist eine führende Fachzeitschrift im Bereich Raumordnung und Städtebau. Sie informiert regelmäßig und aktuell über Fragen der räumlichen Entwicklung in Deutschland und Europa.

Weitere Informationen:
http://www.bbsr.bund.de/BBSR/IzR Näheres zum Heft, Bestellmöglichkeit und weitere Angebote zum Thema

Quelle: Informationsdienst Wissenschaft

(zurück)


IMK: Einführung der Riester-Rente war „Fehlentscheidung“

Rainer Jung
Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

Deutliche Anhebung des gesetzlichen Rentenniveaus und steuerfinanzierte Aufstockung gegen Altersarmut

Mit einer deutlichen Anhebung des gesetzlichen Rentenniveaus und einer steuerfinanzierten Aufstockung niedriger Renten lässt sich Altersarmut wirksam verhindern. Ohne derartige Reformen drohen insbesondere jüngeren Arbeitnehmerinnen und Arbeitnehmern in Deutschland erhebliche Rentenlücken. Diese Lücken können bei den meisten Versicherten durch eine kapitalgedeckte Zusatzvorsorge nicht ausgeglichen werden. Zu diesem Ergebnis kommt eine neue Studie des Instituts für Makroökonomie und Konjunkturforschung (IMK) in der Hans-Böckler-Stiftung. Angesichts eines guten Jahrzehnts empirischer Erfahrung mit der Riester-Rente haben die Forscher keinen Zweifel daran, dass sich die teilweise Umstellung der Alterssicherung auf Kapitaldeckung „als Fehlentscheidung erwiesen hat“. Die kapitalgedeckte Rente sei „keinesfalls geeignet, den Menschen ein sicheres Auskommen im Alter in Ergänzung zur gesetzlichen Rente zu garantieren. Bleiben die Reformen unverändert in Kraft, werden erhebliche Teile der Erwerbsbevölkerung in Altersarmut gleiten“, warnen Dr. Rudolf Zwiener und Dr. Katja Rietzler vom IMK und die Berliner Wirtschaftswissenschaftler Prof. Dr. Heike Joebges und Dr. Volker Meinhardt.

Die Forscher empfehlen daher, die Subventionierung von Riester-Renten auslaufen zu lassen, den Riester-Faktor rasch aus der Rentenformel zu entfernen und das Niveau der Gesetzlichen Rentenversicherung (GRV) mittelfristig an den – deutlich höheren – Durchschnitt der OECD-Länder anzupassen. „Das gesetzliche Rentensystem muss wieder zu einer Lebensstandardsicherung zurückfinden mit einer paritätischen Finanzierung durch Arbeitnehmer und Arbeitgeber, schreiben die Wissenschaftler in ihrer Untersuchung, die heute auf einer Pressekonferenz in Berlin vorgestellt wird und als IMK Report Nr. 73 erscheint.*

„Leider haben die Rentenreformen um die Jahrtausendwende das Problem des demographischen Wandels nicht gelöst, sondern nur in die Zukunft verschoben“, sagt Prof. Dr. Gustav A. Horn, der Wissenschaftliche Direktor des IMK. „Hohe Kosten, magere Renditen und erhebliche Risiken bei der Kapitaldeckung gehen zu Lasten von Millionen Menschen, die darauf hoffen, das im Zuge der Reformen deutlich abgesenkte Niveau der gesetzlichen Rente durch Vorsorgesparen ausgleichen zu können. Doch nach allem, was wir heute absehen können, wird das nur relativ wenigen gelingen. Noch schlechter wird es für all jene aussehen, die sich eine zusätzliche Absicherung gar nicht leisten können.“

Die Wissenschaftler arbeiten in ihrer Studie eigene Untersuchungen und die vorliegende Forschungsliteratur auf und identifizieren so zentrale Schwachstellen des aktuellen Alterssicherungssystems:

– Rentenniveau weit unter OECD-Durchschnitt –
Erklärtes Ziel der Rentenreformen der Jahre 2001 bis 2004 war es, die Beitragssätze zur GRV auch bei einer wachsenden Zahl von Rentnern bis 2030 nicht über 22 Prozent steigen zu lassen. Dazu wurde das Rentenniveau gesenkt und die Formel zur Rentenberechnung geändert.

Die Folgen dieser Modifikationen zeigt der Daten-Überblick der Forscher: Das Versorgungsniveau, das die GRV Beschäftigten mit durchschnittlichem oder niedrigem Einkommen bietet, liegt in Deutschland deutlich unter dem Niveau in anderen OECD-Ländern. So beträgt die Bruttoersatzrate, die von der OECD für internationale Vergleiche berechnet wird, bei deutschen Durchschnittsverdienern derzeit lediglich 42 Prozent, gemessen am durchschnittlichen Einkommen. Im OECD-Durchschnitt erreichen vergleichbare Versicherte hingegen eine Ersatzrate von gut 57 Prozent. Beim Alterssicherungsniveau von Geringverdienern (50 Prozent des nationalen Durchschnitteinkommens) rangiert Deutschland unter den 34 OECD-Mitgliedern sogar an letzter Stelle. Nach den bisherigen Weichenstellungen der Rentenpolitik soll das Rentenniveau weiter deutlich sinken, brutto und netto. So lag das Brutto-Rentenniveau 2003 bei 48 Prozent. Nach Berechnungen des Sachverständigenrates wird es bis 2030 für selbst für einen Standardrentner mit 45 Versicherungsjahren auf nur noch rund 40 Prozent sinken. Das entspricht – kaufkraftbereinigt bei konstanten Reallöhnen – einer Reduzierung der Durchschnittsrente für langjährig versicherte Männer um knapp 200 Euro auf nur noch auf 973 Euro im Jahr 2030. Das Nettorentenniveau – nach Abzug der Sozialversicherungsbeiträge, vor Steuern – beträgt derzeit 50,4 Prozent. Nach amtlichen Schätzungen sinkt es bis zum Jahr 2025 auf 46,2 Prozent, und es soll bis 2030 „nicht unter 43 Prozent“ fallen.

Das niedrige Rentenniveau stelle ein besonders großes Problem dar, weil parallel zu den Rentenreformen der Niedriglohnsektor in Deutschland deutlich wuchs, betonen die Forscher – auch durch die Arbeitsmarktreformen der 2000er Jahre. Zudem erlebten mehr Menschen Unterbrechungen in ihren Erwerbsbiographien, insbesondere in Ostdeutschland. Unter ostdeutschen Männern der Geburtsjahrgänge 1956 bis 1965 werde etwa jeder zweite am Ende seines Erwerbslebens nur Rentenansprüche haben, die unterhalb der Bedarfsgrenzen für die Grundsicherung im Alter liegen. Auch unter westdeutschen Männern ließen sich die Niveaureduzierungen längst deutlich beobachten: Wer von ihnen 2010 in Rente ging, erhielt im Mittel 130 Euro weniger Rente ausbezahlt als ein durchschnittlicher Bestandsrentner. „Altersarmut ist damit in Deutschland vorprogrammiert“, schreiben die Wissenschaftler. Zwar sollte das geringere Rentenniveau in der Theorie der Rentenreformen durch staatlich geförderte, selbst finanzierte Altersvorsorge, etwa ein Riester-Rentenprodukt, ausgeglichen werden. In der Praxis gelinge das aber nur selten. Denn erstens sei die freiwillige Vorsorge für Arbeitnehmer vergleichsweise teuer und auch deshalb zehn Jahre nach ihrer Einführung nicht weit genug verbreitet. Zum zweiten fielen die Renditen kapitalgedeckter Produkte tendenziell geringer als die der umlagefinanzierten Rente.

– Hohe Belastung, mäßige Beteiligung –
Mit Einführung der kapitalgedeckten Zusatzvorsorge steigen die finanziellen Aufwendungen, die Arbeitnehmer für die Altersvorsorge tragen sollen, markant, rechnen die Wissenschaftler vor. Denn Riester-Sparer erhalten zwar einen moderaten staatlichen Zuschuss, anders als im gesetzlichen Alterssicherungssystem leisten die Arbeitgeber aber keinen Beitrag. So müssen Beschäftigte längerfristig 15 Prozent ihres Bruttoeinkommens für ihre Altersvorsorge aufwenden: 11 Prozent als hälftigen Beitragssatz zur GRV und 4 Prozent für die private Vorsorge. Ohne Riester-Reform wäre der GRV-Beitragssatz nach wissenschaftlichen Prognosen bis 2030 auf rund 26 Prozent gestiegen. Die – hälftige – Belastung für die Arbeitnehmer läge also bei nur 13 Prozent. „Das trifft gerade jüngere Arbeitnehmer. Sie müssen für die ergänzende private Vorsorge mindestens doppelt so viel selbst ansparen, wie sie durch die Rentenreformen bei den Beiträgen zur GRV entlastet werden“, erklärt IMK-Rentenexperte Zwiener.

Auch wenn die Datenlage bislang schwach sei, deute viel darauf hin, dass vor allem Durchschnitts- und Geringverdiener den zusätzlichen Aufwand scheuen, resümieren die Forscher – obwohl gerade ihnen Altersarmut droht. So hätten nicht einmal 50 Prozent der potenziell Riester-Zuschuss-Berechtigten bislang einen Vorsorgevertrag abgeschlossen. Bei Menschen mit Brüchen im Erwerbsverlauf liege die Quote noch deutlich niedriger. Und selbst unter den Riester-Sparern lege nur ein Teil wirklich zusätzliches Geld fürs Alter zurück. Gerade unter Normal- und Geringverdienern seien hingegen oft bloße Umschichtungen und Mitnahmeeffekte zu beobachten: Bereits bestehende Sparformen werden aufgelöst zugunsten von Anlagen, für die es die staatliche Förderung gibt.

– Schwächung der Binnennachfrage –
Rentner und rentennahe Arbeitnehmer, die einen Vertrag nicht mehr abschließen können, „würden voll von den Rentenniveaukürzungen getroffen“ – ohne Möglichkeit des Ausgleichs, schreiben die Wissenschaftler. Doch auch Vorsorgesparer gerieten in ein – unbewusstes – Dilemma: Da ihre zusätzlichen Sparanstrengungen auf Kosten des privaten Konsums und der Binnennachfrage gingen, „reduzieren sie das Wirtschaftswachstum und damit auch ihre Einkommen“. Diesen Effekt hat das IMK bereits im Jahre 2009 in einer Studie mit umfangreichen Simulationsrechnungen dargestellt. Er wirke sich auch negativ auf all jene Unternehmen aus, die ihre Umsätze vor allem auf dem Inlandsmarkt erzielen und relativiere für sie die Senkung der Lohnnebenkosten, die ebenfalls Ziel der Rentenreformen war. Von den Rentenreformen hätten daher vor allem die Versicherungswirtschaft und die – zu diesem Zeitpunkt ohnehin bereits international hoch wettbewerbsfähige – Exportwirtschaft profitiert, „während gleichzeitig der Anstieg der Sparquote die Binnennachfrage dämpfte. Ein positiver Wachstumsimpuls konnte so nicht entstehen.“

– Renditen niedriger als in der Gesetzlichen Rentenversicherung –
Den gravierenden Nachteilen, die die Einführung der Kapitaldeckung für Arbeitnehmer und Gesamtwirtschaft brachte, stünden keine überzeugenden Vorzüge gegenüber, analysieren die Wissenschaftler. Anders als noch in den 1990er Jahren oft behauptet, wiesen kapitalgedeckte Vorsorgeformen keine überlegenen Renditen auf. Die systematischen Renditevergleiche, die Wissenschaftler bislang zwischen GRV und kapitalgedeckten Zusatzversicherungen anstellten, prognostizierten langfristig ähnliche oder sogar etwas höhere GRV-Renditen. Lediglich Riester-Verträge, die bereits unmittelbar nach der Rentenreform von 2001 abgeschlossen wurden, können etwas besser abschneiden als die gesetzliche Rente.

Aktuell sei für alle Formen von kapitalgedeckten Lebens- und Rentenversicherungen ein deutlicher Renditerückgang zu beobachten. Seit 1994 senkte das Bundesfinanzministerium den Garantiezins auf die Sparbeiträge für neu abgeschlossene Lebensversicherungen von 4 Prozent auf jetzt nur noch 1,75 Prozent. Bei Riester-Rentenverträgen sank der Garantiezins zwischen 2002 und 2012 von 3,25 auf 1,75 Prozent. Eine Untersuchung des Deutschen Instituts für Wirtschaftsforschung (DIW) gelangte zu dem Ergebnis, dass bei 2011 neu abgeschlossenen Verträgen die Versicherten mindestens 87 Jahre alt werden müssten, um wenigstens ihre eigenen Einzahlungen und die staatlichen Zulagen wieder ausgezahlt zu bekommen – ohne jegliche Rendite. Hinzu komme, dass Risiken wie Erwerbsunfähigkeit, die früher über die GRV abgesichert waren, nun zusätzlich versichert werden müssten.

Auch eine höhere Nachhaltigkeit der Kapitaldeckung sei empirisch nicht zu beobachten, so die Forscher. Im Gegenteil: Auf dem Höhepunkt der Finanzmarktkrise im Jahr 2008 betrugen die Verluste kapitalgedeckter Rentenversicherungen im Durchschnitt der OECD-Länder 23 Prozent. Auch Versicherungen in Deutschland verzeichneten, trotz vergleichsweise strenger Regulierung, ein Minus von über acht Prozent. Zwar seien die Verluste in den Folgejahren teilweise wieder ausgeglichen worden, erkennen die Forscher an. „Doch dürfte die zukünftige Entwicklung für kapitalgedeckte Rentenversicherungen in Europa angesichts der Eurokrise und den damit verbundenen Kursverlusten von Staatsanleihen der Peripherieländer schwierig werden.“ Insgesamt sei aufgrund der Schwankungen und Krisen auf den Finanzmärkten „eine langfristig verlässliche Abschätzung zukünftig zu erwartender Leistungen im Kapitaldeckungsverfahren nicht möglich.“

– Auslandanlagen keine Lösung –
Unsicherheit und Renditeschwäche ließen sich auch durch Anlagen in Ländern mit „günstigerer“ demographischer Struktur außerhalb Europas nicht beheben, so die Forscher. Für derartige Investments kämen nicht viele Länder in Frage. Denn neben einer vergleichsweise jungen Bevölkerung und aktuell kräftigem Wachstum zählten auch die Nachhaltigkeit der Wirtschaftsentwicklung und politische Stabilität zu den unverzichtbaren Voraussetzungen. Vor allem aber müsse der Kapitalmarkt des Landes so groß sein, dass massive ausländische Kapitalzuflüsse nicht zu wirtschaftlichen Verwerfungen führten, beispielsweise zu Blasen auf dem Aktien- oder Immobilienmarkt.

Die Krisen in Mexiko, Argentinien und vor allem die Asienkrise von 1997 zeigten, dass nur wenige Länder diese Anforderungen erfüllten. Eine Studie aus dem Jahr 2011 kam am Beispiel von 18 Schwellenländern zu dem Ergebnis, dass die vermeintlich hohen Renditen von Anlagen in diesen Staaten lediglich das erhöhte Ausfallrisiko kompensieren. International hoch wettbewerbsfähige Länder wie China exportierten per Saldo selber Kapital. Die Nachfrage nach Anlagen aus Europa sei daher zu klein, um die Probleme der Alterssicherung anderer Länder zu lösen, so die Forscher.

Zudem ergäben sich bei Anlagen in Auslandswährungen erhebliche Wechselkursrisiken, die die Renditen schnell aufzehren könnten. Zum Teil seien diese Risiken systemisch und kaum zu vermeiden, wenn es etwa um Anlagen für die große Generation der „Babyboomer“ gehe: In der Ansparphase fließe viel Kapital in das Zielland, was dessen Währung unter Aufwertungsdruck gegenüber dem Euro bringt. Das würde Anlagen in diesem Land verteuern. Wenn die Guthaben dann mit Fälligkeit der Altersvorsorge wieder abgezogen werden, ergeben sich umgekehrte Wechselkurseffekte: Da der Wert der Anlagewährung sinkt, werden die Renditen erneut geschmälert. „Ein optimales Anlageland kann es damit gar nicht geben: Sobald es von Anlegern als solches identifiziert werden würde, würden die dadurch ausgelösten Kapitalbewegungen die zu erwartenden Renditen in der Währung der Anleger wieder reduzieren“, resümieren die Wissenschaftler.

– Reformalternativen: Rückkehr zur Lebensstandardsicherung –
Mittlerweile habe auch die Politik die Gefahr rapide wachsender Altersarmut in naher Zukunft erkannt, die Staat und Steuerzahler dann durch Sozialhilfe im Rahmen der Grundsicherung auffangen müssen, schreiben die Forscher. Die notwendige deutliche Korrektur der vergangenen Rentenreformen stehe aber noch aus. Die von der Bundesarbeitsministerin propagierte „Zuschussrente“ löse das Problem nicht. Vielmehr müsse das gesetzliche Rentensystem „so ausgestaltet sein, dass Einkommensbezieher mit einem Einkommen von knapp unterhalb des Durchschnitts und 35 Beitragsjahren deutlich oberhalb des Grundsicherungsniveaus liegen und nicht auf einen „Zuschuss“ angewiesen sein dürfen.“

Um das zu erreichen, plädieren die Wissenschaftler dafür, das umlagefinanzierte Rentensystem zu stärken. In einem ersten Schritt solle die so genannte „Riester-Treppe“ aus der Rentenformel entfernt werden, die den Anstieg der gesetzlichen Renten dämpft. Damit stehe auch die staatliche Förderung kapitalgedeckter Vorsorgeformen zur Disposition. Statt „dieser allgemeinen Subventionierung“ sollten gezielt die Renten von Geringverdienern und Personen mit unterbrochenen Erwerbsbiografien steuerfinanziert aufgestockt werden.

Mittelfristig halten es die Forscher für notwendig, das Niveau der GRV auf das durchschnittliche Rentenniveau in den OECD-Ländern anzuheben, das um 15 Prozentpunkte höher liegt als das deutsche. Statt einer gegenwärtig durchschnittlichen gesetzlichen Altersrente für langjährig versicherte Männer von 1.152 Euro wären das immerhin 1.585 Euro. Zur Finanzierung könne der Beitragssatz über viele Jahre verteilt in kleinen Schritten angehoben werden. Die sehr gute internationale Wettbewerbsfähigkeit deutscher Unternehmen werde das nicht schädigen, sind die Ökonomen überzeugt.

Zudem solle die Beitragsbemessungsgrenze angehoben werden, „wobei oberhalb der bisherigen Bemessungsgrenze zusätzliche Rentenansprüche nur noch unterproportional erworben würden.“ Des Weiteren sind die Wissenschaftler dafür, die Entgeltumwandlung in der betrieblichen Alterssicherung zwar weiterhin steuerfrei zu halten, aber künftig – im Interesse aller Arbeitnehmer – mit Sozialbeiträgen zu belegen. Nur so lasse sich vermeiden, dass die Entgeltumwandlung den Rentenwert der GRV senke. Schließlich plädieren die Forscher dafür, im GRV-System wieder eine ausreichende Absicherung gegen Erwerbunfähigkeit zu bieten.

*Heike Joebges, Volker Meinhardt, Katja Rietzler, Rudolf Zwiener: Auf dem Weg in die Altersarmut – Bilanz der Einführung der Kapitalgedeckten Riester-Rente. IMK-Report Nr. 73, September 2012.
Download: http://www.boeckler.de/pdf/p_imk_report_73_2012.pdf

Kontakt in der Hans-Böckler-Stiftung

Prof. Dr. Gustav A. Horn
Wissenschaftlicher Direktor IMK
Tel.: 0211-7778-331
E-Mail: Gustav-Horn@boeckler.de

Dr. Rudolf Zwiener
IMK
Tel.: 0211-7778-333
E-Mail: Rudolf-Zwiener@boeckler.de

Dr. Katja Rietzler
IMK
Tel.: 0211-7778-576
E-Mail: Katja-Rietzler@boeckler.de

Rainer Jung
Leiter der Pressestelle
Tel.: 0211-7778-150
E-Mail: Rainer-Jung@boeckler.de

Quelle: Informationsdienst Wissenschaft

(zurück) 


Neue Rheumatherapie – Schlucken statt Spritzen

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Die rheumatoide Arthritis kann heutzutage effektiv behandelt werden – allerdings müssen die entsprechenden Medikamente gespritzt werden. Einen entscheidenden Fortschritt verspricht ein völlig neuer Wirkstoff, der als Tablette verabreicht werden kann.
Die rheumatoide Arthritis ist eine chronisch entzündliche Erkrankung der Gelenke, die in Schüben verläuft. Moderne Medikamente können die Krankheit erfolgreich unterdrücken, so dass Gelenkzerstörungen und daraus entstehenden Behinderungen heute zuverlässig vermieden werden können. Allerdings müssen diese Medikamente gespritzt werden, weil es sich um Proteine handelt, die im Magen des Patienten verdaut und dadurch unwirksam werden.

„Außerdem entfalten die meisten dieser Wirkstoffe ihre optimale Wirkung nur in Kombination mit dem Medikament Methotrexat, das eine Reihe unerwünschter Nebenwirkungen hat“, sagt Professor Hendrik Schulze-Koops von der Rheumaeinheit des Klinikums der Universität München, der mit seinem Team nun an der Entwicklung einer alternativen Therapie beteiligt war: Im Rahmen einer internationalen multizentrischen Studie konnte die Wirksamkeit einer völlig neuen Art von Medikament nachgewiesen werden.

Kleines Molekül hemmt Immunantwort

Das neue Medikament ist ein sogenanntes „small molecule“, das chemisch hergestellt wird und in der Lage ist, in Zellen des Immunsystems einzudringen. Dort hemmt es gezielt ein intrazelluläres Signalprotein – die sogenannte Januskinase – und unterdrückt die Aktivierung einer Immunantwort – und damit den entzündlichen Prozess. Der entscheidende Vorteil: Der neue Wirkstoff ist kein Protein und kann daher als Tablette eingenommen werden. Auch eine Kombination mit Methotrexat ist nicht notwendig.

„Der neue Ansatz könnte die zukünftige Therapie von Patienten mit rheumatoider Arthritis erheblich verändern“, blickt Schulze-Koops in die Zukunft. Im Moment laufen Zulassungsverfahren für das Präparat in den USA und in Europa. Zudem soll es im Rahmen weiterer klinischer Studien nun an einer größeren Zahl von Patienten über einen längeren Zeitraum getestet werden.(The New England Journal of Medicine, 2012) (göd)

Publikation:
Placebo-Controlled Trial of Tofacitinib Monotherapy in Rheumatoid Arthritis.
R. Fleischmann, J. Kremer, J. Cush, H. Schulze-Koops, C.A. Connell, J.D. Bradley, D. Gruben, G.V. Wallenstein, S.H. Zwillich, K.S. Kanik
N Engl J Med 2012; 367: 495-507
Doi: 10.1056/NEJMoa1109071

Kontakt:
Prof. Dr. med. Hendrik Schulze-Koops
Rheumaeinheit des Klinikum der Universität München
Tel.: 089/5160-3579
Fax: 089/ 5160-4199
E-Mail: Rheumaeinheit@med.uni-muenchen.de
Web: http://www.klinikum.uni-muenchen.de/Medizinische-Poliklinik-Innenstadt/de/rheuma…

Quelle: Informationsdienst Wissenschaft

(zurück) 


Methanquelle im Unterholz entdeckt

Dr. Susanne Benner
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Chemie

Max-Planck-Institut für Chemie: Treibhausgas wird auch von Pilzen freigesetzt
Bereits vor sechs Jahren mussten ihretwegen naturwissenschaftliche Lehrbücher neu geschrieben werden: Damals überraschte die Forschergruppe um Dr. Frank Keppler mit dem Ergebnis, dass Pflanzen in sauerstoffreicher Umgebung Methan produzieren. Bis zu jenem Zeitpunkt undenkbar. Bis dahin galt es als sicher, dass biogenes Methan ausschließlich unter Sauerstoffausschluss bei der Zersetzung organischen Materials entsteht. Nun verblüfft seine Wissenschaftsgruppe mit neuen Fakten: Auch Pilze produzieren Methan.

Methan ist ein Treibhausgas, das rund 25-mal wirkungsvoller ist als Kohlendioxid. Ein Großteil des Methans entsteht durch Bakterien beispielsweise auf Reisfeldern, Mülldeponien oder bei der Rinderhaltung. Dass auch Pflanzen Methan produzieren, ist seit der Studie von Dr. Frank Keppler und seinen Kollegen im Jahr 2006 bekannt. Seitdem forscht er weiter auf dem Gebiet der Methan-Emittenten. Nun sorgte Dr. Katharina Lenhart, die dem Arbeitskreis Frank Kepplers am Max-Planck-Institut für Chemie angehört, für eine weitere interessante Entdeckung. Sie fand heraus, dass Pilze, die totes organisches Material zersetzen, ebenfalls Methan abgeben.

In ihrer Studie untersuchte die Biologin acht unterschiedliche Ständerpilzsorten (Basidiomycetes), deren Methanabgabe sie unter Laborbedingungen genauestens beobachtete und mithilfe von aufwändigen Messmethoden – sogenannten Isotopenanalysen – nachweisen konnte. Während ihrer Versuchsreihe variierte sie die Nährböden, auf denen die Pilze wuchsen. Dabei zeigte sich, dass das zugrunde liegende Substrat scheinbar Einfluss auf die gebildete Methanmenge hat. Verschiedene molekularbiologische Analyseverfahren, die in Zusammenarbeit mit der Universität Gießen und dem Helmholtz Zentrum für Umweltforschung in Magdeburg durchgeführt wurden, ergaben, dass keine methanbildenden Mikroorganismen, sogenannte Archaeen, bei deren Energiestoffwechsel Methan entsteht, eingebunden waren. „Somit müssen Prozesse innerhalb der Pilze für die Methanbildung verantwortlich sein“, erläutert Katharina Lenhart. Welche das sind, gilt es noch herauszufinden.

„Die von den Pilzen freigesetzte Methanmenge, die wir bisher bei unseren Studien messen konnten, ist im Vergleich mit anderen Quellen eher gering. Ihr Beitrag zur globalen Erwärmung ist daher als vernachlässigbar einzustufen“, so Frank Keppler. Interessant ist jedoch die ökologische Relevanz dieser Ergebnisse, da Pilze insbesondere in Böden und beim Abbau von organischem Material eng mit Bakterien zusammenleben. Viele Bakterien verwerten das energiereiche Methan in ihrem Stoffwechsel. Sie nehmen Methan auf und oxidieren es zu Wasser und Kohlendioxid. In wieweit das durch Pilze freigesetzte Methan von diesen assoziierten Bakterien aufgenommen wird und ob sie direkt davon profitieren, sei derzeit noch unbekannt, so die Biologin Katharina Lenhart.

Auch die Frage, warum die Pilze Methan an ihre Umwelt abgeben, ist noch ungeklärt. Klar scheint jedoch, dass diese Studie Ausgangspunkt für zahlreiche weitere, interdisziplinäre Arbeiten sein wird.

Originalpublikation

„Evidence for methane production by saprotrophic fungi“, Katharina Lenhart, Michael Bunge, Stefan Ratering, Thomas R. Neu, Ina Schüttmann, Markus Greule, Claudia Kammann, Sylvia Schnell, Christoph Müller, Holger Zorn, and Frank Keppler; Nature Communications
DOI: 10.1038/ncomms2049

Ansprechpartner

Dr. Katharina Lenhart
Max-Planck-Institut für Chemie in Mainz
Department of Atmospheric Chemistry, ORCAS Research Group
Tel: 06131/ 305 4822
E-Mail: katharina.lenhart@mpic.de

Dr. Frank Keppler
Max-Planck-Institut für Chemie in Mainz
Department of Atmospheric Chemistry, ORCAS Research Group
Tel: 06131/ 305 4800
Fax: 06131/ 305 4009
E-Mail: frank.keppler@mpic.de

Quelle: Informationsdienst Wissenschaft

(zurück)


DOG: Bei Neurodermitis, Allergie und Gürtelrose jährlich zum Augenarzt

Anna Julia Voormann
Pressestelle
Deutsche Ophthalmologische Gesellschaft

Berlin – Patienten, die unter bestimmten Hauterkrankungen leiden, müssen besonders auf ihre Augen achten. So sind Allergiepatienten besonders anfällig für das Trockene Auge, in schweren Fällen von Neurodermitis steigt die Gefahr für Bindehauttumoren. Eine Gürtelrose wiederum kann durch eine Entzündung im Augeninneren schaden. Betroffene sollten daher einmal jährlich den Augenarzt aufsuchen, um sich untersuchen zu lassen. Darauf weist die Deutsche Ophthalmologische Gesellschaft (DOG) im Vorfeld des 110. DOG-Kongresses hin, der vom 20. bis 23. September in Berlin stattfindet.
Menschen mit schwerer Neurodermitis entwickeln häufig Erkrankungen der Augenoberfläche, bei schweren Krankheitsverläufen steigt das Risiko für bösartige Wucherungen an der Bindehaut. „Diese Tumorvorstufen, sogenannte Präkanzerosen oder auch konjunktivale Plattenepithelkarzinome, müssen möglichst früh operativ entfernt werden – unter Umständen begleitet von Chemotherapie in Form von Augentropfen oder Bestrahlung“, erklärt Dr. med. Henrike Westekemper, Oberärztin der Universitäts-Augenklinik in Essen. Dass Erkrankungen der Haut und der Augenoberfläche häufig zusammen auftreten, liegt in der embryonalen Entwicklung begründet. Denn Haut und Auge entstammen demselben Gewebe. „Wir empfehlen Neurodermitikern daher, sich einmal jährlich beim Augenarzt untersuchen zu lassen“, rät Henrike Westekemper. Zudem sollten die Patienten zusätzliche Risikofaktoren wie starke UV-Strahlung oder Rauchen meiden, betont die DOG-Expertin.

Auch Pollenallergiker sollten auf ihre Augen achten. Denn neben den allergisch-entzündlichen Reaktionen sind sie besonders anfällig für die Ausbildung eines „Trockenen Auges“. Warnzeichen für ein Trockenes Auge sind Fremdkörpergefühl, Kratzen und Trockenheit. Aber auch das umgekehrte Phänomen kann die Erkrankung anzeigen, stark tränende Augen – worunter Allergiker ohnehin häufig leiden. „Der Augenarzt kann mit der Spaltlampe feine Veränderungen an der Oberfläche erkennen und beurteilen, ob sich ein Trockenes Auge entwickelt“, erläutert Professor Dr. med. Klaus-Peter Steuhl, Präsident der DOG und Ärztlicher Direktor der Universitäts-Augenklinik Essen. Abhilfe schaffen meist Tränenersatzmittel, die das Auge zusätzlich befeuchten. „Kortison sollten Augenärzte nur bei Entzündungen verordnen“, betont Klaus-Peter Steuhl im Vorfeld des DOG-Kongresses.

Schließlich kann auch eine Gürtelrose im Gesichtsbereich auf die Augen übergreifen und das Augeninnere befallen. Handlungsbedarf besteht, wenn der Ausschlag die Nasenspitze befällt. „Der Befall ist streng sektorförmig und scharf begrenzt, sieht typischerweise wie ausgestanzt aus“, erklärt Henrike Westekemper. „In diesem Fall muss der Patient unverzüglich den Augenarzt konsultieren, weil dann auch das Augeninnere gefährdet ist und bleibende Schäden bis hin zur Erblindung drohen.“ Die Ärzte behandeln die Virus-Erkrankung mit antiviralen Medikamenten und zusätzlich Kortison.

Zum Thema Haut- und Augenerkrankungen wird Dr. med. Henrike Westekemper auf dem 110. DOG-Kongress referieren.

DOG: Forschung – Lehre – Krankenversorgung
Die DOG ist die medizinisch-wissenschaftliche Fachgesellschaft für Augenheilkunde in Deutschland. Sie vereint unter ihrem Dach mehr als 6000 Ärzte und Wissenschaftler, die augenheilkundlich forschen, lehren und behandeln. Wesentliches Anliegen der DOG ist es, die Forschung in der Augenheilkunde zu fördern: Sie unterstützt wissenschaftliche Projekte und Studien, veranstaltet Kongresse und gibt wissenschaftliche Fachzeitschriften heraus. Darüber hinaus setzt sich die DOG für den wissenschaftlichen Nachwuchs in der Augenheilkunde ein, indem sie zum Beispiel Stipendien vor allem für junge Forscher vergibt. Gegründet im Jahr 1857 in Heidelberg, ist die DOG die älteste medizinisch-wissenschaftliche Fachgesellschaft der Welt.

http://www.dog-kongress.de
http://www.dog.org

Quelle: Informationsdienst Wissenschaft

(zurück)


Öko-Institut berechnet Klimabilanz von Tiefkühlprodukten

Mandy Schoßig
Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Die heute von Öko-Institut e.V. und Deutschem Tiefkühlinstitut e.V. veröffentlichte Klimabilanz-Studie bestätigt: Die Klimabilanzen von tiefgekühlten Produkten sind vergleichbar mit denen anderer Angebotsformen, wie (un)gekühlten Produkten aus der Dose beziehungsweise dem Glas oder selbstzubereiteten Lebensmitteln. Damit werden die Zwischenergebnisse aus dem Vorjahr bestätigt: Eine pauschale Verurteilung der Tiefkühlkost ist aus wissenschaftlicher Sicht nicht haltbar.

Der am Öko-Institut für die Klimabilanz verantwortliche Bereichsleiter Carl-Otto Gensch macht deutlich: „Tiefkühlprodukte gelten häufig als klimaschädlich. Die Ergebnisse der von uns durchgeführten Studie zeigen jedoch, dass die Klimabilanzen von Tiefkühlkost und ihren Vergleichsprodukten auf einem Niveau sind.“

Transport und Lagerung haben nur geringen Einfluss
Die Umweltauswirkungen der Distribution, die Transport und Lagerung beinhaltet, sind in allen untersuchten Produktgruppen sehr viel geringer als bisher angenommen. In allen bilanzierten Produktgruppen weist die Distribution die niedrigsten Werte an Treibhausgasemissionen auf. Bei Hühnerfrikassee und Pizza liegt der Anteil an der Gesamtbilanz zum Beispiel bei lediglich zwei beziehungsweise sechs Prozent.

Größter Klimaeinfluss: Rezeptur und Zubereitung
Es ist nicht die Angebotsform per se, die auf eine gute oder schlechte Klimabilanz schließen lässt. Viel entscheidender sind die Produktzusammensetzung – also die Rezeptur, das Einkaufsverhalten, die Lagerung im Haushalt und die Zubereitung. Auch der Verbraucher kann durch einen umsichtigen Umgang mit Lebensmitteln einen entscheidenden Beitrag zu mehr Klimaschutz leisten. Auf Basis der neuen Erkenntnisse wurden deshalb vom Deutschen Tiefkühlinstitut bereits Verbraucher-Tipps für den klimafreundlichen Umgang mit Tiefkühlprodukten entwickelt.

Die Tiefkühlindustrie richtet den Fokus schon länger auf Energieeffizienz: So verfügen zum Beispiel die meisten Produktionsstätten inzwischen über Wärmerückgewinnungssysteme. Die verbrauchte Energie wird somit wieder nutzbar gemacht anderweitig eingesetzt, zum Beispiel zu Heizzwecken.

Bilanzierungsregeln für eine systematische Messbarkeit und Transparenz in der Tiefkühlbranche
Mit dem Ziel, speziell auch kleineren Unternehmen Orientierung bei der Durchführung von Klimabilanz-Analysen zu geben, plant der Branchenverband im nächsten Schritt einheitliche Rahmenbedingungen und Bilanzierungsregeln (Category Rules) für die Tiefkühlwirtschaft zu erarbeiten. „Nur auf Grundlage einer wissenschaftlich fundierten Methodik können Klimaeinflüsse und Nachhaltigkeitsbemühungen von Unternehmen transparent verglichen und dem Verbraucher glaubhaft kommuniziert werden.“, so Udo Perenz, Vorstandsvorsitzender des Deutschen Tiefkühlinstitutes.

Insgesamt leisten das Deutsche Tiefkühlinstitut und die gesamte Branche mit der Klimabilanz-Studie einen wichtigen Beitrag in der Debatte um die Messbarkeit von Treibhausgasemissionen bei Lebensmitteln. Die Tiefkühlbranche übernimmt seit jeher Verantwortung und wird ihre Prozesse auch in Zukunft auf Grundlage der Klimabilanzstudie weiter optimieren.

Ansprechpartner am Öko-Institut:

Carl-Otto Gensch
Leiter des Institutsbereichs Produkte & Stoffströme
Öko-Institut e.V., Geschäftsstelle Freiburg
Telefon: +49 761 45295-241
E-Mail: c.gensch@oeko.de

Öko-Institut e.V.
Das Öko-Institut ist eine der europaweit führenden, unabhängigen Forschungs- und Beratungseinrichtungen für eine nachhaltige Zukunft.

Deutsches Tiefkühlinstitut e.V. (dti)
Das Deutsche Tiefkühlinstitut ist die Kommunikations- und Informationsplattform der deutschen Tiefkühlwirtschaft.

Neues vom Öko-Institut auf Twitter: http://twitter.com/oekoinstitut

Interesse an eco@work, dem kostenlosen E-Paper des Öko-Instituts?
Abo unter http://www.oeko.de/newsletter_ein.php

Weitere Informationen:
http://www.oeko.de/oekodoc/1256/2012-395-de.pdf – Ergebnisbericht „Klimabilanz Tiefkühlkost. Vergleich von Angebotsformen und Identifikation der Optimierungspotentiale für ausgewählte Tiefkühlprodukte“ des Öko-Instituts
http://www.flickr.com/photos/oekoinstitut/sets/72157631418988092/ – Grafiken zur Klimabilanz von fünf ausgewählten Produkten (Download über Flickr.com)

Quelle: Informationsdienst Wissenschaft

(zurück)


Entwicklung des Diabetes in Deutschland dramatischer als bisher erwartet

Dr. Olaf Spörkel
Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes Zentrum

Derzeit wird in Deutschland der Anteil der Erwachsenen mit bekanntem Typ 2 Diabetes auf sieben bis acht Prozent geschätzt. Anhand neuer epidemiologischer Daten eines nationalen Forscherverbunds, an dem das DDZ beteiligt ist, und der aktuellen Bevölkerungsvorausberechnung des Statistischen Bundesamtes muss im Jahr 2030 in der Altersklasse der 55 bis 74-Jährigen von 3,9 Millionen Personen mit Typ 2 Diabetes ausgegangen werden. Gegenüber heute bedeutet das einen Anstieg um mehr als 1,5 Millionen Personen. Würde allein nur jede zweite Person mit Prä-Diabetes dauerhaft an Maßnahmen zur Prävention teilnehmen, ließen sich bis zum Jahr 2030 mehr als 370.000 Diabetes-Fälle vermeiden.
Laut einer aktuellen Prognose der Internationalen Diabetes Föderation (IDF) zur Entwicklung des Diabetes wird in Deutschland die Anzahl der Erwachsenen mit Diabetes im Jahr 2030 um 580.000 Personen auf insgesamt 5,6 Millionen ansteigen. Bei dieser Schätzung wurde allerdings nur die Veränderung der Demographie mit einbezogen. Eine aktuelle Untersuchung des Instituts für Biometrie und Epidemiologie des Deutschen Diabetes-Zentrums (DDZ) – jetzt erschienen in der Fachzeitschrift European Journal of Epidemiology – berücksichtigt zusätzlich die Neuerkrankungsraten und Sterblichkeitsdaten für Personen mit Typ 2 Diabetes und Diabetes-Vorstufen in der älteren Bevölkerung. Hierzu wurde im Vorfeld auf Basis eines Zusammenschlusses großer bevölkerungsbezogener Studien aus verschiedenen Regionen Deutschlands (DIAB CORE Verbund, Kompetenznetz Diabetes) die Anzahl der Personen mit Typ 2 Diabetes erhoben. Zusammen mit der offiziellen Bevölkerungsvorausberechnung des Statistischen Bundesamtes und der Neuerkrankungsrate für den Diabetes lässt sich unter Einbeziehung der Sterberate die Anzahl der erkrankten Personen für die kommenden Jahre schätzen. Wendet man die Methode des DDZ auf das Jahr 2030 an, erhält man eine weit höhere Anzahl an Erwachsenen mit Diabetes als von der IDF prognostiziert. Allein in der Altersgruppe der 55 bis 74-Jährigen ergibt sich gegenüber heute ein Anstieg um mehr als 1,5 Millionen Personen auf insgesamt 3,9 Millionen. Den deutlichsten Zuwachs mit fast einer Millionen Personen erhält man bei den Männern. Bei den Frauen ergibt sich ein Anstieg um etwas mehr als 0,5 Millionen Personen.

Die Prognose des DDZ umfasst auch Präventionsmaßnahmen bei Risikofaktoren des Typ 2 Diabetes. Würden 50 Prozent der Personen mit einem Prä-Diabetes (grenzwertig erhöhte Glukosewerte) erfolgreich und dauerhaft an Maßnahmen zur besseren Ernährung und Gewichtsreduktion teilnehmen (wie im Finnischen Diabetes-Präventionsprogramm) ließe sich der starke Anstieg gegebenenfalls bremsen. Von den prognostizierten Zuwächsen könnten 210.000 Diabetes-Fälle bei Männern und 160.000 Fälle bei Frauen vermieden werden. Würden sogar drei von vier der Personen mit Diabetes-Vorstufen mitmachen, stiegen diese Zahlen auf 300.000 Männer und 225.000 Frauen.

Der vom DDZ vorhergesagte Trend bei den Diabetesfällen wird auch durch die neuesten Daten der DEGS-Studie des Robert-Koch-Instituts (Studie zur Gesundheit Erwachsener in Deutschland) bestätigt. Angesichts dieser Entwicklung ergibt sich die dringliche Aufgabe, effektive Programme zur Prävention zu organisieren. Die aktuelle DDZ-Studie zeigt, dass die Teilnahmebereitschaft für Präventionsprogramme in der Bevölkerung ein zentraler Faktor für den Erfolg solcher Maßnahmen darstellt, was bei Planung berücksichtigt werden sollte.

Das Deutsche Diabetes-Zentrum (DDZ) gehört der „Wissenschaftsgemeinschaft Gottfried Wilhelm Leibniz“ (WGL) an. In der Leibniz-Gemeinschaft sind derzeit 86 Institute vereint. Die wissenschaftlichen Beiträge des DDZ sind auf die Ziele der Verbesserung von Prävention, Früherkennung, Diagnostik und Therapie des Diabetes mellitus und seiner Komplikationen sowie der Verbesserung der epidemiologischen Datenlage in Deutschland ausgerichtet. Das DDZ versteht sich als deutsches Referenzzentrum zum Krankheitsbild Diabetes, indem es Ansprechpartner für alle Akteure im Gesundheitswesen ist, wissenschaftliche Informationen zu Diabetes mellitus aufbereitet und für die breite Öffentlichkeit bereitstellt. Das DDZ ist Partner im Deutschen Zentrum für Diabetesforschung (DZD).

Kontakt:

Dr. rer. nat. Ralph Brinks
Institut für Biometrie und Epidemiologie
Deutsches Diabetes-Zentrum (DDZ)
Leibniz-Zentrum für Diabetes-Forschung
an der Heinrich-Heine-Universität Düsseldorf
Tel.: 0211-3382-405
E-Mail: Ralph.Brinks@ddz.uni-duesseldorf.de

Prof. Dr. Michael Roden
Wissenschaftlicher Geschäftsführer des DDZ
Deutsches Diabetes-Zentrum (DDZ)
Leibniz-Zentrum für Diabetes-Forschung
an der Heinrich-Heine-Universität Düsseldorf
E-Mail: Michael.Roden@ddz.uni-duesseldorf.de

Dr. Olaf Spörkel
Leiter Presse- und Öffentlichkeitsarbeit
Deutsches Diabetes-Zentrum (DDZ)
Leibniz-Zentrum für Diabetes-Forschung
an der Heinrich-Heine-Universität Düsseldorf
Tel.: 0211-3382-507
E-Mail: Olaf.Spoerkel@ddz.uni-duesseldorf.de

Weitere Informationen:
http://www.ddz.uni-duesseldorf.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Mannschaftssportler sind im Arbeitsleben nicht automatisch teamfähiger

Holger Schleper
Geschäftsbereich Kommunikation
Hochschule Osnabrück

Eine aktuelle Studie der Hochschule Osnabrück entkräftet ein Credo der Personalauswahl. Der Wirtschaftspsychologe Prof. Dr. Uwe Kanning zeigt in einer Erhebung, dass es keinen Zusammenhang gibt zwischen sozialer Kompetenz und sportlichem Engagement.
Auch wenn viele Personaler das anders sehen: Wer Sport treibt, besitzt nicht automatisch eine höhere soziale Kompetenz. Das ist das Ergebnis einer aktuellen Studie der Hochschule Osnabrück. „Im Lebenslauf wird die Angabe, sportlich aktiv zu sein, von vielen Arbeitgebern gern gesehen und gilt als Indikator für soziale Kompetenz“, erläutert Prof. Dr. Uwe Kanning, Experte für Diagnostik und Personalauswahl an der Fakultät für Wirtschafts- und Sozialwissenschaften. Was laut dem Wirtschaftspsychologen auf den ersten Blick eine plausible Hypothese ist, deckt sich allerdings nicht mit tatsächlichen Erfahrungswerten.

360 Probanden füllten einen Fragebogen zur Messung sozialer Kompetenzen aus und gaben an, ob sie sportlich aktiv sind – entweder in einer Mannschaft oder in einer Einzelsportart. Das Ergebnis: „Im Abgleich unserer Erhebung mit einer Normstichprobe von 4000 Menschen konnten wir feststellen, dass es im Blick auf die soziale Kompetenz keine signifikanten Unterschiede gibt. Zudem unterscheiden sich Sportler nicht von Menschen, die keinen Sport treiben“, erklärt Kanning.

Trotzdem ist beim Blick auf die Methoden der Personalauswahl besonders die hohe Wertschätzung von Mannschaftssport allgegenwärtig. Beispielhafte Auszüge aus Ratgeber-Artikeln: „Üben Sie dagegen eine Mannschaftssportart aus, sagt dies einiges über Ihre Teamfähigkeit aus.“ Oder: „Wenn jemand im Verein Fußball spielt, ist er normalerweise durchsetzungsfähig und kann gut im Team arbeiten.“ Auch hier zeichnet die Osnabrücker Studie, gemeinsam erstellt mit der Studentin Julia Kappelhoff, ein anderes Bild. „Es gibt keinen Hinweis darauf, dass Mannschaftssportler teamfähiger sind als Einzelsportler“, berichtet Kanning. Der Wirtschaftspsychologe rät Unternehmen deshalb, keine Bewerber auszuladen, nur weil im Lebenslauf der Sport fehlt. „Das kann eine klare Fehlentscheidung sein. Und angesichts der in vielen Branchen insgesamt schrumpfenden Auswahl an Bewerbern sollten Personaler nicht voreilig handeln.“

Weitere Informationen:

Prof. Dr. Uwe Kanning
Tel.: 0541 969-3890
E-Mail: U.Kanning@hs-osnabrueck.de

Quelle: Informationsdienst Wissenschaft

(zurück)


„Grüne Wände“ gegen Luftverschmutzung

Monika Landgraf
Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Stärker als bislang angenommen, nämlich um bis zu 30 Prozent statt um ein bis zwei Prozent, könnte eine stärkere Begrünung entlang innerstädtischer Straßen die Luftverschmutzung reduzieren. Das haben Dr. Thomas Pugh, jetzt am Karlsruher Institut für Technologie (KIT), und seine Kollegen von den Universitäten Birmingham und Lancaster in einer Studie herausgefunden. Ihre Ergebnisse haben die Wissenschaftler in der Fachzeitschrift Environmental Science and Technology veröffentlicht.
Bäume, Büsche oder Kletterpflanzen können in den „Häuserschluchten“ aus Glas und Beton für bessere Luft sorgen, so das Ergebnis der Studie. „Gerade dort ist die Belastung ja am höchsten. Diese Grünflächen könnten Straße für Straße angelegt werden, ohne große oder teure Initiativen“, sagt Dr. Thomas Pugh vom Institut für Meteorologie und Klimaforschung – Bereich Atmosphärische Umweltforschung (IMK-IFU), der Anfang des Jahres von der Universität Lancaster ans KIT kam.

Die Pflanzen filtern Stickstoffdioxid (NO2) und mikroskopisch kleine Partikel (Feinstaub) aus der Luft. Diese stellen in den Städten sowohl der Industrienationen als auch der Schwellenländer ein großes Gesundheitsproblem dar: Laut Weltgesundheitsorganisation (WHO) sterben pro Jahr weltweit mehr als eine Million Menschen an den Folgen verschmutzter Luft.

In den Schluchten aus Straßen und Häusern kann die belastete Luft kaum entweichen. Das Forscherteam fand aber heraus, dass mit Gras, Efeu oder anderen Pflanzen begrünte Wände die Luft deutlich besser filtern als bislang angenommen: Statt um bis zu zwei Prozent könnten sie laut dieser Studie die Luftverschmutzung um mehr als das Zehnfache reduzieren.

In einer Computersimulation, welche die eingeschlossene Luft und chemische Reaktionen abbildet, die die Konzentration von Schadstoffen in der Luft beeinflussen, hat das Forscherteam die Auswirkungen von Pflanzen direkt in den Straßen mit denen von Pflanzen in Parks oder auf Dächern verglichen. Klarer Gewinner waren die begrünten Wände. Bäume an der Straßenseite schnitten ebenfalls gut ab, allerdings nur in weniger belasteten Straßen, in denen die Baumkronen die verschmutzte Luft nicht am Boden hielten. Um den Pflanzenanteil in Innenstädten zu erhöhen, schlagen die Wissenschaftler unter anderem eine Art „begrünte Plakatwand“ vor.

Wesentlicher Vorteil solcher Ideen ist auch, dass sie sich Stück für Stück, Straße für Straße umsetzen lassen. „Groß angelegte Initiativen zur Bekämpfung der Luftverschmutzung – wie Abwrackprämien für alte Autos, Katalysatoren oder die Einführung einer City-Maut – allein reichen nicht aus“, sagt Professor Rob MacKenzie von der School of Geography, Earth and Environmental Sciences an der Universität Birmingham. „Begrünte Wände können hier zusätzlich helfen: Sie sind in der Lage, die Luft zu säubern, die in die Stadt einströmt und dort stehen bleibt. Strategisch platziert sind sie ein vergleichsweise einfacher Weg, Probleme lokal in den Griff zu bekommen.“ Das setze jedoch voraus, dass die Pflanzen unter den schwierigen Bedingungen in Städten nicht absterben, so Thomas Pugh. „Wir müssen noch sorgfältiger darauf achten, wie und wo wir solche Begrünungen anlegen, damit sie weder starkem Luftzug noch großer Hitze oder auch Vandalismus ausgesetzt sind.“

Studie: „Effectiveness of Green Infrastructure for Improvement of Air Quality in Urban Street Canyons“, Thomas A. M. Pugh, A. Robert MacKenzie , J. Duncan Whyatt , and C. Nicholas Hewitt, Environ. Sci. Technol., 2012, 46 (14), pp 7692-7699, DOI: 10.1021/es300826w

Das KIT-Zentrum Klima und Umwelt entwickelt Strategien und Technologien zur Sicherung der natürlichen Lebensgrundlagen: Dafür erarbeiten 660 Mitarbeiterinnen und Mitarbeiter aus 32 Instituten Grundlagen- und Anwendungswissen zum Klima- und Umweltwandel. Dabei geht es nicht nur um die Beseitigung der Ursachen von Umweltproblemen, sondern zunehmend um die Anpassung an veränderte Verhältnisse.

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Weiterer Kontakt:
Margarete Lehné
Pressereferentin
Tel.: +49 721 608-48121
Fax: +49 721 608-43658
E-Mail: margarete.lehne@kit.edu

Anhang
 „Grüne Wände“ gegen Luftverschmutzung
http://idw-online.de/de/attachment18405

Quelle: Informationsdienst Wissenschaft

(zurück)


Decken Sie einen Wespen-Tisch mit Weintrauben!

Eva Goris
Kommunikation
Deutsche Wildtier Stiftung

Die Deutsche Wildtier Stiftung rät zur passiven Abwehr der Quälgeister
Die Gemeine Wespe (Vespula vulgaris) heißt nicht etwa so, weil sie besonders böse ist. Vielmehr steht „Gemein“ für „allgemein“! Es ist also von einer Wespenart die Rede, die bei uns in Deutschland besonders weit verbreitet ist. „Wespen sind die ungeliebten Insekten des Hochsommers“, sagt Eva Goris, Pressesprecherin der Deutschen Wildtier Stiftung. Und obwohl die Gefahr, die von ihnen ausgeht, weit überschätzt wird, geraten viele Menschen in Panik, wenn Wespen im Anflug sind. Wer Wespen nicht zu sich an die Kaffeetafel einladen will, kann vorbeugen. Eva Goris rät, eine halbierte Zitrone mit Gewürznelken zu spicken und zusammen mit einem Sträußchen Basilikum auf den Tisch zu stellen. „Dieses Aroma finden Wespen abstoßend.“ Doch man kann noch einen Schritt weitergehen und einen Extra-Tisch für Wespen decken. „Sie lieben Weintrauben“, sagt die Pressesprecherin der Deutschen Wildtier Stiftung. „Drehen Sie den Spieß um – und laden Sie die Wespen ein! Mit Weintrauben lassen sie sich ablenken und friedlich stimmen.“

Beim Anflug von Wespen sind drei Grundregeln zu beachten: Nicht nach ihnen schlagen, keine hektischen Bewegungen machen, Wespen nicht zerquetschen! Denn auch tote Wespen können noch stechen und ihr Gift einspritzen. Übrigens ist es nicht zu empfehlen, Wespen anzupusten, um sie abzuwehren. Auf das Kohlendioxid in unserem Atem reagieren sie panisch. Für Allergiker sind Wespen allerdings immer gefährlich – sie sollten stets vorsichtig sein!

Wespen haben ein schlechtes Image. „Zu Unrecht“, sagt Goris. „Ihr Nutzen wird nicht gesehen.“ Wer weiß schon, dass Wespen dem Menschen viele Plagegeister vom Leib halten. So schleppen die Arbeiterinnen der Gemeinen Wespe viele tausend Insekten, zum größten Teil Fliegen, Blattläuse und andere Schädlinge, als Nahrung ins Wespennest. Außerdem helfen sie bei der Bestäubung von Blüten und sind bei Vögeln als „Futter“ beliebt. Gerade das Leben der Arbeiterinnen im Wespenstaat ist hart! Sie schleppen unermüdlich Insekten als Nahrung ins Nest, um damit die Larven-Brut zu füttern. Kurz vor ihrem Tod im Herbst wollen die fleißigen Arbeiterinnen mit der berühmten Wespen-Taille etwas Süßes naschen und geraten prompt mit den Menschen in Konflikt. Deshalb fordert die Deutsche Wildtier Stiftung mehr Toleranz und Solidarität mit den Arbeiterinnen.

Quelle: Informationsdienst Wissenschaft

(zurück)


Forschung zu Kurzumtriebsplantagen und Abwassernutzung in Praxis umgesetzt

Susanne Hecker
Presse- und Öffentlichkeitsarbeit
Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V.

Forschung zu erneuerbaren Energien und Energieholzanbau verknüpft mit der Nutzung von geklärten Abwässern setzen derzeit Wissenschaftler des Projekts ELaN in Zusammenarbeit mit den Berliner Stadtgütern GmbH um:
Auf den ehemaligen Rieselfeldern Wansdorf im Nordosten von Berlin, nahe Henningsdorf, wurden im April diesen Jahres fünf Hektar Kurzumtriebsplantagen angelegt. Seit Anfang Mai werden dort verschiedene Teilabschnitte der an sich sehr trockenen Versuchsfläche unterschiedlich stark, aber bedarfsgerecht mit gereinigtem Abwasser des nahegelegenen Klärwerks Wansdorf beregnet.

Auf der Versuchsfläche in Wansdorf wird einerseits untersucht, ob sich die ehemaligen Rieselfelder als belastete Standorte für den Anbau von Kurzumtriebsplantagen eignen und welche Wassermenge die Pflanzen für ein optimales Wachstum benötigen. Dazu wird in regelmäßigen Abständen das Wachstum in den verschiedenen Bewässerungsstufen gemessen. Nach mehreren Jahren wird das Holz auf Inhaltstoffe untersucht, um festzustellen, ob die Pflanzen durch Schadstoffbindung zur Bodensanierung des Standorts beitragen können.

Andererseits wird durch Grund- und Sickerwasseruntersuchungen geprüft, ob die Bewässerung mit Klarwasser aus dem Vorfluter des Klärwerks Wansdorf keine negativen Auswirkungen auf den Grundwasserleiter unterhalb der Pflanzung hat. Sensible Bewässerungssteuerung und Feuchtefühler im Boden sollen sicherstellen, dass nicht mehr Wasser auf der Fläche ausgebracht wird, als die Weiden, Pappeln, Erlen und Robinien aufnehmen können.

Eigentümer wie Betreiber der Kurzumtriebsplantagen und der neu installierten Bewässerungsanlage auf den ehemaligen Rieselfeldern Wansdorf ist die Berliner Stadtgüter GmbH in Kooperation mit der Co:bios Energie GmbH und der Klärwerk Wansdorf GmbH. Die wissenschaftliche Betreuung findet in Zusammenarbeit mit der Hochschule für Nachhaltige Entwicklung (FH) Eberswalde (HNE) im Rahmen des Projekts ELaN statt, das vom Leibniz-Zentrum für Agrarlandschaftsforschung (ZALF) e.V. koordiniert wird.

Kurzumtriebsplantagen – kurz KUP – sind Pflanzungen schnellwachsender Baumarten wie Pappel und Weide, aber auch Erle und Robinie, die in wenigen Jahren mehrere Meter hoch wachsen können. Das in Wansdorf produzierte Holz soll nach voraussichtlich drei Jahren geerntet und zu Hackschnitzeln verarbeitet werden. Anschließend nutzt es das Biomasseheizkraftwerk Henningsdorf zur Energieproduktion durch Verbrennung. Nach der Ernte treiben die Pflanzen wieder aus und können in der Folge wiederholt genutzt werden.

Das Verbundprojekt ELaN beschäftigt sich mit der Entwicklung neuer Landmanagementkonzepte für das Berliner Umland und Brandenburg durch eine nachhaltige Wasser- und Stoffnutzung.

Weitere Informationen erhalten Sie über die Pressestelle des ZALF:

Susanne Hecker
033432/82 309
0151/405 455 03
susanne.hecker@zalf.de

Monique Luckas
033432/82 405
0151/405 455 00
monique.luckas@zalf.de

Weitere Informationen:
http://www.elan-bb.de
http://www.zalf.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Ein Schrittmacher gegen Schnarchen

Dr. Julia Biederlack
GB Unternehmenskommunikation
Charité-Universitätsmedizin Berlin

Implantation erfolgreich verlaufen
An der Charité – Universitätsmedizin Berlin wurde europaweit erstmals ein Zungenschrittmacher implantiert, der Atemstillstände im Schlaf verhindert und gegen Schnarchen hilft. Ärztinnen und Ärzte der Kliniken für Hals-, Nasen- und Ohrenheilkunde haben das Gerät bei einem Patienten eingesetzt, der unter dem sogenannten obstruktiven Schlafapnoe-Syndrom leidet. Bei dieser mitunter lebensbedrohlichen Erkrankung kann es zu Atemaussetzern kommen, wenn die Spannkraft der Muskeln der oberen Atemwege im Schlaf übermäßig stark nachlässt. In der Folge verengen sich die Atemwege und den Erkrankten fällt es schwer zu atmen. Die typischen Schnarchgeräusche entstehen, wenn die Betroffenen angestrengt versuchen, durch die versperrten Atemwege Luft zu holen.

Der sogenannte Neurostimulator, der etwas kleiner ist als eine Streichholzschachtel, wird wie ein Herzschrittmacher unterhalb des Schlüsselbeines implantiert. Von dort aus führt ein hauchdünnes Kabel zum Rippenbogen, wo die Bewegungen des Zwerchfelles gemessen und die individuelle Atemfrequenz überwacht wird. Zieht sich das Zwerchfell des Patienten beim Einatmen zusammen, sendet der Schrittmacher über ein zweites Kabel einen schwachen elektrischen Impuls an den sogenannten Hypoglossus-Nerv. Dieser Nerv sitzt direkt unter der Zunge und ist für die Kontraktion des Zungenmuskels verantwortlich. Wird er stimuliert, erschlafft die Zunge nicht und blockiert die Luftröhre nicht, sondern bleibt im vorderen Rachenraum des Schlafenden. Lebensbedrohlichen Atemstillständen wird so vorgebeugt.

Der Somnologe und Schlafforscher Dr. Alexander Blau betont, dass der Neurostimulator ein großer Fortschritt in der Behandlung von Schlafapnoe ist. Im Gegensatz zur bisherigen Therapie mittels einer speziellen Beatmungsmaske werde die nächtliche Bewegungsfreiheit des Betroffenen nicht mehr eingeschränkt. „Der Patient hat ein Stück Lebensqualität zurückgewonnen. Bevor er zu Bett geht, schaltet er das Gerät ganz bequem über eine kleine Fernbedienung ein.“ Dr. Blau ist zuversichtlich, dass die weiteren Implantationen genauso erfolgreich verlaufen werden.

Kontakt:
Dr. Alexander Blau
Interdisziplinäres Schlafmedizinisches Zentrum
Campus Charité Mitte
t: +49 30 450 513 165
alexander.blau[at]charite.dek

Weitere Informationen:
http://schlafmedizin.charite.de/zentrum/ – Interdisziplinäres Schlafmedizinisches Zentrum

Quelle: Informationsdienst Wissenschaft

(zurück)


Private Altersvorsorge: Wer entscheidet sich für eine Riester-Rente, und aus welchen Gründen?

Christian Wißler
Mediendienst Forschung
Universität Bayreuth

Weshalb entscheiden sich Menschen in Deutschland für eine Riester-Rente? Für das eigene Alter vorsorgen zu wollen, ist nicht das einzige Motiv. Schwerer wiegt häufig die Absicht, die staatlichen Zulagen und Steuervergünstigungen in Anspruch zu nehmen, die mit dieser Form der Altersvorsorge einhergehen. Finanzberatungen haben dabei einen signifikanten Einfluss. Denn bei Personen, die sich einem professionellen Finanzberater anvertrauen, ist die Wahrscheinlichkeit hoch, dass sie einen Riester-Vertrag abschließen. Diese und weitere Ergebnisse sind in einer neuen, an der Universität Bayreuth entstandenen Studie enthalten, die jetzt im „Journal of Pension Economics and Finance“ erschienen ist.
Die Autoren sind Dipl.-Volkswirt Christian Pfarr, Wissenschaftlicher Mitarbeiter am Lehrstuhl für Finanzwissenschaft der Universität Bayreuth, und sein früherer Bayreuther Kollege PD Dr. Udo Schneider, der seit kurzem am Wissenschaftlichen Institut der Techniker Krankenkasse für Nutzen und Effizienz im Gesundheitswesen (WINEG) tätig ist. In ihrer vergleichenden Studie untersuchen sie erstmals die unterschiedlichen Motive und Einflussfaktoren, die kurz- oder langfristig daran beteiligt sind, wenn Menschen in Deutschland sich für eine Riester-Rente oder für eine private, nicht staatlich geförderte Rentenversicherung entscheiden.

Die Datenbasis: Die SAVE-Studie 2005 – 2009

Die Untersuchung stützt sich auf die Daten der SAVE-Studie aus den Jahren 2005 bis 2009. SAVE – die Abkürzung steht für „Sparen und Altersvorsorge in Deutschland“ – ist eine repräsentative Erhebung, die bis 2010 von der Deutschen Forschungsgemeinschaft (DFG) gefördert wurde. Sie wird seit 2001 jährlich vom Munich Center for the Economics of Aging (MEA) durchgeführt, das seit 2011 Teil des Max-Planck-Institut für Sozialrecht und Sozialpolitik in München ist. Dabei werden zahlreiche Daten über Einkommen, Ersparnisse und Vermögen in Deutschland erfasst. Die Studie von Christian Pfarr und Udo Schneider setzt im Jahre 2005 ein, weil die in jenem Jahr von der Bundesregierung beschlossene Überarbeitung der Riester-Rente eine sozialpolitische Zäsur darstellt: Das Rentenniveau wurde abgesenkt und die Regelaltersgrenze stufenweise angehoben. Die SAVE-Daten des Jahres 2009 sind wiederum die jüngsten vollständigen Daten, die den Autoren bei ihren Forschungsarbeiten zur Verfügung standen.

Staatliche Förderung als Anreiz für die Riester-Rente

Vor der großen Rentenreform des Jahres 2001 belief sich die Durchschnittsrente in Deutschland auf etwa 70 Prozent des durchschnittlichen Nettoeinkommens, im Jahr 2011 lag sie nur noch bei rund 65 Prozent. Bis 2050 wird sie voraussichtlich auf etwa 57 Prozent absinken. Mit der Einführung einer staatlich geförderten privaten Altersvorsorge – die in der Öffentlichkeit nach dem damaligen Bundesminister Walter Riester benannt wurde – wollte die Bundesregierung breite Bevölkerungskreise dazu veranlassen, einer drohenden Altersarmut entgegenzuwirken.

Wie die neue Studie zeigt, entscheiden sich viele Menschen tatsächlich vor allem deshalb für den Abschluss einer Riester-Rente, weil sie sich die staatlichen Zulagen und Steuervergünstigungen nicht entgehen lassen wollen. Dieses Motiv ist häufig stärker ausgeprägt als die Sorge um das eigene Alter.

Zwischen prekärer Altersvorsorge und privater Rentenversicherung

Welchen Einfluss hat die finanzielle Lebenssituation darauf, ob ein Riester-Vertrag abgeschlossen wird? Auch dieser Frage widmet sich die Bayreuther Untersuchung. Das verfügbare Einkommen einer Person wird dabei als ein Nettoeinkommen definiert, das sich insbesondere aus der Größe und der Einkommenssituation des Haushalts errechnet, in dem die Person lebt. Auf dieser Grundlage unterscheidet die Studie zwischen fünf verschiedenen Einkommensgruppen.

Das Ergebnis: Rund 12 Prozent aller Personen, die zum Abschluss einer staatlich geförderten Riester-Rente berechtigt sind, müssen mit weniger als 606 Euro monatlich auskommen und gehören damit der untersten Einkommensgruppe an. Sie entscheiden sich sehr selten für eine Riester-Rente. Ihre Altersvorsorge bleibt in vielen Fällen auch in Zukunft prekär, zumal sie kaum eine andere private Vorsorge betreiben. Die oberste Einkommensgruppe umfasst hingegen die rund 8 Prozent der Förderberechtigten, die monatlich über mehr als 2.475 Euro verfügen. Sie schließen überdurchschnittlich viele private Vorsorgeverträge ohne staatliche Förderung ab; gleichzeitig stehen sie aber auch Riester-Verträgen aufgeschlossen gegenüber.

Insgesamt gesehen, sind es vor allem mittlere Einkommensgruppen, die eine private Altersvorsorge mit den Vorteilen einer staatlichen Förderung verbinden wollen und sich vorrangig für eine Riester-Rente entscheiden.

Hohe Attraktivität für Kinderreiche

Zugleich geht aus der Analyse der SAVE-Daten hervor, dass die Riester-Rente speziell für Personen mit mehreren Kindern ein überaus attraktives Modell der privaten Altersvorsorge darstellt. Bei Personen, die mehr als vier Kinder haben, ist die Wahrscheinlichkeit, dass sie sich für den Abschluss einer Riester-Rente entscheiden, nahezu doppelt so hoch wie bei Personen mit drei oder vier Kindern. Und bei diesen wiederum ist die Wahrscheinlichkeit doppelt so hoch wie bei Personen mit ein oder zwei Kindern.

Die Autoren der Studie führen diesen Befund auf die Staffelung der staatlichen Förderung zurück: Mit jedem Kind steigt der staatliche Förderanteil an den jährlichen Beiträgen, während der Eigenanteil dementsprechend sinkt. Dies gilt allerdings nur solange, bis der Eigenanteil auf das gesetzliche Minimum von 60 Euro pro Jahr abgesunken ist.

Riester-Rente als zusätzliche Form der Daseinsvorsorge

Steht die Riester-Rente in einem Zusammenhang mit anderen Formen der Daseinsvorsorge, zum Beispiel mit Bausparverträgen, geldwerten Lebensversicherungen oder Aktien? Die Bayreuther Ökonomen kommen zu einem überraschenden Ergebnis: Derartige Geldanlagen gehen in vielen Fällen mit der Bereitschaft einher, eine Riester-Rente abzuschließen. Besonders ausgeprägt ist die Neigung, zusätzlich eine Riester-Rente anzusparen, bei Personen, die einen Bausparvertrag haben. „Anscheinend spielt bei zahlreichen Entscheidungen für eine Riester-Rente ein gewisser ‚Mitnahme-Effekt‘ eine Rolle“, meint Christian Pfarr. „Wer unterschiedliche Formen der Daseinsvorsorge einschließlich der staatlichen Fördermöglichkeiten kennt und nutzt, ist desto eher willens, auch die Vorteile der Riester-Rente in Anspruch zu nehmen.“

Signifikanter Einfluss von Finanzberatern

Und noch ein weiteres Ergebnis fällt auf: Empfehlungen von Finanzberatern wirken sich häufig dahingehend aus, dass ihre Kunden sich für eine Riester-Rente entscheiden. Bei Personen, die den Empfehlungen eines Finanzberaters folgen, ist die Wahrscheinlichkeit, dass sie einen Riester-Vertrag abschließen, erheblich höher als bei Personen, die auf eine professionelle Finanzberatung verzichten. „Die Ursachen für diesen signifikanten Einfluss der Finanzberater liegen vornehmlich in der hohen Komplexität der Riester-Produkte und in den damit einhergehenden geringen Vergleichsmöglichkeiten“, meint Christian Pfarr. „Finanzberater erhalten in der Regel ungewöhnlich hohe Provisionen, wenn sie ihren Kunden eine Riester-Rente vermitteln. Es ist daher nicht auszuschließen, dass dieser finanzielle Anreiz einen starken Einfluss auf das Beratungsverhalten und indirekt auf die Entscheidungen der Kunden hat.“

Vor diesem Hintergrund plädiert der Bayreuther Ökonom dafür, Produkte im Bereich der privaten Altersvorsorge erheblich zu vereinfachen und für die Kunden verständlicher zu gestalten. Zugleich fordert er, dass sich die Menschen in Deutschland viel umfassender als bisher über verschiedene Wege der Altersvorsorge informieren sollten. Der Staat solle durch geeignete Anreize dazu beitragen, dass öffentliche Informationsangebote entstehen, die nicht einseitig interessengeleitet sind.

Veröffentlichung:

Christian Pfarr and Udo Schneider,
Choosing between subsidized or unsubsidized private pension schemes:
evidence from German panel data,
Journal of Pension Economics and Finance, Available on CJO
DOI:10.1017/S1474747212000170

Demnächst erscheint:

Christian Pfarr und Udo Schneider,
Riester-Rente: (k)ein Kinderspiel!,
in: Vierteljahreshefte zur Wirtschaftsforschung 2012, Volume 81

Siehe auch:

Christian Pfarr und Udo Schneider,
Anreizeffekte und Angebotsinduzierung im Rahmen der Riester-Rente:
Eine empirische Analyse geschlechts- und sozialisationsbedingter Unterschiede,
in: Perspektiven der Wirtschaftspolitik 2011, Volume 12, Issue 1, pp 27-46
DOI: 10.1111/j.1468-2516.2010.00349.x

Ansprechpartner:

Dipl.-Volkswirt Christian Pfarr
Lehrstuhl für Volkswirtschaftslehre III – Finanzwissenschaft
Universität Bayreuth
D-95448 Bayreuth
Telefon: +49 (0)921 – 55 4324
E-Mail: christian.pfarr@uni-bayreuth.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Hilfe für Hund Harras

Liane Glawe
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Plasmaforschung und Technologie e.V.

Greifswalder Forscher zeigen, dass sich mit kaltem Plasma chronische Wunden bei Haustieren erfolgreich behandeln lassen. Tierische Probanden für Studien gesucht.
In rund jedem dritten deutschen Haushalt lebt mindestens ein Haustier, zusammen eine Zahl von über 23 Millionen Tieren. Nicht immer beschränken sich die Kosten dafür auf Futter, eine regelmäßige Wurmkur und die jährliche Impfung. Auch Haustiere können ernsthaft erkranken und dann explodieren Tierarztkosten schnell. Besonders bei langwierigen Erkrankungen, dazu zählen chronische Wunden, summieren sich die Rechnungen schnell auf hunderte Euro.

Künftig könnte sich dieser Teil der Tierarztkosten verringern, nämlich dann, wenn es um chronisch entzündete Wunden geht. Eine Lösung dafür reift in Greifswald heran. Dort haben Forscher des Leibniz-Institutes für Plasmaforschung und Technologie e.V. (INP Greifswald) und der Universitätsmedizin mit physikalischem Plasma chronischen Wunden den Kampf angesagt.

Die Greifswalder Forscher arbeiten seit mehreren Jahren erfolgreich daran, sogenannte kalte Plasmen im Labor zu erzeugen und für verschiedene Anwendung nutzbar zu machen. Diese werden nun auch für die Medizin interessant, denn sie haben etwa Körpertemperatur, schonen das Gewebe und wirken nachweislich keimtötend.

Erste Behandlungserfolge an Haustieren

Zunächst testeten die Greifswalder Forscher das Plasma im Labor auf einer im Reagenzglas gezüchteten Epidermis. Die ersten Patienten waren dann die Schäferhunde Harras und Astor. Harras litt vier Jahre lang an einer chronischen Wunde an der Schnauze, bei Astor bildete sich nach einer Verletzung am Vorderlauf eine dauerhafte, großflächige Wunde. Bei beiden Tieren schlugen herkömmliche Verfahren wie Antiseptika, Salben, Verbände und selbst eine Wundoperation nicht an. Erst eine Behandlung mit der Kombination aus Plasma und dem gut verträglichen Antispetikum Polyhexanid führte zum Erfolg. Die Wunden schlossen sich und heilten nach mehrwöchiger Therapie tatsächlich vollständig ab.

Inzwischen behandelt Claudia Bender, Tiermedizinerin und Wissenschaftlerin der Universitätsmedizin Greifswald, versuchsweise seit über zwei Jahren chronische Wunden von Haustieren mit dieser neuen Methode. Dabei nutzt sie einen sogenannten Plasmajet, entwickelt in der Kooperation von INP und neoplas GmbH. „Wir als Forscher vermuten, dass Plasma die Zellen in der Wunde stimuliert und damit hilft, zelluläre Mechanismen der Wundheilung anzukurbeln“, sagt Bender. „Damit kann aus einer chronischen Wunde eine akute werden – mit guter Perspektive auf Heilung.“ Des Weiteren wirkt Plasma entkeimend. Es tötet Bakterien, die sich auf der Wunde ansiedeln. Und es wirkt gegen sogenannte Biofilme, das sind Mikroorganismen in Schleimschichten, die die Bakterien vor schädlichen Umwelteinflüssen schützen. Bakterien und Biofilme behindern die Wundheilung.

Große Hoffnungen setzt Claudia Bender auch auf die Plasmatherapie von seltenen Hauterkrankungen. Sie stützt sich dabei auf die erfolgreiche Behandlung eines Hundes, der unter der Autoimmunerkrankung Pemphigus foliaceus litt. Diese Erkrankung führte zu großflächigen Wunden im Gesicht des Tieres. Der Hund war lange erfolglos mit hohen Dosen Kortison behandelt worden. Eine solche Behandlung zieht häufig unerwünschte Nebenwirkungen nach sich, wie Heißhunger, dünnere Haut, Muskelabbau, Haarausfall oder sogar Diabetes. Auch hier setzte die Forscherin Plasma ein. Zusammen mit einer nur noch geringen Dosis Kortison führte das tatsächlich zum Erfolg. Die Wunden heilten vollständig. Mittlerweile setzen auch andere Tierärzte Plasma zur Wundheilung, u.a. bei Pferden, ein.

Eine Chance für die Medizin der Zukunft

Eine Behandlung mit Plasma erfolgt schmerzfrei. Sie könnte in Zukunft Operationen ersetzen, die immer Risiken bergen und überdies teuer sind. Was die chronischen Wunden betrifft, sehen die Forscher eine synergistische Wirkung von Plasma in Kombination mit einem Antiseptikum. Allein angewendet, führte weder Plasma noch Antiseptikum zu vollständiger Heilung. Den Genesungsprozess durch die Kombination beider derart abzukürzen, könnte die Behandlungskosten wesentlich reduzieren.

Noch fehlt es in der Tiermedizin an einheitlichen Standards zur Behandlung chronischer Wunden, was eine optimale Behandlung erschwert. Um die Plasmamedizin in der Wundtherapie zu etablieren, braucht es klinische Studien, die bisherige positive Ergebnisse untermauern. Zum Ausschluss langfristiger Risiken der Behandlung fehlen Langzeitstudien.

Die Anwendung zum Nutzen des Menschen befindet sich noch in der Forschungsphase. Hingegen wären Behandlungen von Tieren in Praxen und Kliniken schon bald möglich. Tiermedizinische Studien mit Plasma zur Wundbehandlung sollen in Kürze beginnen. Dafür werden noch geeignete Probanden gesucht.

Kontakt: Liane Glawe, Leibniz-Institut für Plasmaforschung und Technologie e.V., Tel. +49-3834-554 312, E-Mail: glawe@inp-greifswald.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Dampfturbine macht mehr Strom aus gleich viel Wärme

Dr. Norbert Aschenbrenner
Corporate Communications, Corporate Technology
Siemens AG

Siemens macht seine Industriedampfturbinen effizienter und flexibler. Grundlage ist ein verbessertes technisches Design, das den Wirkungsgrad der Turbinen um bis zu zwei Prozentpunkte stei­gert. Außerdem lassen sich die neu gestalteten Turbinen sehr viel schneller anfahren – im besten Fall in der Hälfte der bisherigen Zeit. Biogasanlagen, kombinierte Gas- und Dampfkraftwerke oder kleinere Kohlekraftwerke können mit den verbesserten Turbinen aus der gleichen Menge Primärenergie mehr Strom als bisher produzieren. In Industrieanlagen lässt sich mit den neuen Turbinen die Abwärme noch effizienter verwerten. Auch Anlagen, die nicht kontinuierlich Strom produzieren, beispielsweise solarthermische Kraftwerke, profitieren von den deutlich kürzeren Anlaufzeiten.

Das Design kombiniert verschiedene Konzepte der bestehenden Siemens-Turbinenfamilien und führt sozusagen die besten Einzellösungen zusammen. Wichtigste Ursache für die Steigerung des Wirkungsgrads ist eine optimierte Form der Turbinenschaufeln. Verbessert wurde außerdem die Abdichtung der einzelnen Turbinenstufen gegeneinander, so dass möglichst viel Dampf auf die Schaufelräder gelangt und zur Stromerzeugung beiträgt.

Eine wichtige Verbesserung ist die Verkürzung der Anlaufzeiten, die nötig sind, um die Turbine gleichmäßig auf Betriebstemperatur zu bringen. Dabei dürfen keine mechanischen Spannungen durch die unterschiedlich starke Wärmeausdehnung einzelner Teile entstehen. Je nach Turbinentyp und Einsatzbedingungen kann die Anlaufzeit einer Industriedampfturbine von Minuten bis hin zu Stunden betragen. Die neuen Turbinen haben ein symmetrisch aufgebautes Außengehäuse, das sich gleich­mäßiger als bisher erwärmt. Außerdem sind sie leichter gebaut und kommen schneller auf Temperatur. Dies gelingt durch den Einsatz neuer Werkstoffe sowie einem Design, das insgesamt mit weniger Material auskommt. Das verbesserte Aufwärmverhalten verringert den mechanischen Stress beim An- und Abfahren und verlängert so die Lebensdauer der Turbine.

Das neue Enhanced-Plattform-Design bildet die Grundlage für die kommende Generation von Industriedampfturbinen. Siemens führt es schrittweise für Turbinen mit Leistungen zwischen 15 und 250 Megawatt ein.

Weitere Informationen:
http://www.siemens.de/innovationnews

Quelle: Informationsdienst Wissenschaft

(zurück)


Studie enthüllt: EU-Zulassung für Pflanzenschutzmittel schützt Gewässer nicht

Bernd Hegen
Referat Öffentlichkeitsarbeit
Universität Koblenz-Landau

Das aktuelle Verfahren der EU zur Zulassung von Pflanzenschutzmitteln, insbesondere solche gegen Insektenbefall, basiert auf unzureichenden Bewertungsmodellen. Das hat eine Studie der Universität Koblenz-Landau ergeben. Sie weist nach, dass die in Gewässern tatsächlich gefundene Menge der Insektizide häufig höher liegt als die theoretisch berechneten Werte im Zulassungsprozess. Um Flüsse und Seen ausreichend zu schützen, muss das Verfahren vollständig überprüft und überarbeitet werden.
Auf Feldern ausgebrachte Pflanzenschutzmittel werden z.B. durch Regen in Flüsse und Seen gespült. In größeren Mengen führen sie dort zum Absterben von Tieren und Pflanzen: Die Biodiversität nimmt erheblichen Schaden. Daher ermittelt die EU im Rahmen eines gesetzlich festgeschriebenen Zulassungsprozesses die Auswirkungen von Pflanzenschutzmitteln. Seit Ende der 1990er Jahre werden dazu mit Hilfe mathematischer Simulationsmodelle (FOCUS-Modelle) diejenigen Konzentrationen in Gewässern vorhergesagt, die bei der Anwendung von Pflanzenschutzmitteln in der Landwirtschaft entstehen. Nur wenn diese vorhergesagten Konzentrationen unterhalb der ökologisch bedenklichen Wirkschwelle liegen, kann ein Pflanzenschutzmittel in Europa zugelassen werden. Bislang wurde jedoch nie ausführlich validiert, ob die Vorhersagen mit der Praxis übereinstimmen.

Am Beispiel der Insektizide, die besonders giftig für die meisten der in Gewässern lebenden Tiere sind, hat das Institut für Umweltwissenschaften Landau nun die Probe aufs Exempel gemacht. Es verglich in 122 Fällen die gemessenen mit den vorhergesagten Werten. Das Ergebnis ist besorgniserregend: Zwischen den Werten gibt es keinerlei statistischen oder auch nur augenscheinlichen Zusammenhang. In bis zu vier von zehn Fällen ist die tatsächliche Belastung der Gewässer höher als vorausberechnet. Bei neueren Insektiziden liegt diese Quote sogar darüber.

„Die Ergebnisse der Studie belegen eindeutig, dass die Berechnungsmodelle in ihrer aktuellen Form für den Gewässerschutz ungeeignet sind“, erklärt Prof. Dr. Ralf Schulz vom Institut für Umweltwissenschaften Landau an der Universität Koblenz-Landau. „Die Risikobewertung für zahlreiche in der EU zugelassene Wirkstoffe muss daher unter Berücksichtigung der aktuellen Ergebnisse erneut vorgenommen werden. Das ist Aufgabe der entsprechenden Zulassungsbehörden.“

Die in der Praxis deutlich höheren Werte können neben fehlerhaften Berechnungsmodellen weitere mögliche Ursachen haben: nicht eingehaltene Vorschriften beim Ausbringen der Pflanzenschutzmittel durch Landwirte oder unzureichende Anwendungshinweise der Hersteller. „Entweder ist die Zulassung von Insektiziden oder die landwirtschaftliche Praxis mit erheblichen Fehlern behaftet – vermutlich sogar beides“, ergänzt Schulz. „Die Industrie als Zulassungsinhaber muss ihrer Verantwortung für einen vorsorgenden Umweltschutz gerecht werden und sich an der Ursachenaufklärung beteiligen. In jedem Fall brauchen wir auch in Deutschland mehr unabhängig gewonnene Daten zur Belastung von Gewässern in der Landwirtschaft mit Pflanzenschutzmitteln.“

Solange die tatsächlichen Ursachen nicht geklärt sind, sollten die im Rahmen der Zulassung vorhergesagten Umweltkonzentrationen bei Insektiziden sicherheitshalber um das Zehnfache erhöht werden, um die Gewässer ausreichend zu schützen. Zusätzlich besteht die Möglichkeit, einen nicht landwirtschaftlich genutzten Randstreifen von fünf bis zehn Meter Breite zwischen Ackerfläche und Gewässer vorzuschreiben. Darauf wurde jedoch bei der Überarbeitung des Pflanzenschutzgesetzes in Deutschland Ende 2011 verzichtet.

Die gültigen Regelungen der behördlichen Zulassung von Pflanzenschutzmitteln für die Landwirtschaft in der EU wurden erst 2009 novelliert und nachfolgend auch in Deutschland durch eine Neufassung des Pflanzenschutzgesetzes in nationales Recht übernommen.

Die Studie:
„Regulatory FOCUS Surface Water Models Fail to Predict Insecticide Concentrations in the Field“, Anja Knäbel, Sebastian Stehle, Ralf B. Schäfer, and Ralf Schulz. Die Ergebnisse der Studie werden in der Fachzeitschrift „Environmental Science & Technology“ veröffentlicht. Eine Vorabversion ist online abrufbar unter http://pubs.acs.org/doi/abs/10.1021/es301649w

Kontakt:
Universität Koblenz-Landau
Prof. Dr. Ralf Schulz
Fortstraße 7
76829 Landau
Tel.: (06341) 280-31327
E-Mail: r.schulz@uni-landau.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Ingwer hilft bei Diabetes

Sabine Ranke-Heinemann
Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Laut einer Studie der University of Sydney könnte das Gewürz und alte asiatische Heilmittel Ingwer erhöhte Blutzuckerwerte regulieren und so Komplikationen bei Diabetes-Langzeitpatienten entgegenwirken.

Die Studie wurde Anfang August in der renommierten Wissenschaftszeitschrift „Planta Medica“ veröffentlicht und beschäftigt sich mit der möglichen Regulierung des Blutzuckerspiegels durch die Einnahme von Ingwer und seiner Nutzung von Muskelzellen.

Basil Roufogalis, Professor für pharmazeutische Chemie, leitete die Untersuchung und fand heraus, dass die aus Ingwer gewonnenen Extrakte die Aufnahme von Glukose in die Muskelzellen unabhängig von einer Insulingabe unterstützen. „Dadurch könnten erhöhte Blutzuckerwerte kontrolliert werden, die gerade bei Diabetes-Langzeitpatienten Komplikationen hervorrufen. Außerdem könnten Zellen so auch unabhängig von einer Insulingabe arbeiten“, betonte Professor Roufogalis.

„Die für diese erhöhte Glukose-Aufnahmefähigkeit verantwortlichen Komponenten heißen Gingerole, bei denen es sich um die größte Gruppe phenolischer Substanzen der Ingwerwurzel handelt“, erklärte Professor Roufogalis.

Die Forscher extrahierten ganze Ingwerwurzeln aus dem australischen Ort Buderim und stellten fest, dass nur ganz bestimmte Teile der Wurzel die Glukoseaufnahme in die Muskelzellen effektiv erhöhten. Dr. Colin Duke und Dr. Van Tran von der Pharmazeutischen Fakultät der Universität analysierten diese Teile und fanden heraus, dass sie einen sehr hohen Anteil an Gingerolen — vor allem 6- und 8-Gingerole — enthielten.

Außerdem untersuchten die Forscher, wie Gingerole die Aufnahme von Glukose beeinflussten und stellten eine Erhöhung der Oberflächenverteilung des Proteins GLUT4 fest. Wenn sich das Protein auf die Muskelzellenoberfläche setzt, ermöglicht es so den Glukose-Transport in die Zellen.

Bei Typ-2-Diabetespatienten ist die Gkukose-Aufnahmefähigkeit der Skelettmuskulatur aufgrund einer gestörten Insulin-Signalübertragung und einer Unwirksamkeit des Proteins GLUT4 deutlich reduziert. Wir hoffen daher, dass diese viel versprechenden Forschungsergebnisse hinsichtlich der Regulierung des Blutzuckerspiegels in klinischen Studien weiter untersucht werden, so Professor Roufogalis.

Weitere Informationen:

Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle
Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Victora Hollick
University of Sydney
victoria.hollick@sydney.edu.au

Das Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund ist das gemeinnützige Studierendensekretariat aller australischen und neuseeländischen Universitäten in Europa, zuständig für Wissens- und Forschungstransfer, Forschungsförderung sowie Studenten- und Wissenschaftleraustausch und für die Betreuung von Studierenden und Schülern, die ein Studium Down Under vorbereiten.

Weitere Informationen:
http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: Informationsdienst Wissenschaft

(zurück)


Energie von Mikroben für Klärschlammtrocknung

Dr. Norbert Aschenbrenner
Corporate Communications, Corporate Technology
Siemens AG

Ein neues Biotrocknungsverfahren von Siemens verwertet Klärschlamm energiesparend und schnell. So getrocknet kann Schlamm aus der Abwasseraufbereitung als Dünger verwertet, deponiert oder verbrannt werden. Die neue mechanisch unterstützte Biotrocknung MEB (Mechanically Enhanced Biodrying) benötigt dabei keine von außen zugeführte Wärme wie thermische Trocknungsverfahren, sondern nutzt die von den Mikroben des Schlamms produzierte Energie. So spart sie im Vergleich zu thermischen Trocknungsverfahren 30 Prozent an Betriebskosten ein.

Das Verfahren soll erstmals in einer großen Abwasseraufbereitungsanlage im chinesischen Shenyang eingesetzt werden. Ab Herbst 2012 wird sie 1.000 Tonnen Nassschlamm pro Tag trocknen. Sie wird die größte Klärschlammbehandlungsanlage der Welt sein, die mit einem nicht-thermischen Verfahren arbeitet.

Bei der Abwasserreinigung fallen große Mengen an dünnflüssigem Klärschlamm mit geringem Feststoffanteil an. Für Weiterverwertung, Deponierung oder Verbrennung muss dieser meist erst entwässert werden, was häufig durch Pressen geschieht. So kann ein Feststoffgehalt von etwa 20 Prozent erreicht werden. In manchen Ländern wird dieser stichfeste Schlamm als Dünger auf Felder ausgebracht oder deponiert. In einigen Ländern ist dazu aber ein Feststoffgehalt von mindestens 60 Prozent vorgeschrieben, wie auch in China kürzlich per Gesetz festgelegt. Um diesen hohen Feststoffgehalt zu erreichen, muss der Schlamm getrocknet werden. Das funktioniert mit thermischen Verfahren sehr schnell, aber mit großem Energieaufwand, oder mit Hilfe der Sonne, was aber bis zu zwei Monate dauern kann.

Die Siemens-Lösung erhöht innerhalb von etwa 22 Tagen den Feststoffgehalt des Klärschlamms von 20 auf 65 Prozent, sodass das Produkt als Dünger oder Brennstoff dienen oder in Deponien entsorgt werden kann. Die für die Trocknung nötige Wärme erzeugen biologische Prozesse. Mikroben bauen Nährstoffe im Schlamm ab und erzeugen dabei Wärme. Allein mechanische Energie für Belüftung und Durchmischung des Schlamms ist noch notwendig, um die biologischen Prozesse in Gang zu halten. Ein sechsmonatiger Pilottest auf einer Kompostieranlage in Merrimack im US-Bundesstaat New Hampshire hat gezeigt, dass dieses Verfahren selbst bei Umgebungstemperaturen von bis zu minus zehn Grad Celsius funktioniert. Der Klärschlamm wird in dem kontrollierten Prozess automatisch belüftet und durchmischt. Das System ist eingehaust, sodass etwaige Gerüche durch einen Biofilter abgefangen werden können. Besonders geeignet ist das neue Verfahren für Entwicklungsländer, in denen Energie rar, aber dafür viel Fläche vorhanden ist.

Weitere Informationen:
http://www.siemens.de/innovationnews

Quelle: Informationsdienst Wissenschaft

(zurück)


NATURE: Neues Oxidationsmittel der Atmosphäre entdeckt, das Luftschadstoffe abbaut

Tilo Arnhold
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Troposphärenforschung e. V.

Leipzig. Offenbar gibt es eine bisher unbekannte chemische Verbindung in der Atmosphäre, die eine ähnliche Rolle beim Abbau von Luftschadstoffen spielt wie OH-Radikale, insbesondere bei der Oxidation des Schwefeldioxids. Das berichtet ein internationales Forscherteam, zu dem auch Wissenschaftler des Leibniz-Instituts für Troposphärenforschung (IfT) gehören, in der aktuellen Ausgabe des Fachmagazin NATURE. Der Nachweis der Verbindung sei sowohl durch Laborversuche als auch durch Freilandmessungen gelungen. Diese Verbindung kann in der Atmosphäre hauptsächlich durch biogene Emissionen entstehen.
Damit wäre ein neuer Zusammenhang zwischen Schwefeldioxid, den natürlichen Emissionen aus der Vegetation und dem Klima entdeckt worden.

Die neue Verbindung erklärt Phänomene, die im Zusammenhang mit dem schädlichen Schwefeldioxid beobachtet wurden, das zum Beispiel aus Auto- oder Schiffsabgasen in die Umwelt gelangt. Bisher war man davon ausgegangen, dass allein Hydroxylradikale (OH-Radikale) für den Abbau des Schwefeldioxids und damit für die Erzeugung von Schwefelsäure verantwortlich seien. Problematisch war jedoch an dieser Theorie, dass in der Atmosphäre mehr Schwefelsäure nachgewiesen wurde als über die Reaktion von OH-Radikalen mit Schwefeldioxid erklärt werden konnte. Die von den Forschern gefundene Verbindung scheint nun das fehlende Puzzlestück zu sein. Sie ist in der Lage, ebenfalls aus Schwefeldioxid Schwefelsäure zu erzeugen und das möglicherweise effektiver als Hydroxylradikale. Dieser Prozess trage somit ebenfalls zur verstärkten Partikelneubildung, also der Umwandlung von Gasen in feste Partikel bei, berichten die Chemiker der Universität Helsinki, des Leibniz-Instituts für Troposphärenforschung (IfT) und des National Center for Atmospheric Research in Boulder. Es ist in der Folgezeit zu prüfen, ob neben der Oxidation des Schwefeldioxids auch andere Luftschadstoffe effektiv durch das „neue“ Oxidationsmittel abgebaut werden. Damit könnte dieser Verbindung eine noch weitgehendere Bedeutung zukommen.

Über Oxidationsprozesse beeinflusst die Chemie der Atmosphäre die globalen Umweltprobleme wie Klimawandel, Ozonloch, Versauerung von Böden oder Gesundheitsprobleme durch mangelnde Luftqualität. Oxidationsmittel sorgen für den Abbau von Luftschadstoffen. Bekannt waren bisher nur drei Stoffe, die für den Abbau von Luftschadstoffen sorgen: Ozon (O3), das Hydroxylradikal (OH) und das Nitratradikal (NO3). Während das Nitratradikal nur nachtaktiv und das Hydroxylradikal hauptsächlich tagsüber bei Sonneneinstrahlung aktiv ist, reagiert Ozon ganztägig. Die neue Verbindung ist demzufolge das vierte Oxidationsmittel, welche umgangssprachlich auch als Waschmittel der Atmosphäre bezeichnet werden, da sie für saubere Luft sorgen und so eine lebenswichtige Funktion erfüllen.

Der Nachweis der neuen Verbindung gelang erst jetzt durch verbessere Messtechniken. Zum Einsatz kam dabei die Chemische Ionisationsmassenspektrometrie (CIMS). „Die Konzentrationen sind sehr gering und liegen lediglich in der Größenordnung von 10000 bis einige Millionen Molekülen pro Kubikzentimeter Luft. Um sie in unserem Laborexperiment nachweisen zu können, mussten wir unter Reinstbedingungen arbeiten“, berichtet Dr. Torsten Berndt vom Leibniz-Instituts für Troposphärenforschung in Leipzig, der wie andere Forscher die Existenz einer weiteren Verbindung schon lange vermutet hatte.

Die neue Verbindung wurde gleich an drei Orten unabhängig voneinander nachgewiesen: im Labor des IfT in Leipzig von Dr. Torsten Berndt, im Labor des National Center for Atmospheric Research in Boulder in den USA von Dr. Lee Mauldin und in den finnischen Wäldern durch ein Team der Universität Helsinki um Dr. Mikko Sipilä. „Bei unseren Messungen über den Bäumen zeigte sich, dass die Verbindung im Gegensatz zum Hydroxylradikal kein Maximum um Mittag und kein Minimum in der Nacht hat. Diese Beobachtung deutet auf eine Quelle für Schwefelsäure hin, die nicht das Hydroxylradikal sein kann“, erläutert Dr. Mikko Sipilä von der Universität Helsinki.

„Dass die neue Verbindung gegenüber OH abends und nachts überwiegt, legt nahe, dass sie in Zusammenhang mit Oberflächenemissionen und der anschließenden Ozonchemie stehen könnte, die sich in der untersten Schicht der Atmosphäre abspielt“, vermutet Dr. Lee Mauldin III vom National Center for Atmospheric Research. „Die Reaktionen scheinen eng mit der Anwesenheit von Alkenen biogenen Ursprungs verknüpft.“ Solche Kohlenwasserstoffverbindungen werden von der Vegetation natürlich gebildet und sind daher über Wäldern in erhöhter Konzentration zu finden.

Die Autoren nennen die neue Verbindung zunächst provisorisch im Paper „X“. Mauldin, Berndt und Kollegen vermuten, dass es sich dabei um ein stabilisiertes Criegee-Intermediat handeln könnte. Diese Kohlenstoffverbindung mit zwei Radikalfunktionen wurde bereits in den 1950er Jahren vom deutschen Chemiker Rudolf Criegee theoretisch beschrieben. Ihre einfachste Form (CH2OO) wurde aber erst 2012 von anderen US-Amerikanischen und Britischen Wissenschaftlern in einem speziellen Laborexperiment hergestellt und nachgewiesen.

„Die von Mauldin, Berndt und Kollegen verwendete Messtechnik wurde bereits in verschiedensten Umgebungen eingesetzt. Es ist daher überraschend, dass dieses Hintergrundsignal in früheren Studien nicht aufgefallen ist. Die von den Autoren untersuchten Wälder bilden große Mengen an Alkenen und bieten so ideale Bedingungen für die Bildung von X. Weitere Messungen in anderen Umgebungen sind nötig, um die globale Bedeutung von X auf die Produktion von Schwefelsäure in der Atmosphäre besser abschätzen zu können“, schreibt Dr. Dwayne Heard von der Universität Leeds in seinem Kommentar zur Studie in NATURE.
Tilo Arnhold/ Haluka Maier-Borst

Originalpublikation:
R. L. Mauldin III, T. Berndt, M. Sipilä, P. Paasonen, T. Petaja, S. Kim, T. Kurten, F. Stratmann, V.-M. Kerminen & M. Kulmala (2012): A new atmospherically relevant oxidant of sulphur dioxide. NATURE. 9th August 2012, Vol. 488, 193-197. doi:10.1038/nature11278
http://www.nature.com/nature/journal/v488/n7410/full/nature11278.html

Kommentar:
Dwavne Heard (2012): The X factor. NATURE. 9th August 2012, Vol. 488, 164-165. doi:10.1038/488164a
http://www.nature.com/nature/journal/v488/n7410/full/488164a.html

Weitere Informationen:
Leibniz-Institut für Troposphärenforschung (IfT)
Dr. Torsten Berndt/ Prof. Hartmut Herrmann, Abteilung Chemie
Tel. 0341-235-2348, -2446
und
Dr. Frank Stratmann, Arbeitsgruppe Wolken
Tel. 0341-235-2862
http://www.tropos.de/ift_personal.html
oder
via IfT-Öffentlichkeitsarbeit
Tel. 0341-235-3210

sowie auf Englisch:
Roy Mauldin III (University of Helsinki, Finland)
E-mail: roy.mauldin@helsinki.fi
&
Dwayne Heard (University of Leeds, UK) N&V author
E-mail: d.e.heard@leeds.ac.uk

Links:
Wolken verändern die chemische Zusammensetzung und die Eigenschaften von Partikeln (IfT-Pressemitteilung vom 02.08.2012):
http://idw-online.de/de/news490797
Nitrat: Nachtaktives Waschmittel für bodennahe Luftschichten (DLF, 13.07.2011):
http://www.dradio.de/dlf/sendungen/forschak/1503607/

Das Leibniz-Institut für Troposphärenforschung ist Mitglied der Leibniz-Gemeinschaft. Ihr gehören zurzeit 87 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung sowie zwei assoziierte Mitglieder an. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Leibniz-Institute bearbeiten gesamtgesellschaftlich relevante Fragestellungen strategisch und themenorientiert. Dabei bedienen sie sich verschiedener Forschungstypen wie Grundlagen-, Groß- und anwendungsorientierter Forschung. Sie legen neben der Forschung großen Wert auf wissenschaftliche Dienstleistungen sowie Wissenstransfer in Richtung Politik, Wissenschaft, Wirtschaft und Öffentlichkeit. Sie pflegen intensive Kooperationen mit Hochschulen, Industrie und anderen Partnern im In- und Ausland. Das externe Begutachtungsverfahren der Leibniz-Gemeinschaft setzt Maßstäbe. Jedes Leibniz-Institut hat eine Aufgabe von gesamtstaatlicher Bedeutung. Bund und Länder fördern die Institute der Leibniz-Gemeinschaft daher gemeinsam. Die Leibniz-Institute beschäftigen etwa 16.800 Mitarbeiterinnen und Mitarbeiter, davon sind ca. 7.800 Wissenschaftler, davon wiederum 3.300 Nachwuchswissenschaftler. Der Gesamtetat der Institute liegt bei mehr als 1,4 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr.
http://www.leibniz-gemeinschaft.de

Weitere Informationen:
http://www.nature.com/nature/journal/v488/n7410/full/nature11278.html
http://www.tropos.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Anti-Stress-Programm hilft Diabetikern

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Erste Ergebnisse der Heidelberger Diabetes und Stress-Studie (HeiDis) belegen positiven Effekt auf Umgang mit Erkrankung und Psyche / Einfluss auf Nierenfunktion noch nicht einschätzbar
Diabetiker, die durch ein „Anti-Stress-Training“ besser entspannen und den psychischen Umgang mit ihrer Erkrankung lernen, haben langfristig möglicherweise weniger gesundheitliche Schäden und psychische Probleme. Zu diesem Ergebnis kommt die Heidelberger Diabetes und Stress-Studie (HeiDis), die erste kontrollierte klinische Studie, die den Effekt der Stressreduktion bei Diabetikern untersucht. Ihre Ergebnisse nach einem Jahr Therapie sind jetzt veröffentlicht worden: Die Teilnehmer an der achtwöchigen Anti-Stress-Gruppentherapie mit wöchentlichem Übungsprogramm waren nach einem Jahr weniger depressiv und körperlich fitter, hatten z.B. einen niedrigeren Blutdruck. Allerdings war ihre Eiweiß-Ausscheidung, die mit nachlassender Nierenfunktion zunimmt, unverändert – bei der unbehandelten Kontrollgruppe hatte sich diese weiter verschlechtert.

„Eine zuverlässige Aussage über den Effekt der Therapie auf den physischen Zustand ist erst nach Abschluss der Studie in vier Jahren möglich“, erklärt Professor Dr. Wolfgang Herzog, Ärztlicher Direktor der Klinik für Allgemeine Innere Medizin und Psychosomatik des Psychosozialen Zentrums am Universitätsklinikum Heidelberg.

„Wir sind aber schon jetzt sicher, dass die psychische Situation der zuckerkranken Patienten durch ein wöchentliches Antistress-Programm verbessert werden kann.“

Unterstützung durch Manfred-Lautenschläger-Stiftung

Die Ergebnisse der HeiDis-Studie, an der insgesamt 110 Diabetiker, Männer und Frauen, teilnahmen, wurden in der Zeitschrift „Diabetes Care“ veröffentlicht. Die Studie wird von der Manfred-Lautenschläger-Stiftung gefördert.

Gemeinsam mit der Abteilung Endokrinologie an der Medizinischen Universitätsklinik Heidelberg unter Leitung von Professor Dr. Peter Nawroth wurden für die HeiDis-Studie Patienten rekrutiert, die seit Jahren an Diabetes litten und ein hohes Risiko für Komplikationen hatten. Diese Patienten haben besonders häufig Depressionen und Ängste, da sie ihre Erkrankung als einschränkend und bedrohlich erleben. Zusätzliche Gesundheitsprobleme durch Gefäßschäden, z.B. an Herz und Augen, sind ebenfalls häufig.

Hinweise dafür, dass ein Anti-Stress-Programm Schäden verhindern kann, fand Professor Nawroth und sein Forschungsteam in Tierversuchen sowie in einer Pilot-Studie vor fast zehn Jahren: Testpersonen unter Stress zeigten nicht nur hohe Stress-Hormonspiegel, sondern aktivieren das Schlüsselmolekül, den sogenannten Transkriptionsfaktor NF-kappaB, der Entzündungen und Abbauprozesse auslöst. Die Hypothese, die HeiDis nun testet, lautet im Umkehrschluss: Kann weniger Stress gesundheitliche Schäden verhindern?

Erhöhung der Achtsamkeit durch Atem- und Meditationsübungen

Durch Erhöhung der Achtsamkeit zielte das Antistress-Programm darauf ab, dass die Patienten ihre Erkrankung einschließlich der unangenehmen Erscheinungen besser akzeptieren und sich darüber austauschen. In acht wöchentlichen Abendtreffen, die jeweils gemeinsam von einer Psychologin und Ärztin geleitet wurden, lernten die Patienten ihre Erkrankung neu erleben. Dabei halfen Atem- und Meditationsübungen ebenso wie Übungen im Umgang mit kritischen Situationen, z.B. einer Unterzuckerung, und medizinische Information. Als Konsequenz litten die Patienten seltener an Depressionen, wie die Auswertung von Fragebögen ergab; ihr körperlicher Zustand verbesserte sich durch eine Senkung des Blutdrucks und die Reduktion weiterer kardiovaskulärer Risikofaktoren.

Die Teilnehmer bewerteten ihre Therapie überwiegend als positiv; ihre Lebenseinstellung zu der Erkrankung habe sich geändert, sie wollten nun insgesamt bewusster und aufmerksamer leben. Jeder zweite Teilnehmer war an einer Fortsetzung der Therapie interessiert.

Publikationen zum Konzept und zur Studie:

Faude-Lang V, Hartmann M, Schmidt EM, Humpert PM, Nawroth P, Herzog W. Akzeptanz- und achtsamkeitsbasiertes Gruppenkonzept für Patienten mit fortgeschrittenem Diabetes Typ 2: Konzept und praktische Erfahrungen. PsychotherPsych Med. 2010;60:185-189.

Hartmann M, Kopf S, Kircher C, Faude-Lang V, Djuric Z, Augstein F, Friederich HC, Kieser M, Bierhaus A, Humpert PM, Herzog W, Nawroth PP. Sustained effects of a mindfulness-based stress-reduction intervention in type 2 diabetes patients: Design and first results of a randomized controlled trial (the HEIDIS-Study). Diabetes Care published ahead of print February 14, 2012, doi:10.2337/dc11-1343

Information im Internet zur Klinik für Allgemeine Innere Medizin und Psychosomatik :
http://www.klinikum.uni-heidelberg.de/Klinik-fuer-Allgemeine-Innere-Medizin-und-…

Kontakt:
Dipl. Psych. Mechthild Hartmann
Tel.: 06221 56-8999
E-Mail: mechthild.hartmann@med.uni-heidelberg.de

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Weitere Informationen:
http://www.klinikum.uni-heidelberg.de/Klinik-fuer-Allgemeine-Innere-Medizin-und-…

Quelle: Informationsdienst Wissenschaft

(zurück)


Umfrage: Bürger wollen kein Wachstum um jeden Preis

Ute Friedrich
Pressestelle
Bertelsmann Stiftung

Neue Wirtschaftsordnung soll Umwelt stärken und sozialen Zusammenhalt sichern
Acht von zehn Bundesbürgern wünschen sich unter dem Eindruck der europaweiten Wirtschafts- und Verschuldungskrise eine neue Wirtschaftsordnung. Sie soll vor allem den Umweltschutz stärken, den sorgsamen Umgang mit Ressourcen sicherstellen und den sozialen Ausgleich in der Gesellschaft stärker berücksichtigen. Nur etwa jeder dritte Befragte vertraut bei der Lösung der gegenwärtigen Probleme, die durch die Wirtschafts- und Verschuldungskrise in Europa hervorgerufen wurden, in die ‚Selbstheilungskräfte der Märkte‘. Dies ergab eine Umfrage von TNS-EMNID im Auftrag der Bertelsmann Stiftung.

Uneins sind sich die Bundesbürger darüber, wie der beste Weg aus der aktuellen Krise in Europa aussehen könnte. Während 46 Prozent ein deutliches wirtschaftliches Wachstum in Europa als Lösung ansehen, plädieren 44 Prozent für strikte staatliche Sparkurse.

Langfristig gesehen stellt eine deutliche Mehrheit infrage, ob „immer mehr Wirtschaftswachstum das Wichtigste ist“. Zwar halten knapp 9 von 10 Befragten daran fest, wirtschaftliches Wachstum sei grundsätzlich „sehr wichtig“ oder „wichtig“. Allerdings glauben 60 Prozent nicht daran, dass dies die eigene Lebensqualität steigere. Eine Ansicht, die 27 Prozent mehr Ältere als Jüngere vertreten. Gegenüber einer Befragung im Jahr 2010 ging zudem der Anteil derjenigen, die wirtschaftliches Wachstum als „sehr wichtig“ für die Lebensqualität in der Gesellschaft einschätzen um 14 Prozentpunkte zurück.

89 Prozent der Deutschen sind zudem der Meinung, dass es möglich ist, den Zuwachs an materiellem Wohlstand der Bevölkerung mit dem Schutz der Umwelt und einem sorgsamen Umgang mit Ressourcen zu verbinden. Nur jeder Siebte (13 Prozent) ist der Meinung, dass für den Erhalt der politischen Stabilität ein Zuwachs an materiellem Wohlstand in der Bevölkerung auch zu Lasten der Umwelt gehe könne oder zu einer weiteren hohen Verschuldung führe dürfe.

„Im Lichte der Finanzkrise ist die Diskussion um den Wachstumsbegriff in den vergangenen Jahren vielschichtiger geworden: Es geht längst nicht mehr nur um Quantität, sondern vor allem auch um Qualität: Wir brauchen Lösungen dafür, wie Wachstum verantwortungsvoll und nachhaltig gestaltet werden kann. Hierfür müssen wir nicht nur zu punktuellen Reformen, sondern zu wirklicher Veränderung bereit sein“, so Liz Mohn, stellvertretende Vorstandsvorsitzende der Bertelsmann Stiftung.

In einer Rangfolge der persönlich wichtigen Dinge, stehen für die Befragten „Gesundheit“, „Zufriedenheit mit der persönlichen Lebenssituation“ und „Schutz der Umwelt“ an der Spitze. „Geld und Besitz zu sichern und zu mehren“ werden dagegen am Ende genannt. Je älter die Befragten, desto wichtiger ist der Schutz der Umwelt für die persönliche Lebensqualität. Ähnlich verhält es sich mit dem sozialen Ausgleich in der Gesellschaft. Er ist zwar insgesamt für 85 Prozent der Deutschen zumindest „wichtig“. Hohe Bedeutung hat er jedoch nur bei 32 Prozent, vor allem für die Älteren, denen der soziale Ausgleich besonders am Herzen liegt.

Die Themen der Umfrage stehen auch im Mittelpunkt des Salzburger Trilogs am 17. August 2012, den die Bertelsmann Stiftung in Kooperation mit dem Bundesministerium für europäische und internationale Angelegenheiten der Republik Österreich durchführt. Internationale Experten aus Politik, Wirtschaft, Wissenschaft und Gesellschaft diskutieren darüber, wie eine neue Wirtschaftsordnung aussehen könnte, die nicht nur auf quantitativem Wachstum beruht, sondern auch die stärkere Teilhabe von Menschen ermöglicht.

Die Umfrage wurde in Deutschland und Österreich mit 1.003 bzw. 500 Befragten vom 10. bis 23. Juli 2012 durchgeführt.

Rückfragen an: Peter Walkenhorst, Bertelsmann Stiftung,
Telefon: +49 173 3804647

Volker Oetzel, Bertelsmann Stiftung,
Telefon: +49 162 1332775

Weitere Informationen:
http://www.bertelsmann-stiftung.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Neue Empfehlungen der Ständigen Impfkommission

Susanne Glasmacher
Presse- und Öffentlichkeitsarbeit
Robert Koch-Institut

Die Ständige Impfkommission (STIKO) hat ihre Impfempfehlungen neu abgefasst und im Epidemiologischen Bulletin 30/2012 veröffentlicht. Neben Änderungen bei der Meningokokken- und der Mumps-Impfung hat die STIKO erstmals die Empfehlungen zu Nachholimpfungen bei unvollständigem oder unbekanntem Impfstatus umfassend dargestellt.

Die neuen Hinweise zu Nachholimpfungen sollen Ärzten im Praxisalltag eine Hilfestellung geben, welche Impfungen bei unvollständig geimpften Patienten erforderlich sind, um den altersentsprechend empfohlenen Impfschutz zu erreichen. Die STIKO erläutert zum Beispiel das Vorgehen bei fehlender Impfdokumentation, die Indikationen für die „serologische Titerbestimmung“, die nur in Ausnahmefällen sinnvoll ist, und die Frage zusätzlich verabreichter Impfdosen, wenn etwa in einem Kombinationsimpfstoff nicht alle enthaltenen Komponenten erforderlich sind.

Außerdem werden erstmals altersabhängige Empfehlungen für die Durchführung von Nachholimpfungen formuliert. Erwachsene zum Beispiel sollten bei unzureichendem Impfschutz gegen Tetanus, Diphtherie, Keuchhusten oder Polio entsprechende Nachholimpfungen erhalten. Bei einer anstehenden Tetanus-Auffrischimpfung sollte der Kombinationsimpfstoff gegen Tetanus, Diphtherie und Pertussis verwendet werden. Dies wird bei unfall- oder verletzungsbedingten Tetanus-Impfungen noch nicht ausreichend berücksichtigt. Die STIKO erinnert auch daran, dass nach 1970 geborene Erwachsene, die in der Kindheit nicht oder nur einmal gegen Masern geimpft worden sind oder deren Impfstatus unbekannt ist, eine einmalige Masern-Impfung vorzugsweise mit einem Masern-Mumps-Röteln-Impfstoff erhalten sollten.

Eine Änderung betrifft die 4-valenten Konjugatimpfstoffe gegen Meningokokken der Typen A, C, W-135 und Y. Diese werden von der STIKO für Personen mit erhöhtem Risiko für schwere Meningokokken-Erkrankungen und für Reisende in Länder mit hohem Infektionsrisiko empfohlen. Die STIKO hat in ihren Empfehlungen die Erweiterung der Zulassung dieser Impfstoffe auf Kinder ab 1 Jahr berücksichtigt, statt bisher ab 11 Jahren. Die Empfehlung der routinemäßigen Impfung aller Kinder im zweiten Lebensjahr mit einem Konjugatimpfstoff gegen Meningokokken C bleibt unverändert bestehen.
Zudem hat die STIKO eine Erweiterung der beruflichen Indikation der Mumps-Impfung beschlossen. Die Empfehlung wurde ausgeweitet auf Personen, die in Gesundheitsdienstberufen in der unmittelbaren Patientenversorgung, in Gemeinschaftseinrichtungen oder Ausbildungseinrichtungen für junge Erwachsene tätig sind.

Ein umfassendes Informationsangebot und einen leichteren Zugriff auf die Internetseiten bietet das neue Internetangebot http://www.stiko.de. In englischer Sprache stehen die STIKO-Empfehlungen nun auch unter http://www.stiko.de/en zur Verfügung. Den aktuellen Impfkalender in 15 Sprachen hat das Robert Koch-Institut auf seinen Internetseiten zur Unterstützung der Beratungstätigkeit der Ärzte publiziert.

Ebenso stehen nun Vorlagen für Einwilligungserklärungen in die Masern-, Mumps-, Röteln- und Varizellenimpfung in 15 Sprachen zur Verfügung.

Weitere Informationen:
http://www.rki.de/impfen
http://www.stiko.de

——————————————————————————–
Herausgeber
Robert Koch-Institut
Nordufer 20
D-13353 Berlin
http://www.rki.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Wie viel Stickstoff bindet der Ozean?

Andreas Villwock
Kommunikation und Medien
GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel

Um die Entwicklung des Klimas prognostizieren zu können, müssen Wissenschaftler wissen, welche Gase und Spurenelemente in welchen Mengen bei natürlichen Prozessen im Ozean gebunden oder in die Atmosphäre freigesetzt werden. Gerade beim Stickstoff, der elementar für den Aufbau von Biomasse ist, sind aber noch viele Fragen offen. In einer Studie, die jetzt im internationalen Fachmagazin „Nature“ erscheint, zeigen Meeresforscher aus Kiel, Bremen und Halifax, dass bisher angewendete Messmethoden ein Teil des Problems sind.
Am schönsten sind Gleichungen, wenn sie glatt aufgehen. Doch wenn Wissenschaftler hochkomplexe Vorgänge in der Natur vermessen, Werte vergleichen und in Beziehung zueinander setzen, sind die Ergebnisse selten glatt. Ein Beispiel ist das Stickstoff-Budget der Ozeane. Die Frage lautet: Wie viel Stickstoff wird im Ozean gebunden, und wie viel Stickstoff gibt der Ozean an die Atmosphäre ab? „Das ist unter anderem entscheidend, um weitere Entwicklungen des Klimas prognostizieren zu können. Viele Organismen benötigen den gebundenen und in Nitrit, Nitrat oder Ammonium umgewandelten Stickstoff, um Erbgut und Zellen aufzubauen. Fehlen diese Stoffe, können die Organismen auch keinen Kohlenstoff, also kein CO2, binden“, erklärt Professorin Julie LaRoche vom GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel.

Doch bisher gab es beim Stickstoffbudget ein offensichtliches Problem. Die Auswertung langfristiger Klimaarchive aus dem Meeresboden zeigte, dass während der vergangenen 3000 Jahre ungefähr so viel Stickstoff im Ozean gebunden wie aus dem Ozean freigesetzt wurde. Messungen heutiger biologischer Vorgänge im Wasser ließen dagegen den Schluss zu, dass der Ozean viel mehr Stickstoff abgibt als dort gebunden wird. Es gab also eine deutliche Ungleichheit zwischen langfristiger Rekonstruktion und kurzfristiger Messung.

Schon 2010 wies die Mikrobiologin Wiebke Mohr vom GEOMAR allerdings darauf hin, dass diese Ungleichheit zumindest teilweise auf die Methoden zurückzuführen ist, mit der die biologischen Prozesse bisher gemessen werden. Wissenschaftler des GEOMAR, der Christian-Albrechts-Universität zu Kiel (CAU), des Max-Planck-Instituts für Marine Mikrobiologie (MPI) Bremen sowie der Dalhousie University im kanadischen Halifax haben daraufhin eine von Mohr vorgeschlagene neue Methode anhand von Proben aus dem Atlantik überprüft: Die Ergebnisse präsentieren sie in der aktuellen Ausgabe des internationalen Fachmagazins „Nature“.

Für ihre Studie, die vom Kieler Sonderforschungsbereich 754 und dem Verbundprojekt SOPRAN gefördert wurde, nahmen die beteiligten Wissenschaftler mit den deutschen Forschungsschiffen METEOR und POLARSTERN an mehreren Stellen des tropischen, des äquatorialen und des gemäßigten Süd-Atlantiks Wasserproben inklusive der darin enthaltenen Mikroorganismen. Am MPI Bremen wurde dann die Stickstoff-Fixierung in diesen Wasserproben gemessen. Dabei wurde je eine Probe von einem Standort mit der alten Messmethode, eine zweite vom selben Standort nach der neuen Methode behandelt. „Es zeigte sich deutlich, dass die alte, aber immer noch verbreitete Methode die Stickstoff-Fixierungsraten von bestimmten Mikroorganismen deutlich unterschätzt“, erklärt Tobias Großkopf vom GEOMAR, Erstautor der „Nature“-Studie. Die neue Methode ergab Fixierungsraten, die zwischen 62 und 600 Prozent höher lagen, als die mit der alten gemessenen.

Großkopf und seine Kollegen untersuchten am GEOMAR zusätzlich die Artenzusammensetzung der Mikroorganismen und fanden einen Zusammenhang zwischen den jeweils vorherrschenden Arten und der Höhe der Messdifferenz. „Offensichtlich ändert sich bei der alten Messmethode das Ergebnis je nachdem, ob Mikroorganismen eher in der Nähe der Wasseroberfläche oder in tieferen Wasserschichten leben. Mit der neuen Methode umgehen wir diesen Fehler“, betont Großkopf.

Doch mit den besseren Möglichkeiten zur Messung der Stickstofffixierung kann die Erklärungslücke zwischen den Klimaarchiven und den biologischen Prozessen im Ozean nicht ganz geschlossen werden. „Das liegt auch daran, dass wir lange nicht alle Organismen kennen, die an diesen Prozessen beteiligt sind“, sagt Großkopf. Professorin Ruth Schmitz-Streit, Mikrobiologin an der CAU und Mitautorin der „Nature“-Studie ergänzt: „Wir haben im Rahmen des Sonderforschungsbereichs 754 gerade erst sieben neue Cluster von stickstofffixierenden marinen Mikroorganismen identifiziert, und viele Arten warten noch darauf entdeckt zu werden.“

Für Professorin Julie LaRoche, die die Arbeitsgruppe am GEOMAR leitet, ist die Studie auf jeden Fall ein wichtiges Argument, wissenschaftliche Methoden sorgfältig zu überprüfen, bevor sie angewendet werden. Bereits im Februar 2012 hatten sie sich auf einem international besuchten Workshop am Kieler GEOMAR dafür eingesetzt, bei der Untersuchung von Stoffflüssen im Ozean weltweit einheitliche, zuverlässige Methoden einzusetzen. „Wir müssen global auf einer gemeinsamen Basis arbeiten, sonst können wir die Ergebnisse nicht vergleichen“, betont LaRoche.

Originalarbeit:
Großkopf, T., W. Mohr, T. Baustian, H. Schunck, D. Gill, M. M. M. Kuypers, G. Lavik, R. A. Schmitz, D. W. R. Wallace, J. LaRoche (2012): Doubling of marine N2 fixation rates based on direct measurements. Nature, 488, http://dx.doi.org/10.1038/nature11338

Weitere Informationen:
http://www.geomar.de Das GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.uni-kiel.de Die Christian-Albrechts-Universität zu Kiel
http://www.mpi-bremen.de Das Max-Planck-Institut für Marine Mikrobiologie Bremen
http://www.sfb754.de Der Sonderforschungsbereich 754 Klima – Biogeochemische Wechselwirkungen im tropischen Ozean
http://sopran.pangaea.de Das Verbundprojekt SOPRAN

Quelle: Informationsdienst Wissenschaft

(zurück)


Neues Verfahren bei Grauem Star: Gleitsichtbrille im Auge

Ingrid Rieck
Presse und Kommunikation
Universität Rostock

Katarakt-OP sorgt für intelligente Wiederherstellung der Sehkraft

Ein neues Operationsverfahren beim Grauen Star macht die Betroffenen unabhängig von der Brille. „Es handelt sich um eine OP, bei der gewissermaßen eine Gleitsichtbrille ins Auge implantiert wird“, sagt Professor Dr. Rudolf Guthoff, Direktor der Klinik und Poliklinik für Augenheilkunde an der Universitätsmedizin Rostock, wo das Verfahren ab sofort verfügbar ist.

Bei dieser Operation kommt eine neuartige Linse zum Einsatz, die die alte, eingetrübte Linse ersetzt. „Es handelt sich um eine Multifokallinse, die sich wie eine Gleitsichtbrille intelligent den jeweiligen Bedürfnissen anpasst“, so Professor Guthoff. Ziel sei es, die Betroffenen durch die Operation unabhängig von der Brille zu machen. Der Austausch der Linsen beim Grauen Star sei mittlerweile ein Standardeingriff, so Professor Guthoff weiter. Die neuartigen Kunstlinsen werden allerdings erst seit kurzem verwendet.

„Multifokallinsen werden seit rund 20 Jahren entwickelt. Jetzt haben sie allerdings erst eine Qualität erreicht, dass sie Patienten ohne Bedenken eingesetzt werden können“, sagt Professor Guthoff. An der Augenklinik der Universitätsmedizin Rostock wurde dazu eine interne Verträglichkeitsstudie durchgeführt – mit positiven Ergebnissen. „Wir habe in den vergangenen Jahren Erfahrungen mit diesen Linsen gesammelt und stehen nun gern auch als Ansprechpartner zur Verfügung“, so Professor Guthoff. Dies gelte nicht nur für Patienten: Auch Ärzteweiterbildungen zu diesem Thema werden angeboten.

Hinzu komme, dass von Seiten der Krankenkassen der Einsatz der Multifokallinsen aufgrund ihrer guten Verträglichkeit erleichtert wurde. Durch eine neue Mehrkostenregelung kann der Einsatz der Linsen für die Betroffenen weniger kostenintensiv als bisher gestaltet werden.

Der Graue Star (Katarakt) ist eine der häufigsten Augenerkrankungen, bei der sich die Linse eintrübt und die Sehfähigkeit verschlechtert. Bei der Operation werden meist beidseitig die Linsen entfernt und durch neue Implantate ersetzt. In Deutschland werden jährlich rund 500.000 dieser Eingriffe vorgenommen, weltweit sind es rund 15 Millionen. Allerdings ist gerade in Ländern mit armer Bevölkerung der Graue Star eine häufige Ursache für Erblindung.

Kontakt
Professor Dr. Rudolf Guthoff, Direktor der Klinik und Poliklinik für Augenheilkunde an der Universitätsmedizin Rostock, Doberaner Straße 140, 18057 Rostock, Tel. 0381 494-8501

Professor Dr. Peter Schuff-Werner, Ärztlicher Vorstand, Universitätsmedizin Rostock, Schillingallee 35, 18057 Rostock, Tel. 0381 494-5011

Quelle: Informationsdienst Wissenschaft

(zurück)


Arktis 2012: Neue Rekordschmelze im September erwartet

Birgit Kruse
Referat Medien- und Öffentlichkeitsarbeit
Universität Hamburg

Eisforscher vom KlimaCampus, Universität Hamburg, prognostizieren für September die geringste jemals gemessene Eisbedeckung. Mit 4,1 Millionen Quadratkilometern würde die Fläche sogar noch das Rekordminus von 2007 (4,3 Mio. km²) deutlich unterschreiten. Im vergangenen Jahr lagen Lars Kaleschke und sein Team mit ihrer Prognose exakt richtig.
Die Arktis als „Frühwarnsystem“ des Klimawandels macht sich erneut deutlich bemerkbar: Meereis-Experte Lars Kaleschke vom KlimaCampus, Universität Hamburg, erwartet im September, zum Zeitpunkt des jährlichen Minimums der Eisbedeckung in der Arktis, eine Fläche von nur noch etwa 4,1 Millionen Quadratkilometern. Dies wäre der geringste Wert seit Beginn der Satellitenmessungen in den 1970er Jahren.

Forscher aus aller Welt beteiligen sich alljährlich am so genannten Sea Ice Outlook, in dem sie mit unterschiedlichen Methoden das verbleibende Eisminimum abschätzen. Mit einer statistischen Prognose basierend auf aktuellen Satellitendaten traf das KlimaCampus-Team diesen Wert im vergangenen Jahr auf eine Nachkommastelle genau – die Eisfläche war auf 4,6 Mio km² geschmolzen.

Auffallend waren bereits die Ereignisse der vergangenen Monate. Der Petermann-Gletscher kalbte einen gigantischen Eisblock, während die Eisoberfläche Grönlands beinahe komplett antaute. Zurzeit fegt ein außergewöhnlich starker Sturm über die Arktis, der die Entwicklung noch kurzfristig beeinflussen kann: „Wenn der Sturm das Eis auseinandertreibt, würde die bedeckte Fläche auf den ersten Blick wieder größer erscheinen. Öffnungen, die dabei entstehen, könnten jedoch das Schmelzen anschließend beschleunigen“, sagt Kaleschke. Denkbar wäre auch, dass durch die Bewegung im Eis wärmeres Wasser aus tieferen Schichten nach oben gelangt. Dadurch könnte die Unterseite des Eises schneller abschmelzen, so der Eisforscher, und das September-Minimum noch extremer ausfallen als schon erwartet.

Weitere Informationen:
http://www.klimacampus.de/clisap.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Sonnenvitamin dringend benötigt – Vitamin D hilft bei Rheuma

Kathrin Gießelmann
Geschäftsstelle
Deutsche Gesellschaft für Rheumatologie e.V.

Etwa jeder zweite Mensch in Deutschland hat einen Vitamin D Mangel. Für die Betroffenen bringt dies nicht nur ein erhöhtes Osteoporose-Risiko mit sich. Wissenschaftliche Studien liefern zunehmend Hinweise darauf, dass Vitamin D möglicherweise über eine anti-entzündliche Wirkung auch gegen entzündlich-rheumatische Erkrankungen wirksam ist. Über die Bedeutung des Vitamin-D-Mangels bei Arthritis, Morbus Bechterew und anderen rheumatischen Erkrankungen diskutieren Experten auf dem Jahreskongress der Deutschen Gesellschaft für Rheumatologie (DGRh), der vom 19. bis 22. September 2012 in Bochum stattfindet.
„Mit der Nahrung nehmen wir in der Regel nur sehr geringe Mengen Vitamin D auf“, erläutert Professor Dr. med. Heike Bischoff-Ferrari, Leiterin des Zentrums Alter und Mobilität der Universität Zürich. Lediglich in fettem Fisch seien nennenswerte Mengen enthalten und davon müsste man täglich zwei Portionen essen. Unser Körper muss das Vitamin daher selbst produzieren – und benötigt hierfür das Licht der Sonne. Dessen UV-B-Anteil ermöglicht es, dass eine Vorläufersubstanz in der Haut zu Vitamin D umgewandelt wird. „In unseren Breitengraden reicht die Sonnenintensität allerdings nur in den Sommermonaten aus, den Körper ausreichend mit Vitamin D zu versorgen und das Tragen von Sonnenschutz Cremes vermindert zudem die hauteigene Vitamin D Produktion“, betont Bischoff-Ferrari.

Wie eine Studie zeigt, die auf dem DGRh-Kongress vorgestellt wird, liegt auch bei Patienten mit entzündlich-rheumatischen Erkrankungen häufig ein Vitamin-D-Mangel vor. Privatdozent Dr. med Hans-Eckhard Langer, Leiter der Schwerpunktpraxis für Rheumatologie, Klinische Immunologie und Osteologie am Evangelischen Krankenhaus Düsseldorf und sein Team untersuchten hierfür das Blut von 641 Patienten. Nur bei einem Drittel der Erkrankten konnten sie eine optimale Versorgung mit Vitamin D feststellen, bei 7,8 Prozent zeigte sich sogar ein schwerer Mangel. Selbst Patienten, denen bereits Vitamin-D-Präparate verschrieben worden waren, waren nur zu knapp 40 Prozent optimal versorgt. Womöglich müssten die geltenden Dosisempfehlungen neu überdacht werden, folgern die Autoren.

„Eine ausreichende Vitamin-D-Versorgung wirkt sich positiv auf die Muskel- und Knochengesundheit aus, außerdem bestehen Hinweise aus großen Beobachtungsstudien, dass sich die anti-entzündliche Wirkung von Vitamin D positiv auf den Krankheitsverlauf auswirkt“, erläutert Bischoff-Ferrari. Die Expertin rät dazu – besonders in den Wintermonaten – den Mangel mithilfe von Vitamin-D-Präparaten auszugleichen. „Um Krankheiten vorzubeugen, müssen über das ganze Jahr hinweg stabile Vitamin-D-Spiegel erreicht werden“, so die Expertin. Bislang gibt es Empfehlungen zur Vitamin-D-Einnahme lediglich für Schwangere, Säuglinge und Kleinkinder, sowie für Senioren mit erhöhtem Osteoporose-Risiko. „Ein Vitamin-D-Mangel tritt aber auch in den mittleren Altersgruppen häufig auf“, sagt Heike Bischoff-Ferrari.

„Zur Prävention und Behandlung rheumatisch-entzündlicher Erkrankungen müssen wir die Bedeutung des Vitamin-D-Mangels in der Praxis noch stärker berücksichtigen“, sagt Professor Dr. med. Jürgen Braun, ärztlicher Direktor des Rheumazentrums Ruhrgebiet in Herne und diesjähriger Präsident des 40. DGRh-Kongresses. Gemeinsam mit der 26. Jahrestagung der Deutschen Gesellschaft für Orthopädische Rheumatologie (DGORh) und der 22. Jahrestagung der Gesellschaft für Kinder- und Jugendrheumatologie (GKJR) findet der Kongress vom 19. bis 22. September 2012 in Bochum statt.

Terminhinweis:

Vortrag im Rahmen des DGRh-Kongresses:
Epidemiologie des Vitamin-D-Mangels – Wann messen, wie behandeln?
Prof. Dr. Heike Bischoff-Ferrari, Zürich
Termin: Freitag, 21. September 2012, 9.30 bis 10.00 Uhr

Weitere Informationen:
http://www.dgrh-kongress.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Wissenschaftler beobachten Veränderungen in der Färbung des Nachthimmels

Carsten Wette
Presse und Kommunikation
Freie Universität Berlin

Die Färbung des Nachthimmels wird sich nach einer Prognose von Wissenschaftlern vom Institut für Weltraumwissenschaften der Freien Universität Berlin und vom Leibniz-Institut für Gewässerökologie und Binnenfischerei drastisch verändern. Bei einem Wechsel zu LED-Straßenbeleuchtung wird nach Meinung der Forscher blaues Licht verstärkt die Färbung des Nachthimmels beeinflussen. Mit einem eigens entwickelten Messgerät für Veränderungen in der Himmelsfarbe stellten die Forscher fest, dass sich der Nachthimmel über Berlin bei Bewölkung derzeit rötlich färbt. Ihre Studie trägt daher den Titel „Rot ist das neue Schwarz“. Sie erscheint in einer Publikation der Royal Astronomical Society.
Christopher Kyba, Physiker an der Freien Universität und Hauptautor der Studie, erläutert, dass Innovationen in der Beleuchtungstechnik unterschiedliche Farbspektren der Lampen mit sich bringen werden. „Der derzeitige weltweite Trend, Gasentladungsröhren durch LED-Lampen zu ersetzen, wird die Helligkeit und das Lichtspektrum des Nachthimmels erneut verändern.“ Um mögliche Auswirkungen auf Ökosysteme nachzuvollziehen, sei es nötig, den Nachthimmel langfristig zu beobachten.

Die Wissenschaftler untersuchten dazu mittels eigens angefertigter Messgeräte, wie Wolken die Helligkeit des Nachthimmels beeinflussen. „In annähernd jeder Epoche der Erdgeschichte haben Wolken den Tag- und Nachthimmel verdunkelt“, sagt Franz Hölker, Ökologe am Leibniz-Institut für Gewässerökologie und Binnenfischerei sowie Leiter des Interdisziplinären Forschungsverbunds „Verlust der Nacht“. In Regionen mit starker Beleuchtung ist nachts jedoch das Gegenteil der Fall; so ist in Berlin das blaue Licht eines bewölkten Nachthimmels siebenmal heller als in unbewölkten Nächten, das rote Licht achtzehnmal.

Für viele Tiere sind bewölkte Nächte in Ballungsgebieten heute tausendmal heller, als sie es bis vor wenigen Jahrzehnten waren. Den Autoren der Studie zufolge könnte das zusätzliche Licht Räuber-Beute-Beziehungen beeinflussen, wie zum Beispiel zwischen Eulen und Mäusen.

An unbewölkten Tagen streut die Atmosphäre besonders das kurzwellige blaue Licht. Deswegen geben die Wissenschaftler zu bedenken, dass weiße LED-Leuchten ohne gesonderte Vorkehrungen bei Design und Einbau den Himmel in unbewölkten Nächten stark erhellen können. Sie weisen darauf hin, dass Städte, die sich für einen Wechsel zu LED-Beleuchtung entschieden haben, Leuchten anschaffen sollten, die ein nicht aufwärts gerichtetes, warmweißes Licht mit möglichst geringem Strahlungsanteil im blauen Spektralbereich abgeben.

Weitere Informationen
– Dr. Christopher Kyba, Freie Universität Berlin / Leibniz-Institut für Gewässerökologie und Binnenfischerei, Telefon: 030 / 838-71140, E-Mail: kyba@zedat.fu-berlin.de
– PD Dr. Franz Hölker, Leibniz-Institut für Gewässerökologie und Binnenfischerei, Telefon: 030 / 64 181 665, E-Mail: hoelker@igb-berlin.de

Im Internet
– Website des Interdisziplinären Forschungsverbandes Lichtverschmutzung: www.verlustdernacht.de
– Website von Christopher Kyba: http://userpage.fu-berlin.de/~kyba
http://onlinelibrary.wiley.com/doi/10.1111/j.1365-2966.2012.21559.x/full (Artikel)

Quelle: Informationsdienst Wissenschaft

(zurück)


Näher als Du denkst: Das ist Hepatitis… Informier Dich. Schütz Dich. Lass Dich testen.

Rita Wilp
Deutsche Leberstiftung

Jeder zwölfte Mensch weltweit ist mit Hepatitis B- oder C-Viren chronisch infiziert. Doch die wenigsten wissen davon. Hinzu kommt: Die Leber leidet stumm, warnende Symptome bleiben oft jahrelang aus. Das bedeutet, eine Ansteckung geschieht, ohne dass die Person es sofort merken kann.
Ein erstes Warnsignal für eine Infektion oder andere Lebererkrankungen können erhöhte Leberwerte sein. Um also frühzeitig zu wissen, ob die Leber erkrankt ist, sollte jeder regelmäßig seine Leberwerte beim Hausarzt bestimmen lassen. Nur wenn eine Leberwertbestimmung zur Routineuntersuchung gehört, kann man rechtzeitig eine Erkrankung der Leber erkennen. Treffen kann die Infektion jeden. Unter dem Motto „Näher als Du denkst: Das ist Hepatitis… Informier Dich. Schütz Dich. Lass Dich testen.“ steht in diesem Jahr der Welt-Hepatitis-Tag. „Hepatitis B- und C- Virusinfektionen können nach Jahren zur Leberzirrhose und zu Leberkrebs führen. Am Ende kann sogar die Transplantation stehen. Deshalb ist eine frühe Diagnose lebenswichtig“, sagt Prof. Dr. Michael P. Manns, Vorstand Deutsche Leberstiftung. Es habe in den letzten zehn Jahren große Fortschritte in der Therapie der Hepatitis gegeben. So sei Hepatitis C – bei rechtzeitiger Diagnose – heute bei vielen Patienten heilbar. Hepatitis B zumindest kontrollierbar. Trotzdem sei auf jeden Fall immer eine heute mögliche Impfung gegen Hepatitis A und B das beste Mittel, sich vor einer Infektion zu schützen. Seit 2011 ist der Welt-Hepatitis-Tag offizieller Gesundheitstag der World Health Organisation (WHO). Der 28. Juli wurde zu Ehren des inzwischen verstorbenen Hepatitis B-Entdeckers Prof. Baruch Blumberg neu festgelegt, der an diesem Tag Geburtstag hatte. Um in Deutschland insgesamt über Leberkrankungen zu informieren, haben die Deutsche Leberstiftung, die Deutsche Leberhilfe e.V. und die Gastro-Liga e.V. den jährlichen Deutschen Lebertag (20.11.2012) als speziellen Aufklärungstag ins Leben gerufen. Informationen unter www.lebertag.org und www.welthepatitistag.info

Eine gesunde Leber ist lebenswichtig. Nicht nur durch Infektionen auch Übergewicht, ungesunde Lebensweise, toxische Stoffe (Alkohol, Medikamente) und Autoimmunerkrankungen können die Leber krank machen. Vor allem Berufsgruppen im Gesundheitswesen sind gefährdet, sich mit Hepatitis B oder C anzustecken. Hier führt der Ansteckungsweg über Kontakt mit Blut. Bei Hepatitis B kommt zusätzlich noch das Ansteckungsrisiko über Körperflüssigkeiten wie Sperma und Scheidensekret hinzu. Auch verunreinigte Geräte und Nadeln bei Piercings oder Tattoos können zu einer Infektion mit
dem Hepatitis B-Virus führen. Das Hepatitis B-Virus ist hundertmal ansteckender als der HI- Virus.

Kraftwerk Leber
Die Leber funktioniert wie ein kompaktes Kraftwerk in unserem Körper. Sie gehört zu den größten Organen des Menschen und arbeitet wie eine kleine chemische Fabrik. Die Leber filtert Schadstoffe aus dem Blut, sondert mit der Galle Stoffwechselprodukte über den Darm ab und reguliert unter anderem Fett- und Zuckerstoffwechsel wie auch den Mineral- und Vitaminhaushalt. In dieser Fabrik werden Eiweiße aus der Nahrung in ihre Bausteine, die Aminosäuren, zerlegt und dann zu körpereigenen Proteinen wie Enzyme, Gerinnungsfaktoren und Hormonen umgebaut.

Ansprechpartner:
Deutsche Leberstiftung
Prof. Dr. Michael P. Manns, Vorstandsvorsitzender Bianka Wiebner, Kaufmännische Geschäftsführerin Carl-Neuberg-Straße 1, 30625 Hannover presse@deutsche-leberstiftung.de www.deutsche-leberstiftung.de
Deutsche Gesellschaft zur Bekämpfung der Krankheiten von Magen, Darm und Leber sowie von Störungen des Stoffwechsels und der Ernährung (Gastro-Liga) e.V.
Prof. Dr. Peter R. Galle, Vorstandsmitglied
Friedrich-List-Straße 13, 35398 Gießen
geschaeftsstelle@gastro-liga.de
www.gastro-liga.de

Deutsche Leberhilfe e.V.
Prof. Claus Niederau, Vorstandsvorsitzender Achim Kautz, Geschäftsführer
Krieler Straße 100, 50935 Köln info@leberhilfe.org
www.leberhilfe.org

Weitere Informationen:
http://www.lebertag.org

Quelle: Informationsdienst Wissenschaft

(zurück)


Umweltforschung: Plastikmüll in Gewässern

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Plastikmüll landet oft in Gewässern und verbleibt dort mit ungewissen Folgen für das Ökosystem. Weil diese Kontamination nun erstmals präzise analysiert werden kann, lassen sich auch die Auswirkungen auf Mensch und Tier besser untersuchen.
Synthetische Kunststoffe sind fester Bestandteil des modernen Lebens – nicht zuletzt als kaum abbaubarer Abfall. Ein Großteil davon gelangt über die Flüsse ins Meer. Im Nordpazifik etwa hat sich mit dem „Great Pacific Garbage Patch“ ein gigantischer schwimmender Teppich aus Plastikmüll gebildet, der eine Gefahr für die dort lebenden Organismen darstellt. Werden die bunten Kunststoffteile mit natürlicher Nahrung verwechselt und gefressen, können sie den Verdauungstrakt blockieren oder aber den Hormonhaushalt der Tiere massiv stören.
Kleinere Kunststoffpartikel im Millimeter- und Mikrometerbereich sind nicht weniger weit verbreitet und nicht weniger gefährlich, vor allem weil sie sich über „Bioakkumulation“ entlang der Nahrungskette anreichern. Bislang konnte die Verschmutzung aquatischer Ökosysteme durch Kunststoffe aber nicht exakt bestimmt und damit das Risiko nicht umfassend abgeschätzt werden. „Mit Hilfe einer neuen Methode können wir jetzt ökologisch relevante Plastikpartikel aus dem Sediment über eine Dichtetrennung quantifizieren“, sagt der LMU-Biologie Professor Christian Laforsch.

Plastik auf dem Prüfstand

Der „Munich Plastic Sediment Separator“ (MPSS) wurde zusammen mit Forschern der TU München aus dem Institut für Wasserchemie und Chemische Balneologie in München entwickelt. Das Gerät erlaubt, unterschiedliche Plastikpartikel bis zu einer Größe von weniger als einem Millimeter aus aquatischem Sediment zu extrahieren, zu quantifizieren und auch zu identifizieren. „Unsere Methode ist herkömmlichen Ansätzen deutlich überlegen“, sagt Hannes Imhof, der Erstautor der Studie.

Viele Anwendungen sind denkbar, denn eine Separations und-Identifikationsrate von bis zu 100 Prozent ist bislang unerreicht, auch etwa in der Recycling-Industrie. „Die Problematik rund um Plastikmüll in aquatischen Ökosystemen ist ein hochaktuelles und zukunftsträchtiges Forschungsgebiet“, sagt Laforsch. „Wir können jetzt die Belastung von Gewässern mit Plastik exakt nachweisen und damit die Auswirkungen auf die Lebewesen in diesen essentiellen und zugleich hochempfindlichen Lebensräumen untersuchen. Über das Trinkwasser und Speisefische gehört dazu natürlich nicht zuletzt auch der Mensch.“ (suwe)

Publikation:
A novel, highly efficient method for the separation and quantification of plastic particles in sediments of aquatic environments
Hannes K. Imhof, Johannes Schmid, Reinhard Niessner, Natalia P. Ivleva, and Christian Laforsch
Limnology and Oceanography: Methods, Juli 2012
Doi 10.4319/lom.2012.10.524

Ansprechpartner:
Professor Christian Laforsch
Department Biologie II and
GeoBio-Center der LMU
Tel: +49 (0) 89 2180-74-252
Fax: +49 (0) 89 2180-74-204
E-Mail: laforsch@zi.biologie.uni-muenchen.de
Web: http://sci.bio.lmu.de/ecology/evol_e/people_laforsch_e.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Tödliches Techtelmechtel: Fledermäuse nutzen Kopulationsgeräusche von Fliegen für die Nahrungssuche

Dr. Sabine Spehn
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Ornithologie

Eine nächtliche Paarung bei Fliegen führt nicht immer zur Vermehrung: Die Männchen geben durch schnelles Flügelschlagen Geräusche in Form von breitbandigen Summlauten von sich, die von Fledermäusen wahrgenommen werden können. Stefan Greif vom Max-Planck-Institut für Ornithologie in Seewiesen und seine Kollegen haben in einer Langzeitstudie an wildlebenden Fransenfledermäusen beobachtet, dass die Fledermäuse die kopulierenden Fliegen im Doppelpack verspeisten. Sitzende oder laufende Fliegen lösten dagegen kein Angriffsverhalten aus. Dies ist der erste experimentelle Nachweis, wie für Tiere die Paarung selbst zum Risiko werden kann.
Die Paarung ist für Tiere allgemein ein gefährlicher Vorgang, denn die Aufmerksamkeit für andere Geschehnisse in der Umgebung ist dann stark reduziert. Deshalb ist die Kopulation, von ein paar Ausnahmen abgesehen, meist recht schnell wieder vorbei. Bereits vor fast 100 Jahren äußerten Forscher die Vermutung, dass sich paarende Tiere einem erhöhten Risiko aussetzen, leichter entdeckt und gefressen zu werden. Jedoch gibt es überraschenderweise nur spärliche Beobachtungen, die diese Hypothese unterstützen. Diese stammen meist von im Wasser lebenden Insekten, wie z.B. Flohkrebsen und Wasserläufern, aber auch von Landinsekten, wie in einer kürzlich veröffentlichten Studie an Australischen Schwarmheuschrecken, die als Paare öfter zur Beute von Grabwespen wurden als Einzeltiere.

Außer der reduzierten Aufmerksamkeit für die Umgebung erhöht auch eine verminderte Fluchtfähigkeit und eine erhöhte Auffälligkeit die Gefahr, als tierisches Liebespaar eine leichte Beute zu werden. Den experimentellen Nachweis dafür erbrachten nun Stefan Greif vom Max-Planck-Institut für Ornithologie in Seewiesen und seine Kollegen. An einer Lebensgemeinschaft von Stubenfliegen und Fransenfledermäusen in einem Kuhstall bei Marburg werteten sie Videoaufnahmen von fast 9000 Fliegen aus. Diese zeigen, dass die tagaktiven Fliegen nachts selten fliegen und meist nur an der Decke sitzen oder daran herumlaufen. Die Fledermäuse können diese recht trägen Fliegen durch Echoortung nicht finden, denn die Echos des rauen Untergrundes verschmelzen mit denen der kleinen Beute und machen sie sozusagen unsichtbar.

Dies ändert sich schlagartig, wenn die Fliegenmännchen auf Brautschau gehen und einen passenden Paarungspartner gefunden haben. Die darauf folgende Kopulation ist geräuschvoll, da die Männchen mit ihrem Flügelschlagen breitbandige Summlaute von sich geben, die von den Fledermäusen gehört werden können. In ca. fünf Prozent aller beobachteten Kopulationen wurden diese „Fliegen im Doppelpack“ dann auch von den Fledermäusen attackiert und meist auch erfolgreich gefangen (in vier Beobachtungsjahren wurden sogar durchschnittlich 26 Prozent aller kopulierenden Fliegenpaare angegriffen).

Um nachzuweisen, dass es tatsächlich die Paarungsgeräusche sind, die die Fledermäuse auf die Fliegen aufmerksam machen, klebten die Forscher tote Fliegenpaare an die Decke. Diese bieten eine größere Reflektionsfläche für das Echoortungssignal der Fledermäuse als eine einzelne Fliege. Jedoch wurden auch diese Exponate nicht attackiert. Erst als die Wissenschaftler den Fransenfledermäusen die Kopulationsgeräusche der Fliegen vorspielten, attackierten sie die Lautsprecher. Dementsprechend fasst Stefan Greif die Studie auf Englisch recht simpel zusammen: „Sex kills“.

Originalveröffentlichung:
Björn M. Siemers, Eva Kriner, Ingrid Kaipf, Matthias Simon and Stefan Greif
Bats eavesdrop on the sound of copulating flies.
Current Biology, Veröffentlicht Online am 23.07.2012.

Fotos und Videos zu dieser Meldung:
Zu Finden unter http://pubrel.orn.mpg.de/pindownload/login.do?pin=HX8TL

Kontakt:
Stefan Greif
Max-Planck-Forschungsgruppe „Sinnesökologie“
Max-Planck-Institut für Ornithologie, Seewiesen
Tel.: 08157 932 376
Email: greif@orn.mpg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Die Nieren der Landschaft – Senckenberg betreibt Langzeitforschung an Fließgewässern und Auen

Judith Jördens
Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wissenschaftler des Senckenberg Forschungsinstitutes warnen vor einer Gefährdung von Fließgewässern und Auenlandschaften. Durch intensivere Landnutzung könnten die als „Hotspot der Artenvielfalt“ bekannten Ökosysteme ihre Filter-Funktion in der Landschaft nicht mehr wahrnehmen. Zur besseren Vernetzung von Wissenschaft und Politik sind die Forschungsaktivitäten Bestandteil des europäischen Langzeit-Projektes EnvEurope.
Kriebelmücken, Schnecken, Wasserkäfer und Libellen – Fließgewässer und die zugehörigen Auen sind wahre „Biodiversitäts-Hotspots“. Etwa zehn Prozent aller Arten in Mitteleuropa sind ausschließlich auf diese Lebensräume beschränkt, gut 40 Prozent leben typischerweise in Auen. Dabei nehmen Fließgewässer und ihre Auen in Mitteleuropa nur noch weniger als ein Prozent der Gesamtfläche ein.

Salz aus dem Straßen-Winterdienst oder Einträge wie Dünge- oder Pflanzenschutzmittel aus der Landwirtschaft belasten immer auch Fließgewässer. Diese liegen natürlicherweise am tiefsten Punkt in der Landschaft und sind damit Sammelbecken für alle Einträge aus den Einzugsgebieten. Durch ihre Selbstreinigungskraft fungieren diese Ökosysteme jedoch gleichzeitig als „Niere“ der Landschaft.

„Doch durch die intensivere Landnutzung sind die Gebiete besonders bedroht. Der Schutz der Fließgewässer und der Erhalt des Selbstreinigungseffektes ist uns daher ein besonders Anliegen“, erklärt Dr. Stefan Stoll aus der Abteilung Fließgewässerökologie und Naturschutzforschung des Senckenberg Forschungsinstitutes. „Im eigens eingerichteten Rhein-Main-Observatorium untersuchen wir auf einer Fläche von 100 Quadratkilometern, welche Stellschrauben die biologische Vielfalt in menschlich genutzten Auengebieten beeinflussen.“

Und auch der Blick über den deutschen Tellerrand wird gewagt: Im europäischen Projekt EnvEurope wird nun von Senckenberg gemeinsam mit weiteren Forschungsinstituten aus 11 europäischen Ländern der gegenwärtige Zustand sowie Veränderungen und Trends von Ökosystemen in Europa erfasst und europaweit einheitliche Methoden und Parameter zur Ökosystemanalyse entwickelt.

„Durch den Zusammenschluss mit anderen wissenschaftlichen Instituten, die zu Ökosystemen forschen, verbessern wir die wissenschaftliche Grundlage der Naturschutzplanung in der Europäischen Union und tragen dazu bei, die Lücke zwischen Wissenschaft und Politik zu schließen“, resümiert Stoll.

Gute Nachrichten für über tausend Insektenarten und die zahlreichen anderen Auenbewohner!

Kontakt
Dr. Stefan Stoll
Abt. Limnologie und Naturschutzforschung
Tel: 06051 61954-3123
Stefan.Stoll@senckenberg.de

Die Erforschung von Lebensformen in ihrer Vielfalt und ihren Ökosystemen, Klimaforschung und Geologie, die Suche nach vergangenem Leben und letztlich das Verständnis des gesamten Systems Erde-Leben – dafür arbeitet die SENCKENBERG Gesellschaft für Naturforschung. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblick in vergangene Zeitalter sowie die Vielfalt der Natur vermittelt. Mehr Informationen unter www.senckenberg.de.

Quelle: Informationsdienst Wissenschaft

(zurück)


Beruflicher Aufstieg macht nicht glücklich

Mark Fallak
Öffentlichkeitsarbeit
Institut zur Zukunft der Arbeit

Beförderungen am Arbeitsplatz schaden auf Dauer der psychischen Verfassung, ohne positive Auswirkungen auf körperliche Gesundheit und Lebenszufriedenheit zu entfalten. Das ist das Ergebnis einer Studie australischer Wissenschaftler, die das Bonner Institut zur Zukunft der Arbeit (IZA) veröffentlicht hat. Trotz dauerhaften Einkommenssteigerungen und höherem sozialen Status überwiegen langfristig die negativen Effekte von vermehrtem Stress und längeren Arbeitszeiten.
Die Forscher nutzten einen umfangreichen Datensatz mit detaillierten Befragungsdaten zu Arbeitsplatzaspekten, Gesundheit und Lebenszufriedenheit. So konnten sie rund 2.000 Beförderungen von Vollzeitbeschäftigten im Alter von 18 bis 64 Jahren analysieren und die Entwicklung der Betroffenen über einen Zeitraum von zehn Jahren verfolgen.

Unmittelbar nach einer Beförderung gaben die Befragten im Durchschnitt an, mehr Verantwortung zu tragen, einen sichereren Arbeitsplatz zu haben und fairer bezahlt zu werden. Zugleich berichteten sie von längeren Arbeitszeiten und gestiegenem Stress. Spätestens nach drei Jahren war die Karriere-Euphorie verflogen: Trotz mehr Geld und höherem Status gingen Jobzufriedenheit, subjektive Arbeitsplatzsicherheit und das Gefühl, angemessen bezahlt zu werden, wieder auf das Niveau vor der Beförderung zurück. Körperliche Gesundheit und allgemeine Lebenszufriedenheit blieben auf lange Sicht weitgehend unverändert. Die psychische Gesundheit litt jedoch dauerhaft unter der gestiegenen beruflichen Belastung, die verbreitet zu Nervosität und Unruhezuständen führte.

Die englischsprachige Studie ist von der IZA-Homepage abrufbar:

David Johnston, Wang-Sheng Lee:
Extra Status and Extra Stress: Are Promotions Good for Us?
IZA Discussion Paper No. 6675
http://ftp.iza.org/dp6675.pdf

Quelle: Informationsdienst Wissenschaft

(zurück)


Strategiepapier Bioethanol: Forscher fordern Einführung von E 20 und Alkohol-Autos

Florian Klebs
Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Höherer Biokraftstoff-Anteil ließe sich aus heimischer Produktion decken / Forscher von Universität Hohenheim und Fachhochschule Münster präsentieren Strategiepapier
Bislang produzieren sie Alkohol für Spirituosen, Essig, die Pharma- und die Kosmetikindustrie: rund 400 mittelständische Destillerien in Deutschland. Künftig könnten sie Getreide- und Kartoffelüberschüsse der EU zu Biosprit vergären, so der Vorstoß eines Forscherduos von der Universität Hohenheim und der Fachhochschule Münster. Kombiniert mit Biogas aus den Abfallstoffen der Brennereien ließe sich so eine hocheffiziente, dezentrale und nachhaltige Bioenergienutzung aufbauen. Voraussetzung seien politische Vorgaben und Anreize sowie eine Aufklärungs- und Akzeptanzkampagne. Vollständiges Strategiepapier unter www.fh-muenster.de/egu/bioethanol; www.uni-hohenheim.de/gaerung/Bioethanol.html . Expertenliste Bioenergie unter www.uni-hohenheim.de/experten-bioenergie

Kurze Wege vom Anbau über die Produktion bis zum Absatz: das seien die Vorteile, die die heimische Alkoholproduktion für Biosprit so interessant machen. „Durch die dezentrale Produktion schneidet die Bioethanolproduktion in Deutschland bei jeder Nachhaltigkeitsbilanz besonders gut ab“, erklärt PD Dr. Thomas Senn von der Fachgruppe Gärungstechnologie der Universität Hohenheim.
Noch besser schnitten neue Anlagen ab, die Bioethanol und Biogas kombinierten. Denn bei der Alkoholproduktion fallen Reststoffe an, die sich in Biogas umwandeln lassen. „Damit kann jede Anlage ihren Energiebedarf selbst decken“, erklärt Prof. Dr. Christof Wetter vom Fachbereich Energie • Gebäude • Umwelt der FH Münster.
Die Energieexperten haben Energieausbeute und die entstehende Menge an Treibhausgasen mit anderen Formen von Bioenergie verglichen. Fazit: „Die dezentrale Kombination Biosprit/Biogas schneidet mit am besten ab“, so Prof. Dr. Wetter. Verglichen mit Superbenzin spare Bioethanol 40 bis 90 % CO2 ein.
Gleichzeitig gäbe es neue Technologien, die eine Produktion erlaubten, ohne die Lebensmittelproduktion negativ zu beeinflussen. „Technische Probleme sind nicht zu erwarten und die erforderlichen Ethanolmengen sind grundsätzlich verfügbar“, sagt PD Dr. Senn.

Künftig E20 statt E10 und neue Alkohol-Autos
Konkret fordern die beiden Forscher deshalb zwei Neuerungen an den Tankstellen von Deutschland und der EU:
• E20- statt E10-Benzin, bei dem 20 Prozent des Superbenzins durch Ethanol ersetzt werden.
• E85 als neuer, größtenteils Ethanol-basierter Kraftstoff, für den die Fahrzeuge noch umgerüstet werden müssten.
Technisch gesehen könnten alle Fahrzeuge, die heute schon mit E10 fahren, grundsätzlich mit E20 fahren. In Brasilien seien wesentlich höhere Ethanol-Anteile bereits Praxis. Die USA gaben vergangenen Winter bereits E15 frei.
Mittelfristig werde sich das hochprozentige E85 zu einer günstigen Preisalternative entwickeln. „Mit steigenden Ölpreisen wird E85 immer attraktiver, welches seit Jahren preislich stabil ist“, erklärt PD Dr. Senn.
Autos, die E85 fahren können, seien heute bereits in Deutschland erhältlich. Mehrkosten: 30 bis 300 Euro pro Fahrzeug.

Politisch günstiger Zeitpunkt
Ihr Strategiepapier präsentieren die beiden Forscher in einem politisch günstigen Moment. Derzeit gibt es rund 300 bis 400 meist mittelständische Brennereien in Deutschland. Pro Jahr produzieren sie 1.000 bis 2.000 Hektoliter Ethanol.
Nach geltendem Gesetz darf dieser Industriealkohol nur an den staatlichen Stellen verkauft werden. Von dort fließt das Ethanol in die Spirituosen- und Essigproduktion sowie in die Pharma- und die Kosmetikindustrie.
Im Oktober 2013 soll das sogenannte Branntwein-Monopol des Staates jedoch fallen. „Verglichen mit dem Weltmarkt und Großerzeugern sind diese kleinen Unternehmen jedoch ohne Modernisierung der Anlagen nicht konkurrenzfähig“, bilanziert PD Dr. Senn. Deutschland sei in Gefahr, seine flächendeckende, dezentrale Infrastruktur samt vorhandenem Know-How zu verlieren.

Forderungen an die Politik
Um Bioethanol als nachhaltigen Kraftstoff zu fördern, fordert das Forscherduo aus Hohenheim und Münster deshalb mehrere Schritte:
• Verlängerte Steuerbefreiung auf Ethanol im Superbenzin bis 2023. „Bei weiter steigenden Kraftstoffpreisen wird Bioethanol im Vergleich zu Ottokraftstoff kostengünstiger und die Steuerbefreiung kann reduziert bzw. aufgehoben werden“, so PD Dr. Senn
• Ein Anreizsystem und eine vereinfachte, einheitliche Regelung für die Umrüstung von Tankstellen. „Beispiele aus Brasilien, den USA, Frankreich und Schweden zeigen, dass ein flächendeckendes Angebot von E85 zu einem erhöhten Absatz führt“, sagt Prof. Dr. Wetter
• Investitionsanreize für landwirtschaftliche Brennereien: „Unsere dezentrale Struktur ist ein strategischer Vorteil. Trotzdem ist es nötig, die Anlagen zu modernisieren und mit Biogastechnologie zu kombinieren“, meint PD Dr. Senn.
• Eine Informations- und Aufklärungskampagne: „Die sehr gute und zertifizierte Treibhausgasbilanz aus dezentraler Produktion zeigt, dass insbesondere durch dezentrale Bioethanolproduktion die Nachhaltigkeitskriterien weit unterboten werden. Eine entsprechende Kampagne muss deshalb das Image des Biokraftstoffes verbessern“, erklärt Prof. Dr. Wetter.

Keine Konkurrenz zur Nahrungsmittelproduktion
Die Gefahr, dass deshalb weniger Nahrungsmittel produziert und der Welthunger ansteige, sehen die beiden Forscher nicht. „Bislang verwerten Deutschlands Brennereien lediglich Überschüsse aus der Agrarproduktion“, so PD Dr. Senn.
Gleichzeitig sei dies jedoch auch ein limitierender Faktor. „Durch Bioethanol können wir nur 10 bis 20 Prozent des Kraftstoffbedarfes abdecken. Doch das gilt generell für alle Formen der Bioenergie im Vergleich zum Gesamtenergiebedarf“, meint Prof. Dr. Wetter.
Trotzdem ließen sich die Klimaziele der EU ohne den Beitrag der Bioenergien nicht erreichen. Wichtig bleibe der Mix aus verschiedenen Formen von erneuerbaren Energien – mit Biokraftstoffen aus heimischer, dezentraler und nachhaltigkeits-zertifizierter Produktion als einer Säule.

HINTERGRUND:
Bioenergie- und Ernährungsforschung an der Universität Hohenheim
Bioethanol ist nur eine Facette in den umfangreichen Forschungsaktivitäten der Universität Hohenheim zu den Themenkomplexen Bioenergie und (Welt-)Ernährung. Dazu gehören das junge Zentrum für Bioenergie und nachwachsende Rohstoffe, Deutschlands größte Forschungsbiogasanlage und die Lehr- und Forschungsbrennerei. Welternährung und nachhaltige Landwirtschaft sind Schwerpunkte des Tropenzentrums und des Food Security Zentrums. Zum Ausbildungsangebot gehören der Bachelor- und Master-Studiengang „Nachwachsende Rohstoffe und Bioenergie“ oder Internationale Masterstudiengänge wie „Environmental Protection and Agricultural Food Production“ oder „Organic Agriculture and Food Systems“.

Links:
Expertenliste Bioenergie: http://www.uni-hohenheim.de/experten-bioenergie

Quelle: Informationsdienst Wissenschaft

(zurück)


Gesund dank Nuss

Axel Burchardt
Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Ernährungswissenschaftler der Universität Jena untersuchen in neuem Projekt gesundheitsfördernde Effekte von Nüssen
Nüsse sind gesund. Sie sind eine wichtige Quelle lebenswichtiger Makro- und Mikronährstoffe wie Fette, Vitamine und Mineralien. Dennoch konsumieren die Deutschen – laut der aktuellen Nationalen Verzehrsstudie – weniger als ein Zehntel der empfohlenen Tagesmenge. „Möglicherweise liegt dies daran, dass Nussprodukte traditionell wegen ihres hohen Fettgehaltes für ungesund gehalten werden“, vermutet Prof. Dr. Stefan Lorkowski von der Universität Jena. Der Ernährungswissenschaftler verweist auf neue Untersuchungen, die das Gegenteil belegen. „Der regelmäßige Verzehr von Nüssen vermindert – bedingt durch ein günstiges Fettsäuremuster – nicht nur das Risiko für koronare Herzerkrankungen und dadurch bedingte Todesfälle, sondern hilft auch Fettstoffwechselstörungen und Übergewicht vorzubeugen sowie die Wirksamkeit von Diäten zu unterstützen“, fasst Lorkowski die Erkenntnisse zusammen. „Darüber hinaus gibt es Hinweise auf eine vor Darmkrebs schützende Wirkung, die möglicherweise auf den hohen Ballaststoffgehalt von Nüssen zurückzuführen ist“, ergänzt sein Kollege Prof. Dr. Michael Glei.

Da Nüsse in Deutschland vorwiegend im gerösteten Zustand verzehrt werden, fördert das Bundeswirtschaftsministerium (BMWi) über den Forschungskreis der Ernährungsindustrie (AiF/FEI) jetzt ein Forschungsvorhaben am Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena. Die Teams um Lorkowski und Glei sollen den Einfluss des Röstprozesses auf die gesundheitsrelevanten Inhaltsstoffe und Wirkungen von Nüssen untersuchen. Gefördert wird das neue Projekt in den nächsten zwei Jahren mit mehr als 325.000 Euro.

Die Jenaer Ernährungswissenschaftler werden sich bei diesem Forschungsprojekt – am Beispiel von Haselnüssen, Macadamien, Mandeln, Pistazien und Walnüssen – im Wesentlichen drei Fragen widmen: Wie beeinflussen unterschiedliche Röstbedingungen den Gehalt physiologisch wertvoller und toxischer Inhaltsstoffe sowie den Geschmack von Nüssen? Welchen Effekt haben optimiert geröstete Nüsse auf gesundheitsrelevante Parameter im Darm unter besonderer Berücksichtigung antioxidativer, antitoxischer sowie antigenotoxischer Mechanismen? Und beeinflussen optimiert geröstete Nüsse eine Atherosklerose unter besonderer Berücksichtigung von Entzündungsprozessen, Lipideinlagerung und Plaquestabilität?

„Die Beantwortung dieser Fragen soll nicht nur zu einem besseren Verständnis der molekularen Wirkung von Nussinhaltsstoffen beitragen“, nennt Prof. Glei ein Ziel. „Unsere Forschung soll auch dabei helfen“, ergänzt Prof. Lorkowski, „den Röstprozess so zu optimieren, dass die gesundheitsfördernde Wirkung des Nusskonsums weiter verbessert wird“.

Kontakt:
apl. Prof. Dr. Michael Glei / Prof. Dr. Stefan Lorkowski
Institut für Ernährungswissenschaften der Friedrich-Schiller-Universität Jena
Dornburger Str. 24, 07743 Jena
Tel.: 03641 / 949674 oder 949710
E-Mail: michael.glei@uni-jena.de / E-Mail: stefan.lorkowski@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Innovationstage EnergieEffizienz am 12. und 13. September in Kassel

Dr. Guido Rijkhoek
Kommunikation, Presse und Öffentlichkeitsarbeit
Universität Kassel

Energieeffizienz ist für die Industrie auch aus Kostengründen wichtig: Lösungen für die Abwärmenutzung, die druckluftarme Fabrik und die Produktion in klimatisierten Räumen werden in Kassel vorgestellt. Hessens Umweltministerin Lucia Puttrich spricht zur Eröffnung.
Die Innovationstage EnergieEffizienz am 12. und 13. September finden unter Leitung von Prof. Dr. Jens Hesselbach, Fachgebiet Umweltgerechte Produkte und Prozesse an der Universität Kassel, statt. „Wir wollen innovative Lösungen vorstellen, die auch wirtschaftlich umsetzbar sind,“ so Hesselbach. Die Innovationstage EnergieEffizienz zeigen hierzu praxisnahe Umsetzungsbeispiele. Die Bedeutung der EnergieEffizienz im Hessischen Energiekonzept stellt die hessische Umweltministerin Lucia Puttrich in ihrem Eröffnungsvortrag vor (12. September ab 17.30 Uhr in der Brüderkirche Kassel, Steinweg).

Die Nutzung von Abwärme mit Temperaturen unter 100° C bereitet noch große Schwierigkeiten. Hierzu werden Unternehmensvertreter referieren, u. a. M. Gerhold (Volkswagen Werk Kassel), K. Liphardt (Conrad Liphardt), S. Sinkel (Buderus Edelstahl), P. Münzel (Brose Fahrzeugtechnik) und Dr. M. Junge (Limón).
Immer mehr Produktionsräume müssen klimatisiert werden, etwa um höheren Anforderungen an Genauigkeit und die Minimalisierung von Produkten zu erreichen – mit Folgen für den Energieverbrauch. Wie sie die Produktion in klimatisierten Räumen gestalten, zeigen O. Pfaffenbach (Rigo Biogas), T. Schildt (Maria Soell) sowie M. Schäfer (upp Kassel).

Druckluft hat einen relativ geringen Primärenergie-Wirkungsgrad, elektromechanische Antriebe sind jedoch zumeist teuer. Welche Lösung in ihrem Unternehmen gefunden wurde, zeigen I. Paulus (Audi), M. Böhm (Viessmann), G. Vollmari (Ferrero), K. Junghans (Junghans Kunststoff­warenfabrik) sowie C. Pohl (upp Kassel) an Beispielen. Das Programm ist abrufbar unter www.pi-academy.net

Die kostenpflichtige Tagung wendet sich u. a. an Ingenieure, Techniker, Betriebsleiter, Energie- und Umweltbeauftragte, Facility Manager und Energieberater. Weitere Informationen und Anmeldung: Julia Rinklin, Tel. +49 89 500383-73, Email j.rinklin@publish-industry.net
Das Logo der Veranstaltung ist abrufbar unter: http://www.uni-kassel.de/uni/fileadmin/datas/uni/presse/anhaenge/2012/eetage.jpg

Info
Prof. Dr. Jens Hesselbach
Universität Kassel
Tel. +49 561 804 3179/ 3733
Email: hesselbach@uni-kassel.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Weihrauch als Heilmittel

Dr. Ute Schönfelder
Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

Pharmazeuten der Universität Jena klären entzündungshemmende Wirkung von Boswelliasäuren auf
Er gehörte schon zu den Geschenken der drei Weisen aus dem Morgenland: Neben Myrrhe und Gold hatten sie für das neugeborene Jesuskind auch Weihrauch im Gepäck. Seit der Antike gehört der aromatische Duft des verbrennenden Weihrauchharzes zu vielen religiösen Zeremonien und ist bis heute in der Kirche Ausdruck besonderer Festlichkeit. Doch Weihrauch kann noch mehr: „Das aus dem Stamm des Weihrauchbaumes gewonnene Harz enthält entzündungshemmende Substanzen“, sagt Prof. Dr. Oliver Werz von der Friedrich-Schiller-Universität Jena. Diese machen Weihrauch als Arzneimittel u. a. für die Therapie von Krankheiten wie Asthma, Rheumatoider Arthritis oder Neurodermitis hochinteressant, ist der Lehrstuhlinhaber für Pharmazeutische und Medizinische Chemie überzeugt.

Allerdings sucht man Medikamente mit Weihrauchwirkstoffen in deutschen Apotheken bisher vergebens. Denn die pharmakologischen Grundlagen der Wirkung des Weihrauchs sind erst wenig erforscht. „Auch wenn Weihrauchharz schon seit Jahrtausenden beispielsweise in der ayurvedischen Medizin genutzt wird, reichen die bisher durchgeführten klinischen Studien für eine Zulassung in Deutschland und Europa nicht aus“, so Prof. Werz.

Das könnte sich jedoch ändern. Im Rahmen eines Verbundprojekts mit Partnern der Uni Saarbrücken und einem Startup-Unternehmen sind Prof. Werz und sein Team dem Wirkmechanismus des Weihrauchs nachgegangen. Dabei konnten die Forscher zeigen, an welcher Stelle die für die Wirkung des Weihrauchharzes verantwortlichen Inhaltsstoffe, die Boswelliasäuren, in das Entzündungsgeschehen überhaupt eingreifen.

„Boswelliasäuren interagieren mit verschiedenen Eiweißen, die an entzündlichen Reaktionen beteiligt sind. Insbesondere jedoch mit einem Enzym, das für die Synthese von Prostaglandin E2 verantwortlich ist“, sagt Oliver Werz. Prostaglandin E2 gehört zu den Vermittlern der Immunantwort und spielt u. a. im Entzündungsprozess, bei der Entstehung von Fieber und Schmerzen eine entscheidende Rolle. „Boswelliasäuren hemmen dieses Enzym sehr potent und verringern so die Entzündungsreaktion“, erklärt der Jenaer Pharmazeut. Damit sei nicht nur ein gezielter Einsatz in der Therapie von Entzündungserkrankungen denkbar. Boswelliasäuren ließen auch weniger Nebenwirkungen erwarten, als heute gängige Entzündungshemmer wie Diclofenac oder Indometacin. Diese wirken weniger spezifisch und können bei längerer Anwendung das Risiko für Magengeschwüre erhöhen und die Nierenfunktion beeinträchtigen.

In ihrer aktuellen Studie haben die Forscher um Prof. Werz außerdem das Harz verschiedener Weihraucharten verglichen und in seiner entzündungshemmenden Wirkung untersucht. Weltweit gibt es mehr als zehn verschiedene Arten von Weihrauch. Am bekanntesten und verbreitetsten ist der in Nord- und Zentralindien beheimatete Weihrauch Boswellia serrata. „Wie wir jetzt gesehen haben, ist jedoch das Harz von Boswellia papyrifera um den Faktor zehn wirksamer“, nennt Prof. Werz ein weiteres Ergebnis der Untersuchung. Diese Art kommt vorwiegend im Nordosten Afrikas (Äthiopien, Somalia) und auf der arabischen Halbinsel (Jemen, Oman) vor.

Ob sich Weihrauch als Arzneimittel künftig tatsächlich durchsetzen kann, hängt jedoch nicht nur vom Ausgang der noch ausstehenden klinischen Überprüfung ab. „Boswelliasäuren kommen ausschließlich im Harz des Weihrauchbaumes vor und lassen sich nur schwer synthetisch herstellen“, macht Werz deutlich. Damit seien diese Bäume die einzige Ressource für den aussichtsreichen Wirkstoff. Allerdings sind Weihrauchbäume in ihrem Bestand stark bedroht. Vielerorts werden sie einfach als Brennmaterial verwendet. „Ohne nachhaltigen Schutz sind damit nicht nur Pflanzenarten vom Aussterben bedroht, sondern es gehen der Medizin auch vielversprechende Wirkstoffe verloren“, warnt Prof. Werz.

Kontakt:
Prof. Dr. Oliver Werz
Institut für Pharmazie der Friedrich-Schiller-Universität Jena
Philosophenweg 14, 07743 Jena
Tel.: 03641 / 949801
E-Mail: oliver.werz@uni-jena.de

Weitere Informationen:
http://www.uni-jena.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Altersmediziner empfehlen Vitamin-D als Nahrungsergänzung

Nina Meckel
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Senioren ab 60 Jahren sollten täglich 800 sogenannte Internationale Einheiten Vitamin-D als Nahrungsergänzung zu sich nehmen. Das empfehlen Wissenschaftler und Ärzte auf dem Jahreskongress der Deutschen Gesellschaft für Geriatrie (DGG) Mitte September in Bonn. Studienergebnisse zeigen, dass Patienten, die 700 bis 1000 Internationale Einheiten Vitamin-D einnehmen, 34 Prozent seltener stürzen (British Medical Journal 2011) und 20 Prozent weniger Knochenbrüche erleiden (Archives of Internal Medicine 2009).
Vitamin-D ist wichtig für die Regulierung des Calcium-Spiegels im Blut und beim Knochenaufbau. Kinder mit Vitamin-D-Mangel erkranken an Rachitis. Bei Erwachsenen begünstigt ein Vitamin D Mangel einem Knochenabbau und erhöht das Knochenbruchrisiko. Außerdem sind Muskelschwäche und -schmerzen sowie ein erhöhtes Sturzrisiko Folgen des Vitamin-D-Mangels. In den vergangenen Jahren sind außerdem mögliche negative Effekte des Vitamin-D-Mangels auf das Immunsystem, die Entwicklung von Herz-Kreislauf- und Krebserkrankungen beschrieben worden.

Vitamin-D-Einnahme vermindert Stürze und Knochenbrüche
In einer Übersichtsstudie konnte Prof. Dr. med. Heike Annette Bischoff-Ferrari vom Zentrum Alter und Mobilität der Universität Zürich und Stadtspital Waid die Daten von acht hochqualitativen Doppelblindstudien bezüglich Stürzen und zwölf Studien bezüglich Knochenbrüchen auswerten. Die Ergebnisse zeigen, dass Patienten, die 700 bis 1000 Internationale Einheiten Vitamin-D einnehmen, 34 Prozent seltener stürzen (British Medical Journal 2011) und 20 Prozent weniger Knochenbrüche erleiden (Archives of Internal Medicine 2009). Andere Studien bestätigen, dass alte Menschen die Vitamin-D einnehmen sicherer gehen, seltener stürzen und weniger Knochenbrüche erleiden. Die Deutsche Gesellschaft für Ernährung (DGE) empfiehlt daher seit kurzem die Einnahme von Vitamin-D.

Gesunde Ernährung reicht nicht
„Eine gesunde Ernährung reicht nicht aus, um den Bedarf älterer Menschen mit Vitamin-D zu decken“, betont der künftige Präsident der DGG (Präsident-elect) Prof. Dr. med. Ralf-Joachim Schulz aus Köln. Auch die Haut könne im Alter nicht mehr genug wichtige Vorstufen des aktiven Wirkstoffes bilden, um den Bedarf zu decken. „Die Fähigkeit der Haut zur Vitamin-D-Bildung nimmt im Alter gegenüber einem 20-Jährigen um den Faktor vier ab“, so Schulz. Der Ernährungsexperte verweist auf eigene Studien, wonach nur rund drei Prozent der Patienten, die in die geriatrische Abteilung eines Krankenhauses kommen, ausreichende Vitamin-D-Spiegel haben. „Regelmäßig Vitamin-D einzunehmen ist eine kostengünstige und effektive Maßnahme, um seine Gesundheit im Alter zu erhalten“, ist er sich mit Bischoff-Ferrari einig.

Zusatzinformationen zu Vitamin-D
Vitamin-D wird zu rund 80 Prozent in der Haut mit Hilfe der UV-B Strahlung des Sonnenlichtes gebildet und zu rund 20 Prozent über Lebensmittel aufgenommen. Allerdings ist die Sonne keine verlässlich Quelle: in den Monaten November bis Mai reicht in ganz Europa die Sonnenintensität nicht aus. Sonnenschutz durch Kleidung oder Sonnencreme (ab Faktor 6) reduziert die hauteigene Vitamin-D-Produktion zudem deutlich. Außerdem enthalten nur wenige Lebensmittel Vitamin-D in größeren Mengen, dazu gehören fettreiche Fische, zum Beispiel Aale, und in deutlich geringerem Maße Margarine, einige Pilze und Eigelb. Das Vitamin wird nach der Aufnahme über Nahrungsmittel oder die Bildung in der Haut zunächst in der Leber und danach in der Niere in die aktive Form umgewandelt.

Geriatriekongress Bonn 2012
Vom 12. bis 15. September 2012 findet im World-Conference Center in Bonn, dem ehemaligen Bundestag, das im deutschsprachigen Raum größte Treffen zum Thema Krankheit und Gesundheit im Alter statt. Der Titel des Kongresses ist Programm: „Alternsforschung: Transnational und translational“. „Gemeinsam schlagen wir auf dem Kongress eine Brücke zwischen klinisch-praktischer Arbeit und Forschung in der Altersmedizin“, sagte der Präsident-elect der DGG und Kongresspräsident, Prof. Dr. Ralf-Joachim Schulz aus Köln. Die DGG veranstaltet den Kongress gemeinsam mit der Deutschen Gesellschaft für Gerontologie und Geriatrie e. V. (DGGG), der Österreichischen Gesellschaft für Geriatrie und Gerontologie (ÖGGG), der Schweizerischen Gesellschaft für Gerontologie (SGG SSG) sowie der Schweizerischen Fachgesellschaft für Geriatrie (SFGG).

Wichtige patientennahe Themen des Kongresses sind unter anderen:
• „Demenz – ist Vorsorge möglich?“
• „Schlaf und Schlaflosigkeit im Alter“
• „Die Ernährung des alten Menschen“
• „Stress – Lebenselexier oder Risiko?“
• „Arzneimitteltherapie im Alter“ und vieles mehr.

Weitere Informationen hierzu finden Sie unter www.geriatriekongress2012.de.

Weitere Informationen:
http://www.dggeriatrie.de/presse/40-presse/410-altersmediziner-empfehlen-vitamin-d-als-nahrungsergaenzung.html

Anhang

Pressemeldung der Deutschen Gesellschaft für Geriatrie (DGG): Altersmediziner empfehlen Vitamin-D als Nahrungsergänzung
http://idw-online.de/de/attachment17928

Quelle: Informationsdienst Wissenschaft

(zurück)


25 Jahre Solarstrom auf der Rappenecker Hütte im Schwarzwald

Karin Schneider
Presse und Public Relations
Fraunhofer-Institut für Solare Energiesysteme ISE

Photovoltaik-Hybridsystem mit Brennstoffzelle als Wegweiser für netzferne Energieversorgungssysteme

Die Stromversorgung der Rappenecker Hütte mit erneuerbaren Energien zählt zu den Meilenstein-Projekten in der frühen Geschichte des Fraunhofer-Instituts für Solare Energiesysteme ISE. 1987 installierten die Freiburger Forscher auf dem netzfern gelegenen Wandergasthof eine Photovoltaik(PV)-Hybridanlage, die nicht nur eine praktische Lösung für Eigentümer und Pächter, sondern gleichzeitig eine Forschungsstation für netzferne Energieversorgungssysteme wurde.

Mit dem Ziel, zu einer vollständig umweltfreundlichen Energieversorgung zu kommen erfuhr die Anlage sukzessive Erweiterungen. 1990 kam ein Windrad hinzu, 2003 eine Brennstoffzelle, der Einsatz der fossilen Komponente Dieselgenerator konnte immer weiter reduziert werden. Am 27. Juli 2012 feiert die Rappenecker Hütte nicht nur ihr 350-jähriges Bestehen, sondern auch 25 Jahre erfolgreiche Photovoltaik-Geschichte.

Heute geht die Entwicklung von PV-Hybridsystemen über die Einzelhausversorgung hinaus, der Schwerpunkt liegt vor allem auf größeren Inselnetzen in Entwicklungs- und Schwellenländern. »In netzfernen ländlichen Regionen mit solaren Deckungsraten von über 80 Prozent können wir heute die Stromgestehungskosten gegenüber einem Dieselgenerator je nach Randbedingungen sogar halbieren«, erläutert Dr. Matthias Vetter, Abteilungsleiter PV-Inselanlagen und Batteriesystemtechnik. »Hier auf der Rappenecker Hütte haben wir die 100-Prozent-Versorgung mit erneuerbaren Energien greifbar gemacht, als letzter Baustein fehlt nur der Schritt der Wasserstofferzeugung vor Ort« fügt Institutsleiter Prof. Eicke Weber ergänzend hinzu und schlägt die Brücke zur netzintegrierten PV: »Auch im netzgekoppelten Bereich kostet der Solarstrom heute deutlich weniger als der Strom aus der Steckdose. Zudem können wir die erfreuliche Mitteilung machen, dass die Module auf der Rappenecker Hütte nach 25 Jahren noch deutlich über 80 Prozent ihrer ursprünglichen Leistung aufweisen.«

Als vor 25 Jahren die von der EU geförderte PV-Anlage (3,8 kWp) auf das Scheunendach der Rappenecker Hütte montiert wurde, machte sie das beliebte Wanderziel Rappenecker Hütte zur ersten mit solar erzeugtem Wechselstrom versorgten Gaststätte Europas. 1990 erhielt die Sonne Verstärkung von einem Windrad (1,8 kW), gefördert durch das Bundesforschungsministerium. 2003 erfolgte ein weiterer Schritt in Richtung nachhaltiger Energieversorgung. Mit Mitteln des Innovationsfonds des regionalen Energieversorgers badenova konnte eine Brennstoffzelle installiert werden. Mit hohem elektrischem Wirkungsgrad, lokal schadstofffrei und leise, wurde mit der wasserstoffbetriebenen Polymer-Elektrolyt-Membran (PEM)-Brennstoffzelle eine richtungsweisende Zukunftstechnik installiert, so dass die Nutzung des Dieselgenerators (12 kW) weiter reduziert werden konnte. Wieder nahm die Rappenecker Hütte eine Vorreiterrolle ein und wurde Wegbereiter für Systeme in der ganzen Welt.

Zum Jubiläum 25 Jahre Solarstrom auf der Rappenecker Hütte stellt die Firma FutureE 2012 eine neue Brennstoffzelle (4 kW) samt Peripherie kostenlos zur Verfügung. Mit einem Wirkungsgrad von 55 Prozent ist das Brennstoffzellensystem erheblich effizienter als ein Dieselgenerator, der maximal 15 Prozent erreicht. Der Primärenergieeinsatz kann so mehr als halbiert werden. Brennstoffzellen sind sehr wartungsarm. Damit entfallen die hohen Kosten für die Wartung der Dieselgeneratoren. Zudem ist gerade in ökologisch sensiblen Bergregionen die Reduzierung der Grundwasser- und Umweltgefährdung durch den Austritt von Diesel vor allem beim Transport wichtig. Bei der hier verwendeten Brennstoff-zelle wird Wasserstoff aus Gasflaschen (Energieinhalt einer Flasche 26 kWh) eingesetzt. Seit 2003 stellt die Firma basi Schöberl den Wasserstoff kostenlos zur Verfügung. Der Dieselgenerator bleibt als Notreserve in der Anlage.

In einer Brennstoffzelle werden Wasserstoff und Sauerstoff kontrolliert und mit hohem elektrischem Wirkungsgrad in Strom umgewandelt, wobei auch die entstehende Wärme genutzt werden kann. Die PEM-Brennstoffzelle wird mit reinem Wasserstoff und Luftsauerstoff betrieben. Langfristig besteht die Option und Notwendigkeit, Wasserstoff aus regenerativen Energiequellen bereit zu stellen und damit den Ausstoß klimaschädigender Stoffe auf Null zu senken.

Heute wird der Jahresstromverbrauch von 4000 kWh der Rappenecker Hütte, die in den Wintermonaten geschlossen ist, zu rund 65 Prozent von der Photovoltaik gedeckt. Der Windkraftanteil beträgt circa 10 Prozent und der Brennstoff-zellenanteil etwa 25 Prozent. Interessierte Wanderer und Mountainbiker können das Zusammenspiel von Photovoltaik-anlage, Windkraftanlage und Brennstoffzelle in »gläsernen« Technikräumen mit Erläuterungstafeln kennenlernen.

Weitere Informationen:
http://www.ise.fraunhofer.de

Anhang
„25 Jahre Solarstrom auf der Rappenecker Hütte im Schwarzwald“
http://idw-online.de/de/attachment18157

Quelle: Informationsdienst Wissenschaft

(zurück)


Reiseinfekten durch einfache Regeln vorbeugen

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Unerwünschte Urlaubssouvenirs
DGVS: Vor Reisedurchfall schützen einfache Regeln
Berlin – Bis zu 50 Prozent aller Reisenden in tropischen oder subtropischen Ländern ziehen sich während ihres Urlaubs eine Durchfallerkrankung zu. Besonders häufig sind Touristen in Afrika, Südasien, Süd- und Mittelamerika betroffen. Aber auch in einigen Ländern Süd- und Ost-Europas kommt es – aufgrund fehlender Hygienestandards – häufig zu Reiseinfektionen. Urlauber können sich durch das Einhalten einiger Vorsichtsmaßnahmen schützen, erklärt die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS).

„Durchfallinfektionen gehen in der Regel von verunreinigten Lebensmitteln oder Getränken aus“, erklärt DGVS-Experte Professor Dr. med. Ansgar Lohse, Direktor der I. Medizinischen Klinik und Poliklinik am Universitätsklinikum Hamburg Eppendorf, zu der auch die für Tropenmedizin zuständige Bernhard-Nocht-Klinik gehört. Häufigste Auslöser seien verwandte des EHEC-Erregers, sogenannte enterotoxinbildende Escherichia coli-Stämme, kurz ETEC. Aber auch Campylobacter, Salmonellen, Shigellen und bestimmte Virenarten können Durchfälle auslösen. Probleme tauchen insbesondere dann auf, wenn Essen und Getränke nicht kühl gelagert werden: „Die meisten Bakterien wachsen bei Temperaturen zwischen 10 und 60 Grad“, so der Infektionsmediziner. Durch Erhitzen auf mindestens 60 Grad würden die Keime abgetötet.

Generell gilt: Halten Sie sich an die bewährte Regel „Boil it, cook it, peel it or forget it“, zu deutsch: „Koch es, schäl es oder vergiss es“. Auf rohe Milch- und Eierspeisen, wie Speiseeis, Pudding oder Mayonnaise und Rohkostprodukte, wie Salate, sollte am besten ganz verzichtet werden. Von schälbarem Obst hingegen geht keine Gefahr aus. Gemüse, Fleisch, Fisch und Meeresfrüchte sind frei von Erregern, wenn sie ausreichend erhitzt wurden. Wichtig ist es, auch beim Trinken achtsam zu sein. „Verzichten Sie auf Fruchtsäfte und Eiswürfel, trinken Sie nur aus originalverschlossenen Flaschen und kochen Sie Wasser ab, bevor sie es trinken“, rät Lohse.

Kommt es – trotz aller Vorsicht – zu einer Infektion, ist das zwar lästig, häufig aber nicht bedrohlich: „Die meisten Durchfallerkrankungen klingen nach ein bis drei Tagen von alleine wieder ab“, erklärt Gastroenterologe Lohse. „Gehen Sie aber zum Arzt, wenn die Krankheit länger dauert, Fieber oder starke Schmerzen auftreten oder sich Blut oder Schleim im Stuhl findet.“ Menschen, die an einer chronischen Krankheit wie Diabetes, Colitis ulcerosa oder Morbus Crohn leiden, sollten Durchfallerkrankungen besonders ernst nehmen. Und auch bei Kleinkindern und älteren Menschen kann Durchfall mitunter schwer verlaufen und schnell dazu führen, dass der Körper austrocknet.

Deshalb ist es besonders wichtig, viel zu trinken. Beim Ausgleich von Salz und Wasserhaushalt helfen Elektrolytlösungen. Wer diese nicht in der Reise-apotheke hat, kann acht Teelöffel Zucker und einen gestrichenen Teelöffel Salz auf einen Liter abgekochtes Wasser geben. Medikamente mit dem Wirkstoff Loperamid könnten den Darm für einige Stunden beruhigen, helfen aber nicht gegen die Infektion. Eine generelle Antibiotika-Prophylaxe halten Experten nicht für zweckmäßig. „Auch eine Selbsttherapie mit Antibiotika sollte nur im äußersten Notfall erfolgen“, erklärt Lohse. Für eine wirksame Behandlung sei ein Arztbesuch unverzichtbar. Hinweise auf die Herkunft der Keime, Stuhluntersuchung und Erregerdiagnostik geben mitunter schnell Aufschluss.

Bei Reisen in tropische und subtropische Länder empfiehlt die DGVS eine Beratung durch einen Reise- oder Tropenmediziner. Von ihm erhalten Reisende auch Informationen darüber, wann etwa Impfungen gegen Cholera, Typhus oder Hepatitis sinnvoll sind. Adressen von Reisemedizinischen Beratungsstellen finden Interessierte auf der Internetseite des Centrums für Reisemedizin unter http://www.crm.de/beratungsstellen/

Die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen der DGVS ist die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.

Quelle: Informationsdienst Wissenschaft

(zurück)


Braune Vergangenheit, grüne Zukunft: Ex-„Westwall“ als Tierrefugium sichern

Franz-Georg Elpers
Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

DBU-Projekt erhebt Daten über Zustand von Kriegsbunkern – Rheinland-Pfalz wird Modellregion – 125.000 Euro
Mainz. Noch heute erinnern Panzersperren und Bunkerruinen an den ehemaligen „Westwall“, dem im Dritten Reich von Kleve bis Basel errichteten Verteidigungssystem der Nationalsozialisten. Damals als „Meisterwerk der Festungskunst“ propagiert, ziehen die ruinösen Reste der Anlage heute vor allem Denkmalpfleger und Naturschützer in ihren Bann: „In den Bunkern haben sich im Laufe der Jahrzehnte Fledermäuse, Wildkatzen und Eidechsen einquartiert. Wegen ihres bandförmigen Verlaufs führen sie verschiedene Landschaftsräume zu einer großen Biotopkette zusammen“, betonte heute Dr.-Ing. E. h. Fritz Brickwedde, Generalsekretär der Deutschen Bundesstiftung Umwelt (DBU). Die Stiftung unterstützt deshalb mit rund 125.000 Euro das Projekt „Grüner Wall im Westen“ des Bund für Umwelt und Naturschutz Deutschland (BUND), Landesverband Rheinland-Pfalz e. V. Ziel ist der Erhalt der Anlage durch neue Konzepte, die Denkmalpflege und Naturschutz vereinen sollen.

„Dem ‚Westwall‘ kommt nicht nur ein hoher historischer Wert als Mahnmal zu. Seine Überreste haben sich zu wichtigen Rückzugsorten für seltene und bedrohte Tiere und Pflanzen entwickelt und sind deshalb auch aus naturschutzfachlicher Sicht von großer Bedeutung“, betonte auch Landesgeschäftsführerin Sabine Yacoub vom BUND Rheinland-Pfalz. Die vielen unterschiedlichen Lebensräume – Höhlen, Gehölzgruppen, sonnige und schattige Betonflächen – ermöglichten ein reiches Artenspektrum. Die Stollen und Spalten in den Ruinen seien ideale Sommer- und Winterquartiere für Fledermäuse. Auch Reptilien wie Mauer- oder Zauneidechsen hätten dort ihr Zuhause. „Die unterschiedlichen Lebensräume werden durch die linienförmige Anordnung der Einzelanlagen miteinander vernetzt und tragen damit maßgeblich zum Austausch genetischer Ressourcen bei“, sagte Yacoub weiter.

Im Rahmen des Projekts soll der 630 Kilometer lange Wall aber nicht nur als Lebensraum und Verbundachse für gefährdete Arten bewahrt werden: „Der ‚Westwall‘ muss auch als architektonisches Denkmal, Mahnmal und Zeitzeugnis der jüngeren Geschichte vor Verfall und Zerstörung geschützt werden“, ergänzte Dr. Paul Bellendorf, Leiter des Referats „Umwelt und Kulturgüter“ bei der DBU. Nicht selten müssten Teile des ehemaligen Bollwerks neuen Straßen und Wohnbauten weichen. Diese Abschnitte würden in der Regel zertrümmert oder eingeebnet. Wie schwer sich Natur- und Denkmalschutz unter einen Hut bringen lassen, zeigten auch Diskussionen über die Gefahrenpotenziale der baufälligen Anlagen für Spaziergänger, erklärte Bellendorf: „Stollen oder Höhlen können einstürzen. Sie zu verschließen, wäre wiederum ein Todesurteil für ganze Fledermauskolonien.“

Im engen Kontakt mit Naturschützern, Denkmalpflegern und Historikern sowie der Bundesanstalt für Immobilienaufgaben, die für die Gefahrensicherung auf den Flächen verantwortlich ist, sollen nun Mittel und Methoden gefunden werden, die den Fortbestand der Anlagen sicherstellen. Laut Bellendorf werden zunächst Daten über den Zustand einzelner Anlagen gesammelt und dokumentiert. Anhand der Ergebnisse sollen individuelle Maßnahmenkonzepte entwickelt und in Beispielräumen sowie an Modellobjekten erprobt werden. Zur Auswahl stünden unter anderem die rheinland-pfälzischen Verbandsgemeinden Dahner-Felsenland, Arzfeld, Neuerburg, Irrel, Trier-Land, Zweibrücken-Land, Pirmasens-Land und die Stadt Pirmasens. Ausgewählte Wall-Abschnitte würden anschließend kartiert. Die erarbeiteten Ansätze sollen als Printvorlage oder übers Internet für Museen und Ausstellungen verfügbar gemacht werden.

Weitere Informationen:
http://www.dbu.de/index.php?menuecms=123&objektid=33238&vorschau=1

Quelle: Informationsdienst Wissenschaft

(zurück)


Bluthochdruck im Sommer

Joachim Leiblein
Geschäftsstelle
Deutsche Hochdruckliga

Große Hitze verstärkt die Wirkung von Blutdruck-Medikamenten. Die Deutsche Hochdruckliga e.V. DHL® empfiehlt, täglich den Blutdruck zu kontrollieren.

Verstärkte Wirkung von Blutdrucksenkern

Der Blutdruck unterliegt jahreszeitlichen Schwankungen: Die Werte sind im Sommer in der Regel niedriger als im Winter. Bei hohen Außentemperaturen erweitern sich die Gefäße, so dass der Blutdruck abfallen kann. Bei Bluthochdruck-Patienten kann somit die Wirkung von Blutdrucksenkern verstärkt werden. Je nach Höhe des Blutdruckabfalls kann es dann auch zu Beschwerden wie Schwindel, Müdigkeit und Schwäche kommen.

Da Hitzeperioden in unseren Breiten jedoch kaum länger als wenige Tage anhalten, muss die Tablettendosis normalerweise nicht reduziert werden. Bei längeren Aufenthalten in wärmeren Regionen kann es jedoch sinnvoll sein, die Medikamente einzuschränken. Bei systolischen Werten unter 110 mmHg können, insbesondere wenn mehrere blutdrucksenkende Medikamente verabreicht werden, möglicherweise einzelne Präparate in der Dosis reduziert werden. Dies sollte aber immer in Absprache mit dem Arzt geschehen.

Diuretika können Wassermangel verursachen

Durch vermehrtes Schwitzen an heißen Tagen verliert der Körper viel Flüssigkeit und Salz. Patienten, die Diuretika als Medikamente zur Blutdrucksenkung einnehmen, sind im Sommer daher besonders gefährdet. Diuretika entwässern den Körper und können somit zu einer weiteren Austrocknung beitragen. Besonders bei älteren Patienten kann das zu Kopfschmerzen, Verwirrtheit, Krampfanfällen, eine Eintrübung des Bewusstseins bis zur Bewusstlosigkeit führen.
Die Deutsche Hochdruckliga e.V. DHL® empfiehlt während Hitzeperioden ausreichend zu trinken, unnötige Anstrengungen zu vermeiden und täglich den Blutdruck zu kontrollieren.

In keinem Fall sollte jedoch ohne Rücksprache mit dem Arzt die Dosis verringert oder das Medikament abgesetzt werden.

Kontakt:
Deutsche Hochdruckliga e.V. DHL®
Deutsche Gesellschaft für Hypertonie und Prävention
Dr. Joachim Leiblein (Geschäftsführer)
Berliner Straße 46, 69120 Heidelberg
Telefon: 06221 / 58855-0
Telefax: 06221 / 58855-25
info@hochdruckliga.de
http://www.hochdruckliga.de

Die Deutsche Hochdruckliga e.V. DHL® – Deutsche Gesellschaft für Hypertonie und Prävention informiert zur Vermeidung und Behandlung von Bluthochdruck.

Quelle: Informationsdienst Wissenschaft

(zurück)


Altern ist ein Zukunftsthema: Wie Menschen heute Alter wahrnehmen und dafür planen und vorsorgen

Axel Burchardt
Stabsstelle Kommunikation/Pressestelle
Friedrich-Schiller-Universität Jena

VolkswagenStiftung fördert gemeinsames Forschungsprojekt der Universitäten Erlangen-Nürnberg und Jena mit fast 1,3 Mio. Euro

Gemeinsame Pressemitteilung der Universitäten Jena und Erlangen-Nürnberg

Wie setzen sich Menschen mit dem eigenen Altern und ihrer Zukunft auseinander? Welche Rolle spielen dabei gesellschaftliche Rahmenbedingungen (Altersgrenzen, Versorgungsstrukturen) und diesbezüglich erwartete Veränderungen in alternden Gesellschaften? Diesen Fragen gehen Wissenschaftler und Wissenschaftlerinnen der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) und der Friedrich-Schiller-Universität Jena (FSU) im gemeinsamen Forschungsprojekt „Alter(n) als Zukunft“ auf den Grund. Die VolkswagenStiftung fördert das Projekt, an dem auch drei Forschergruppen aus den USA und Hongkong beteiligt sind, mit fast 1,3 Millionen Euro und ermöglicht so die Finanzierung von sechs Stellen. Der Startschuss für das aktuelle Forschungsprojekt fällt beim Kick-off-Workshop in Jena am 14. August 2012.

Das Alter beschäftigt schon die Jugend

Habe ich in meinem Beruf im Alter noch eine Perspektive? Wer pflegt mich, wenn ich alt bin? Und wie will ich im Alter wohnen und leben? Das sind Fragen, die noch vor einigen Jahren vor allem die Generation der über 50-Jährigen interessierten. Menschen leben immer länger, die Gesellschaft in den Industrieländern altert. Dadurch treten auch die individuellen und gesellschaftlichen Herausforderungen eines langen Lebens offensichtlicher zu Tage und interessieren zunehmend auch jüngere Menschen, die sich auf längere Lebensarbeitszeiten und eine eventuell unsichere gesellschaftliche Versorgung im Alter einstellen müssen. Die drei Forscherteams der Friedrich-Schiller-Universität Jena und der Friedrich-Alexander-Universität Erlangen-Nürnberg wollen daher untersuchen, wie Menschen unterschiedlichen Alters über ihr Altern und Alter denken – und wie sich dies etwa auf die Bereitschaft auswirkt, für sich oder auch für kommende Generationen zu engagieren und vorzusorgen.

Ans Alter zu denken und dafür vorzusorgen ist also nicht nur eine Frage des Alters: Vorstellungen vom hohen Alter und von altersbezogenen Veränderungen erwerben wir alle von frühester Kindheit an. Diese Altersbilder prägen nicht nur unsere Wahrnehmung von und den Umgang mit anderen älteren Menschen, sie beeinflussen auch die Erwartungen und Einstellungen, die wir zu unserem eigenen Älterwerden haben. Und sie bestimmen die Aktivitäten und Planungen, mit denen wir uns auf unser eigenes Leben im Alter vorbereiten. Neben verbreiteten und allgemein geteilten Stereotypen unterscheiden sich Menschen sehr stark in ihren Altersbildern. Diese individuellen altersbezogenen Vorstellungen zu erkennen und zu verstehen ist von großer Wichtigkeit, wenn wir Unterschiede etwa in der Altersvorsorge erklären wollen. Vorsorge, so die These der Forscher, ist in jeder Lebensphase ein großes Thema. Dabei steht nicht nur die finanzielle Vorsorge im Mittelpunkt, sondern auch Vorkehrungen für eventuelle Pflege, Wohnen und Lebensgestaltung.

Es gibt nicht das eine Altersbild

Allerdings gibt es unterschiedliche Altersbilder nicht nur zwischen den Menschen. Auch jeder Einzelne hat selbst noch einmal recht verschiedene Vorstellungen vom Altern, je nachdem welcher Lebensbereich – Freizeit, Beruf, Familie, Wohnen, Aussehen, geistige und körperliche Fitness etc. – in den Blick genommen wird. „Es gibt also nicht das eine Altersbild“, sagt der Psychologe Prof. Dr. Klaus Rothermund von der Universität Jena. „Und der Einzelne fühlt sich in verschiedenen Bereichen unterschiedlich alt“, ergänzt sein Kollege, der Jenaer Soziologe Prof. Dr. Stephan Lessenich. Das neue Projekt untersucht daher sehr differenziert, wie Menschen das Alter wahrnehmen, was genau sie dazu bewegt, für später vorzusorgen und wie sie ihre Zeit im Alter gestalten.

Die Beschäftigung mit der eigenen Endlichkeit bewegt viele Menschen sehr viel früher als gemeinhin angenommen: „Von Jugendwahn keine Spur: Junge Leute setzen sich heute früher mit dem eigenen Altern auseinander – und treffen gezielte Entscheidungen für ihr Leben im Alter“, meint Prof. Dr. Frieder R. Lang, Leiter des Instituts für Psychogerontologie an der Friedrich-Alexander-Universität Erlangen Nürnberg. „Wer an die Zukunft denkt, der zeigt oft auch mehr Verantwortung für sich und andere. Altern ist also ein echtes Zukunftsthema, das heute Menschen jeden Alters berührt und dabei Gutes bewirken kann.“ Von großem Interesse ist auch, ob und wie der Gewinn an Flexibilität im Umgang mit der eigenen Zeit vom Einzelnen genutzt wird, und wie sich der insgesamt geringer werdende Zeithorizont auf das Handeln und die Lebenszufriedenheit älterer Menschen auswirkt.

Die Welt altersgerechter gestalten

Unklar ist noch, wovon es abhängt, dass manche jüngere Menschen sich für diese Themen öffnen und andere sich bis zuletzt nur wenig Gedanken über die eigene Zukunft machen. Dieses Wissen jedoch ist für Politik und Gesellschaft essenziell, wenn es darum geht, die Welt altersgerechter zu gestalten. An dieser Stelle setzen die beiden Studien „Zonen des Übergangs“ und „(Zeit er)Leben in Deutschland“ an, die nun mit Befragungen von mehreren tausend Personen zwischen 30 und 80 Jahren im Rahmen des neuen Forschungsprojekts „Alter(n) als Zukunft“ ein zweites Mal aufgelegt und deutlich erweitert werden sollen. So sind mehrjährige Untersuchungen geplant, wie Menschen heute ihre Zukunft vor dem Hintergrund des demographischen Wandels wahrnehmen und was sie für ihr Alter erwarten.

Das Projekt verknüpft soziologische und psychologische Sichtweisen in einem Mehr-Methoden-Design, zu dem quantitative wie qualitative Verfahren, Experimente sowie Online- und Survey-Erhebungen gehören. Entstehen soll ein weltweit einzigartiger Datensatz zum Alternserleben und zukunftsbezogenen Handeln. Dabei werden die drei zentralen Themen zu den Bildern des Alterns, zum Vorsorgehandeln und den Fragen zur Zeitgestaltung – die eng zusammengehören – nicht separat, sondern zusammen, aber mit unterschiedlichen Methoden analysiert.

Mit anderen Ländern vergleichen

Ein Ländervergleich zwischen Deutschland, den USA und Hongkong setzt die Resultate in einen internationalen Kontext, denn Altern wird selbst in ähnlichen Industriegesellschaften unterschiedlich organisiert. Das zeigt zum Beispiel der Übergang in den Ruhestand: Während es in Deutschland klare – wenngleich inzwischen erhöhte – Altersgrenzen gibt, wann ein Arbeitnehmer in die Rentenphase eintritt, wird dies in den USA viel flexibler gehandhabt. Andererseits steht in Deutschland und den USA das Bild der hilflosen, vergesslichen Alten deutlicher im Vordergrund als in Hongkong, wo hohes Alter vor allem mit hohem Respekt verbunden ist.

„Alters-Stereotype wirken oft als Leitbild der eigenen Entwicklung“, weiß Rothermund aus Vorstudien. „Von Alten wird allerdings bei uns das ,active ageing‘ eingefordert – vom bürgerschaftlichen Engagement über sportliche Aktivitäten, gesundheitliche Vorsorge und lebenslanges Lernen bis hin zum Zusatzverdienst zur schmalen Rente. Damit geraten diejenigen, die sich nicht mehr aktiv zeigen können, unter zunehmenden inneren und äußeren Druck“, benennt Soziologe Lessenich eine aktuelle Tendenz zum sich verändernden Altersbild.

„Wie Menschen über die Zukunft denken“, so Lang, „ist schließlich entscheidend dafür, wie Menschen für sich selbst oder für andere vorsorgen. Wer wenig über die Zukunft nachdenkt, wird auch weniger tun.“ Lang weiter: „Das Projekt kann wesentlich dazu beitragen, besser zu verstehen, wie die Zukunft des Alterns und die Vorsorge für das Alter in unserer Gesellschaft gestaltet werden können.“

Ein Handbuch für die Vorsorge

Im Rahmen des Forschungsprojekts steht daher auch die Publikation eines Handbuchs auf der Agenda, das Praktikern in der Altershilfe und Entscheidungsträgern in Politik, Wirtschaft und Medien einen Leitfaden an die Hand geben soll, der in der Beratung und bei der Planung zukünftiger Angebote und der politischen Rahmenbedingungen helfen soll – ein Handbuch für die Vorsorge also.

„Wir wollen weg vom einfachen Denken, im Alter werde alles besser oder schlechter“, nennt Lessenich das Ziel. Erreicht werden soll ein „differenziertes Bild des Alterns für verschiedene Menschentypen unterschiedlichen Alters“.

Weitere Teilnehmer gesucht

Für die nun startende zweite Auflage der Studie „(Zeit er)Leben in Deutschland“ sind weitere Teilnehmer noch herzlich willkommen. Interessierte können über folgenden Link im Internet an der Studie teilnehmen: www.gerotest.de/vorsorgezeit.

Quelle: Informationsdienst Wissenschaft

(zurück)


Hochwasserkarten oft schwer verständlich

Tilo Arnhold
Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Leipzig. Bis 2013 müssen alle EU-Mitgliedsstaaten Hochwasserkarten bereitstellen, damit Bürger sich über die Gefährdung und mögliche Konsequenzen von Fluten informieren können. Die aktuelle Praxis in vielen EU-Staaten weist jedoch deutliche Defizite auf. Zu diesem Ergebnis kommt ein Forschungsprojekt mehrerer EU-Staaten, das diese Karten untersucht hat. Lokales Wissen sei meist nicht berücksichtigt. Zudem würden die Karten oft nicht den Bedürfnissen der Endnutzer entsprechen und seien für Anwohner schwer verständlich, schreiben die Forscher im Fachjournal Natural Hazards and Earth System Sciences.
Die EU-Hochwasserrichtlinie schreibt Hochwassergefahren und -riskokarten sowie Risikomanagementpläne als die wichtigsten Instrumente vor, um die Bürger besser über Risiken zu informieren und auf solche Katastrophen vorzubereiten. Ein Team von Wissenschaftlern aus Deutschland, Österreich, Großbritannien und Frankreich hat daher im Rahmen des Projektes RISK MAP diese Hochwasserkarten untersucht. In fünf Fallstudien führten die Wissenschaftler dazu Befragungen, Workshops und Blickerfassungstests durch. Dabei wurden unter anderen Hochwasserkarten von Bennewitz/Wurzen (bei Leipzig) in Sachsen, Vorderberg, einer Ortschaft der Kärntner Gemeinde Sankt Stefan im Gailtal in Österreich, und Chertsey, einer Stadt in der englischen Surrey in England, untersucht.

Insgesamt zeigten sich vor allem drei Defizite:
1. Die Endnutzer der Karten werden häufig nur als Empfänger verstanden und nicht in die Erstellung der Karten einbezogen. Oft entspricht daher der Inhalt nicht den Bedürfnissen der Kartennutzer.
2. Häufig beschränkt sich der Karteninhalt auf die Hochwassergefährdung, teilweise geben auch Karten die zu erwartenden materiellen Schäden wieder – also die Kosten, die durch die Zerstörungen an Gebäuden und Einrichtungen entstehen. Andere wichtige Inhalte wie soziale oder ökologische Risiken, aber auch Informationen zum Verhalten im Katastrophenfall bleiben dagegen zumeist unberücksichtigt.
3. Hochwasserrisikokarten sind oft von Technikern erstellt worden und erfordern daher zum Verstehen technische Vorkenntnisse, die viele der Endnutzer unter den betroffenen Bürgern nicht besitzen. Diese Verständnisprobleme erschweren die Kommunikation und bergen neue Risiken.

Zur Verbesserung der Verständlichkeit empfehlen die Wissenschaftler in erster Linie, dass die Karteninhalte und -darstellung stärker auf die spezifischen Bedürfnisse der unterschiedlichen Endnutzer, also der betroffenen Bürger, dem Katastrophenschutz sowie der langfristigen Hochwasserschutzplanung zugeschnitten werden sollen. Während beispielsweise die von der EU-Richtlinie geforderten Inhalte von Risikokarten insbesondere für die langfristige Planung von Hochwasserschutzmaßnahmen von Interesse sind, so ist die betroffene Bevölkerung eher an leicht verständlichen Gefahrenkarten interessiert. Viele Katastrophenschützer hingegen wünschen sich vor allem eine Kombination von Gefahrenkarten mit der Darstellung von Gefahrenschwerpunkten, wie kritischen Infrastrukturen und der Anzahl der zu evakuierenden Personen, aber auch eine Integration von Einsatzinformationen im Katastrophenfall in die Karten, wie z.B. Evakuierungsrouten, Sammelpunkten oder die Lage der Krisenstäbe. Eine Trennung von Risikokartierung und -management, wie in der EU-Richtlinie vorgesehen, erscheint somit zumindest für den Bereich des Katastrophenmanagements nicht sinnvoll.

Auch bei der Visualisierung zeigen die unterschiedlichen Nutzergruppen unterschiedliche Anforderungen. Während Experten im Hochwasserrisikomanagement eher in der Lage sind, komplexe und abstrakte Informationen zu erfassen, benötigt insbesondere die betroffene Bevölkerung ereignisspezifische Karten mit einer intuitiv verständlichen Farbgebung und Symbolik. So erleichtern klare Farbkontraste, leicht verständliche Symbole (z.B. für Evakuierungsrouten und Sammelplätze) sowie Text in der Karte das schnelle Verständnis der wichtigsten Inhalte erheblich. „Im Idealfall sollte eine Hochwasserkarte für die Bevölkerung fast so sein wie eine Straßenkarte: so einfach und schnell zu verstehen, dass man die Legende fast nicht braucht. Das sind einfache, aber wirkungsvolle Maßnahmen, von denen wir denken, dass die Karten so ihrer Aufgabe, die Bürger über die Gefahren durch Hochwasser zu informieren, besser gerecht werden könnten“, erklärt Dr. Volker Meyer vom Helmholtz-Zentrum für Umweltforschung (UFZ).

Bessere Inhalte und Darstellung sind aber nur ein Teil der Lösung des Problems. Denn diese Karten sind ein Teil eines komplexen Kommunikationsprozesses zwischen Behörden und Flussanwohnern, der in beide Richtungen funktionieren sollte. Aus Sicht der Wissenschaftler wäre daher die Erstellung dieser Karten eine gute Gelegenheit, die Bürger an diesen Prozessen teilnehmen zu lassen und damit das, was die EU-Hochwasserrichtlinie fordert – nämlich eine „aktive Einbeziehung der Interessenparteien in die Erstellung, Überarbeitung und Aktualisierung der Risikomanagementpläne“ – zu erfüllen.
Tilo Arnhold

Publikationen:
Meyer, V., Kuhlicke, C., Luther, J., Fuchs, S., Priest, S., Dorner, W., Serrhini, K., Pardoe, J., McCarthy, S., Seidel, J., Palka, G., Unnerstall, H., Viavattene, C., Scheuer, S. (2012): Recommendations for the user-specific enhancement of flood maps. Nat. Hazards Earth Syst. Sci. 12 (5), 1701 – 1716
http://dx.doi.org/10.5194/nhess-12-1701-2012

Volker Meyer, Christian Kuhlicke, Jochen Luther, Herwig Unnerstall, Sven Fuchs, Sally Priest, Joanna Pardoe, Simon McCarthy, Wolfgang Dorner, Johanna Seidel, Kamal Serrhini, Gaëtan Palka, Sebastian Scheuer (2011): CRUE Final Report. RISK MAP – Improving Flood Risk Maps as a Means to Foster Public Participation and Raising Flood Risk Awareness: Toward Flood Resilient Communities.
http://risk-map.org/outcomes/CRUE_RiskMap_FinalReport_final.pdf
Die Untersuchungen wurden im Rahmen des Era-Net CRUE-Projektes RISK MAP durchgeführt, das vom deutschen Bundesministerium für Bildung und Forschung (BMBF), dem österreichischen Bundesministerium für Land- und Forstwirtschaft, Umwelt und Wasserwirtschaft, dem britischen Department for Environment, Food and Rural Affairs (Defra), der britischen Environment Agency sowie dem französischen Ministère de l’Écologie, du Développement durable et de l’Énergie gefördert wurde.

Weitere fachliche Informationen:
Dr. Volker Meyer/ Dr. Christian Kuhlicke/ Dipl.-Geogr. Jochen Luther
Helmholtz-Zentrum für Umweltforschung (UFZ)
Telefon: 0341-235-1641, -1751, -1642
http://www.ufz.de/index.php?de=4715
http://www.ufz.de/index.php?de=14283
http://www.ufz.de/index.php?en=19492
oder über
Tilo Arnhold (UFZ-Pressestelle)
Telefon: 0341-235-1635
http://www.ufz.de/index.php?de=640

Weiterführende Links:
EU-Projekt „RISK MAP – Improving Flood Risk Maps as a Means to Foster Public Participation and Raising Flood Risk Awareness: Toward Flood Resilient Communities“
http://risk-map.org/

Gefahrenkarten für Ortslagen in Sachsen
http://www.umwelt.sachsen.de/umwelt/wasser/8843.htm

Dossier: Hochwasserkarten für eine zielgerichtete Risikokommunikation
http://www.klimanavigator.de/dossier/artikel/012159/index.php

Neues Verfahren ermöglicht Gesamtrisikokarten für Hochwassergebiete (Pressemitteilung vom 18. Mai 2009)
http://www.ufz.de/index.php?de=18112

„Bedingt vorbereitet? 10 Jahre nach dem Jahrhunderthochwasser“ – ein Standpunkt von Dr. Christian Kuhlicke und Dr. Volker Meyer in der aktuellen Ausgabe des UFZ-Newsletters 6/2012:
http://www.ufz.de/index.php?de=10690

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg 1000 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
http://www.ufz.de/

Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie, Verkehr und Weltraum. Die Helmholtz-Gemeinschaft ist mit über 33.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,4 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des Naturforschers Hermann von Helmholtz (1821-1894).
http://www.helmholtz.de

Weitere Informationen:
http://www.ufz.de/index.php?de=30719

Quelle: Informationsdienst Wissenschaft

(zurück)


Die Haut besitzt eine innere Uhr

Dr. Julia Biederlack
GB Unternehmenskommunikation
Charité-Universitätsmedizin Berlin

Regeneration und Reparatur sind tageszeitabhängig
Ein Forscherteam der Charité – Universitätsmedizin Berlin hat zusammen mit Wissenschaftlern eines Hamburger Unternehmens jetzt herausgefunden, dass auch die menschliche Haut eine innere Uhr besitzt, die unter anderem für die zeitliche Steuerung ihrer Reparatur und Regeneration zuständig ist. Erste Ergebnisse der Grundlagenforschung veröffentlicht das Team in der aktuellen Ausgabe der Fachzeitschrift Proceedings of the Academy of Science (PNAS)*.

Unsere Haut ist ein lebenswichtiges Organ und vielleicht auch das vielseitigste: Neben repräsentativen, kommunikativen und sensorischen Funktionen übernimmt sie die Abgrenzung des Körpers zur Umwelt, bildet eine aktive und passive Barriere gegen Keime und hilft, die Bedingungen für andere wichtige Systeme des Körpers konstant zu halten, obwohl sich die Umweltbedingungen zum Teil dramatisch ändern können. Frost, Hitze, Sonnenlicht und Nässe – vielfältige Herausforderungen für die Haut – wirken je nach Tageszeit ganz unterschiedlich auf sie ein.

Die Forscherteams um Prof. Achim Kramer vom Arbeitsbereich Chronobiologie an der Charité und Dr. Thomas Blatt vom Hamburger Hautforschungszentrum fanden jetzt heraus, wie sich die Haut diesen tageszeitabhängigen Bedingungen anpasst. Dazu entnahmen die Forscher jungen gesunden Probanden zu verschiedenen Zeitpunkten des Tages Hautzellen der obersten Hautschicht, sogenannte Keratinozyten. Eine Analyse sämtlicher Gene in den Keratinozyten ergab, dass wichtige Faktoren für die Regeneration und Reparatur der Hautzellen von der biologischen Uhr reguliert wird. Einer dieser Faktoren, das Krüppel-like-factor 9 (Klf9) genannte Molekül, bremst die Zellteilung in den Keratinozyten: Reduzierten die Forscher die Aktivität dieses Faktors, konnten sie ein schnelleres Wachstum dieser Hautzellen in der Zellkulturschale beobachten. Eine verstärkte Aktivität von Klf9 war hingegen mit langsamer Zellteilung verbunden. Dabei zeigte sich, dass auch das Stresshormon Cortisol die Aktivität von Klf9 steuert und darüber seine medizinische Wirkung bei häufigen Hauterkrankungen wie der Schuppenflechte entfalten könnte. Die Aufgabe der biologischen Uhr ist es, das exakte Timing der verschiedenen Prozesse wie Zellteilung, Zelldifferenzierung und DNA-Reparatur in der Haut zu steuern.

Prof. Kramer blickt bereits in die Zukunft: „Wenn wir diese Prozesse noch besser verstehen, könnten wir Medikamente gezielt zu den Tageszeiten einsetzen, an denen sie am besten wirken und die wenigsten Nebenwirkungen haben.“

* Florian Spörl, Thomas Blatt, Achim Kramer et al.: Krüppel-like factor 9 is a circadian transcription factor in human epidermis that controls proliferation of keratinocytes. In: Proceedings of the Academy of Science (PNAS), Jul 3; 109(27):10903-8. DOI: 10.1073/pnas.1118641109.

Weitere Informationen:
http://www.pnas.org/content/109/27/10903.full.pdf+html – Artikel in Proceedings of the Academy of Science

Quelle: Informationsdienst Wissenschaft

(zurück)


Pilotanlage zur Phosphor-Rückgewinnung in Betrieb

Andrea Mayer-Grenu
Abteilung Hochschulkommunikation
Universität Stuttgart

Phosphor: Knappes Lebenselixier
Egal ob Pflanze, Tier oder Mensch – jeder lebende Organismus muss Phosphor zu sich nehmen, um zu wachsen. Das chemische Element ist Trägersubstanz der Erbinformation und für den Energiestoffwechsel wichtig. In der Agrarwirtschaft setzen Landwirte daher phosphathaltige Düngemittel ein, um die Ernteerträge zu erhöhen. Auch in der Industrie ist Phosphor ein wichtiger Grundstoff. Doch die unter der Erde lagernden Phosphorreserven gehen spätestens in 200 bis 300 Jahren zur Neige. Wissenschaftler des Instituts für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) der Universität Stuttgart können nun aus Klärschlamm Phosphor zurückgewinnen. Die erste Pilotanlage nach dem „Stuttgarter Verfahren“ ging im November 2011 in Offenburg offiziell in Betrieb.

Für den Grundstoff Phosphor gibt es in der Natur zwar keinen Ersatz, dafür kann er mehrfach wiederverwertet werden. Bauern düngen ihre Felder beispielsweise mit Klärschlamm, um den darin enthaltenen Phosphor aus den menschlichen Ausscheidungen wieder als Dünger in den Nährstoffkreis zurück zu führen. Das Ausbringen von Klär-schlamm ist jedoch umstritten, da sich die im Abwasser enthaltenen Schadstoffe darin festsetzen. Sie könnten Nutzpflanzen, Boden und Grundwasser kontaminieren. Dieses Problem umgehen die Wissen-schaftler um Prof. Heidrun Steinmetz, indem sie dem Schlamm sei-nen Phosphor entziehen. In dem Verfahren, das sie zusammen mit der iat-Ingenieurberatung Stuttgart GmbH entwickelt haben, gewin-nen sie aus ausgefaultem Klärschlamm Magnesium-Ammonium-Phosphat (MAP, Struvit). „Dieses Produkt kann direkt als Dünger auf den Feldern eingesetzt werden: Es ist schadstoffarm, langzeitwirk-sam und enthält neben Phosphat wertvollen Stickstoff als weiteren Pflanzennährstoff“, sagt Carsten Meyer, einer der verantwortlichen Forscher am ISWA.
Die neue Pilotanlage steht bei der Kläranlage des Abwasserzweck-verbands Raum Offenburg und besteht aus zwei Chargenbehältern, einer Kammerfilterpresse und einem Absetzbecken. Mit einem Reak-torvolumen von zwölf Kubikmetern kann in der Anlage derzeit der Klärschlamm von etwa 5.000 Einwohnerwerten behandelt werden. Etwa 60 Prozent des gebundenen Phosphors werden dem Klärschlamm dabei entzogen. Mit der Anlage lassen sich derzeit circa 50 Kilogramm MAP pro Tag erzeugen. Zunächst wird in dem ersten Behälter in saurem Milieu aus dem rohen Faulschlamm der Kläranlage Phosphat und Stickstoff herausgelöst. Der verbleibende Feststoffanteil des Schlamms wird abgetrennt und verbrannt, um Strom oder Wärme zu erzeugen. Aus dem flüssigen Filtrat fällt in einem zweiten Behälter MAP als kristalliner Niederschlag aus, nachdem das Fällmittel Magnesiumoxid zu dem Faulschlammfiltrat zugegeben und der pH-Wert erhöht wurde. Dem Absetzbecken wird das Fällprodukt schließlich entnommen und getrocknet. „Unser Verfahren zeichnet sich dadurch aus, dass die Phosphor-Rückgewinnung parallel zur Abwasserreinigung stattfinden kann, deren Ablauf somit nicht umgestellt werden muss“, erklärt Meyer.

Die Stuttgarter Forscher wollen den Prozess noch weiter optimieren und zur Marktreife führen. Auch an Verwertungs- und Vermarktungsstrategien für das Produkt MAP selbst denken sie bereits. Das Land Baden-Württemberg, das einen Ausstieg aus der landwirtschaftlichen Klärschlammausbringung will, fördert das Projekt mit 824.000 Euro.

Ansprechpartner: Carsten Meyer, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Tel. 0711/685-63754,
e-mail: carsten.meyer@iswa.uni-stuttgart.de

Text und Bild unter http://www.uni-stuttgart.de/hkom/presseservice/mediendienst/13/tm5.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Bluthochdruck und Diabetes: Große Wissenslücken bei Behandlungsstrategien

Dr. Anna-Sabine Ernst
Presse- und Öffentlichkeitsarbeit
Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG)

Patientenrelevante Kriterien werden in Studien nicht ausreichend berücksichtigt / Gezielte Forschung notwendig
Stress, Rauchen und hoher Alkoholkonsum schaden der Gesundheit. Gesunde Ernährung und regelmäßige Bewegung sind dagegen sinnvoll. So lauten medizinische Empfehlungen auch für Menschen mit hohen Blutdruckwerten oder Diabetes. Doch es fehlen bisher wissenschaftliche Belege dafür, ob und in welchem Maße diese Menschen speziell von Änderungen des Lebensstils oder von einer besonderen Blutdrucksenkung profitieren. Denn trotz der großen epidemiologischen Bedeutung von Bluthochdruck und Diabetes sind insbesondere nichtmedikamentöse Maßnahmen nicht hinreichend auf ihren Nutzen untersucht. So lautet das Fazit aus den Ergebnissen von 6 Berichten (Rapid Reports), die das Institut für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG) am 19 Juli 2012 veröffentlicht hat.

Umfassendes Auftragspaket jetzt abgeschlossen

Die 6 jetzt veröffentlichten Berichte schließen ein vom G-BA beauftragtes Paket von insgesamt 10 Berichten zu unterschiedlichen Behandlungsstrategien bei essenzieller Hypertonie und Diabetes mellitus ab.

Insgesamt 7 Berichte befassen sich mit nichtmedikamentösen Maßnahmen bei essenzieller Hypertonie, der häufigsten Form des Bluthochdrucks, bei der keine organischen Ursachen für den Bluthochdruck festzustellen sind. Die Berichte zum Nutzen von Kochsalzreduktion http://www.iqwig.de/kochsalzreduktion-kann-den-blutdruck-senken.887.html, Abnehmen http://www.iqwig.de/gewichtsreduktion-durch-diaet-senkt-den-blutdruck.490.html und körperlicher Aktivität http://www.iqwig.de/nutzen-von-bewegung-bei-bluthochdruck-ist-zu.1123.html für Bluthochdruckpatienten sind bereits publiziert. Jetzt liegen die Ergebnisse der weiteren Berichte zum Nutzen von speziellen Ernährungsformen (DASH-Diät), von Stressbewältigung, vom Verzicht auf Rauchen und von einer Verminderung des Alkoholkonsums vor.

Zum Thema Diabetes mellitus ist bereits ein Bericht zum Nutzen der normnahen Blutzuckersenkung bei Menschen mit Typ-2-Diabetes https://www.iqwig.de/a05-07-nutzenbewertung-einer-langfristigen.986.html?tid=115… erschienen. Nun hat das IQWiG den Bericht zum Nutzen von körperlicher Aktivität bei Patientinnen und Patienten mit Typ-2-Diabetes und den Bericht zur langfristigen Blutdrucksenkung auf einen niedrigeren Blutdruckzielwert als die Standardzielwerte (140 und/oder 90 mmHg) bei beiden Formen von Diabetes mellitus veröffentlicht.

Studien lassen kaum Aussagen zu Nutzen zu

Bisher fehlen wissenschaftliche Nachweise dafür, dass speziell Bluthochdruck-Patienten mithilfe von Stressbewältigung, mit Verzicht auf Rauchen und hohen Alkoholkonsum sowie mit speziellen Ernährungsformen länger leben, weniger Herzinfarkte und Schlaganfälle erleiden, ihren Blutdruck dauerhaft senken oder ihre Lebensqualität verbessern können.

Es gibt auch keine Belege dafür, dass Menschen mit Typ-2-Diabetes mit gesteigerter körperlicher Aktivität ihre Blutzuckerwerte normalisieren, länger leben und Folgeerkrankungen wie Niereninsuffizienz, Amputationen oder Erblindung verhindern können.

Die Frage, ob Diabetes-Patienten von einer Senkung des Blutdrucks auf ein Niveau im unteren Normbereich profitieren, beantworten die vorliegenden Studien nur bedingt.

Studienlage ist unzureichend

Nach Auswertung der weltweit verfügbaren Literatur stellen die Wissenschaftlerinnen und Wissenschaftler fest, dass die Studienlage für diese Fragestellungen unzureichend ist: Sofern überhaupt vorhanden, betrachten die Studien kaum patientenrelevante Zielgrößen. Oft sind überdies die Studiengruppen zu klein und die Studiendauer ist zu kurz, um belastbare Aussagen abzuleiten. Einige Studienergebnisse, beispielsweise zum Thema Stressbewältigung aus den 1970er und 1980er Jahren, lassen sich nur eingeschränkt auf die heutige Zeit übertragen. Darüber hinaus sind viele Studienergebnisse anfällig für Verzerrungen und daher nicht eindeutig interpretierbar.

Gesunde Lebensweise auch für Menschen mit Bluthochdruck und Diabetes empfohlen

„Die lückenhafte Studienlage bedeutet nicht, dass die von uns bewerteten Maßnahmen grundsätzlich keinen Einfluss auf die Gesundheit haben können“, erläutert IQWiG-Leiter Jürgen Windeler. „Für Menschen mit essenzieller Hypertonie und Diabetes mellitus gelten selbstverständlich dieselben allgemeinen medizinischen Erkenntnisse wie für alle anderen: starkes Übergewicht, Bluthochdruck, Rauchen und Alkoholmissbrauch belasten den Körper und schaden der Gesundheit.“ Die Stressforschung belege, dass belastende Lebenssituationen langfristig zu gesundheitlichen Schädigungen führen könnten. Eine ausgewogene Ernährung und genügend Bewegung könnten dagegen die Gesundheit fördern.

Bessere Standards für Studien zu nichtmedikamentösen Therapien

Für Arzneimitteltherapien werden regelhaft anspruchsvolle Studien durchgeführt. Doch für nichtmedikamentöse Behandlungsformen gibt es keine Zulassungsverfahren und daher auch keine klaren Anforderungen. Nach Auffassung des IQWiG ist es dringend erforderlich, hochwertige und langfristige Studien auch zu nichtmedikamentösen Maßnahmen mit dem Blick auf patientenrelevante Endpunkte durchzuführen. Dass solche Studien möglich sind, ist bereits gezeigt worden.

„Was für die Arzneimittelforschung längst Standard ist, muss auch bei nichtmedikamentösen Verfahren endlich selbstverständlich werden: randomisierte kontrollierte Studien mit patientenrelevanten Therapiezielen, größeren Studiengruppen und längeren Zeiträumen“, fordert Jürgen Windeler. „Das gilt insbesondere bei so weit verbreiteten Krankheiten wie Diabetes und Bluthochdruck mit einer erheblichen Krankheitslast. Hier ist es dringend notwendig, mehr verlässliche Kenntnisse jenseits von Arzneimitteltherapien zu schaffen, um die Versorgungsqualität von Patientinnen und Patienten zu verbessern“, so Windeler. Selbst bei Arzneimittelstudien gebe es noch Defizite, wie der Bericht zur Blutdrucksenkung in den unteren normotonen Bereich bei Diabetes zeigt. Obwohl Arzneimittel im Einsatz sind, ist auch hier die Studienlage für Diabetes Typ 1 eher dürftig.

Zum Ablauf der Berichtserstellung

Der G-BA hatte das IQWiG beauftragt, die Berichte in einem beschleunigten Verfahren, als sogenannte Rapid Reports zu erarbeiten. Im Unterschied zum sonst üblichen Prozedere werden dazu keine Vorberichte veröffentlicht. Zwar wird eine Vorversion der Berichte extern begutachtet, es entfällt aber die Anhörung, bei der alle Interessierten Stellungnahmen abgeben können. Die publizierten Berichte wurden in Zusammenarbeit mit externen Sachverständigen erstellt und zwischen August 2011 und Juni 2012 an den Auftraggeber versandt.

Mehr zu den Ergebnissen der einzelnen Berichte erfahren Sie aus der Fortsetzung der Pressemitteilung http://www.iqwig.de/index.1478.html.

Weitere Informationen:
http://www.iqwig.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Magnetsinn: Warum Hochspannungsleitungen die Orientierung stören

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Zugvögeln, aber auch vielen anderen Tieren, weist der Magnetsinn den richtigen Weg. LMU-Forscher konnten nun magnetische Zellen identifizieren – und zeigen, warum Hochspannungsleitungen den inneren Kompass aus der Bahn werfen können.
Viele Tiere besitzen einen Magnetsinn zur Orientierung, allerdings ist immer noch ungeklärt, durch welche speziellen Zellen das Magnetfeld der Erde wahrgenommen und in Nervenreize umgewandelt wird. „Da das Magnetfeld den ganzen Körper durchdringt, können diese Zellen theoretisch überall sein, das macht es so schwer, sie zu identifizieren“, erläutert der LMU-Geophysiker Michael Winklhofer, der nun mit einem internationalen Team in der Nasenschleimhaut der Forelle fündig geworden ist.

Dank einer speziellen Methode, bei der der Zellverband schonend aufgelöst und die Zellen anschließend einem rotierenden Magnetfeld ausgesetzt werden, machten die Wissenschaftler magnetische Zellen ausfindig, reicherten sie an und bestimmten deren magnetische Eigenschaften. Dabei zeigte sich zu Winklhofers Überraschung, dass die Zellen deutlich magnetischer sind als bislang vermutet wurde – was die hohe Empfindlichkeit des Magnetsinnes erklärt.

Magnetitkristalle weisen den Weg

Die magnetischen Eigenschaften der Zellen beruhen auf mikrometergroßen Einschlüssen eisenreicher Kristalle – höchstwahrscheinlich Magnetit – in der Zelle, die fest mit der Zellmembran verkoppelt sind – diese also auch reizen können, wenn sie auf Magnetfelder reagieren. „Dies erklärt, weshalb niederfrequente Magnetfelder von Hochspannungsleitungen die Orientierung am Magnetfeld stören beziehungsweise auch physiologische Effekte hervorrufen können“, sagt der Geophysiker.

Die Entdeckung der Wissenschaftler könnte technische Anwendungen etwa bei hoch empfindlichen Magnetfeldsensoren voranbringen. Zudem wirft sie die Frage auf, ob und in welchem Umfang auch menschliche Zellen Magnetit herstellen können – „falls das zuträfe gäbe es mit intrazellulärem Magnetit ein konkretes Substrat für die Einkoppelung von sogenanntem Elektrosmog“, spekuliert Winklhofer. (PNAS vom 9.7.) göd

Publikation:
Magnetic characterization of isolated candidate vertebrate magnetoreceptor cells
S. H.K. Eder, H. Cadiou, A. Muhamad, P. A. McNaughton, J. L. Kirschvink, M. Winklhofer
http://www.pnas.org/cgi/doi/10.1073/pnas.1205653109

Quelle: Informationsdienst Wissenschaft

(zurück)


Reiseinfekten durch einfache Regeln vorbeugen

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Unerwünschte Urlaubssouvenirs
DGVS: Vor Reisedurchfall schützen einfache Regeln
Berlin – Bis zu 50 Prozent aller Reisenden in tropischen oder subtropischen Ländern ziehen sich während ihres Urlaubs eine Durchfallerkrankung zu. Besonders häufig sind Touristen in Afrika, Südasien, Süd- und Mittelamerika betroffen. Aber auch in einigen Ländern Süd- und Ost-Europas kommt es – aufgrund fehlender Hygienestandards – häufig zu Reiseinfektionen. Urlauber können sich durch das Einhalten einiger Vorsichtsmaßnahmen schützen, erklärt die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS).

„Durchfallinfektionen gehen in der Regel von verunreinigten Lebensmitteln oder Getränken aus“, erklärt DGVS-Experte Professor Dr. med. Ansgar Lohse, Direktor der I. Medizinischen Klinik und Poliklinik am Universitätsklinikum Hamburg Eppendorf, zu der auch die für Tropenmedizin zuständige Bernhard-Nocht-Klinik gehört. Häufigste Auslöser seien verwandte des EHEC-Erregers, sogenannte enterotoxinbildende Escherichia coli-Stämme, kurz ETEC. Aber auch Campylobacter, Salmonellen, Shigellen und bestimmte Virenarten können Durchfälle auslösen. Probleme tauchen insbesondere dann auf, wenn Essen und Getränke nicht kühl gelagert werden: „Die meisten Bakterien wachsen bei Temperaturen zwischen 10 und 60 Grad“, so der Infektionsmediziner. Durch Erhitzen auf mindestens 60 Grad würden die Keime abgetötet.

Generell gilt: Halten Sie sich an die bewährte Regel „Boil it, cook it, peel it or forget it“, zu deutsch: „Koch es, schäl es oder vergiss es“. Auf rohe Milch- und Eierspeisen, wie Speiseeis, Pudding oder Mayonnaise und Rohkostprodukte, wie Salate, sollte am besten ganz verzichtet werden. Von schälbarem Obst hingegen geht keine Gefahr aus. Gemüse, Fleisch, Fisch und Meeresfrüchte sind frei von Erregern, wenn sie ausreichend erhitzt wurden. Wichtig ist es, auch beim Trinken achtsam zu sein. „Verzichten Sie auf Fruchtsäfte und Eiswürfel, trinken Sie nur aus originalverschlossenen Flaschen und kochen Sie Wasser ab, bevor sie es trinken“, rät Lohse.

Kommt es – trotz aller Vorsicht – zu einer Infektion, ist das zwar lästig, häufig aber nicht bedrohlich: „Die meisten Durchfallerkrankungen klingen nach ein bis drei Tagen von alleine wieder ab“, erklärt Gastroenterologe Lohse. „Gehen Sie aber zum Arzt, wenn die Krankheit länger dauert, Fieber oder starke Schmerzen auftreten oder sich Blut oder Schleim im Stuhl findet.“ Menschen, die an einer chronischen Krankheit wie Diabetes, Colitis ulcerosa oder Morbus Crohn leiden, sollten Durchfallerkrankungen besonders ernst nehmen. Und auch bei Kleinkindern und älteren Menschen kann Durchfall mitunter schwer verlaufen und schnell dazu führen, dass der Körper austrocknet.

Deshalb ist es besonders wichtig, viel zu trinken. Beim Ausgleich von Salz und Wasserhaushalt helfen Elektrolytlösungen. Wer diese nicht in der Reise-apotheke hat, kann acht Teelöffel Zucker und einen gestrichenen Teelöffel Salz auf einen Liter abgekochtes Wasser geben. Medikamente mit dem Wirkstoff Loperamid könnten den Darm für einige Stunden beruhigen, helfen aber nicht gegen die Infektion. Eine generelle Antibiotika-Prophylaxe halten Experten nicht für zweckmäßig. „Auch eine Selbsttherapie mit Antibiotika sollte nur im äußersten Notfall erfolgen“, erklärt Lohse. Für eine wirksame Behandlung sei ein Arztbesuch unverzichtbar. Hinweise auf die Herkunft der Keime, Stuhluntersuchung und Erregerdiagnostik geben mitunter schnell Aufschluss.

Bei Reisen in tropische und subtropische Länder empfiehlt die DGVS eine Beratung durch einen Reise- oder Tropenmediziner. Von ihm erhalten Reisende auch Informationen darüber, wann etwa Impfungen gegen Cholera, Typhus oder Hepatitis sinnvoll sind. Adressen von Reisemedizinischen Beratungsstellen finden Interessierte auf der Internetseite des Centrums für Reisemedizin unter http://www.crm.de/beratungsstellen/

Die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen der DGVS ist die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.

Quelle: Informationsdienst Wissenschaft

(zurück)


Pilotanlage zur Phosphor-Rückgewinnung in Betrieb

Andrea Mayer-Grenu
Abteilung Hochschulkommunikation
Universität Stuttgart

Mit der Pilotanlage in Offenburg können die Betreiber nun lebensnotwendigen Phos-phor aus Klärschlamm zurückgewinnen.

Phosphor: Knappes Lebenselixier
Egal ob Pflanze, Tier oder Mensch – jeder lebende Organismus muss Phosphor zu sich nehmen, um zu wachsen. Das chemische Element ist Trägersubstanz der Erbinformation und für den Energiestoffwechsel wichtig. In der Agrarwirtschaft setzen Landwirte daher phosphathaltige Düngemittel ein, um die Ernteerträge zu erhöhen. Auch in der Industrie ist Phosphor ein wichtiger Grundstoff. Doch die unter der Erde lagernden Phosphorreserven gehen spätestens in 200 bis 300 Jahren zur Neige. Wissenschaftler des Instituts für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft (ISWA) der Universität Stuttgart können nun aus Klärschlamm Phosphor zurückgewinnen. Die erste Pilotanlage nach dem „Stuttgarter Verfahren“ ging im November 2011 in Offenburg offiziell in Betrieb.

Für den Grundstoff Phosphor gibt es in der Natur zwar keinen Ersatz, dafür kann er mehrfach wiederverwertet werden. Bauern düngen ihre Felder beispielsweise mit Klärschlamm, um den darin enthaltenen Phosphor aus den menschlichen Ausscheidungen wieder als Dünger in den Nährstoffkreis zurück zu führen. Das Ausbringen von Klär-schlamm ist jedoch umstritten, da sich die im Abwasser enthaltenen Schadstoffe darin festsetzen. Sie könnten Nutzpflanzen, Boden und Grundwasser kontaminieren. Dieses Problem umgehen die Wissen-schaftler um Prof. Heidrun Steinmetz, indem sie dem Schlamm sei-nen Phosphor entziehen. In dem Verfahren, das sie zusammen mit der iat-Ingenieurberatung Stuttgart GmbH entwickelt haben, gewin-nen sie aus ausgefaultem Klärschlamm Magnesium-Ammonium-Phosphat (MAP, Struvit). „Dieses Produkt kann direkt als Dünger auf den Feldern eingesetzt werden: Es ist schadstoffarm, langzeitwirk-sam und enthält neben Phosphat wertvollen Stickstoff als weiteren Pflanzennährstoff“, sagt Carsten Meyer, einer der verantwortlichen Forscher am ISWA.

Die neue Pilotanlage steht bei der Kläranlage des Abwasserzweck-verbands Raum Offenburg und besteht aus zwei Chargenbehältern, einer Kammerfilterpresse und einem Absetzbecken. Mit einem Reak-torvolumen von zwölf Kubikmetern kann in der Anlage derzeit der Klärschlamm von etwa 5.000 Einwohnerwerten behandelt werden. Etwa 60 Prozent des gebundenen Phosphors werden dem Klärschlamm dabei entzogen. Mit der Anlage lassen sich derzeit circa 50 Kilogramm MAP pro Tag erzeugen. Zunächst wird in dem ersten Behälter in saurem Milieu aus dem rohen Faulschlamm der Kläranlage Phosphat und Stickstoff herausgelöst. Der verbleibende Feststoffanteil des Schlamms wird abgetrennt und verbrannt, um Strom oder Wärme zu erzeugen. Aus dem flüssigen Filtrat fällt in einem zweiten Behälter MAP als kristalliner Niederschlag aus, nachdem das Fällmittel Magnesiumoxid zu dem Faulschlammfiltrat zugegeben und der pH-Wert erhöht wurde. Dem Absetzbecken wird das Fällprodukt schließlich entnommen und getrocknet. „Unser Verfahren zeichnet sich dadurch aus, dass die Phosphor-Rückgewinnung parallel zur Abwasserreinigung stattfinden kann, deren Ablauf somit nicht umgestellt werden muss“, erklärt Meyer.

Die Stuttgarter Forscher wollen den Prozess noch weiter optimieren und zur Marktreife führen. Auch an Verwertungs- und Vermarktungsstrategien für das Produkt MAP selbst denken sie bereits. Das Land Baden-Württemberg, das einen Ausstieg aus der landwirtschaftlichen Klärschlammausbringung will, fördert das Projekt mit 824.000 Euro.

Ansprechpartner: Carsten Meyer, Institut für Siedlungswasserbau, Wassergüte- und Abfallwirtschaft, Tel. 0711/685-63754,
e-mail: carsten.meyer@iswa.uni-stuttgart.de

Text und Bild unter http://www.uni-stuttgart.de/hkom/presseservice/mediendienst/13/tm5.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Altersmediziner empfehlen Vitamin-D als Nahrungsergänzung

Nina Meckel
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Geriatrie (DGG)

Senioren ab 60 Jahren sollten täglich 800 sogenannte Internationale Einheiten Vitamin-D als Nahrungsergänzung zu sich nehmen. Das empfehlen Wissenschaftler und Ärzte auf dem Jahreskongress der Deutschen Gesellschaft für Geriatrie (DGG) Mitte September in Bonn. Studienergebnisse zeigen, dass Patienten, die 700 bis 1000 Internationale Einheiten Vitamin-D einnehmen, 34 Prozent seltener stürzen (British Medical Journal 2011) und 20 Prozent weniger Knochenbrüche erleiden (Archives of Internal Medicine 2009).
Vitamin-D ist wichtig für die Regulierung des Calcium-Spiegels im Blut und beim Knochenaufbau. Kinder mit Vitamin-D-Mangel erkranken an Rachitis. Bei Erwachsenen begünstigt ein Vitamin D Mangel einem Knochenabbau und erhöht das Knochenbruchrisiko. Außerdem sind Muskelschwäche und -schmerzen sowie ein erhöhtes Sturzrisiko Folgen des Vitamin-D-Mangels. In den vergangenen Jahren sind außerdem mögliche negative Effekte des Vitamin-D-Mangels auf das Immunsystem, die Entwicklung von Herz-Kreislauf- und Krebserkrankungen beschrieben worden.

Vitamin-D-Einnahme vermindert Stürze und Knochenbrüche
In einer Übersichtsstudie konnte Prof. Dr. med. Heike Annette Bischoff-Ferrari vom Zentrum Alter und Mobilität der Universität Zürich und Stadtspital Waid die Daten von acht hochqualitativen Doppelblindstudien bezüglich Stürzen und zwölf Studien bezüglich Knochenbrüchen auswerten. Die Ergebnisse zeigen, dass Patienten, die 700 bis 1000 Internationale Einheiten Vitamin-D einnehmen, 34 Prozent seltener stürzen (British Medical Journal 2011) und 20 Prozent weniger Knochenbrüche erleiden (Archives of Internal Medicine 2009). Andere Studien bestätigen, dass alte Menschen die Vitamin-D einnehmen sicherer gehen, seltener stürzen und weniger Knochenbrüche erleiden. Die Deutsche Gesellschaft für Ernährung (DGE) empfiehlt daher seit kurzem die Einnahme von Vitamin-D.

Gesunde Ernährung reicht nicht
„Eine gesunde Ernährung reicht nicht aus, um den Bedarf älterer Menschen mit Vitamin-D zu decken“, betont der künftige Präsident der DGG (Präsident-elect) Prof. Dr. med. Ralf-Joachim Schulz aus Köln. Auch die Haut könne im Alter nicht mehr genug wichtige Vorstufen des aktiven Wirkstoffes bilden, um den Bedarf zu decken. „Die Fähigkeit der Haut zur Vitamin-D-Bildung nimmt im Alter gegenüber einem 20-Jährigen um den Faktor vier ab“, so Schulz. Der Ernährungsexperte verweist auf eigene Studien, wonach nur rund drei Prozent der Patienten, die in die geriatrische Abteilung eines Krankenhauses kommen, ausreichende Vitamin-D-Spiegel haben. „Regelmäßig Vitamin-D einzunehmen ist eine kostengünstige und effektive Maßnahme, um seine Gesundheit im Alter zu erhalten“, ist er sich mit Bischoff-Ferrari einig.

Zusatzinformationen zu Vitamin-D
Vitamin-D wird zu rund 80 Prozent in der Haut mit Hilfe der UV-B Strahlung des Sonnenlichtes gebildet und zu rund 20 Prozent über Lebensmittel aufgenommen. Allerdings ist die Sonne keine verlässlich Quelle: in den Monaten November bis Mai reicht in ganz Europa die Sonnenintensität nicht aus. Sonnenschutz durch Kleidung oder Sonnencreme (ab Faktor 6) reduziert die hauteigene Vitamin-D-Produktion zudem deutlich. Außerdem enthalten nur wenige Lebensmittel Vitamin-D in größeren Mengen, dazu gehören fettreiche Fische, zum Beispiel Aale, und in deutlich geringerem Maße Margarine, einige Pilze und Eigelb. Das Vitamin wird nach der Aufnahme über Nahrungsmittel oder die Bildung in der Haut zunächst in der Leber und danach in der Niere in die aktive Form umgewandelt.

Geriatriekongress Bonn 2012
Vom 12. bis 15. September 2012 findet im World-Conference Center in Bonn, dem ehemaligen Bundestag, das im deutschsprachigen Raum größte Treffen zum Thema Krankheit und Gesundheit im Alter statt. Der Titel des Kongresses ist Programm: „Alternsforschung: Transnational und translational“. „Gemeinsam schlagen wir auf dem Kongress eine Brücke zwischen klinisch-praktischer Arbeit und Forschung in der Altersmedizin“, sagte der Präsident-elect der DGG und Kongresspräsident, Prof. Dr. Ralf-Joachim Schulz aus Köln. Die DGG veranstaltet den Kongress gemeinsam mit der Deutschen Gesellschaft für Gerontologie und Geriatrie e. V. (DGGG), der Österreichischen Gesellschaft für Geriatrie und Gerontologie (ÖGGG), der Schweizerischen Gesellschaft für Gerontologie (SGG SSG) sowie der Schweizerischen Fachgesellschaft für Geriatrie (SFGG).

Wichtige patientennahe Themen des Kongresses sind unter anderen:
• „Demenz – ist Vorsorge möglich?“
• „Schlaf und Schlaflosigkeit im Alter“
• „Die Ernährung des alten Menschen“
• „Stress – Lebenselexier oder Risiko?“
• „Arzneimitteltherapie im Alter“ und vieles mehr.

Weitere Informationen hierzu finden Sie unter www.geriatriekongress2012.de.

Weitere Informationen:
http://www.dggeriatrie.de/presse/40-presse/410-altersmediziner-empfehlen-vitamin…

Anhang
Pressemeldung der Deutschen Gesellschaft für Geriatrie (DGG): Altersmediziner empfehlen Vitamin-D als Nahrungsergänzung
http://idw-online.de/de/attachment17928

Quelle: Informationsdienst Wissenschaft

(zurück)


Sauberes Schwimmbecken-Wasser ohne Chlor

Katharina Thehos
Pressestelle
Technische Universität Chemnitz

Chemiker der TU Chemnitz haben gemeinsam mit der UVION GmbH ein Verfahren entwickelt, um Wasser im Schwimmbecken mit Hilfe von Kupfer-Ionen aufzubereiten
Je länger der diesjährige Sommer sich von seiner kalten Seite zeigt, desto mehr steigt die Vorfreude der Besitzer von privaten Schwimmbecken auf heiße Zeiten und die Abkühlung im eigenen Garten. Damit sich im Wasser keine Bakterien und Algen vermehren können, kommt in der Regel Chlor zum Einsatz. Doch das ist nicht ungefährlich: Kinder wie Erwachsene können unter dem chemischen Zusatz leiden – von roten Augen bis zur Chlorallergie. Ein Verfahren zur Aufbereitung des Wassers in Schwimmbecken ohne Chlor haben Chemiker der Technischen Universität Chemnitz gemeinsam mit der Chemnitzer UVION GmbH entwickelt. Sie desinfizieren das Wasser mit UV-Licht und elektrochemisch erzeugten Kupfer-Ionen. „Das Verfahren umgeht die negativen Wirkungen des Chlors – das so gereinigte Wasser erfüllt sogar die Anforderungen gemäß der Trinkwasserverordnung“, sagt Dr. Roy Buschbeck, Wissenschaftlicher Mitarbeiter an der Professur Anorganische Chemie der TU Chemnitz. Außerdem sei diese Art der Desinfektion umweltfreundlich, geruchs- und geschmacksneutral.

Kupfer ist ein Spurenelement und für Menschen und Tiere in niedrigen Dosen ungefährlich. Für viele Mikroorganismen wirkt es jedoch tödlich. Der Kupfergehalt des Schwimmbecken-Wassers liegt mit 0,8 Milligramm pro Liter unter dem für Trinkwasser erlaubten Grenzwert. Hier dürfen maximal zwei Milligramm pro Liter vorkommen. Ein bis drei Tage nach Installation der Anlage haben sich ausreichend Kupfer-Ionen im Wasser verteilt. Sie gehen dann auf Jagd nach Bakterien sowie Algen, verbinden sich mit diesen und töten die schädlichen Zellen ab. Die so entstehenden, für den Menschen unsichtbaren Flocken sind so groß, dass sie von der Filtertechnik der Schwimmbecken aufgefangen werden. „Das entscheidende bei dem Verfahren ist, dass die Konzentration der Kupfer-Ionen automatisch eingestellt und konstant gehalten wird. Das ist über eine photometrische Bestimmung des Kupfergehaltes im Badewasser möglich und reduziert die Wartung der Anlage auf ein Minimum“, erklärt Buschbeck. Der Kupfergehalt wird dabei so gering wie möglich gehalten, um schädliche Wirkungen im Abwasser zu vermeiden. „Die meisten Kupfer-Ionen bleiben aber ohnehin als Feststoff im Filtersand hängen und gelangen deshalb gar nicht ins Abwasser“, so Buschbeck.

In den Labors der TU Chemnitz lief die Grundlagenforschung, auf deren Basis die UVION GmbH den optischen Sensor für die Messung des Kupfer-Ionen-Gehaltes entwickelte. Untersucht haben die Wissenschaftler der Professur Anorganische Chemie, welchen Einfluss einzelne Parameter des Wassers auf die Kupfer-Ionisierung haben. Sie überprüften im Labormaßstab den pH-Wert, die Wasserhärte und den Leitwert des Wassers. „Aus unseren Ergebnissen konnten wir entscheidende Rückschlüsse über das Prinzip und die Wirkungsweise des Verfahrens ziehen, die es UVION schließlich ermöglichten, eine einzigartige Mess- und Regeltechnik umzusetzen“, so Buschbeck. Ein weiteres Alleinstellungsmerkmal des Verfahrens ist der Einsatz einer UV-Lampe, die kurzwelliges ultraviolettes Licht abgibt. Ihre Strahlung ist stärker als die UV-Strahlung der Sonne und für Keime tödlich. „Das UV-Licht wirkt sofort, aber nur lokal, wo das Wasser an der Lampe vorbeigeleitet wird. Die Kupfer-Ionen wirken längerfristiger, jedoch im gesamten Becken. Beide Bestandteile ergänzen sich somit optimal“, erklärt Buschbeck.

Verfahren anderer Hersteller, die ebenfalls auf Chlor verzichten, arbeiten mit einer Kupfer-Silber-Elektrolyse. „Silber-Ionen sind aggressiver und dadurch noch wirksamer als Kupfer-Ionen. Die Grenzwerte der Trinkwasserverordnung liegen jedoch wesentlich niedriger. Bei unseren Forschungsarbeiten haben wir festgestellt, dass die Konzentration von Silber-Ionen im Wasser mit herkömmlichen Methoden nicht zuverlässig zu messen ist. Somit besteht keinerlei Kontrolle über Menge der freigesetzten Silber-Ionen „, sagt Buschbeck. Aufgrund dieser Ergebnisse aus den Labors der TU Chemnitz verzichtet UVION auf Silberanteile bei der Elektrolyse. Die höhere Wirksamkeit der Silber-Ionen gleicht das Verfahren durch den Einsatz des UV-Lichtes aus.

Für öffentliche Schwimmbäder ist bisher nur die Reinigung durch Chlor zugelassen. „Chlor tötet sofort alle Bakterien ab, bei den elektrochemischen Verfahren läuft die Reinigung etwas langsamer. Allerdings hat Chlor eben auch starke Nebenwirkungen, weshalb über die Zulassung der alternativen Verfahren auch für öffentliche Schwimmbäder nachgedacht werden sollte“, so Buschbeck. Zumal die Technik auch finanziell interessant sei: „Die Betriebskosten sind im Vergleich zu entsprechenden Chloranlagen bis zu 30 Prozent geringer“, sagt Uwe Thuß, Geschäftsführer der UVION GmbH. 2010 kamen die UV-Ionizer der UVION GmbH auf den Markt. Rund 250 Anlagen, in denen das Know-how der TU Chemnitz steckt, sind inzwischen deutschlandweit im Einsatz.

Weitere Informationen erteilen Dr. Roy Buschbeck, Telefon 0371 531-31236, E-Mail roy.buschbeck@chemie.tu-chemnitz.de, und Uwe Thuß, 0371 38218-60, E-Mail uwe.thuss@uvion.com.

Quelle: Informationsdienst Wissenschaft

(zurück)


Reiseinfekten durch einfache Regeln vorbeugen

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Unerwünschte Urlaubssouvenirs
DGVS: Vor Reisedurchfall schützen einfache Regeln
Berlin – Bis zu 50 Prozent aller Reisenden in tropischen oder subtropischen Ländern ziehen sich während ihres Urlaubs eine Durchfallerkrankung zu. Besonders häufig sind Touristen in Afrika, Südasien, Süd- und Mittelamerika betroffen. Aber auch in einigen Ländern Süd- und Ost-Europas kommt es – aufgrund fehlender Hygienestandards – häufig zu Reiseinfektionen. Urlauber können sich durch das Einhalten einiger Vorsichtsmaßnahmen schützen, erklärt die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS).

„Durchfallinfektionen gehen in der Regel von verunreinigten Lebensmitteln oder Getränken aus“, erklärt DGVS-Experte Professor Dr. med. Ansgar Lohse, Direktor der I. Medizinischen Klinik und Poliklinik am Universitätsklinikum Hamburg Eppendorf, zu der auch die für Tropenmedizin zuständige Bernhard-Nocht-Klinik gehört. Häufigste Auslöser seien verwandte des EHEC-Erregers, sogenannte enterotoxinbildende Escherichia coli-Stämme, kurz ETEC. Aber auch Campylobacter, Salmonellen, Shigellen und bestimmte Virenarten können Durchfälle auslösen. Probleme tauchen insbesondere dann auf, wenn Essen und Getränke nicht kühl gelagert werden: „Die meisten Bakterien wachsen bei Temperaturen zwischen 10 und 60 Grad“, so der Infektionsmediziner. Durch Erhitzen auf mindestens 60 Grad würden die Keime abgetötet.

Generell gilt: Halten Sie sich an die bewährte Regel „Boil it, cook it, peel it or forget it“, zu deutsch: „Koch es, schäl es oder vergiss es“. Auf rohe Milch- und Eierspeisen, wie Speiseeis, Pudding oder Mayonnaise und Rohkostprodukte, wie Salate, sollte am besten ganz verzichtet werden. Von schälbarem Obst hingegen geht keine Gefahr aus. Gemüse, Fleisch, Fisch und Meeresfrüchte sind frei von Erregern, wenn sie ausreichend erhitzt wurden. Wichtig ist es, auch beim Trinken achtsam zu sein. „Verzichten Sie auf Fruchtsäfte und Eiswürfel, trinken Sie nur aus originalverschlossenen Flaschen und kochen Sie Wasser ab, bevor sie es trinken“, rät Lohse.

Kommt es – trotz aller Vorsicht – zu einer Infektion, ist das zwar lästig, häufig aber nicht bedrohlich: „Die meisten Durchfallerkrankungen klingen nach ein bis drei Tagen von alleine wieder ab“, erklärt Gastroenterologe Lohse. „Gehen Sie aber zum Arzt, wenn die Krankheit länger dauert, Fieber oder starke Schmerzen auftreten oder sich Blut oder Schleim im Stuhl findet.“ Menschen, die an einer chronischen Krankheit wie Diabetes, Colitis ulcerosa oder Morbus Crohn leiden, sollten Durchfallerkrankungen besonders ernst nehmen. Und auch bei Kleinkindern und älteren Menschen kann Durchfall mitunter schwer verlaufen und schnell dazu führen, dass der Körper austrocknet.

Deshalb ist es besonders wichtig, viel zu trinken. Beim Ausgleich von Salz und Wasserhaushalt helfen Elektrolytlösungen. Wer diese nicht in der Reise-apotheke hat, kann acht Teelöffel Zucker und einen gestrichenen Teelöffel Salz auf einen Liter abgekochtes Wasser geben. Medikamente mit dem Wirkstoff Loperamid könnten den Darm für einige Stunden beruhigen, helfen aber nicht gegen die Infektion. Eine generelle Antibiotika-Prophylaxe halten Experten nicht für zweckmäßig. „Auch eine Selbsttherapie mit Antibiotika sollte nur im äußersten Notfall erfolgen“, erklärt Lohse. Für eine wirksame Behandlung sei ein Arztbesuch unverzichtbar. Hinweise auf die Herkunft der Keime, Stuhluntersuchung und Erregerdiagnostik geben mitunter schnell Aufschluss.

Bei Reisen in tropische und subtropische Länder empfiehlt die DGVS eine Beratung durch einen Reise- oder Tropenmediziner. Von ihm erhalten Reisende auch Informationen darüber, wann etwa Impfungen gegen Cholera, Typhus oder Hepatitis sinnvoll sind. Adressen von Reisemedizinischen Beratungsstellen finden Interessierte auf der Internetseite des Centrums für Reisemedizin unter http://www.crm.de/beratungsstellen/

Die Deutsche Gesellschaft für Verdauungs- und Stoffwechselkrankheiten (DGVS) wurde 1913 als wissenschaftliche Fachgesellschaft zur Erforschung der Verdauungsorgane gegründet. Heute vereint sie mehr als 5000 Ärzte und Wissenschaftler aus der Gastroenterologie unter einem Dach. Die DGVS fördert sehr erfolgreich wissenschaftliche Projekte und Studien, veranstaltet Kongresse und Fortbildungen und unterstützt aktiv den wissenschaftlichen Nachwuchs. Ein besonderes Anliegen der DGVS ist die Entwicklung von Standards und Behandlungsleitlinien für die Diagnostik und Therapie von Erkrankungen der Verdauungsorgane – zum Wohle des Patienten.

Quelle: Informationsdienst Wissenschaft

(zurück)


Magnetsinn: Warum Hochspannungsleitungen die Orientierung stören

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Zugvögeln, aber auch vielen anderen Tieren, weist der Magnetsinn den richtigen Weg. LMU-Forscher konnten nun magnetische Zellen identifizieren – und zeigen, warum Hochspannungsleitungen den inneren Kompass aus der Bahn werfen können.
Viele Tiere besitzen einen Magnetsinn zur Orientierung, allerdings ist immer noch ungeklärt, durch welche speziellen Zellen das Magnetfeld der Erde wahrgenommen und in Nervenreize umgewandelt wird. „Da das Magnetfeld den ganzen Körper durchdringt, können diese Zellen theoretisch überall sein, das macht es so schwer, sie zu identifizieren“, erläutert der LMU-Geophysiker Michael Winklhofer, der nun mit einem internationalen Team in der Nasenschleimhaut der Forelle fündig geworden ist.

Dank einer speziellen Methode, bei der der Zellverband schonend aufgelöst und die Zellen anschließend einem rotierenden Magnetfeld ausgesetzt werden, machten die Wissenschaftler magnetische Zellen ausfindig, reicherten sie an und bestimmten deren magnetische Eigenschaften. Dabei zeigte sich zu Winklhofers Überraschung, dass die Zellen deutlich magnetischer sind als bislang vermutet wurde – was die hohe Empfindlichkeit des Magnetsinnes erklärt.

Magnetitkristalle weisen den Weg

Die magnetischen Eigenschaften der Zellen beruhen auf mikrometergroßen Einschlüssen eisenreicher Kristalle – höchstwahrscheinlich Magnetit – in der Zelle, die fest mit der Zellmembran verkoppelt sind – diese also auch reizen können, wenn sie auf Magnetfelder reagieren. „Dies erklärt, weshalb niederfrequente Magnetfelder von Hochspannungsleitungen die Orientierung am Magnetfeld stören beziehungsweise auch physiologische Effekte hervorrufen können“, sagt der Geophysiker.

Die Entdeckung der Wissenschaftler könnte technische Anwendungen etwa bei hoch empfindlichen Magnetfeldsensoren voranbringen. Zudem wirft sie die Frage auf, ob und in welchem Umfang auch menschliche Zellen Magnetit herstellen können – „falls das zuträfe gäbe es mit intrazellulärem Magnetit ein konkretes Substrat für die Einkoppelung von sogenanntem Elektrosmog“, spekuliert Winklhofer. (PNAS vom 9.7.) göd

Publikation:
Magnetic characterization of isolated candidate vertebrate magnetoreceptor cells
S. H.K. Eder, H. Cadiou, A. Muhamad, P. A. McNaughton, J. L. Kirschvink, M. Winklhofer
http://www.pnas.org/cgi/doi/10.1073/pnas.1205653109

Kontakt:
Michael Winklhofer
Department für Geo- und Umweltwissenschaften
Geophysik
Telefon: +49 (89) 2180-4207
Telefax: +49 (89) 2180-4205
http://www.geophysik.uni-muenchen.de/Members/michael

Quelle: Informationsdienst Wissenschaft

(zurück)


Dunkle Schokolade hält gesund

Sabine Ranke-Heinemann
Pressestelle
Australisch-Neuseeländischer Hochschulverbund / Institut Ranke-Heinemann

Gute Neuigkeiten für alle Schokoholics: Einer neuen australischen Studie zufolge reicht bereits wenig dunkle Schokolade pro Tag aus, um das Risiko eines Schlaganfalls oder eines Herzinfarkts zu verringern.

Die Studie wurde von Forschern der Monash University in Melbourne durchgeführt und Anfang Juni dieses Jahres in der medizinischen Fachzeitschrift „British Medical Journal“ veröffentlicht. Aufgrund ihrer positiven Eigenschaften könnte dunkle Schokolade bei 30 Prozent der australischen Bevölkerung mit erhöhtem Risiko einer Herz-Kreislauf-Erkrankung als günstiges und vor allem schmackhaftes Präventivmedikament zur Senkung des Blutdrucks und des Cholesterinspiegels eingesetzt werden.

Doktorandin Ella Zomer, Professor Christopher Reid, Dr. Alice Owen und Dr. Dianna Magliano der Fakultät für Epidemiologie und Präventivmedizin arbeiteten mit dem für die University of Melbourne tätigen Professor Danny Liew zusammen. Die Forscher sind sich einig, dass der tägliche Verzehr dunkler Schokolade über einen Zeitraum von zehn Jahren bei 10.000 Menschen tatsächlich 70 nicht tödliche und 15 tödliche Fälle von Herz-Kreislauf-Erkrankungen verhindern könnte.

Ella Zomer zufolge untersuchte diese Studie zum ersten Mal die langfristige Auswirkung von Flavonoiden, die in dunkler Schokolade vorkommen und für ihre Blutdruck und Cholesterinspiegel senkende Wirkung bekannt sind: „Wir haben festgestellt, dass sich der tägliche Konsum von 100 Gramm dunkler Schokolade über zehn Jahren hinweg äußerst positiv auf die Gesundheit auswirkt. Diese Menge entspricht etwa einer qualitativ hochwertigen Schokoladentafel mit mindestens 70 Prozent Kakaoanteil. Unsere Untersuchungsergebnisse lassen darauf schließen, dass dunkle Schokolade als Alternative oder Ergänzung zur medikamentösen Behandlung von Patienten mit erhöhtem Risiko einer Herz-Kreislauf-Erkrankung Verwendung finden könnte.“

Herz-Kreislauf-Erkrankungen, wie Herzinfarkte oder Schlaganfälle, gelten weltweit als die häufigste Todesursache. „Wir wollen damit nicht sagen, dass Menschen mit erhöhtem Risiko einer Herz-Kreislauf-Erkrankung lediglich dunkle Schokolade essen müssen, um so einer Erkrankung vorzubeugen. Vielmehr ist eine sinnvolle Kombination aus Schokoladenverzehr und weiteren Maßnahmen, wie Sport, entscheidend“, betonte Ella Zomer.

Mithilfe eines mathematischen Models errechneten die Forscher für das Jahr 2013 die langfristigen gesundheitlichen Auswirkungen und die Kosteneffizienz des Schokoladenverzehrs bei Menschen mit erhöhtem Riskiko einer Herzerkrankung. Die Testpersonen wiesen keine Anzeichen bisheriger Diabetes- oder Herzerkrankungen auf und nahmen auch keine Blutdruck senkende Medikamente ein. Die Studie zeigte, dass pro Kopf und Jahr bereits ein Betrag von 42 Dollar ausreichend ist, um die gesundheitlichen Vorteile des Verzehrs dunkler Schokolade auch der breiten Bevölkerung zu demonstrieren und Herz-Kreislauf-Erkrankungen so letztlich vorzubeugen.

Im Rahmen der Studie wurden nicht tödlich verlaufende Schlaganfälle und Herzinfarkte untersucht, eine Prüfung der möglichen Auswirkung dunkler Schokolade auf andere Herz-Kreislauf-Erkrankungen, wie Herzversagen, steht noch aus.

Dunkle Schokoladenvariationen mit einer angereicherten Konzentration von Flavonoiden könnten die gesundheitlichen Vorteile auch beim Konsum geringerer Schokoladenmengen mit sich bringen, so Ella Zomer.

Weitere Informationen:

Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund
Pressestelle
Friedrichstr. 95
10117 Berlin
Email: berlin@ranke-heinemann.de
Tel.: 030-20 96 29 593

oder

Courtney Karayannis
Monash Media & Communications
Monash University
Email: courtney.karayannis@monash.edu

Das Institut Ranke-Heinemann / Australisch-Neuseeländischer Hochschulverbund ist das gemeinnützige Studierendensekretariat aller australischen und neuseeländischen Universitäten in Europa, zuständig für Wissens- und Forschungstransfer, Forschungsförderung sowie Studenten- und Wissenschaftleraustausch und für die Betreuung von Studierenden und Schülern, die ein Studium Down Under vorbereiten.

Weitere Informationen:
http://www.ranke-heinemann.de
http://www.ranke-heinemann.at
http://www.ranke-heinemann.tv

Quelle: Informationsdienst Wissenschaft

(zurück)


Klimawandel beeinflusst Ausbreitung von „Todeszonen“ in der Ostsee

Dr. Barbara Hentzsch
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Ostseeforschung Warnemünde

Forschungsergebnisse des IOW zeigen: Die Oberflächentemperatur der Ostsee hat großen Einfluss auf den Sauerstoffgehalt des Tiefenwassers. Demnach könnten sich im Zuge des Klimawandels sauerstoffarme „Todeszonen“ weiter ausbreiten.
Die Ostsee ist ein stabil geschichtetes Binnenmeer: Leichtes Süßwasser aus zahlreichen Flüssen bleibt an der Oberfläche und überlagert das schwere Salzwasser in größeren Tiefen. Die Folge der Schichtung: Der Austausch zwischen beiden Bereichen ist stark eingeschränkt – während das Oberflächenwasser regelmäßig durchmischt und mit Sauerstoff (O2) aus der Atmosphäre versorgt wird, baut sich der Sauerstoff im Tiefenwasser nach und nach ab. Nur wenn sauerstoffreiches Nordseewasser durch die dänischen Meerengen in die Ostsee gelangt, wird das Tiefenwasser „belüftet“ und mit neuem O2 aufgefrischt. Weil diese Salzwassereinbrüche aus der Nordsee aber nur sporadisch – etwa als Folge besonders starker Herbststürme – auftreten, herrschen in weiten Bereichen der tiefen Ostsee regelmäßig sauerstoffarme oder gar sauerstofffreie Bedingungen. In diesen „Todeszonen“ ist dann kein höheres Leben mehr möglich.

Wissenschaftler des IOW haben nun im Rahmen einer interdisziplinären Studie (Geologie, Modellierung, ozeanografische Fernerkundung) untersucht, welchen Einfluss Klimaschwankungen in der Vergangenheit auf die Verbreitung von „Todeszonen“ in der Ostsee hatten. Ihre überraschenden Ergebnisse wurden nun im Fachmagazin Nature Climate Change veröffentlicht. Die Forscher hatten mehrere Sedimentkerne unter anderem aus dem Gotlandbecken – einem besonders tiefen Bereich der Ostsee – geborgen und detailliert untersucht. Weil Sedimente am Boden der Meere die im Wasser herrschenden Bedingungen zur Zeit ihrer Ablagerung wie ein Archiv speichern, konnten die Wissenschaftler die letzten 1000 Jahre in der Geschichte der Ostsee rekonstruieren.

„Mit der sogenannten TEX86 Paläothermometrie konnten wir auf die zwischen Juli und September herrschende Sommertemperatur des Oberflächenwassers der Ostsee schließen“, sagt die Erstautorin der Studie Karoline Kabel. „In der rekonstruierten Temperaturkurve für die letzten 1000 Jahre spiegeln sich deutlich die Mittelalterliche Warmzeit, die Kleine Eiszeit und die jüngste Erwärmung seit 1900 wider.“ Nach den Ergebnissen des IOW lagen die durchschnittlichen Sommertemperaturen des Ostseewassers während der Mittelalterlichen Warmzeit mit über 16° Celsius auf einem ähnlichen Niveau wie heute (circa 17° Celsius). Diese frühe Wärmeperiode dauerte von 950 bis 1250 und wird für zahlreiche historische Ereignisse mitverantwortlich gemacht: So soll das warme Klima an der deutschen Ostseeküste sogar den Weinanbau möglich gemacht haben, die Wikinger konnten ungestört die eisfreien Küsten von Island, Grönland und Neufundland besiedeln und auch deutsche Städtegründungen östlich der Elbe – wie Stralsund, Rostock und Wismar – sollen mit dem sprunghaften Bevölkerungsanstieg als Folge besserer Ernteerträge in Zusammenhang stehen. Die „Kleine Eiszeit“ zwischen dem 15. und 19. Jahrhundert dagegen wird für Missernten, damit verbundene Hexenverfolgungen und eine wohl mehrere Male komplett zugefrorene Ostsee mitverantwortlich gemacht. In der rekonstruierten Temperaturkurve der Studie lagen die Sommerwerte mit etwa 15° Celsius in dieser kalten Periode deutlich unter denen der warmen Phasen.

„Exakt in den warmen Perioden finden wir in unseren Bohrkernen eine deutlich erkennbare Schichtung“, sagt Karoline Kabel. „Diese ungestörte Ablagerung ist ein sicheres Zeichen für sauerstoffarme Bedingungen am Meeresboden.“ Denn nur weil unter solchen Bedingungen keine vielzelligen Organismen existieren und den Boden durchwühlen können, bleibt diese sogenannte Laminierung erhalten. Während der Kleinen Eiszeit dagegen ist der Sedimentkern homogen, die Schichtung fehlt: Hier war offenbar genug O2 im Tiefenwasser vorhanden und höheres Leben möglich.

Die Forscher konnten die Existenz solcher „Todeszonen“ mit weiteren Untersuchungsmethoden bestätigen und auch Computermodelle der Ostsee, welche die Kleine Eiszeit im Vergleich zur heutigen Warmzeit simulierten, zeigten einen sehr deutlichen Rückgang in der Verbreitung dieser lebensfeindlichen Bereiche während der Kälteperiode und eine erneute Ausbreitung seit der jüngsten Erwärmung.

Um zu testen, ob die Ausbreitung der sauerstoffarmen Bereiche tatsächlich mit der Klimaveränderung zusammenhängt, haben die Wissenschaftler im Modell verschiedenste Szenarien simuliert. „Wir haben zum Beispiel die Kleine Eiszeit mit Nährstoffkonzentrationen durchgerechnet, wie wir sie heute im Wasser der Ostsee finden“, sagt IOW-Modellierer Christian Porsche. „Ohne die erhöhte Temperatur führen die zusätzlichen Nährstoffe in unserer Simulation zwar auch zu Sauerstoffmangel, doch die Ausbreitung der ‚Todeszonen‘ bleibt deutlich hinter der aktuellen Entwicklung mit circa 2° Celsius höheren Temperaturen zurück.“ Damit konnten die Wissenschaftler zeigen, dass tatsächlich auch die Temperatur und nicht etwa nur eine „Überdüngung“ der Ostsee mit zusätzlichen Nährstoffen von Land – wie man sie zum Beispiel seit 1960 beobachten kann – für die Ausbreitung der „Todeszonen“ verantwortlich ist.

Als verbindenden Wirkungsmechanismus zwischen Oberflächenwassertemperatur und Sauerstoffzehrung in der Tiefe haben die Forscher Cyanobakterien, die fälschlicherweise oft als „Blaualgen“ bezeichnet werden, im Verdacht. „Während der warmen Perioden finden wir sehr viel organischen Kohlenstoff in den Sedimenten, was unter anderem auf eine erhöhte Biomasseproduktion hinweist“, sagt Karoline Kabel. „Außerdem wissen wir, dass sich Cyanobakterien in der Ostsee erst bei einer Temperatur höher als 16° Celsius und ruhigen Windbedingungen massenhaft vermehren und die charakteristischen Blüten bilden, die wir in warmen Sommern sehen können.“ Das während einer Blüte gebildete organische Material sinkt schließlich ab und wird auf Kosten des Sauerstoffs in der Tiefe vor allem durch andere Bakterien abgebaut.

Die Ergebnisse des IOW zeigen, dass es einen direkten Zusammenhang von langfristigen Temperaturschwankungen und der Ausbreitung sogenannter „Todeszonen“ in der tiefen Ostsee gibt. Damit sehen die Forscher auch ein steigendes Risiko für die Ausbreitung sauerstoffarmer Bereiche in der Zukunft – denn alle bedeutenden globalen Klimamodelle gehen von steigenden Temperaturen im Laufe der kommenden Jahrzehnte aus.

Darüber hinaus werfen die Ergebnisse der Studie weitere Fragen auf, wie der Direktor des IOW Prof. Ulrich Bathmann hervorhebt. „Da das Wachstum der Cyanobakterien auch stark von der Menge an Phosphor-Nährsalzen abhängt, müssen wir uns in Zukunft stärker dem noch wenig verstandenen Phosphorkreislauf der Ostsee widmen, um verlässliche Aussagen über die zukünftige Entwicklung des Gesundheitszustandes des Ökosystems Ostsee treffen zu können.“

Die hier dargestellte Studie des IOW entstand in Kooperation mit der Universität Kopenhagen, der Universität Bergen und dem Royal Netherlands Instititute for Sea Research. Das Projekt wurde von der EU (Siebtes Rahmenprogramm RP7) und vom Bundesministerium für Bildung und Forschung (BONUS – Gemeinsames Forschungs- und Entwicklungsprogramm für die Ostsee) gefördert.

Kontakt:
Barbara Hentzsch, 0381 / 5197 102, Öffentlichkeitsarbeit, IOW
Nils Ehrenberg, 0381 / 5197 106, Öffentlichkeitsarbeit, IOW
Karoline Kabel, o381 / 5197 106, Marine Geologie, IOW

Das IOW ist Mitglied der Leibniz-Gemeinschaft, zu der zurzeit 87 Forschungsinstitute und wissenschaftliche Infrastruktureinrichtungen für die Forschung gehören. Die Ausrichtung der Leibniz-Institute reicht von den Natur-, Ingenieur- und Umweltwissenschaften über die Wirtschafts-, Sozial- und Raumwissenschaften bis hin zu den Geisteswissenschaften. Bund und Länder fördern die Institute gemeinsam. Insgesamt beschäftigen die Leibniz-Institute etwa 16.800 MitarbeiterInnen, davon sind ca. 7.800 WissenschaftlerInnen, davon wiederum 3.300 NachwuchswissenschaftlerInnen. Der Gesamtetat der Institute liegt bei mehr als 1,4 Mrd. Euro, die Drittmittel betragen etwa 330 Mio. Euro pro Jahr.

Quelle: Informationsdienst Wissenschaft

(zurück)


TU Berlin: Wie gesund ist Gärtnern in der Stadt?

Stefanie Terp
Presse- und Informationsreferat
Technische Universität Berlin

Forscher finden hohe Schwermetallkonzentrationen in Berliner Stadtgemüse, warnen aber vor Panik
Urbanes Gärtnern boomt nicht nur in Berlin, sondern weltweit in Großstädten. Auch wenn die Kultur von Nahrungspflanzen auf städtischen Standorten soziale und viele andere Funktionen für Stadtbewohner erfüllen kann, bestehen Risiken. Aktuelle Untersuchungen am Institut für Ökologie der TU Berlin, die gerade im Wissenschaftsjournal „Environmental Pollution“ veröffentlicht wurden, zeigen, dass Gemüse und Obst aus der Berliner Innenstadt erheblich mit Schadstoffen angereichert sein können. Betroffen sind vor allem verkehrsbelastete Standorte.

„Unsere Ergebnisse waren überraschend deutlich“, berichtet Dr. Ina Säumel, die die Untersuchungen leitete. „Gemüse aus innerstädtischen Gärten kann im Vergleich zu Standard-Supermarktprodukten ein Vielfaches an Schwermetallen angereichert haben. Teilweise wurden sogar EU-Grenzwerte für Lebensmittel überschritten“, sagt die Forscherin. Vor allem in der Nähe stark befahrener Straßen waren mehr Schadstoffe im Stadtgemüse, das daher nicht immer gesünder als ein Supermarktprodukt sein muss. Bei verschiedenen Gemüsearten variierten die Werte stark, sodass die TU-Forscher nicht von vornherein problematisches oder unproblematisches Gemüse identifizieren konnten. Wichtiger für das Ergebnis ist die Stadtlage, wo das Gemüse gezogen wurde.

Dr. Ina Säumel warnt allerdings ausdrücklich vor Panikmache und zitiert Forscher aus England, die eine ganzheitlichere Sicht auf selbst angebautes Stadtgemüse fordern. Bei der Risikobewertung müssten auch positive Aspekte wie die Bewegung an der frischen Luft, eine gemeinschaftliche Naturerfahrung oder die Freude am Gärtnern berücksichtigt werden.

Die Berliner Ergebnisse zeigen jedoch auch, dass die Proben weniger belastet waren, wenn die Pflanzen entfernt von Straßen angebaut wurden oder Barrieren wie Gebäude oder dichte Vegetationsbestände wie Gehölzpflanzungen zwischen stark befahrenen Straßen und dem Ort gärtnerischer Freude lagen.

Die Studie:
Säumel, I., Kotsyuk, I. Hölscher M., Lenkereit C., Weber, F., Kowarik I., (2012): How healthy is urban horticulture in high traffic areas? Trace metal concentration in vegetable crops from plantings within inner city neighbourhoods in Berlin, Germany. Environmental Pollution 165: 124-132

Quelle: Informationsdienst Wissenschaft

(zurück)


Deutsche Windräder Todesfalle für Fledermäuse aus Nordosteuropa

Christine Vollgraf
Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Windkraftanlagen können Auswirkungen auf weit entfernte Ökosysteme haben. Forscher des Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) wiesen jetzt nach, dass Fledermäuse, die an Windrädern in Deutschland zu Tode kommen, vor allem aus dem osteuropäischen Raum stammen.
Die Forscher untersuchten vier Fledermausarten, die regelmäßig an Windkraftanlagen in Deutschland verunglücken. Sie führten ihre Untersuchung an Standorten in vier Bundesländern durch. Fledermäuse sind von besonderem Interesse, weil sie eine wichtige regulierende Funktion für Ökosysteme haben und Populationen von Schadinsekten in Schach halten. Außerdem ziehen viele Arten im Frühjahr und Herbst zwischen Fortpflanzungs- und Überwinterungsgebieten durch ganz Europa.

Die Forscher analysierten das Verhältnis der Wasserstoffisotope im Fellkeratin der Tiere. Vom Wasserstoff gibt es zwei stabile Varianten (Isotopen), die zwar annähernd dieselben chemischen Eigenschaften haben, sich aber im Atomgewicht unterscheiden. Die Verteilung der Wasserstoffisotope ist in Europa regional unterschiedlich, der Anteil des „leichten“ Wasserstoffisotops steigt von Süd nach Nord stetig an. Da Säugetiere die lokalen Wasserstoffisotope in ihr Keratin einbauen, hat jedes Tier eine Art Isotopen-Fingerabdruck in seinem Fell. Deshalb können Forscher über das Verhältnis der Isotope im Fell die Region ermitteln, in der sich die Tiere die letzten Monate aufgehalten haben.

Dabei fanden sie heraus, dass zum Beispiel die in Deutschland verunglückten Rauhautfledermäuse fast ausschließlich aus dem Baltikum und Weißrussland kamen. Auch Exemplare des Großen und des Kleinen Abendsegler mussten ihre Reisefreudigkeit mit dem Leben bezahlen, sie kamen ebenfalls aus dem Norden und Osten, also aus Skandinavien oder dem Baltikum. Hingegen stammten die gefundenen Zwergfledermäuse aus den Regionen rund um die Anlagen.

Studien besagen, dass jährlich mehr als 200.000 Fledermäuse an deutschen Windkraftanlagen verunglücken. Wildtierbiologen warnen, dass diese Verluste empfindliche Lücken in die fernen Populationen reißen. „Fledermäuse haben eine geringe Fortpflanzungsrate, sie bekommen nur ein bis zwei Jungtiere pro Jahr“, sagt Christian Voigt vom IZW. Von zusätzlichen Unglücksfällen kann sich eine Fledermauspopulation daher nur langsam, wenn überhaupt, erholen.

Voigt hält deshalb mehr Absprachen zwischen der EU und den östlichen europäischen Ländern für dringend nötig. Die internationalen Regularien zum Schutz von ziehenden Arten kämen in diesen Fällen noch nicht genügend zum Tragen. Deutschland sieht Voigt zudem in einer besonderen Pflicht, da die sogenannte grüne Energiewende durch den vorangetriebenen Ausbau von Windkraftanlagen negative Konsequenzen auf weit entfernte Ökosysteme in Nordosteuropa haben könnte.

Insgesamt verzeichnen Umweltschützer und Wissenschaftler eine steigende Zahl von Fledermaus-Todesfällen an Windkrafträdern. Das liegt unter anderem daran, dass die Anlagen zunehmend in Wäldern „versteckt“ werden, weil sie in der offenen Feldflur ungern gesehen werden. Die Rotorblätter befinden sich dann näher an den Baumkronen, so dass Fledermäuse bei der nächtlichen Jagd leichter in deren Einzugsbereich geraten können.

Seit kurzem wissen Forscher auch, wie Fledermäuse an den Anlagen zu Tode kommen: Die Tiere werden nicht wie allgemein angenommen durch die Rotorblätter „zerhäckselt“. Sie sterben vielmehr an einem sogenannten Barrotrauma. Dabei platzen ihre Lungen und inneren Organen, weil durch Verwirbelungen hinter den Rotorblättern starke Druckschwankungen entstehen.

Das Problem der Fledermausunfälle ließe sich eigentlich einfach lösen, so Voigt. Die Anlagen müssten in der Abenddämmerung, wenn der Wind sowieso meist abflaut, für ein bis zwei Stunden ausgeschaltet werden; vornehmlich während der Zugzeit der Fledermäuse. Dies würde die Zahl der Todesfälle vermutlich drastisch senken und nur geringe Gewinneinbußen bei den Betreibern zur Folge haben. Voigt ist überzeugt: „Wir benötigen eine intelligente Energiewende, mit möglichst wenig Schaden für Mensch und Wildtier.“

Originalarbeit:
Voigt, C.C., Popa-Lisseanu, A., Niermann, I., Kramer-Schadt, S. (2012) The catchment area of wind farms for European bats: A plea for international regulations. Biological Conservation 10.1016/j.biocon.2012.04.027

Quelle: Informationsdienst Wissenschaft

(zurück)


Das Kreuz mit dem Knie – Knien und Hocken beanspruchen die Kniegelenke stärker als gedacht

Stefan Boltz
Pressestelle
Deutsche Gesetzliche Unfallversicherung – DGUV

In vielen Berufen wird in kniebelastenden Haltungen gearbeitet. Besonders extreme Beugungen beanspruchen das Kniegelenk. Eine neue Untersuchung des Institutus für Arbeitsschutz der Deutschten Gesetzlichen Unfallversicherung (IFA) liefert erstmals Messdaten zu Kniewinkeln, zur Symmetrie der Kniebelastung und zur täglichen Anzahl sowie zur Dynamik der Belastungsphasen.
Ob Fliesenleger, Installateur oder Dachdecker – in vielen Berufen wird regelmäßig im Knien oder Hocken gearbeitet. Dass kniebelastende Haltungen eigentlich immer mit starker oder gar extremer Beugung des Kniegelenks verbunden sind und damit das Kniegelenk stärker beanspruchen als bisher angenommen, belegt eine Untersuchung des Instituts für Arbeitsschutz der Deutschen Gesetzlichen Unfallversicherung (IFA). Den Aspekt der Kniebeugung und andere Einflussgrößen haben die Arbeitswissenschaftler des IFA in einer umfangreichen Studie zu Art und Umfang von Kniebelastungen systematisch untersucht. Die Ergebnisse sind unter www.dguv.de/ifa Webcode d138257 verfügbar.

Knien, aber auch Hocken oder Kriechen am Arbeitsplatz sind Risikofaktoren für Verletzungen und Erkrankungen der Kniegelenke, wie Meniskusschäden oder Arthrose. Die Mechanismen, die im Knie zu solchen Schäden führen, sind kompliziert und von mehreren Faktoren beeinflusst. Bislang gab es vor allem Informationen zur täglichen Dauer kniebelastender Haltungen für typische berufliche Tätigkeiten. Das IFA geht mit seiner neuen Untersuchung weit darüber hinaus: Die Forscher liefern erstmals auch Messdaten zu Kniewinkeln, zur Symmetrie der Kniebelastung und zur täglichen Anzahl sowie zur Dynamik der Belastungsphasen.

„Große und extrem große Kniewinkel von 120 Grad und mehr sind bei Arbeiten in kniebelastenden Haltungen eher die Regel“, sagt Dr. Dirk Ditchen, Studienleiter im IFA. „Und je stärker die Beugung, desto größer kann zum Beispiel der Einfluss auf den Meniskus sein.“ Diese Erkenntnis liefere einen wichtigen neuen Anhaltspunkt für die weitere Erforschung von Knieerkrankungen.

Aber auch andere Studienergebnisse des IFA können helfen, die Schädigungsmechanismen im Knie zu verstehen. Während die Kniewinkel für kniebelastende Tätigkeiten durchgängig hohe Werte erreichen, variieren die Zeitanteile solcher Tätigkeiten in den untersuchten Berufen stark, nämlich von 0 bis über 80 Prozent einer Tagesschicht. Gleiches gilt für die Anzahl der Kniebelastungsphasen pro Arbeitsschicht und auch für die Art der Kniebelastungen, die von relativ statisch bis sehr dynamisch reichen. Schließlich konnte die Untersuchung zeigen, dass in den meisten Fällen ein Kniegelenk stärker belastet ist als das andere.

Der Report gibt darüber hinaus einige Hinweise, wie kniebelastende Haltungen vermieden werden können. Seit 2009 ist die Kniegelenksarthrose (Gonarthrose) in die Berufskrankheiten-Liste aufgenommen. Damit kann sie bei einer entsprechenden beruflichen Belastung durch Knien oder eine vergleichbare Kniebelastung als Berufskrankheit anerkannt werden.

Weitere Informationen:
http://www.dguv.de/ifa Webcode d138257

Quelle: Informationsdienst Wissenschaft

(zurück)


Schätze bergen aus Abfall

Dr. Ulrike Rockland
Pressestelle
Bundesanstalt für Materialforschung und -prüfung (BAM)

Rohstoffe werden immer knapper. Die Preise für Metalle steigen stetig. Grund genug, neue Rohstoff-Quellen aufzufinden. Ein Team von Wissenschaftlern und Ingenieuren aus Industrie und aus verschiedenen Forschungseinrichtungen beginnt nun mit der „Schatzsuche“ in Rostaschen aus der Müllverbrennung.
Diese Aschen enthalten circa acht Prozent Eisen und bis zu zwei Prozent von den noch wertvolleren Nichteisen-Metallen, vor allem Kupfer und Aluminium. Diese Metalle werden heute während der Aufbereitung der Rostaschen zu Kiesersatz mit Magneten und mit der Wirbelstromtechnik nur zum Teil zurückgewonnen.

Das Team hat es sich zum Ziel gesetzt, die Metallausbeute zu verdoppeln. Gelingen soll dies durch eine verbesserte Prallzerkleinerungstechnik. Konzipiert hat diese Technik die Firma Tartech AG aus Berlin, mit der auch die kleineren Metallteilchen zugänglich werden. Metalle, die in Form chemischer Verbindungen in der Asche enthalten sind, sollen ebenfalls zurückgewonnen werden. Dazu sollen Verfahren, wie sie im Bergbau bei der Aufbereitung von Erzen verwendet werden, eingesetzt werden.

„Die Konzentrationen von Kupfer und Blei in den Rostaschen sind höher als in manchen Erzen, die anderswo in der Welt oft unter fragwürdigen Bedingungen ausgebeutet werden. Dieser Abfall ist eine heimische Rohstoffquelle“, sagt Franz Simon, Abfallexperte der BAM Bundesanstalt für Materialforschung und -prüfung.

Das Projekt ATR „Aufschluss, Trennung und Rückgewinnung von ressourcenrelevanten Metallen aus Rückständen thermischer Prozesse mit innovativen Methoden“ mit neun Verbundpartnern hat eine Laufzeit von drei Jahren und wird von der BAM koordiniert. Es hat ein Gesamtbudget von 3,5 Millionen Euro und wird mit 2,2 Millionen Euro vom Bundesministerium für Bildung und Forschung (BMBF) in der Fördermaßnahme „r3 – Innovative Technologien für Ressourcen-effizienz“ gefördert.

Kontakt:
Dr. rer. nat. Franz-Georg Simon
Abteilung 4 Material und Umwelt
E-Mail: franz-georg.simon@bam.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Wie viele wissen, was im Notfall zu tun ist?

Rüdiger Labahn
Informations- und Pressestelle
Universität zu Lübeck

Lübecker Studie zum Kenntnisstand von Notfallbasismaßnahmen in der Bevölkerung
Lübecker Studie untersucht den Kenntnisstand zu Notfallbasismaßnahmen in der Bevölkerung: Projekt im Rahmen „Stadt der Wissenschaft 2012″

Bei einem plötzlichen Herzkreislaufstillstand ist es überlebensentscheidend, ob schnell genug wiederbelebt wird. Jeder von uns kann von einem Moment auf den anderen gefordert sein. Allerdings ist die Laienreanimationsquote in Deutschland im internationalen Vergleich gering.

Jetzt ermittelt eine Lübecker Studie den Kenntnisstand zu Notfallbasismaßnahmen in der Bevölkerung. Sie wird von der Klinik für Anästhesiologie der Universität zu Lübeck und des Universitätsklinikums Schleswig-Holstein, Campus Lübeck, durchgeführt. Die Leitung der Studie haben Dr. med. Jan Wnent und Holger Maurer.

Befragt werden 2.500 zufällig ausgewählte Lübeckerinnen und Lübecker über 18 Jahre mit einem zugesandten Fragebogen. Die Daten werden pseudonymisiert ausgewertet. Das Wissenschaftsmanagement Lübeck setzt auf Bürgerbeteiligung und fördert die Studie im laufenden Wissenschaftsjahr.

Die Studie untersucht, wie das Wissen über die Erste Hilfe in der Bevölkerung verteilt ist. Es wird auch die Bereitschaft zur Durchführung bekannter Erste-Hilfe-Maßnahmen erhoben. Aus den Ergebnissen kann abgeleitet werden, wo ein Verbesserungsbedarf besteht und mit welchen Maßnahmen das Wissen und die Bereitschaft zu einfachen Basismaßnahmen im Notfall erweitert werden können.

50 bis 70 von 100.000 Einwohnern in Deutschland erleiden pro Jahr den plötzlichen Herztod. Durch eine hinreichende Laienreanimation können das primäre Überleben und das gute neurologische Überleben nach einem präklinischen Herzkreislaufstillstand deutlich verbessert werden.

Die Laienreanimationsquote in Deutschland beträgt dem Deutschen Reanimationsregister der Deutsche Gesellschaft für Anästhesiologie und Intensivmedizin (DGAI) zufolge 18,1 Prozent. In anderen europäischen Ländern ist dieser Anteil deutlich höher. In Schweden beispielsweise beträgt die Quote je nach Quelle zwischen 34 und sogar 73 Prozent.

Die Ergebnisse der Lübecker Studie können dazu beitragen, die Hintergründe für die in Deutschland geringe Wiederbelebungsquote durch Laien aufzuklären. Daran können sich Maßnahmen zur Verbesserung der Situation anschließen. Die Verbesserung der Laienreanimationsquote in Deutschland hätte dementsprechend eine Verbesserung des Überlebens nach einem Herzkreislaufstillstand zur Folge.

Weitere Informationen:
http://www.uksh.de/anaesthesie-luebeck/Forschung/Notfallbasismassnahmen.html

Quelle: Informationsdienst Wissenschaft

(zurück)


Hochwasservorsorge: den Muffeln helfen, „Hausaufgaben“ zu machen

Franz-Georg Elpers
Pressestelle
Deutsche Bundesstiftung Umwelt (DBU)

DWA und DBU wollen Kommunen neue Schutzstrategien an die Hand geben – Schäden begrenzen
Osnabrück. Es ist immer dasselbe: Eine Stadt wird von einem größeren Hochwasser betroffen. Die Schäden sind immens. Alle Betroffenen sagen: So etwas hat es noch nie gegeben. Obwohl: Schaut man in die Stadtgeschichte, kann man regelmäßig feststellen, dass vergleichbare Szenarien schon einmal passiert sind – mindestens. Auf Drängen der Bürger wird in neue Maßnahmen zum Hochwasserschutz investiert. Muss es immer erst ein Schadensereignis geben, um sich um die Vorsorge vor Hochwasser zu kümmern? Nein, muss es nicht. Zukünftig können sich Kommunen in Deutschland von Experten unter die Lupe nehmen und bewerten, auditieren lassen: Eine Hochwasservorsorge-Ampel von grün, „alle Hausaufgaben gemacht“ über gelb und ocker bis zu rot „Vorsorgewüste“ zeigt, wie es um den Schutz von Mensch und Material bestellt ist. Die Deutsche Bundesstiftung Umwelt (DBU) unterstützt diese Initiative und die teilnehmenden Kommunen in der Pilotphase mit rund 82.000 Euro.

Gemeinsam mit der Deutschen Vereinigung für Wasserwirtschaft, Abwasser und Abfall (DWA) hat sich die DBU auf die Fahnen geschrieben, mit dem Audit „Hochwasser – wie gut sind wir vorbereitet“ ein neues Instrument für Kommunen zu entwickeln und Strategien zur Begrenzung von Hochwasserschäden auf die Tagesordnung zu setzen, ohne dass es zu einem Schadenshochwasser gekommen sein muss.

Von der DWA autorisierte Auditoren bewerten – bezogen auf das Stadt-, Gemeinde- oder Verbandsgebiet – nach einem vorgegebenen Katalog von Indikatoren den Status der Hochwasservorsorge und geben Hinweise, wie und wo man sich verbessern kann. Das Ergebnis mündet dann in besagte Hochwasservorsorge-Ampel. In sechs Jahren wird in einem Folgeaudit überprüft, ob und auf welchen Feldern sich etwas verändert hat.

„Der Aufwand für das Audit bleibt relativ übersichtlich, weil nicht die Vielzahl der Risiken selbst, sondern die Güte der Kommunikation über die Risiken bewertet wird, verbunden mit der Erwartung, dass gut informierte Entscheider – ebenso wie Bürgerinnen und Bürger selbst – langfristig auch die richtigen Entscheidungen zur Begrenzung der Hochwasserschäden treffen,“ betont DWA-Experte Joachim Gfrörer.

Bei einer Veranstaltung in Osnabrück wurden die Ergebnisse der ersten Audits präsentiert, die gemachten Erfahrungen von Auditoren wie von Auditierten insgesamt positiv bewertet. Das Audit folge, so Gfrörer, in Struktur und Zielsetzung der Europäischen Richtlinie 2007/60/EG „Über die Bewertung und das Management von Hochwasserrisiken“ aus dem Jahr 2007 und könne als Instrument der Qualitätssicherung bei der Umsetzung dieser Richtlinie verstanden werden. DBU-Experte Franz-Peter Heidenreich: „Darüber hinaus wird es beteiligten Kommunen leichter fallen, sich aktiv in deren Umsetzung einzubringen und dabei auch eigene Akzente zu setzen. Das gilt z. B bei der Vorsorge vor Risiken infolge von Sturzfluten. Sturzfluten sind kurzzeitige Überflutungen infolge von lokalen Starkregen mit erheblichem Schadenspotential, die für die Kommunen in Deutschland vor dem Hintergrund der zu erwartenden Klimaentwicklung in Zukunft von eher noch anwachsender Bedeutung sein werden.“

Weitere Informationen:
http://www.dbu.de/index.php?menuecms=123&objektid=33174&vorschau=1

Quelle: Informationsdienst Wissenschaft

(zurück)


Hördefekt: Protein beeinflusst die Frequenzwahrnehmung

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Ein neu identifiziertes Protein bringt Schwung ins Gehör. Fehlt das Molekül, entsteht ein Hörschaden, bei dem die wahrnehmbaren Schallfrequenzen gekappt sind. Möglicherweise eröffnet diese Entdeckung neue therapeutische Ansätze.
Menschen und Säuger haben ein hoch sensibles Gehör, das sich im Lauf der Evolution zu einem komplexen Organ entwickelte. Insbesondere können verschiedene Frequenzen und Frequenzunterschiede sehr gut erkannt werden – besser als bei allen anderen Wirbeltieren. Eine maßgebliche Rolle spielt dabei die sogenannte Tektorialmembran im Innenohr, die für die Umwandlung mechanischer Schwingungen in Nervenimpulse wichtig ist und in das Innenohr eindringende Schallwellen verstärkt.

Ein Team um den LMU-Forscher Professor Wolfgang Zimmermann vom Klinikum der Universität München entdeckte nun in Kooperation mit weiteren Wissenschaftlern ein neues Gen, das die Frequenzwahrnehmung maßgeblich beeinflusst: Das von diesem Gen kodierte Protein CEACAM16 entstand erst relativ spät während der Evolution der Landwirbeltiere und kommt nur bei Menschen und Säugetieren vor. Durch gezieltes Ausschalten des Gens konnten die Forscher im Mausmodell nachweisen, dass ohne CEACAM16 die Hörschwelle sowohl bei hohen als auch bei tiefen Frequenzen praktisch von Geburt an vermindert war.

Ein Protein für Höhen und Tiefen

Mit zunehmendem Alter verschlechterte sich das Gehör weiter. Dieselben Symptome treten bei einer amerikanischen Familie auf, die unter einem erblichen Hördefekt leidet. „Wir konnten mit unseren Befunden Mutation von Ceacam16 nun als Ursache des Schadens belegen“, sagt Zimmermann. Die Forscher vermuten aufgrund ihrer Befunde, dass CEACAM16 für die optimale Elastizität der Tektorialmembran wichtig ist: Mit CEACAM16 war die Tektorialmembran signifikant öfter kontrahiert als ohne.

„Wahrscheinlich beeinflusst CEACAM16 die physikalischen Eigenschaften der Membran“, erklärt Zimmermann. Diese Ergebnisse könnten nun, so hoffen die Forscher, neue therapeutische Ansätze für die betroffenen Patienten eröffnen. Denkbar ist etwa, intaktes CEACAM16-Protein in das Innenohr einzubringen.
(göd)

Publikation:
„Loss of the Mammal-Specific Tectorial Membrane Component CEA Cell Adhesion Molecule 16 (CEACAM16) Leads to Hearing Impairment at Low and High Frequencies“
Robert Kammerer, Lukas Rüttiger, Rainer Riesenberg, Constanze Schäuble, Rosemarie Krupar, Annegret Kamp, Kishiko Sunami, Andreas Eisenried, Martin Hennenberg, Fritz Grunert, Andreas Breß, Sebastiano Battaglia, Heinrich Schrewe, Marlies Knipper, Marlon R. Schneider, Wolfgang Zimmermann
The Journal of Biological Cehmistry, 22. Juni 2012
doi: 10.1074/jbc.M111.320481

Quelle: Informationsdienst Wissenschaft

(zurück)


Seit 15 Millionen Jahren herausragend – Schweizer Alpen beeinflussen Europas Klima seit dem Miozän

Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Senckenberg Forschungsinstitut und Naturmuseen

Die höchsten Gipfel der Schweiz in den erdgeschichtlich jungen Zentralalpen sind ein alter Hut, wie eine neue Studie zeigt. Die Hausberge Europas waren demnach schon vor 15 Millionen Jahren mindestens so hoch wie heute. Wissenschaftlerinnen und Wissenschaftler des Biodiversität und Klima Forschungszentrums (BiK-F), der Goethe-Universität Frankfurt und der ETH Zürich haben die Isotopenverhältnisse von Sauerstoff im Gestein der Alpen und dem Alpenvorland verglichen und konnten so die Höhe der Gipfel in der Vergangenheit bestimmen. Die Studie wurde kürzlich in „Earth and Planetary Science Letters“ veröffentlicht.
Obwohl die Alpen zu den am besten erforschten Gebirgen der Welt gehören, ist ihre topographische Geschichte bisher nahezu unbekannt. Aufschluss verspricht eine neue Studie, die zeigt, dass die alpine Topographie, so wie sich heute präsentiert, ihre Wurzeln vor 15 Millionen Jahren hat. Die höchsten Gipfel der Schweiz waren damals zwischen 2850 m und 3350 m hoch. Damit war die Gebirgskette im Durchschnitt sogar noch höher als heute. „Das lässt darauf schließen, dass das Gros des alpinen Höhenprofils vor über 15 Millionen Jahren entstanden ist, als durch die Kollision von Europa und Afrika die Hebungsraten des Gebirges die gleichzeitige Abtragung durch Erosion übertrafen.“, kommentiert Dr. Marion Campani, Biodiversität und Klima Forschungszentrum (BiK-F), Leitautorin der Studie.

Alpen kontrollieren seit 15 Millionen Jahren Niederschlag in Südeuropa
Hohe Bergketten bilden ein natürliches Hindernis für feuchte Luftmassen und beeinflussen so das Klima zu beiden Seiten dieser Barriere. Ihre Höhe ist dabei der entscheidende Faktor. Die neuen Erkenntnisse lassen daher Rückschlüsse auf die Niederschlagsmuster in Südeuropa und Eurasien und damit indirekt auch auf die Entwicklungsbedingungen ganzer Ökosysteme im Mittelmeerraum zu. Im Fall der Alpen bedeutet dies: Seit 15 Millionen Jahren hat das aufragende Gebirge den Transport des vom Atlantik kommenden Niederschlags Richtung Zentraleuropa und Eurasien bestimmt und damit das Klima des östlichen Mittelmeerraums entscheidend geprägt. „Diese Region wurde bereits in der Vergangenheit immer wieder von Trockenheit bedroht und ist ein Schwerpunkt der mit globaler Erwärmung assoziierten Wasserknappheit. Wer das Klima der Vergangenheit verstehen will, um Projektionen für die Zukunft der Region abzuleiten, für den führt an den Alpen kein Weg vorbei.“, so Prof. Dr. Andreas Mulch, BiK-F und Goethe-Universität Frankfurt.

Anhand von geochemischen Regenspuren die frühere Höhe bestimmt
Wie hoch Berge im Laufe ihrer Entwicklung waren, lässt sich anhand von Sauerstoff-Isotopen rekonstruieren. Konserviert im 15 Millionen Jahre alten Gestein, speichern sie Informationen über den Niederschlag dieser Zeit. Das funktioniert, weil das Element in Form unterschiedlich schwerer Isotope vorkommt. Niederschlag, der am Gipfel der Gebirge fällt, hat einen niedrigeren Anteil an schweren Isotopen als solcher in Tieflagen. Also verrät das Verhältnis schwerer zu leichten Isotopen im uralten Regenwasser, in welcher Höhe der Niederschlag zu einer bestimmten Zeit gefallen ist. Erstmalig gelang es nun, 15 Millionen Jahre alten Niederschlag aus dem Alpenvorland, das damals ungefähr auf Höhe des Meeresspiegels lag mit Niederschlag aus den ehemaligen Hochgebieten der Alpen miteinander zu vergleichen. Damit wurde es möglich, die damalige Höhendifferenz des Hochgebirges zum Alpenvorland zu bestimmen. „Außerdem sind Gebirge ab einer gewissen Höhe selbst in der Lage, das Klima und die kontinentalen Niederschlagsmuster zu beeinflussen. Deshalb muss man sich auch die Quelle der feuchten Luftmassen anschauen, um Veränderungen der Zusammensetzung und Menge des Niederschlags an dessen Ursprung in der Isotopen-Analyse mit berücksichtigen zu können.“, so Campani weiter zum Hintergrund des neuen Ansatzes.

Für weitere Informationen kontaktieren Sie bitte:

Prof. Dr. A. Mulch
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F) & Goethe-Universität Frankfurt
Tel. 069 7542 1881
andreas.mulch@senckenberg.de

Dr. Marion Campani
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel. 069 7542 1883
marion.campani@senckenberg.de

oder

Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F),
Pressereferentin
Tel. 069 7542 1838
sabine.wendler@senckenberg.de

Studie:
Campani, M., et al. (2012): Miocence paleotopography of the Central Alps. Earth and Planetary Science Letters, DOI: 10.1016/j.epsl.2012.05.017.
Online unter: http://www.sciencedirect.com/science/article/pii/S0012821X12002439

LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt am Main
Mit dem Ziel, anhand eines breit angelegten Methodenspektrums die komplexen Wechselwirkungen von Biodiversität und Klima zu entschlüsseln, wird das Biodiversität und Klima Forschungszentrum (BiK‐F) seit 2008 im Rahmen der hessischen Landes‐ Offensive zur Entwicklung Wissenschaftlich ökonomischer Exzellenz (LOEWE) gefördert. Die Senckenberg Gesellschaft für Naturforschung und die Goethe Universität Frankfurt sowie weitere direkt eingebundene Partner kooperieren eng mit regionalen, nationalen und internationalen Institutionen aus Wissenschaft, Ressourcen‐ und Umweltmanagement, um Projektionen für die Zukunft zu entwickeln und wissenschaftlich gesicherte Empfehlungen für ein nachhaltiges Handeln zu geben. Mehr unter http://www.bik-f.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Sind Personen mit Krankheitsängsten sensibler?

Petra Giegerich
Kommunikation und Presse
Johannes Gutenberg-Universität Mainz

Wissenschaftliche Studie untersucht die Ursachen von Krankheitsängsten und körperlichen Beschwerden ohne klare medizinische Ursache – Teilnehmer gesucht
Unter Krankheitsangst versteht man die Angst oder Überzeugung, an einer schweren Krankheit zu leiden. Dabei können Krebserkrankungen, aber auch andere ernste Erkrankungen wie zum Beispiel AIDS, Alzheimer oder Herz-Kreislauf-Erkrankungen im Fokus stehen. Die Angst treibt die Betroffenen zu zahlreichen medizinischen Untersuchungen, die jedoch meist keinen pathologischen Befund ergeben. In Fachbüchern findet man für das Krankheitsbild auch den Begriff „Hypochondrie“. Die Poliklinische Institutsambulanz für Psychotherapie am Psychologischen Institut der Johannes Gutenberg-Universität Mainz (JGU) bietet Betroffenen seit nunmehr acht Jahren eine kognitive Verhaltenstherapie an, um der Krankheitsangst zu begegnen – mit gutem Erfolg.

Nicht weit entfernt liegt die Hypochondrie von sogenannten „somatoformen Störungen“. Diese zeichnen sich dadurch aus, dass die Betroffenen unter anhaltenden körperlichen Beschwerden leiden. Die Beschwerden sind so stark, dass sich die Betroffenen erheblich in ihrem alltäglichen Leben eingeschränkt fühlen und verschiedenen Aufgaben nicht mehr nachgehen können. In der Hoffnung, die Ursache für ihre Beschwerden zu finden und eine entsprechende Behandlungsmöglichkeit zu erhalten, haben auch diese Menschen häufig einen langen Weg an Arztbesuchen hinter sich, der entweder in keiner oder in einer nicht ausreichend erklärenden organischen Diagnose mündet.

Das Psychologische Institut der JGU führt derzeit eine von der Deutschen Forschungsgemeinschaft (DFG) geförderte Studie durch, um die Ursachen dieser Krankheitsängste besser zu verstehen und Therapieansätze weiter entwickeln zu können. Hierzu soll bei Menschen mit Krankheitsangst im Vergleich zu Menschen mit unklaren körperlichen Beschwerden sowie bei gesunden Personen untersucht werden, welche Rolle die Wahrnehmung und Bewertung körperlicher Vorgänge für die Entstehung und Aufrechterhaltung von Krankheitsängsten einnimmt. In verschiedenen computergestützten Testaufgaben wird ermittelt, wie gut es den Personen gelingt, interne köpereigene Prozesse wie z.B. den eigenen Herzschlag, aber auch externe sensorische Reize, etwa leichte Vibrationsimpulse am Zeigefinger, wahrzunehmen.

Erste Ergebnisse zeigen, dass Personen mit Krankheitsangst im Vergleich zu gesunden Personen besser in der Lage sind, kleinste Veränderungen ihrer körperlichen Aktivierung – erfasst über die Hautleitfähigkeit – wahrzunehmen. Das spricht vielleicht für ein dauerhaft fehlgeleitetes Gefühl von Übererregung.

Für die Studie unter der Leitung von Dr. Michael Witthöft werden weitere Teilnehmerinnen und Teilnehmer gesucht, die entweder unter Krankheitsängsten oder unter anhaltenden körperlichen Beschwerden leiden, sowie gesunde Personen, für die körperliche Symptome oder Krankheitsängste keine Belastung darstellen. Teilnehmer für die gesunde Gruppe sollten im Alter zwischen 30 und 65 Jahren liegen, für die anderen beiden Gruppen gibt es keine Altersbegrenzung. Alle Teilnehmer erhalten eine angemessene Aufwandsentschädigung. Interessant ist die Teilnahme v.a. für Personen im Umkreis von Mainz, da die Durchführung der Studie in den Räumlichkeiten der Universität Mainz in unmittelbarer Nähe zum Bahnhof erfolgt.

Interessenten können sich bei Dipl.-Psych. Maribel Kölpin und Dipl.-Psych. Susann Krautwurst unter der Telefonnummer 06131 39-39204 melden. Ein Anrufbeantworter nimmt Namen und Telefonnummer auf, die Anrufer werden umgehend zurückgerufen. Oder aber Interessenten schreiben eine Mail an koelpin@uni-mainz.de.

Weitere Informationen:
Dr. Michael Witthöft / Dipl.-Psych. Maribel Kölpin / Dipl.-Psych. Susann Krautwurst
Abt. Klinische Psychologie und Psychotherapie
Psychologisches Institut
Johannes Gutenberg-Universität Mainz
D 55099 Mainz
Tel. +49 6131 39-39204
E-Mail: koelpin@uni-mainz.de
http://www.klinische-psychologie-mainz.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Utopia und Öko-Institut empfehlen die energieeffizientesten TV-Geräte bei Sat

Romy Klupsch
Öffentlichkeit und Kommunikation
Öko-Institut e. V. – Institut für angewandte Ökologie

Vor rund zwei Wochen haben die Elektrofachmarktkette Saturn und Utopia, Deutschlands führende Internetplattform für nachhaltigen Konsum, eine Initiative zur Empfehlung besonders energiesparender Elektronikprodukte ins Leben gerufen. Ziel ist es, den Anteil an ressourcenschonenden Geräten in den Haushalten durch gezielte Verbraucherinformation zu fördern. Produkte aus unterschiedlichen Kategorien, die es auf die aktuellen EcoTopTen-Produktlisten des Öko-Instituts e.V. geschafft haben, werden seitdem auf www.saturn.de mit dem Label „Utopia empfiehlt“ ausgezeichnet.

Zeitgleich startete das Projekt auf Utopia.de. Hier findet man Bestenlisten der einzelnen Kategorien, basierend auf http://www.ecotopten.de, Ratgeber zu den einzelnen Produktkategorien, praktische Tipps um die besten energieeffizientesten TV-Geräte und man kann in Dialog mit Saturn treten. Pünktlich zur Fußball-Europameisterschaft 2012 finden Verbraucher bei Saturn ab sofort – zusätzlich zu den bisherigen Produktkategorien – die sparsamsten TV-Geräte.

Die wissenschaftliche Basis der Produktempfehlungen bildete http://www.ecotopten.de des Öko-Instituts e.V.. Die Wissenschaftlerinnen und Wissenschaftler veröffentlichen dort regelmäßig eine Auswahl der effizientesten Geräte mit gutem Preis-Leistungsverhältnis – alles Spitzenprodukte aus Umweltsicht. Für die Zukunft planen Saturn, Utopia und das Öko-Institut die Empfehlungen um noch weitere Produktkategorien zu ergänzen und die Aktion auf die Saturn-Märkte vor Ort auszudehnen.

Immer mehr Verbraucherinnen und Verbraucher legen beim Einkauf ihrer Geräte Wert auf Energieeffizienz und Umweltfreundlichkeit. Vor allem bei Wasch- und Spülmaschinen, Kühl-/Gefrierkombis sowie Kaffeemaschinen zählt die Energieeffizienz schon seit längerem zu den wichtigsten Kaufkriterien. Aber auch zunehmend mehr Kunden interessieren sich beim Kauf von TV-Geräten für deren Stromverbrauch. Durch die Initiative von Saturn und Utopia haben es die Verbraucher jetzt noch leichter ein passendes Gerät zu finden.

Zusätzlich zu den Auszeichnungen in den Kategorien Wasch- und Spülmaschinen, Kühl-/Gefrierkombis sowie Kaffeemaschinen kennzeichnen Saturn und Utopia auf www.saturn.de daher ab sofort auch die energieeffizientesten Fernsehgeräte mit dem „Utopia empfiehlt“-Logo. „Wir sind sehr froh, dass wir pünktlich zur Fußball-Europameisterschaft unsere Kooperation um den Bereich TV erweitern konnten“, so Klaus Guido Jungwirth, Geschäftsführer Saturn Management GmbH. „Erfahrungsgemäß ist das Interesse an neuen TV-Geräten gerade bei sportlichen Großereignissen immer sehr groß. Wir freuen uns, wenn sich noch mehr Kunden so für ein energieeffizientes Gerät entscheiden.“

Die der Auszeichnung zugrundeliegenden EcoTopTen-Produktlisten weisen regelmäßig Produkte mit hoher Qualität, akzeptablen Preisen und guter Umweltperformance aus. Die Auswahl wird in Zukunft kontinuierlich um Artikel aus weiteren Kategorien erweitert werden. Zudem wird Saturn die Aktion auf die 147 Saturn-Märkte in Deutschland ausweiten und die entsprechenden Produkte auch in den Märkten mit dem „Utopia-empfiehlt“-Siegel kennzeichnen.

Ansprechpartnerin EcoTopTen-Kampagne am Öko-Institut:
Dr. Dietlinde Quack
Leiterin der Gruppe Konsum im Institutsbereich Produkte & Stoffströme
Öko-Institut e.V., Büro Freiburg
Tel.: +49 761 45295-248
E-Mail: d.quack@oeko.de

Das Öko-Institut ist eines der europaweit führenden, unabhängigen Forschungs- und Beratungsinstitute für eine nachhaltige Zukunft. Seit der Gründung im Jahr 1977 erarbeitet das Institut Grundlagen und Strategien, wie die Vision einer nachhaltigen Entwicklung global, national und lokal umgesetzt werden kann. Das Institut ist an den Standorten Freiburg, Darmstadt und Berlin vertreten.

EcoTopTen ist eine groß angelegte Kampagne für nachhaltigen Konsum und Produktinnovationen im Massenmarkt, die das Öko-Institut initiiert hat. In regelmäßigen Abständen empfehlen die Wissenschaftlerinnen und Wissenschaftler eine Auswahl an hochwertigen, so genannten EcoTopTen-Produkten, die ein angemessenes Preis-Leistungsverhältnis haben und aus Umweltsicht allesamt Spitzenprodukte sind. Weitere Informationen finden sich auf der Website www.ecotopten.de. Seit Januar 2012 wird EcoTopTen im Rahmen der Nationalen Klimaschutzinitiative vom Bundesministerium für Umwelt Naturschutz und Reaktorsicherheit sowie im Rahmen des Projekts EuroTopTen Max durch das Intelligent Energie Europe Programm der EU gefördert.

Neues vom Öko-Institut auf Twitter: http://twitter.com/oekoinstitut

Interesse an eco@work, dem kostenlosen E-Paper des Öko-Instituts?
Abo unter http://www.oeko.de/newsletter_ein.php

Über Utopia AG
Die Utopia AG betreibt das führende Webportal für strategischen Konsum und nachhaltigen Lebensstil im deutschsprachigen Raum (www.utopia.de). Utopia gibt Verbrauchern Information und Orientierung und hilft ihnen, ihr Leben nachhaltiger zu gestalten. Darüber hinaus fördert Utopia den Dialogprozess zwischen Verbrauchern, Unternehmen und Politik über gesellschaftliche Wege zu mehr Nachhaltigkeit. Mit mehr als 70.000 registrierten Mitgliedern ist Utopia die mit Abstand größte Community in diesem Bereich. Als zweite Säule neben der Utopia AG steht die Utopia Stiftung, die den gesellschaftlichen Wandel in Richtung Nachhaltigkeit beschleunigen und die Macher des gesellschaftlichen Wandels unterstützen will. Die Utopia Stiftung wird von einem Kuratorium getragen, das sich aus Vordenkern der Wissenschaft, Öffentlichkeit und Unternehmen zusammensetzt. Vier Jahre nach dem Start ist Utopia die erste Anlaufstelle im Web und ein gefragter Partner bei Unternehmen, NGOs und Politik für alle Fragen zum Thema nachhaltiger Konsum.

Quelle: Informationsdienst Wissenschaft

(zurück)


Wo kein Motiv ist, da ist auch kein Plan: Ausgezeichnete RUB-Dissertation über „Aufsteiger“

Dr. Josef König
Pressestelle
Ruhr-Universität Bochum

Vom Tellerwäscher zum Millionär oder moderner ausgedrückt „vom Ghetto-Kid zum Gangsta-Rapper oder Fußballprofi“ – das sind medial häufig dargestellte Erfolgsgeschichten. Seltener geht es um den sozialen Aufstieg durch Bildung. Der Bochumer Sozialwissenschaftler Dr. Aladin El-Mafaalani hat genau diese Bildungsaufstiege analysiert. Er interviewte beruflich erfolgreiche deutsche und türkische Akademikerinnen und Akademiker und fand heraus: Ihr Aufstieg war nicht geplant, sondern erfolgte Schritt für Schritt.

Wo kein Motiv ist, da ist auch kein Plan
Bildungsaufstieg erfolgt „Schritt für Schritt“
Ausgezeichnete RUB-Dissertation über „Aufsteiger“

Vom Tellerwäscher zum Millionär oder moderner ausgedrückt „vom Ghetto-Kid zum Gangsta-Rapper oder Fußballprofi“ – das sind die medial häufig dargestellten Erfolgsgeschichten. Seltener wird der soziale Aufstieg durch Bildung thematisiert. Der Bochumer Sozialwissenschaftler Dr. Aladin El-Mafaalani hat genau diese Bildungsaufstiege analysiert. Er interviewte beruflich erfolgreiche deutsche und türkische Akademikerinnen und Akademiker und fand heraus: Ihr Aufstieg war nicht geplant, sondern erfolgte Schritt für Schritt. Auf dem Weg die soziale Treppe hinauf zählte jeweils nur die einzelne, die nächste Stufe, nicht aber die Treppe als Ganzes. Dabei spielte auch der Zufall eine nicht zu unterschätzende Rolle.

Wie durchlässig die Barrieren sind

Für seine herausragende Arbeit erhielt El-Mafaalani vor kurzem den Dissertationspreis Kulturwissenschaften 2012, verliehen vom Kulturwissenschaftlichen Institut Essen (KWI). Der Forscher führte insgesamt 19 mehrstündige, narrativ-biografische Interviews. Die Interviewten, deren Eltern bestenfalls einfache Schulabschlüsse besitzen und aus der Arbeiter- bzw. Unterschicht stammen, sind deutscher und türkischer Herkunft und machten Karriere in Wirtschaft, Wissenschaft, Politik, Kunst und Kultur. El-Mafaalani beleuchtet insbesondere den Prozessverlauf des Bildungs- und Berufsaufstiegs und vollzieht damit einen Perspektivwechsel in der Ungleichheitsforschung. Nicht die sozialen Barrieren stehen im Blickpunkt, sondern die Bedingungen ihrer Durchlässigkeit beziehungsweise die Möglichkeiten, sie zu überwinden.

Geld spielt nicht die entscheidende Rolle

Was sich ergibt, ist ein „typisches Ablaufmuster“, so El-Mafaalani. Ob ausländischer Herkunft oder nicht, die Bildungsaufsteiger distanzieren sich sowohl innerlich als auch äußerlich von ihrem ursprünglichen Milieu. Die innere Distanzierung vollzieht sich durch Habitusveränderung bzw. Habitustransformation, die äußere durch sozialen bzw. institutionellen Aufstieg über Bildung. Habitusveränderung bedeutet, dass die Aufsteiger mehr oder weniger offen ihre eigene Herkunft und damit auch ihre Vergangenheit ablehnen. Insbesondere die Ablehnung ästhetischer, kognitiver, körperlicher und moralischer Aspekte des Herkunftsmilieus zeigt, dass Bildung immer auch mit einer Veränderung der Persönlichkeit einhergeht. Genau darin sieht El-Mafaalani den Unterschied zu weniger erfolgreichen Kindern und Jugendlichen aus der Unterschicht. „Reich und berühmt werden wollen im Prinzip viele benachteiligte Menschen, was aufgrund der finanziellen Knappheit auch nicht überrascht. Aber für diejenigen, die tatsächlich aufsteigen, spielt weniger das Geld die entscheidende Rolle: Sie wollen sich selbst verändern, sich weiterentwickeln, ihren Handlungsspielraum erweitern.“

Fragliche Vorbilder: Bushido, Bohlen, Özil

Wer an sich selbst arbeiten wolle, der sei auch zugänglich für Bildung, wohingegen Bildung und Geld weniger gut zusammenpassten. „Bushido, Dieter Bohlen oder Mesut Özil bieten für monetäre und andere extrinsische Motive viel attraktivere Angebote, denn diese Vorbilder suggerieren, dass man so bleiben kann, wie man ist, und dennoch reich und angesehen werden kann“, so El-Mafaalani. In der detaillierten Analyse der Aufstiegsbiografien zeigt sich: „Bei keinem der Aufsteiger lag ein solches Aufstiegsmotiv vor. Und wo kein Motiv ist, da kann auch kein Plan sein.“

Herkunftseffekt an den Schwellen

El-Mafaalani arbeitet besonders gründlich heraus, dass langfristige Herausforderungen den gesamten Aufstiegsprozess begleiten – trotz der mitentscheidenden Rolle des Zufalls. Soziale Filter wirken über alle biografischen Passagen: Grundschule, Übergang zur Weiterführenden Schule, Erlangung der Hochschulzugangsberechtigung, Aufnahme und Abschluss eines Studiums, berufliche Etablierung. „An jeder dieser Schwellen ist ein Herkunftseffekt messbar“, so der Forscher. Das gilt für Deutsche wie Türken gleichermaßen, dennoch gibt es Unterschiede, denn die Erwartungshaltungen der Eltern sind anders. „Während die einheimischen Eltern geringe Loyalitätserwartungen und geringe Bildungsaspirationen aufweisen, sind beide Erwartungshaltungen bei den türkeistämmigen Eltern stark ausgeprägt. Daraus ergeben sich durchaus unterschiedliche Problemstellungen für den Bildungsaufstieg.“ Hingegen lassen sich aus den biografischen Interviews keinerlei Unterschiede zwischen männlichen und weiblichen Aufsteigern ableiten.

Titelaufnahme

El-Mafaalani, Aladin: BildungsaufsteigerInnen aus benachteiligten Milieus. Habitustransformation und soziale Mobilität bei Einheimischen und Türkeistämmigen. Wiesbaden 2012: Springer VS. 345 S., 39,95 Euro, ISBN 978-3-531-19319-9

Weitere Informationen

Dr. rer. soc. Aladin El-Mafaalani, Fakultät für Sozialwissenschaft der RUB, Tel. 0234/32-28706, E-Mail: Aladin.El-Mafaalani@ruhr-uni-bochum.de
Homepage: http://homepage.ruhr-uni-bochum.de/Aladin.El-Mafaalani/

Quelle: Informationsdienst Wissenschaft

(zurück)


DGIM: Zartbitter schützt vor Herzinfarkt und Schlaganfall

Anna Julia Voormann
Pressestelle
Deutsche Gesellschaft für Innere Medizin e. V.

Dunkle Schokolade auf Krankenschein?
Zartbitter schützt vor Herzinfarkt und Schlaganfall

Wiesbaden – Menschen mit erhöhtem Blutdruck und erhöhten Cholesterinwerten können durch den täglichen Verzehr von Zartbitterschokolade Herz-Kreislauf-Erkrankungen vorbeugen. Dies legen Berechnungen im Rahmen einer aktuellen Studie australischer Forscher nahe. Die Deutsche Gesellschaft für Innere Medizin (DGIM) rät angesichts dieser Ergebnisse Genussmenschen mit Bluthochdruck und hohen Blutfettwerten zu mehr Bewegung und zur gesünderen, dunklen Schokolade.
Herz-Kreislauf-Erkrankungen sind weltweit die Todesursache Nummer eins. Jährlich sterben daran etwa 17,5 Millionen Menschen, das sind nahezu ein Drittel aller Todesfälle. Besonders gefährdet sind Menschen, die unter dem sogenannten Metabolischen Syndrom leiden: Blutdruck, Blutfette und Gewicht sind zu hoch, der Zuckerstoffwechsel gestört. Australische Forscher haben jetzt anhand der Daten von 2013 Patienten mit Metabolischem Syndrom am Computer modelliert, was der Verzehr einer Tafel dunkler Schokolade täglich bewirken könnte: Bei 10 000 Personen ließen sich in einem Zeitraum von zehn Jahren 85 Schlaganfälle oder Herzinfarkte verhindern, von denen 15 tödlich geendet hätten.

„Der Kakao in dunkler Schokolade ist besonders reich an Flavonoiden, die für ihre Schutzwirkung auf Herz und Kreislauf bekannt sind“, erläutert DGIM-Generalsekretär Professor Dr. med. Ulrich R. Fölsch aus Kiel. Forscher erklären sich das so: Flavonoide wirken im Körper als Antioxidans, indem sie freie Sauerstoffradikale auffangen, die als zellschädigend gelten.

In den letzten Jahren haben mehrere Studien gezeigt, dass der Verzehr von dunkler Schokolade einen erhöhten Blutdruck senken kann. Mehr noch: Trotz des hohen Fettgehalts wirkt dunkle Schokolade auch günstig auf den Cholesterinwert. Die Effekte sind zwar gering, so Professor Fölsch: „Der Blutdruck sinkt um wenige Millimeter Hg und die Cholesterinwerte werden durch Schokolade allein nicht normalisiert“. Doch auf die Dauer könne der Verzehr einen Beitrag zur Vermeidung von Herz-Kreislauf-Erkrankungen leisten. Am stärksten profitieren Menschen mit einem Metabolischen Syndrom. „Sie sind zwar noch nicht spürbar krank, gehen aber auf Dauer ein erhöhtes Risiko ein, an Diabetes zu erkranken, einen Herzinfarkt oder Schlaganfall zu erleiden“, sagt der Internist.

Dunkle Schokolade könnte einen Beitrag dazu leisten, diesen Erkrankungen vorzubeugen. Die Forscher haben deshalb auch berechnet, wie viel die Krankenkassen dadurch einsparen würden: Pro Person und Jahr könnten sie umgerechnet 31 Euro für Werbung, Erziehung oder die Subventionierung von dunkler Schokolade ausgeben. Trotzdem sparten sie Geld, weil die Folgekosten von Herz-Kreislauf-Erkrankungen sänken.

„Dies mag nicht nach einem allzu ernst zu nehmendem Ansatz klingen“, sagt Professor Fölsch, „doch es wäre durchaus wünschenswert, wenn die tägliche Schokolade Menschen mit Metabolischem Syndrom motivieren würde, insgesamt weniger Kalorien zu sich zu nehmen und sich mehr zu bewegen.“ Davon abgesehen warnt Professor Fölsch vor Missverständnissen: Die von den meisten Menschen favorisierte Milchschokolade oder weiße Schokolade enthalten kaum oder gar keinen Kakao. Voraussetzung für eine schützende Wirkung ist ein Anteil von mindestens 60 Prozent. Der Kakaogehalt steht auf der Verpackung.

Literatur:
Zomer E, Owen A, Magliano DJ, Liew D, Reid CM. The effectiveness and cost effectiveness of dark chocolate consumption (…)
BMJ 2012; 344: e3657;http://www.bmj.com/content/344/bmj.e3657?etoc=

Quelle: Informationsdienst Wissenschaft

(zurück)


Machtwechsel in der Savanne – Bäume gewinnen die Oberhand über Gräser

Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Senckenberg Forschungsinstitut und Naturmuseen

Weite Teile der afrikanischen Savanne könnten bis 2100 zu Wäldern werden. Dies geht aus einer Studie des Biodiversität und Klima Forschungszentrums und der Goethe Universität Frankfurt hervor, die heute in „Nature“ veröffentlicht wurde. Die Ergebnisse deuten darauf hin, dass die Düngung durch den steigenden Kohlendioxid-Gehalt in der Atmosphäre in ganz Afrika zu einer dichteren Bewaldung führt, wenn ein bestimmter CO2-Wert überschritten wird. Da sich diese Schwelle jedoch von Gegend zu Gegend unterscheidet, verläuft der Wandel auf regionaler Ebene nicht synchron. Hierdurch sinkt das Risiko einer Erschütterung des Erdsystems durch einen abrupten Vegetationswandel.
In der Savanne ringen Gräser und Gehölze permanent um Dominanz. Deshalb hat dieser Landschaftstyp regional ein recht unterschiedliches Gesicht: tropische Graslandschaften gehören ebenso dazu wie offene Grasebenen mit vereinzeltem Gehölzbestand oder unterschiedlich dichte Wälder. Gräser und Bäume reagieren verschieden auf Schwankungen von Temperatur, CO2-Gehalt in der Atmosphäre oder Auftreten von Feuern. Deshalb wird davon ausgegangen, dass diese Ökosysteme sehr sensibel auf Veränderungen von Klima und Atmosphäre reagieren. In der Vergangenheit vollzogen sich Verschiebungen im „Machtverhältnis“ der Savannenpflanzen langsam; der schnelle Anstieg der CO2-Konzentration in der Atmosphäre hat die potentielle Geschwindigkeit solcher Veränderungen inzwischen beschleunigt.

Experimentelle Studien ergaben zwar geringe Effekte von erhöhtem CO2-Gehalt in der Atmosphäre auf das Wachstum von Bäumen. „Die Studien wurden aber meistens auf der Nordhalbkugel und an kommerziell wichtigen Arten durchgeführt“, stellt Steven Higgins klar, Leitautor der Studie, Biodiversität und Klima Forschungszentrum und Professor an der Frankfurter Goethe-Universität. „Bisher hat nur eine einzige Studie den Einfluss von erhöhten CO2-Konzentrationen auf Savannenbäume untersucht, mit dem Ergebnis, dass der vorindustrielle CO2-Gehalt deutlich unter dem Optimum dieser Baumarten liegt. Mit dem aktuellen Anstieg geht das Wachstum der Savannenbäume daher erst richtig los.“

Der hieraus resultierende Vegetationswandel, den Higgins und Simon Scheiter in ihrer Studie modellieren, ist ein Beispiel dafür, was Theoretiker einen „regime shift“ nennen. Solche Umbrüche können durch kleine Veränderungen an den Stellschrauben des Gesamtsystems auslöst werden. Damit wird eine Kette von Ereignissen in Gang gesetzt, die einander verstärken, so dass sich das ganze System zunehmend schneller verändert. Die Studie ergab, dass Savannen bereits Anzeichen eines solchen Umbruchs zeigen. „Die Möglichkeit eines „regime shifts“ in einem so weit verbreiteten Ökosystem wie der Savanne rückt diese nun in den Fokus der Wissenschaftler“, kommentiert Higgins.

Voraussichtlich wird dieser Umbruch in Gegenden, in denen die Temperatur klimawandelbedingt schneller ansteigt (z.B. im Zentrum Südafrikas), später stattfinden, da der steile Temperaturstieg Gräser begünstigt. Diese können dann trotz steigender Kohlendioxid-Konzentration in der Atmosphäre länger erfolgreich mit Bäumen konkurrieren. Trotz möglicher Vegetationsveränderungen auf lokaler Ebene, wird der Vegetationswandel über die Gesamtregion betrachtet allmählich stattfinden. Solche graduellen Veränderungen in regionalen Vegetationsmustern verringern das Risiko einer Erschütterung des Erdsystems, den der Wandel innehat. „Das mag zunächst beruhigend klingen, aber wir müssen uns auch bewusst sein, dass die Veränderung aus erdgeschichtlicher Sicht gesehen immer noch enorm schnell abläuft“, so Higgins.

Aus der Studie lassen sich auch praktische Erkenntnisse für Klima- und Naturschutz ziehen. So identifizieren die Autoren eine breite Zone im nördlichen Zentralafrika, in der sich bei gleichzeitiger Feuerunterdrückung mehr Savannen zu Wäldern entwickeln. „Wenn man also für den Klimaschutz Projekte zur CO2-Speicherung plant, so sollte man das dort tun. Der Haken daran ist, dass sich diese optimalen Zonen noch verschieben werden, wenn sich der Kohlendioxidgehalt in der Atmosphäre weiter ändert“, erklärt Higgins. Sollten Graslandschaften und offene Savannen durch Baumsavannen oder Wälder ersetzt werden, geht zudem eine einzigartige Flora und Fauna verloren, die in diesem Lebensraum heimisch ist. Der Anstieg des Kohlendioxidgehalts in der Atmosphäre ist daher ein weiterer Stressfaktor für das bereits durch Überweidung, Plantagenwirtschaft und Ackerbau stark beanspruchte Ökosystem.

Für weitere Informationen kontaktieren Sie bitte:

Dr. Simon Scheiter
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F) & Goethe-Universität Frankfurt
Tel. 069 798 40167
Email: scheiter@em.uni-frankfurt.de

oder

Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F), Pressereferentin
Tel. 069 7542 1838
Email: sabine.wendler@senckenberg.de

Studie:
Steven I. Higgins and Simon Scheiter (2012). Atmospheric CO2 forces abrupt vegetation shifts locally, but not global. Nature Climate Change, DOI: 10.1038/nature11238. Online unter http://www.nature.com/nature/journal/vaop/ncurrent/full/nature11238.html
_____________________________________
LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt am Main
Mit dem Ziel, anhand eines breit angelegten Methodenspektrums die komplexen Wechselwirkungen von Biodiversität und Klima zu entschlüsseln, wird das Biodiversität und Klima Forschungszentrum (BiK‐F) seit 2008 im Rahmen der hessischen Landes-Offensive zur Entwicklung Wissenschaftlich ökonomischer Exzellenz (LOEWE) gefördert. Die Senckenberg Gesellschaft für Naturforschung und die Goethe Universität Frankfurt sowie weitere direkt eingebundene Partner kooperieren eng mit regionalen, nationalen und internationalen Institutionen aus Wissenschaft, Ressourcen‐ und Umweltmanagement, um Projektionen für die Zukunft zu entwickeln und wissenschaftlich gesicherte Empfehlungen für ein nachhaltiges Handeln zu geben. Mehr unter http://www.bik-f.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Wohin treiben Algen und Öl in der deutschen Nordsee?

Dr. Torsten Fischer
Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Ein neues Beobachtungs- und Vorhersagesystem für Meeresströmungen kombiniert Radarmessungen und Computermodelle und erzeugt stündlich aktualisierte, sehr realitätsnahe und detaillierte Strömungskarten für die Deutsche Bucht. Dieses Analysesystem des Küstenbeobachtungssystems COSYNA wurde als Prototyp am Helmholtz-Zentrum Geesthacht entwickelt. Die Strömungskarten und -vorhersagen können im COSYNA Internetportal heruntergeladen werden.
Für viele ökologische Fragestellungen und menschliche Nutzungen in der Deutschen Bucht sind die Meeresströmungen ein bestimmender Faktor. Beispielsweise im Schiffsverkehr, für die Driftvorhersagen von Ölverschmutzungen oder Rettungsmaßnahmen nach Schiffsunfällen: In diesen Bereichen sind aktuelle und realitätsnahe Strömungskarten unerlässlich.

Im Rahmen des Küstenbeobachtungssystems COSYNA (Coastal Observation System for Northern and Arctic Seas) werden solche Strömungskarten jetzt am Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht erzeugt. Das für diese Zwecke entwickelte Analysesystem ist ein Prototyp und kann von Wissenschaftlern, Behörden und anderen Interessengruppen genutzt werden. Zum Beispiel kann es in behördliche Überwachungssysteme zum Zustand der deutschen Nordsee integriert werden.

Mit Radar Strömungen statt Schiffe erkennen
Die Grundlage für dieses COSYNA-Produkt sind Radardaten von drei Hochfrequenz-Radarstationen auf Sylt, in Büsum und auf Wangerooge.
Hochfrequenz-Radargeräte können bis zu 200 km Entfernung messen, sind 24 Stunden am Tag und bei jedem Wetter im Einsatz. Die Radardaten werden über das Mobilfunknetz in „Echtzeit“ an das Helmholtz-Zentrum Geesthacht übermittelt.
„Wir setzen dieses von der Universität Hamburg entwickelte Radarverfahren nicht dazu ein, um die Bewegungen von Schiffen zu bestimmen, sondern berechnen daraus mit einem besonderen Verfahren die Meeresströmungen“, sagt Dr. Friedwart Ziemer, Hydrologe am Helmholtz-Zentrum Geesthacht. „Die so gewonnenen Informationen über die Meeresströmungen speisen wir als Strömungsdaten stündlich in die Computermodelle ein.“
Zur Qualitätsüberprüfung der Radarmessungen werden weitere Strömungsmessungen per Schiff durchgeführt.

Modell- und Messdaten werden kombiniert
Der Vorteil bei der Kombination von Modell- und Messdaten: Unsicherheiten aus den Computermodellen werden durch die zusätzliche Einspeisung von Radarmessungen ins Modell verringert.

„Die von unserem Computermodell erzeugten Strömungskarten werden durch die Messdaten immer wieder „näher an die Realität“ gebracht“, sagt Prof. Dr. Emil Stanev, Ozeanograph am Helmholtz-Zentrum Geesthacht. „Wir sind mit diesem Verfahren in der Lage, praktisch lückenlos sehr realitätsnahe Strömungsvorhersagen über die nächsten sechs bis zwölf Stunden zu machen.“

Ein weiterer Vorteil dieses Verfahrens: Durch die Kombination von Modell- und Messdaten kann die Strömungskarte über das Radarmessfeld hinaus in die Deutsche Bucht erweitert werden. Das Modell hat mit den Messdaten genug Informationen um Daten außerhalb des Radarmessfeldes zu simulieren.

Die stündlich aktualisierten Strömungskarten werden im COSYNA Internetportal öffentlich verfügbar gemacht und können von dort heruntergeladen werden.

Als nächste COSYNA-Produkte werden Karten der Wassertemperatur und des Salzgehalts an der Meeresoberfläche für die Deutsche Bucht entwickelt. Weitere COSYNA-Produkte, zum Beispiel zu Wellen und Schwebstoffen, folgen.

Das Küstenbeobachtungssystem COSYNA
COSYNA ist ein vom Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht entwickeltes Analysesystem zur Überwachung des küstennahen Bereichs der Nordsee. Neben der Radartechnik nutzen die Geesthachter Wissenschaftler unter anderem Messpfähle, Wellenmessbojen, FerryBoxen, Erdbeobachtungssatelliten und autonom arbeitende Unterwasserfahrzeuge.

Die so gewonnenen Beobachtungen werden in Simulationsmodellen verarbeitet, mit deren Hilfe der physikalische, ökologische und biogeochemische Zustand der Nordsee in hoher zeitlicher und räumlicher Auflösung abgeleitet wird. Mit den entwickelten Werkzeugen können beispielsweise Behörden Entscheidungen über Umweltmaßnahmen auf einer verbesserten Datengrundlage treffen.

COSYNA wird koordiniert und finanziert durch das Helmholtz-Zentrum Geesthacht. Die Untersuchungen werden gemeinsam mit Partnern der Helmholtz-Gemeinschaft Deutscher Forschungszentren, Universitäten, Landes- und Bundesbehörden durchgeführt.

Weitere Informationen:
http://www.hzg.de/public_relations/press_releases/033004/index_0033004.html.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Studienaufruf – Musiktherapie bei akutem Tinnitus

Natascha Schettler-Brox
Öffentlichkeitsarbeit
Deutsches Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e.V.

Zur Überprüfung einer neuro-musiktherapeutischen Behandlung sucht das Deutsche Zentrum für Musiktherapieforschung noch Patienten mit akutem Tinnitus.
Seit Januar 2012 wird am Deutschen Zentrum für Musiktherapieforschung in Heidelberg eine Studie durchgeführt, in der eine neuro-musiktherapeutische Behandlung gegen akuten Tinnitus klinisch überprüft wird. Diese Therapie findet in Form einer fünftägigen Kompakttherapiewoche (Mo bis Fr) statt und richtet sich gezielt an diejenigen Patienten im Akutstadium ihres Tinnitus, denen die medizinische Erstversorgung nicht helfen konnte. Die Behandlung ist eingebettet in eine umfassende Diagnostik, die unter anderem auch zwei bildgebende Untersuchungen im Kernspintomographen (MRT) enthält.
Die ersten 15 Patienten haben die Musiktherapie erfolgreich abgeschlossen. Die subjektive Tinnitusbelastung hat sich bis zu 82% verringert.
Zur Fortsetzung der Studie werden weiterhin Patienten mit akutem Tinnitus gesucht. Teilnehmen können Erwachsene ab 18 Jahren, deren Tinnitus seit maximal acht Wochen andauert und die nach der medizinischen Erstbehandlung immer noch stark unter ihrem Tinnitus leiden.

Weitere Informationen für betroffene Patienten und HNO-Ärzte unter 06221 – 79 63 961 oder per E-mail:
miriam.grapp@dzm-heidelberg.de.

Die Tinnitusambulanz bietet laufend Kompakttherapien für Patienten mit chronischem Tinnitus an. Weitere Informationen für Patienten sind telefonisch erhältlich unter 06221 – 79 63 101 oder per E-Mail unter tinnitusambulanz@dzm-heidelberg.de.

Das Deutsche Zentrum für Musiktherapieforschung (Viktor Dulger Institut) DZM e. V. wurde 1995 in Heidelberg gegründet. Heute ist das DZM das größte musiktherapeutische Forschungsinstitut in Europa und vereint Forschung, Praxis und Lehre unter einem Dach. Das DZM ist als gemeinnützig anerkannt und finanziert sich zum überwiegenden Teil aus Spenden und Forschungsdrittmittel. Am DZM entwickeln und erforschen Musiktherapeuten, Mediziner, Musikwissenschaftler und Psychologen in interdisziplinären Projekten musiktherapeutische und musikmedizinische Konzepte zur Verbesserung der Lebenssituation erkrankter Menschen.
Außer dem Forschungsinstitut gehört eine Tinnitusambulanz zum DZM.

Weitere Informationen:
Deutsches Zentrum für Musiktherapieforschung
(Viktor Dulger Institut) DZM e.V.
Ansprechpartner: Natascha Schettler-Brox
Maaßstraße 32/1
69123 Heidelberg
Telefon: +49 (6221) 83 38 60
Telefax: +49 (6221) 83 38 74
E-Mail: dzm@dzm-heidelberg.de
Internet: www.dzm-heidelberg.de

Weitere Informationen:
http://www.dzm-heidelberg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Zukunftsbranche Kunststoff bietet beste Ausbildungschancen

Andreas Pieper
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Berufsbildung (BIBB)

Verfahrensmechaniker/-innen für Kunststoff- und Kautschuktechnik: Ausbildung modernisiert

Jeder nutzt die Produkte – aber wer stellt sie eigentlich her? Ob es sich um Teile für die Medizin- und Kommunikationstechnik, für Computer und Auto oder die Butterbrotdose handelt – technische Innovationen und Alltagsgegenstände sind ohne neuartige Kunststoffe und moderne Verarbeitungstechniken nicht denkbar. In der Kunststoffindustrie arbeiten in Deutschland über 400.000 Menschen, und die Branche wächst. Bei der Kunststoff- und Kautschukverarbeitung stehen hoch technisierte Prozesse neben handwerklichen Verfahren, die Unternehmen sind teilweise stark spezialisiert.
Sie brauchen Verfahrensmechaniker/-innen für Kunststoff- und Kautschuktechnik, die prozessorientiert und umfassend ausgebildet sind, gleichzeitig aber auch den speziellen Anforderungen der Betriebe gerecht werden. Um dies zu gewährleisten, hat das Bundesinstitut für Berufsbildung (BIBB) im Auftrag der Bundesregierung gemeinsam mit den Sachverständigen der Sozialpartner die Ausbildungsordnung der Verfahrensmechaniker/-innen für Kunststoff- und Kautschuktechnik neu geregelt. Die modernisierte Ausbildungsordnung tritt zum 1. August in Kraft.

Der Ausbildungsrahmenplan für die dreijährige Ausbildung wurde neu gestaltet. Wesentliche Änderungen sind unter anderem die Stärkung der Ausbildung im Bereich Materialkenntnis und die größere Praxisnähe durch ein Vorziehen der Fertigungsplanung und -steuerung in den ersten Ausbildungsabschnitt. Betriebe und Auszubildende haben darüber hinaus künftig die Wahl zwischen sieben Fachrichtungen: Formteile, Halbzeuge, Bauteile, Mehrschichtkautschukteile, Kunststofffenster, Faserverbundtechnologie sowie Compound- und Masterbatchherstellung. Dabei ist „Compound“ der Fachbegriff für Verbundstoff und „Masterbatch“ ein Kunststoffzusatz in Granulatform. Bei der jetzt ebenfalls neu eingeführten gestreckten Abschlussprüfung findet ein erster Prüfungsteil bereits vor dem Ende des zweiten Ausbildungsjahres statt. Die Ergebnisse fließen zu 25 % in das Endergebnis ein.

Verfahrensmechaniker/-innen für Kunststoff- und Kautschuktechnik werden vor allem in Industriebetrieben der Kunststoff und Kautschuk verarbeitenden Industrie ausgebildet. 2011 wurden bundesweit 2.713 neue Ausbildungsverträge in diesem Beruf abgeschlossen, 182 davon mit Frauen. Regionale Spitzenreiter sind Bayern, Nordrhein-Westfalen und Baden-Württemberg. Etwas mehr als die Hälfte aller bestehenden Ausbildungsverhältnisse entfallen auf diese Bundesländer. Die tarifliche Ausbildungsvergütung steigt in den drei Ausbildungsjahren von 734 über 780 auf 851 Euro.

Die Ausbildung erschließt weitere attraktive Karriere- und Aufstiegsmöglichkeiten wie die Fortbildung zum/zur „Industriemeister/-in – Fachrichtung Kunststoff- und Kautschuktechnik“ und zum/zur staatlich geprüften „Techniker/-in – Fachrichtung Kunststoff- und Kautschuktechnik“.

Weitere Informationen im Internetangebot des BIBB unter http://www.bibb.de/neue-berufe-2012

Die Broschüre „Zukunftsbranche Kunststoff – Azubis gesucht!“ der Programmstelle JOBSTARTER beim BIBB kann unter http://www.jobstarter.de/de/2450.php kostenlos heruntergeladen werden.

Quelle: Informationsdienst Wissenschaft

(zurück)


Neue Erkenntnis über tropfende Dichtungen

Dipl.-Biologin Annette Stettien
Unternehmenskommunikation
Forschungszentrum Jülich

Simulationen auf Jülicher Superrechnern zeigen: Gummiringe und andere Dichtungen schließen theoretisch eher dicht ab, als bisher gedacht. Sobald ihre Oberfläche zu mehr als 42 Prozent von dem anliegenden Anschlussstück kontaktiert wird, tritt keine Flüssigkeit mehr aus. Die Ergebnisse wurden in der aktuellen Ausgabe der Physical Review Letters veröffentlicht (10.1103/Physics.5.66).
Dichtungen erfüllen eine wichtige Funktion in allen möglichen Geräten, vom Raumschiff bis zum Wasserhahn. Die geläufigste Form besteht aus einem Gummiring und zwei festen Anschlussteilen. Wie gut Flüssigkeiten zurückgehalten werden, hängt in erster Linie davon ab, wie eng die Dichtung anliegt. Da alle Oberflächen auf mikroskopischer Ebene uneben und rau sind, liegen Dichtungsring und Anschlussstück nie völlig lückenlos aufeinander. In die kleinen Poren und Kanäle an der Kontaktstelle dringt Flüssigkeit ein, die über nach draußen durchgehende Wege austritt. Verhindern lässt sich das, indem man die Dichtung fester anzieht. Das elastische Gummi wird dann in die mikroskopischen Unebenheiten gepresst, die Kontaktfläche vergrößert sich und verschließt mehr Lücken, sodass weniger Flüssigkeit entweicht.

Mit ihrer Arbeit tragen Wissenschaftler vom Forschungszentrum Jülich und der Universität des Saarlandes dazu bei, besser zu verstehen, was passiert, wenn eine Dichtung leckt. Theoretische Modelle konnten die Zusammenhänge bisher nur unzureichend beschreiben. Ältere Modelle vernachlässigten die Elastizität des Dichtungsmaterials, anders als die aktuelle Theorie von Bo N. J. Persson, einem Mitautor der Studie aus dem Jülicher Peter Grünberg Institut. Diese enthielt allerdings einige nicht bestätigte Annahmen: „Die Vorhersagen waren besser, als sie sein sollten“, berichtet Prof. Martin Müser, Leiter des Lehrstuhls für Materialsimulation der Universität des Saarlandes und der Forschungsgruppe „Computational Materials Physics“ im John von Neumann-Institut für Computing am Forschungszentrum Jülich. „Mit den Simulationen wollten wir die Vorgänge auf mikroskopischer Ebene besser verstehen, als es experimentell möglich ist.“

Überraschenderweise müssen sich demnach nur 42 Prozent der Oberflächen von Dichtung und Anschlussstück direkt berühren, um die Verbindung undurchlässig abzuschließen – und nicht 50 Prozent, wie von bisherigen Theorien vorhergesagt. Grund dafür ist in erster Linie eine präzisere Ermittlung der Kontaktfläche. Die Forscher hatten erstmals die Elastizität des Dichtungsmaterials in die Computersimulationen miteinbezogen. Dabei zeigte sich: Mikroskopisch kleine Erhöhungen der Oberfläche, die in das weiche Gummi gepresst werden, berühren die Dichtung nicht vollständig, sondern lassen weitere kleine Lücken entstehen. Das Ergebnis könnten dazu beitragen, die Durchlässigkeit von alternden Dichtungen besser einzuschätzen. Die Jülicher Forschungsgruppe arbeitet bereits mit einem Unternehmen aus der Medizintechnik zusammen, um die Leckrate von Gummistopfen für Spritzen zu berechnen.

Originalveröffentlichung:
Wolf B. Dapp, Andreas Lücke, Bo N. J. Persson, Martin H. Müser
Self-affine elastic contacts: percolation and leakage
Phys. Rev. Lett. 108, 244301 (2012)
DOI: 10.1103/Physics.5.66
Abstract: http://prl.aps.org/abstract/PRL/v108/i24/e244301

Weitere Informationen:
Pressemitteilung mit Bildmaterial unter http://www.fz-juelich.de/SharedDocs/Pressemitteilungen/UK/DE/2012/12-06-18Dichtu…
American Physical Society, Focus Article: Plugging Leaks in Seal Models: http://physics.aps.org/articles/v5/66
Jülich Supercomputing Centre am Forschungszentrum Jülich: http://www.fz-juelich.de/ias/jsc/DE/Home/home_node.html
Peter Grünberg Institut, Bereich Quanten-Theorie der Materialien am Forschungszentrum Jülich: http://www.fz-juelich.de/pgi/pgi-1/DE/Home/home_node.html
Lehrstuhl für Materialsimulation an der Universität des Saarlandes: http://www.lms.uni-saarland.de/

Ansprechpartner:
Prof. Dr. Martin Müser
Tel. 02461 61-9095
m.mueser@fz-juelich.de

Das Forschungszentrum Jülich…
… betreibt interdisziplinäre Spitzenforschung, stellt sich drängenden Fragen der Gegenwart und entwickelt gleichzeitig Schlüsseltechnologien für morgen. Hierbei konzentriert sich die Forschung auf die Bereiche Gesundheit, Energie und Umwelt sowie Informationstechnologie. Einzigartige Expertise und Infrastruktur in der Physik, den Materialwissenschaften, der Nanotechnologie und im Supercomputing prägen die Zusammenarbeit der Forscherinnen und Forscher. Mit rund 4 700 Mitarbeiterinnen und Mitarbeitern gehört Jülich, Mitglied der Helmholtz-Gemeinschaft, zu den großen Forschungszentren Europas.

Quelle: Informationsdienst Wissenschaft

(zurück)


Blutspenden gegen Bluthochdruck?

Frederik Betsch
Pressestelle
Karl und Veronica Carstens-Stiftung

Klinische Studie liefert erstmals Hinweise

In einer neu veröffentlichten Studie konnte ein experimenteller Aderlass den Blutdruck um durchschnittlich 16 mmHg senken. Dies ist ein großer Effekt. Nun wird in einer größeren Studie an der Charité in Berlin untersucht, ob das regelmäßige Blutspenden ein wirksames Therapieverfahren bei Bluthochdruck sein könnte. Gesucht werden Studienteilnehmer aus Berlin.

Alle Informationen unter: http://www.bluthochdruck-blutspende.de
Vorstudie zeigt: Aderlass senkt Blutdruck

Eine Arbeitsgruppe um Professor Andreas Michalsen von der Charité hat Patienten mit metabolischem Syndrom (Bluthochdruck, Übergewicht, veränderten Blutfettwerten und Insulinresistenz) zweimal im Abstand von vier Wochen je 300 Milliliter Blut abgenommen. Die Blutdruckwerte wurden sechs Wochen danach mit denen einer Kontrollgruppe ohne Behandlung verglichen. Bei den behandelten Patienten sank der Blutdruck im Mittel um 16 mmHg systolisch. In Medikamentenstudien, zum Beispiel zu ACE-Hemmern oder Betablockern, findet man gewöhnlich geringere Absenkungen. Daneben verbesserten sich die Blutfett-Werte der Studienteilnehmer.

Warum der blutdrucksenkende Effekt über längere Zeit anhält, wird derzeit diskutiert. Möglicherweise spielt der Eisengehalt (Ferritinspiegel) des Blutes eine Rolle. Dieser wird durch eine Blutentnahme gesenkt. Professor Andreas Michalsen und Professor Abdulgabar Salama, Leiter des Insituts für Transfusionsmedizin der Charité, vermuten, dass ein hoher Eisengehalt möglicherweise einen negativen Effekt auf das Herz-Kreislauf – aber auch auf das Immunsystem haben könnte. Eisen fördert die Oxidation der Gefäße. Ein niedriger Ferritinspiegel könnte dazu beitragen, dass die Gefäßwände elastisch bleiben und den Druck besser ausgleichen. Bisher sei dies aber nur eine Theorie.

Blutspenden als Therapie? Folgestudie in Berlin gestartet
Bei einer Blutspende wird wie bei einem Aderlass kontrolliert Blut entnommen. Bisher wurde der langfristige Effekt des Blutspendens auf den Blutdruck nicht erforscht. Dies wird in einer klinischen Studie in Zusammenarbeit von Carstens-Stiftung und Charité nun getan. Professor Abdulgabar Salama: „Wir wollen herausfinden, ob das regelmäßige Blutspenden für den Spender einen günstigen Einfluss auf sein kardiovaskuläres Risiko und auf seinen Blutdruck haben könnte.“ Michalsen ergänzt: „Sollte sich das Blutspenden als Therapieansatz bei Hypertonie bestätigen, wird man umdenken müssen.“

Für die Studie an der Charité werden noch Teilnehmer mit erhöhtem Blutdruck (oberer Wert/systolisch: 140-160 mmHg) zwischen 30 und 65 Jahren gesucht. Alle Informationen zur Teilnahme unter: http://www.bluthochdruck-blutspende.de

Hintergrund und Studienlage: Blutspende und Aderlass
Regelmäßige Blutspender berichten immer wieder über die positiven gesundheitlichen Effekte, die nach einer Blutspende auftreten: Höhere Leistungsfähigkeit, besseres Körpergefühl, Vitalität. Bisher gibt es in der wissenschaftlichen Literatur nur vereinzelt Untersuchungen dazu. In epidemiologischen Studien finden sich unter anderem Hinweise, dass Blutspender ein vermindertes Risiko haben, einen Herzinfarkt oder Schlaganfall zu bekommen. Der Effekt einer Blutspende auf den Blutdruck und andere Blutwerte wurde bisher nicht systematisch erforscht.
Eine Blutentnahme zu therapeutischen Zwecken hat ihre Tradition im Aderlass. Das Verfahren wird heute nur noch selten angewendet, es gehört zu den ausleitenden Verfahren der Naturheilkunde.

Initiator der Studie: Die Karl und Veronica Carstens-Stiftung
Die Carstens-Stiftung fördert Wissenschaft und Forschung zur Komplementärmedizin. Sie hat die Blutspende-Studien an der Charité initiiert und finanziert sie mit insgesamt 224.000 Euro. Die Förderung derartiger Studien muss aus privater Hand (im Fall der Carstens-Stiftung mit Unterstützung der Bevölkerung) erfolgen. Die öffentliche Hand stellt keinerlei Mittel für die Wissenschaft zur Komplementärmedizin bereit.

Ansprechpartner

Frederik Betsch
Karl und Veronica Carstens-Stiftung
Pressesprecher
Am Deimelsberg 36, 45276 Essen
Tel: 0201 56305 34
Mob.: 0176 444 28720
f.betsch@carstens-stiftung.de
http://www.carstens-stiftung.de

Prof. Dr. med. Abdulgabar Salama
Charité Universitätsmedizin Berlin
Leitung des Instituts für Transfusionsmedizin
Campus Virchow-Klinikum
Augustenburger Platz 1,13353 Berlin
Tel.: +49 30 450 553012
abdulgabar.salama@charite.de
http://trans.charite.de

Prof. Dr. med. Andreas Michalsen
Charité Universitätsmedizin Berlin und Immanuel Diakonie Group Berlin
Stiftungsprofessur für Klinische Naturheilkunde der Charité
Immanuel Krankenhaus Berlin
Königstrasse 63, 14109 Berlin
Tel.: 030 80505 691
a.michalsen@immanuel.de
http://www.naturheilkunde.immanuel.de

Weitere Informationen:
http://www.carstens-stiftung.de/artikel/blutspenden-gegen-bluthochdruck.html
http://www.idw-online.de/de/event39995
http://www.bluthochdruck-blutspende.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Lässige Businessfrauen, liebevolle Väter

Detlef Bremkens
Dez. 3 KIT Kommunikation, Innovation, Transfer

Bochumer Wirtschaftsprofessorin untersucht die aktuellen Geschlechterbilder in der Werbung
Von Rüdiger Kurtz
16 Jahre lang hat Klementine als Waschmittel-Frontfrau in strahlend weißer Latzhose wissbegierigen Hausfrauen gezeigt, wie die Wäsche besonders sauber wird. Die pfiffige Klempnerin musste erst Mitte der 80er Jahre „cooleren“ Werbebotschaften weichen. Heutzutage hätte sie es vermutlich mit dem einen oder anderen Vater zu tun. „Die Entwicklung zur Gleichstellung von Frau und Mann spiegelt sich in aktuellen Werbebildern wider“, lautete die Ausgangsthese, die Marketingexpertin Susanne Stark von der Hochschule Bochum in einem Forschungsprojekt untersucht hat. Gemeinsam mit ihrem Team aus Masterstudierenden wollte sie herausfinden: Ist dem so oder sind wir nach wie vor traditionellen Geschlechterstereotypen ausgesetzt?

„Sicherlich ist das kein neues Thema“, gibt die Bochumer Wirtschaftsdozentin gerne zu, „aber es bleibt ein ewig junges Thema, da sich das Geschlechterbild in der Werbung ständig verändert.“ Schließlich sei es kein Geheimnis, dass die Gleichstellung von Mann und Frau durch Werbung gleichermaßen gestützt und behindert werden könne. So erfolgte nach den prüden 50er und 60er Jahren die „sexuelle Revolution“, nackte Haut in Werbeanzeigen wurde möglich. Umgekehrt unterstützten die Werbebilder die sexuelle Freizügigkeit. In den letzten 50 Jahren ist der Einfluss der Werbung weiter gewachsen. Selbst zügiges Umschalten oder Umblättern schützt kaum noch vor der allgegenwärtigen Werbeindustrie. Etwa 30 Milliarden Euro werden in Deutschland derzeit jährlich in Werbung investiert. Durchschnittlich 48 Sender stehen jedem deutschen Haushalt zur Verfügung, über 900 Zeitschriftentitel sind erhältlich – und der Werbeanteil in Print- und TV-Medien ist beträchtlich.

Gemeinsam mit ihrem Team aus neun Wirtschaftsstudierenden hat Susanne Stark die verschiedenen Kriterien weiblicher und männlicher Personendarstellungen in Werbeanzeigen und Werbespots untersucht. Neben Alter, Körperhaltungen und Mimik wurden auch die Rollenvielfalt oder die dargestellten Situationen analysiert. Gut 1000 Anzeigen sowie 80 Werbespots wertete das Team anhand eines umfangreichen Fragenkatalogs detailliert aus. „Eine Menge Arbeit“, so Dozentin Susanne Stark: „Aber es hat sich gelohnt: Die Ergebnisse bestätigen nicht nur gängige Klischees, sondern bieten auch überraschende Erkenntnisse.“

„Vermehrt“, so die Bochumer Wissenschaftlerin, „werden moderne Rollenmuster in der Werbung übernommen.“ Die Frau ist inzwischen auch als Geschäftsfrau gefragt. Männer übernehmen dafür immer häufiger die Rolle des fürsorglichen Vaters. Der liebevolle Papa tritt fast doppelt so häufig auf wie die mütterliche Frau. Offensichtlich liegt der familiäre Mann im Trend. Bei der Rollenzuteilung gibt es aber auch zahlreiche „Klassiker“: Noch immer sind die Bereiche Banken und Auto in der Tendenz Männerdomänen, während die Textil- und Lebensmittelbranchen ihre Botschaften lieber durch Frauen übermitteln lassen.

Auch bei der altersbezogenen Darstellungen von Frau und Mann hat sich wenig geändert: Sowohl in der Print- als auch in der TV-Werbung sind Frauen bevorzugt jung und werden häufig verführerisch dargestellt – Männer hingegen dürfen gerne auch einmal etwas älter sein und glänzen dann als „Experten“. Im Kleidungsstil hat man sich angenähert: locker kommt besser an als elegant. „Casual“ nennt sich der Trend zu legerer Freizeitkleidung. Fast die Hälfte aller Personen in Anzeigen sind lässig bis sportlich unterwegs.

Das bevorzugte situative Umfeld in der Werbung ist die häusliche Privatsphäre, deutlich vor der Freizeit- und Urlaubswelt. Erstaunlich: Die Arbeitswelt wird passend zum Ergebnis der Rollenkonzepte bei Frauen deutlich mehr gefunden. „Betrachtet man allerdings die Rollenverteilungen zwischen den Geschlechtern hinsichtlich der Eigenschaft, eine Vorbild- oder Leitfunktion zu haben, differenziert sich das Bild“, so Susanne Stark: „Schlüsselfunktionen wie der beratende Experte werden deutlich häufiger von Männern besetzt.“ Die Nachfolger des Herrn Kaiser sind quicklebendig. Die Frau als „schmückendes Beiwerk“ befindet sich zwar auf dem Rückzug, dennoch spielen – insbesondere in TV-Werbespots – nach wie vor überwiegend Männer die Hauptrollen.

Spannendes bieten auch die Untersuchungsergebnisse zur sozio-ökonomischen Statuszugehörigkeit. Frauen in der Werbung besitzen überwiegende einen mittleren Status, nur 17% können einem gehobenen sozialen und wirtschaftlichen Umfeld zugeordnet werden. Bei Männern fällt das Ergebnis differenzierter aus. „Je 40% der Männer konnten wir dem mittleren sowie gehobenen Status zuordnen, immerhin 20% auch einem niedrigen Status“, so Susanne Stark. Der Mann ist auch als „einfacher Arbeiter“ durchaus gefragt und sexy, die Frau als Arbeiterin undenkbar. Und wie sieht es mit den Emotionen aus? „Insbesondere im Printbereich dominieren die alten Rollenstereotypen“, berichtet die Bochumer Wirtschaftsdozentin: „Männer schauen häufig ernst, aggressiv oder nachdenklich, Frauen dagegen sinnlich, beschützend, erwartungsvoll oder verführerisch.“ Verbindendes Element der emotionalen Analyse: Freude und Stolz können beide. Gerade in TV-Spots dominiert bei beiden Geschlechtern das fröhliche, begeisterte oder freundliche Mienenspiel.

„Die Geschlechterbilder in der Werbung haben sich bezüglich Inhalten und Differenziertheit angeglichen“, resümiert Marketingexpertin Susanne Stark die Untersuchungsergebnisse: “ Eine Dominanz alter Darstellungsmuster ist nicht mehr zu finden. Aber sie sind längst noch nicht gänzlich verschwunden, manche Klischees halten sich hartnäckig.“ Und vielleicht, so die engagierte Professorin, „spiegelt genau das den Stand der Gleichstellung wider.“ Klementine sollte auf jeden Fall das Business wechseln: Kleine Klempnerinnen in strahlend weißen Latzhosen liegen derzeit nicht im Trend.

Quelle: Informationsdienst Wissenschaft

(zurück)


Neues Wasserentnahmeentgelt für Rheinland-Pfalz auf dem Prüfstand

Doris Böhme
Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Leipzig. Das neue Wasserentnahmeentgelt in Rheinland-Pfalz fügt sich sinnvoll in die Nachhaltigkeits- und Klimaanpassungsstrategie des Landes ein und ist auch finanzpolitisch ein richtiger Schritt. Zu diesem Ergebnis kommt eine aktuelle Untersuchung des Helmholtz-Zentrums für Umweltforschung (UFZ), die das neue Instrument auf den Prüfstand gestellt hat. Kritisch sehen die Wissen-schaftler dagegen, dass bei der Abgabe nach Verwendungszweck unterschieden wird und umfangreiche Ausnahmen gelten.
Da Wasserentnahmeabgaben in die Kompetenz der Länder fallen, existieren in der Mehrzahl der Bundesländer sehr unterschiedliche Regelungen. Künftig sei es jedoch wichtig, diese bundesweit anzugleichen. Die UFZ-Forscher hatten bereits 2011 im Auftrag des Umweltbundesamtes eine Studie über die Chancen und Grenzen von Was-sernutzungsabgaben in Deutschland vorgelegt. Die aktuelle Untersuchung zu Rheinland-Pfalz wird im August 2012 in der „Zeitschrift für Landes- und Kommunalrecht“ erscheinen.

Der Landtag von Rheinland-Pfalz beschließt heute über die Einführung einer Abgabe auf das Entnehmen von Wasser aus dem natürlichen Wasserhaushalt zum Jahresbeginn 2013. Zwölf andere Länder verfügen bereits über ein solches Wasserentnahmeentgelt. Neben der Erzielung von Einnahmen, die zweckgebunden für wasserwirtschaftliche Zwecke eingesetzt werden, verfolgen diese Entgelte auch das Ziel, Gewässer nachhaltig zu bewirtschaften: Nach dem Vorsorgeprinzip soll auf effiziente Weise verhindert werden, dass Wasserkörper übernutzt werden. „Vorsorgend sparsam und effizient mit unseren Wasserressourcen umzugehen, ist nicht zuletzt wegen des bereits offensichtlichen Klimawandels ein ressourcen- und klimapolitisches Gebot der Vernunft“, erläutert Prof. Erik Gawel, Umweltökonom an der Universität Leipzig und Wasserexperte am UFZ.
Wasserentnahmeentgelte signalisieren den Entnehmern von Wasser aus dem natürlichen Wasserkreislauf – sowie den Käufern wasserintensiver Produkte -, dass Rohwasser ein ökonomisch knappes Gut ist. Diese Knappheit drückt sich etwa in sogenanntem Wasserstress der Ökosysteme aus und darf nicht mit „Wassermangel“ verwechselt werden. „Auch an Mobiltelefonen oder Brot herrscht in Deutschland gewiss kein Mangel“, erläutert Gawel. „Diese Güter tragen aber zu Recht ihren jeweiligen Knappheitspreis.“ Nichts anderes müsse auch für das wertvolle Gut Wasser gelten.

Für das immerhin größte westdeutsche Flächen-Nehmerland im Länderfinanzausgleich, das durch verbindliche Maßnahmenprogramme zum Gewässerschutz und die anstehende verfassungsrechtliche „Schuldenbremse“ finanzpolitisch stark gefordert ist, bedeutet die Einführung einer Verursacherabgabe jedoch auch finanzpolitisch einen richtigen Schritt. „Für diese Zwecke Mittel gerade aus einer Verursacherabgabe bereitzustellen, ist legitim und richtig“, stellt Gawel klar. „Lenkung und Finanzierung sind kein Widerspruch, sondern zwei Seiten derselben Medaille: Gerade auch das Zahlenmüssen der Entnehmer hat sinnvolle Lenkungseffekte.“

Rheinland-Pfalz hat insgesamt eine Wasserentnahmeabgabe geschaffen, die sich eng an die bisherigen Länderregelungen anlehnt. Damit dürften kritische Hinweise auf angeblich gefährdete Wettbewerbsfähigkeit von gewerblichen Wasserentnehmern oder mangelnde Tragbarkeit der Belastungen für private Haushalte kaum durchgreifen. „Die Belastungen sind tragbar und bewegen sich im üblichen Rahmen“, betont Gawel. Für private Verbraucher wird von bis zu drei Euro im Jahr für die Trinkwasserversorgung ausgegangen. Das Umweltministerium des Landes rechnet pro Jahr mit etwa zwanzig Millionen Euro Einnahmen aus der neuen Abgabe. Damit könnte jährlich je nach Verwendung des Aufkommens zusätzlich ein Mehrfaches an EU- oder Bundesmitteln für das Land akquiriert werden.

Positiv hervorzuheben sei die Tatsache, dass die Abgabe nur wenige unterschiedliche Abgabesätze, z. B. für Grund- und Oberflächenwasser, vorsehe. Ferner gebe es beachtliche Mengen-Freigrenzen, die „Kleinentnehmer“ von der Abgabepflicht ausnehmen und zugleich bürokratische und ressourcenpolitisch zweifelhafte Härtefallregime anderer Länder vermieden. Ähnlich wie Nordrhein-Westfalen begünstige Rheinland-Pfalz ausdrücklich nicht die gewässerschutzpolitisch problematische bergbauliche Wasserhaltung, die mit Ableitungen von Grundwasser verbunden ist; privilegiert sind allein „Freilegungen“ von Grundwasser. Allerdings wurden in Rheinland-Pfalz auch einige Schwachstellen der bisherigen Länder-Regelungen reproduziert: Dies betreffe etwa die ressourcenpolitisch fragwürdige Vermischung von Wasserentnahme und Wasserverwendung bei der Abgabenerhebung. Ebenso ins Auge fallen die umfangreichen Ausnahmen, etwa der Land- und Forstwirtschaft, die das Verursacherprinzip durchbrechen.

Die Einführung der Abgabe in Rheinland-Pfalz ist ein Schritt in die richtige Richtung, resümiert die Studie. „Eine konsequente Weiterentwicklung des Instruments, insbesondere eine Harmonisierung zwischen den Bundesländern und eine klare Ausrichtung auf den verursacherbezogenen Ressourcenschutz müssen aber auf der rechtspolitischen Agenda bleiben“, fordert Gawel.

Weitere Informationen:
http://www.ufz.de/index.php?de=30593

Quelle: Informationsdienst Wissenschaft

(zurück)


Wir Besser-Esser. Gesunde Ernährung macht Spaß

Kay Gropp
Pressestelle
Universität Witten/Herdecke

Prof. Dietrich Grönemeyer hat ein Buch über die Freude am gesunden Essen geschrieben: lehrreich und unterhaltsam für Kinder wie für Erwachsene
Gemeinsam mit sechs Grundschulkindern, den „Mini-Reportern“, unternimmt Prof. Dr. Dietrich Grönemeyer eine Expedition zu den verschiedensten Schauplätzen gesunder Ernährung. Zusammen erforschen sie, wie unsere Nahrung entsteht, wie sie verarbeitet und zubereitet wird, was unsere Organe schließlich damit anstellen, wozu wir Obst, Gemüse, Fleisch und Fisch brauchen und warum es so wichtig ist, dass wir lernen, gesundes Essen zu genießen. Dafür, dass das Ganze niemals zur langweiligen Belehrung wird, sorgen die witzigen Dialoge zwischen dem Kleinen Medicus, mit den schon unzählige Kindern in früheren Büchern durch den Körper reisen konnten, und dem nimmersatten Frechdachs Spekki Bulletti.

Bei fantastischen Reisen durch den Verdauungstrakt und bei Ausflügen auf den Bauernhof können die Leser, Kinder wie Erwachsene, lernen, wie man besser essen kann: sinnvoll, vernünftig und mit großem Genuss. Abstecher in die Geschichte runden das Bild einer Esskultur ab, bei der auch die Tischsitten nicht zu kurz kommen. Appetitanregend verraten die Mini-Reporter ihre Lieblingsrezepte. Praktische Hinweise zum Kochen und zahlreiche Erklärungen der verschiedensten Bestandteile unserer Nahrung, verbunden mit naturheilkundlichen Hinweisen, machen die „Besser-Esser“ zu einem Nachschlagewerk für die ganze Familie sowie für den Schulunterricht. Es zeigt: Besser Essen ist nicht nur gesund, es ist auch ganz einfach ein großes Vergnügen.

Prof. Dr. Dietrich Grönemeyer, geboren 1952 in Clausthal-Zellerfeld, ist Inhaber des Lehrstuhls für Radiologie und Mikrotherapie an der Universität Witten/Herdecke. 1997 gründete er das interdisziplinär ausgerichtete Grönemeyer-Institut für Mikro-Therapie in Bochum. Seit Jahren Vorsitzender des Wissenschaftsforums Ruhr e.V., erhielt er für seine Verdienste um die Modernisierung der Region den Titel „Ehrenbürger des Ruhrgebiets“. Als Arzt, Wissenschaftler und Autor zählt Dietrich Grönemeyer zu den entschiedenen Verfechtern einer Medizin zwischen High-Tech und traditionellen Heilweisen. In seiner eigenen Stiftung engagiert er sich dafür und für die Gesundheitsförderung gezielt für Kinder mit zahlreichen Projekten. Seine Bücher ›Mensch bleiben‹, ›Mein Rückenbuch‹, ›Lebe mit Herz und Seele‹, ›Der kleine Medicus‹ und ›Grönemeyers neues Hausbuch der Gesundheit‹ wurden Bestseller, ebenso wie sein letztes Buch ›Dein Herz‹, im Herbst 2010 bei S. Fischer erschienen.

Prof. Dr. Dietrich Grönemeyer
Wir Besser-Esser. Gesunde Ernährung macht Spaß. Ein Schultag mit dem Kleinen Medicus, Spekki Bulletti und den Minireportern
280 Seiten, gebunden, mit farbigen Illustrationen von Glenn Frey und Stefan Paintner, 19,99 Euro; (UVP), ISBN: 978-3-10-027307-9

Weitere Informationen bei hessler@groenemeyer.com, Tel. 0234 9780-113

Über uns:
Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 1.450 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Quelle: Informationsdienst Wissenschaft

(zurück)


Der 23. Juni 2012 ist „1. Internationaler Ambrosia-Tag“

Dr. Gerlinde Nachtigall
Pressestelle
Julius Kühn-Institut

Julius Kühn-Institut (JKI) informiert zu International Ragweed Day und stellt gleichzeitig neues Meldeportal für hochallergene Pflanze vor
Wissenschaftler vieler europäischer Länder verfolgen die weite Verbreitung der allergieauslösenden Beifuß-Ambrosie (Ambrosia artemisiifolia). Sie gründeten die „International Ragweed (= Ambrosia) Society“ mit dem Ziel, diese Pflanze europaweit zu bekämpfen und ihre weitere Ausbreitung zu stoppen. Ab 2012 proklamierten sie jeden ersten Samstag im Sommer zum „International Ragweed Day“, an dem verstärkt zur Ambrosie informiert werden soll. Zu diesem Termin blüht die Pflanze noch nicht, ist aber bereits groß genug, um sie sicher zu erkennen und gut zu bekämpfen.

Termingenau stellt das zum Landwirtschaftsministerium gehörende Julius Kühn-Institut das Webportal http://watson.jki.bund.de vor, in das Funde von Ambrosia gemeldet werden können. Das JKI bittet die Bevölkerung um Mithilfe, damit genauer dokumentiert werden kann, wie sich die Art in Deutschland verbreitet und sich das Vorkommen verändert. Dazu werden Angaben zum Fundort, zur Größe des Bestandes und einige weitere Daten benötigt. Namen und Adresse bzw. E-Mail oder Telefonnummer sind nur für evtl. Rückfragen anzugeben. Alle Angaben werden vertraulich behandelt. Für zusätzliche Mitteilungen kann eine E-Mail gesendet werden an: ambrosia@jki.bund.de.

Das JKI arbeitet mit seinem „Aktionsprogramm Ambrosia“ daran, Verwaltung und Öffentlichkeit über die Bedrohung durch Ambrosia zu informieren und Hinweise zur effektiven Bekämpfung zu geben (www.jki.bund.de/ambrosia.html). Um die geeignetsten Bekämpfungsmethoden ausfindig zu machen bzw. zu entwickeln, koordiniert das JKI ein von der EU-Kommission gefördertes internationales Forschungsprojekt (www.halt-ambrosia.de).

Wissenschaftlicher Ansprechpartner
Dr. Uwe Starfinger
Julius Kühn-Institut, Institut für nationale und internationale Angelegenheiten der Pflanzengesundheit
uwe.starfinger@jki.bund.de

Hintergrundinformationen:
Die Beifuß-Ambrosie oder das beifußblättrige Traubenkraut breitet sich seit Jahren in Europa aus. Der Neuankömmling aus Nordamerika wurde im 19. Jahrhundert nach Europa eingeschleppt, hat aber erst im 20. Jahrhundert zunächst wärmere Gebieten Europas wie Ungarn, Norditalien, S-Frankreich besiedelt. Im Zuge des Klimawandels ist eine stärkere Ausbreitung auch in Deutschland zu erwarten. Unerwünscht ist die Pflanze nicht nur als lästiges Ackerunkraut. Vor allem produziert sie große Mengen an hoch allergenem Pollen, der bei vielen Menschen Heuschnupfen und auch Asthma auslösen kann.

Weitere Informationen:
http://watson.jki.bund.de – Meldeportal für Deutschland des JKI für Funde von Ambrosia-Pflanzen
http://www.halt-ambrosia.de – EU-Projekt zu Ambrosie, Koordination: JKI

Quelle: Informationsdienst Wissenschaft

(zurück)


Studienteilnehmer mit Panik-Attacken gesucht

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Wer unter Panikattacken und begleitenden Persönlichkeitsstörungen, z.B. starke Hemmungen im Umgang mit anderen Menschen oder heftige Gefühlsausbrüche, leidet, hat oft bereits mehrere Behandlungs¬versuche hinter sich. Der Erfolgt ist meist nur vorübergehend. Welche Psychotherapie sich auf lange Sicht eignet, untersuchen Wissenschaftler der Klinik für Allgemeine Innere Medizin und Psychosomatik des Universitätsklinikums Heidelberg im Rahmen einer multizentrischen Studie. Ab sofort werden Studienteilnehmer gesucht. Die Teilnehmer erhalten ohne längere Wartezeit einen Therapieplatz bei einem erfahrenen niedergelassenen Therapeuten.

Wissenschaftler des Universitätsklinikums Heidelberg vergleichen zwei bewährte Therapiekonzepte bei Panikstörung und begleitenden Persönlichkeitsproblemen

Welche Psychotherapie eignet sich auf lange Sicht besser zur Behandlung von Panik-Attacken und begleitenden Persönlichkeitsproblemen? Diese Frage untersuchen Wissenschaftler der Klinik für Allgemeine Innere Medizin und Psychosomatik des Universitätsklinikums Heidelberg im Rahmen einer multizentrischen Studie. Ab sofort werden Studienteilnehmer gesucht. Die Teilnehmer erhalten ohne längere Wartezeit einen Therapieplatz bei einem erfahrenen niedergelassenen Therapeuten.

Wer unter einer Panikstörung leidet, den überkommt aus heiterem Himmel große Angst, Unsicherheit, Benommenheit oder Schwindel, häufig begleitet von Herzrasen. Betroffene versuchen Situationen, die sie mit diesen Erfahrungen verbinden, zu vermeiden – was das alltägliche Leben und zwischenmenschliche Beziehungen stark belasten kann. Dazu kommen häufig sogenannte Persönlichkeitsstörungen, z.B. starke Hemmungen im Umgang mit anderen Menschen, die Neigung zu heftigen Gefühlsausbrüchen oder der übermäßige Wunsch, das eigene Umfeld zu kontrollieren. Betroffene haben oft mehrere Behandlungsversuche hinter sich, ohne dauerhaften Erfolg

Teilnehmer erhalten ohne Wartezeit Therapieplatz bei erfahrenem Therapeuten

Im Rahmen der aktuellen Studie werden zwei psychotherapeutische Verfahren miteinander verglichen, die wissenschaftlich anerkannt und deren Wirksamkeit bei Panikstörungen belegt ist. Ziel ist es, herauszufinden, mit welcher Therapie sich beide Störungen langfristig besser beeinflussen lassen, oder welches Konzept für welche Patienten besser geeignet ist. An der multizentrischen Studie nehmen neben Heidelberg noch die Universität Kassel und das Klinikum der Technischen Universität München teil.

Teilnehmer müssen mindestens 21 Jahren alt sein, unter einer Panikstörung sowie seit längerer Zeit unter Persönlichkeits- und Beziehungsproblemen leiden. Die Dauer der Therapien mit 1-3 Sitzungen pro Woche liegt erfahrungsgemäß bei mindestens einem Jahr (je nach Notwendigkeit auch länger). Sämtliche Daten werden anonym ausgewertet, die Therapeuten und Studienmitarbeiter unterliegen der Schweigepflicht.

Internet:
http://www.klinikum.uni-heidelberg.de/Klinik-fuer-Allgemeine-Innere-Medizin-und-Psychosomatik.1088.0.html

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Elefanten: Rätsel um längste Schwangerschaft der Welt gelöst

Steven Seet
Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

Forscher(innen) des Leibniz-Instituts für Zoo- und Wildtierforschung (IZW) haben herausgefunden, wie die längste Schwangerschaft der Welt bei Elefanten gesteuert und reguliert wird und berichten darüber in den „Proceedings of the Royal Society B“. Die Embryonal- und Fetalentwicklung der grauen Riesen dauert bis zu 680 Tage. Die Trächtigkeitsdauer ist somit länger als bei jedem anderen Säugetier.
Elefanten gebären nur ein Jungtier. Ein neugeborenes Kalb wiegt im Verhältnis zur Mutter, die rund drei Tonnen auf die Waage bringt, gerade einmal einhundert Kilo. Das entspricht ca. drei bis vier Prozent der Körpermasse eines erwachsenen Elefanten. Warum ist die Trächtigkeitsperiode so enorm lang und wie erhält eine Elefantenkuh diese über einen fast zweijährigen Zeitraum?

Die IZW-Forscher(innen) konnten mithilfe von Ultraschalluntersuchungen und Hormonmessungen an trainierten trächtigen Elefantenkühen zeigen, dass vor jedem Eisprung, also dem Freisetzen des reifen Follikels, bereits Hilfsgelbkörper an den Eierstöcken angelegt werden. Der Gelbkörper produziert Gestagene, die für den Erhalt einer Trächtigkeit wichtig sind. Normalerweise entsteht der Gelbkörper nur dort, wo der Eisprung stattgefunden hat.

Bei Elefanten reift pro Zyklus nur ein Follikel bis zum Eisprung heran, die Eierstöcke zeigen aber dennoch bis zu zwölf Gelbkörper. Die Hilfsgelbkörper bilden sich durch eine zusätzliche Freisetzung des luteinisierenden Hormons (LH-Peak), wodurch sich mehrere kleine Follikel in Gelbkörper umwandeln, ohne dass es vorher zum Eisprung gekommen war. Ein zweiter LH-Peak löst dann etwa zwanzig Tage später den Eisprung aus. Damit realisieren Elefantenkühe die Versorgung mit den trächtigkeitserhaltenen Gestagenen, wie Progesteron und dessen Metaboliten. Das Set aus einem ovulatorischen Gelbkörper und bis zu elf weiteren Hilfsgelbkörpern bleibt in Größe und Durchblutung bis zum Ende der Trächtigkeit konstant erhalten. Da die Plazenta keine Steroidhormone produziert, kann aufgrund der Ultraschallergebnisse angenommen werden, dass die Ausbildung der multiplen Gelbkörper die Hauptquelle für Gestagene ist.

Elefanten gelten als hochentwickelte Tiere, mit komplexen Sozialstrukturen. Sie sind unsere größten Landsäugetiere, die mit bis zu 65 Jahren äußerst langlebig sind. Die lange Trächtigkeit könnte das Resultat aus mehreren Faktoren sein. Der Transport von Nährstoffen durch die Plazenta und ein langsamer Stoffwechsel sind relevant für die Geschwindigkeit der Fetalentwicklung. Am Bedeutendsten für die lange Tragzeit erscheint jedoch die Gehirnentwicklung. Elefantenkälber sind bei der Geburt bereits voll entwickelt und können ihren Rüssel schon früh gezielt einsetzen. Sehr junge Kälber sind daher fähig, mit der Herde mit zu ziehen. Diese Kompetenzen könnten eine lange intrauterine Entwicklung erfordern und somit einen ausgefeilten und im Vergleich zu bisher studierten Säugetieren einzigartigen Mechanismus zum Erhalt der Trächtigkeit bewirkt haben.

Publikation:
Lüders I, Niemüller C, Rich P, Gray C, Hermes R, Göritz F, Hildebrandt TB (2012): Gestating for 22 months: luteal development and pregnancy maintainance in elephants. PROC R SOC B, 1 – 10, doi: 10.1098/rspb.2012.1038.

Quelle: Informationsdienst Wissenschaft

(zurück)


Migräneforschung: Vier genetische Risikofaktoren gefunden

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Der Kopfschmerz kommt wie eine Attacke, mit Übelkeit und Erbrechen: Gut jeder Achte leidet unter Migräne. Gibt es dafür eine Veranlagung? Ja, sagen LMU-Forscher. Erstmals konnten sie für die häufigste Migräneform genetische Risikofaktoren finden.
Gleich vier neue genetische Risikofaktoren konnten die Münchner Forscher gemeinsam mit einem internationalen Wissenschaftler-Team, dem International Headache Genetics Consortium, jetzt im Erbgut von Migräne-Patienten orten. Dabei handelt es sich um häufig vorkommende DNA-Varianten, sogenannte Polymorphismen, bei denen jeweils nur ein einzelner Baustein im DNA-Strang verändert ist. Diese Risiko-Varianten, die auf den Chromosomen 1, 3, 6 beziehungsweise 9 lokalisiert sind, machen ihre Träger anfällig für die Migräne ohne Aura, folgern Professor Martin Dichgans, Dr. Tobias Freilinger und Dr. Rainer Malik vom Institut für Schlaganfall- und Demenzforschung am Klinikum der Universität München, die die Federführung bei der Studie hatten. An dieser häufigsten Migräneform, bei der der pochende Kopfschmerz nicht zusätzlich noch von neurologischen Symptomen wie Sehstörungen, der sogenannten Aura, begleitet ist, leiden zwei Drittel der Patienten.

Statistische Häufungen

„Für unsere Untersuchung haben wir das Erbgut von fast 5000 Migräne-Patienten mit dem von mehr als 7000 Kontroll-Personen verglichen“, sagt Martin Dichgans. Dabei untersuchen die Wissenschaftler, ob bei Migräne-Patienten bestimmte der unzählig vielen Polymorphismen statistisch gehäuft auftreten. „Unsere Ergebnisse sind ein entscheidender Schritt zu einem besseren Verständnis der Pathophysiologie der Migräne“, sagt Tobias Freilinger. „Die Lage der nun identifizierten Risiko-Varianten legt nahe, dass neben einer gesteigerten Erregbarkeit des Gehirns auch vaskuläre Prozesse von Bedeutung sind.“

Schon für die Migräne mit Aura hatten die Forscher einen genetischen Risikofaktor finden können – und einen möglichen physiologischen Zusammenhang. Danach könnte eine übermäßige Anhäufung des Botenstoffes Glutamat an den Synapsen, den Kontaktstellen der Nervenzellen, eine wichtige Rolle bei Migräne spielen. Arbeiten an noch größeren Patientenkollektiven, hofft Freilinger, könnten nun weitere Risikofaktoren identifizieren helfen.

Die Arbeit wurde durch das „Nationale Genomforschungsnetz“, NGFN-Plus, im Rahmen von EMINET, kurz für „Epilepsy and Migraine Integrated Network“, gefördert.(math)

Publikation:

„Genome-wide association analysis identifies susceptibility loci for migraine without aura“
T. Freilinger, V. Anttila, B. de Vries et al.
Nature Genetics, AOP, 10. Juni 2012
doi: 10.1038/ng.2307

Quelle: Informationsdienst Wissenschaft

(zurück)


Umweltfreundliche Transformatoren mit Pflanzenöl

Dr. Norbert Aschenbrenner
Corporate Communications, Corporate Technology
Siemens AG

Siemens stellt in Kolumbien Transformatoren her, die mit Pflanzenöl statt mit industriellem Öl gekühlt werden. Wie die Zeitschrift Pictures of the Future in ihrer aktuellen Ausgabe berichtet, ist ein Pflanzenöl-Transformator umweltfreundlicher, sicherer und braucht weniger Schutzeinrichtungen gegen Brände oder Lecks. Normalerweise werden die Geräte mit Mineral- oder Silikonöl gekühlt und isoliert. Pflanzenöl lässt sich vollständig biologisch abbauen und ist im Vergleich zu Mineralölen auch schwerer entflammbar. Die Transformatoren aus Kolumbien werden unter anderem in Solar- und Windparks in Nord- und Südamerika eingesetzt.

Ein Transformator erhöht oder reduziert in einem Umspannwerk die Höhe der Wechselspannung für den Stromtransport, beispielsweise zur Übertragung in das Hochspannungsnetz. In Wind- und Solarparks bringen Transformatoren die elektrische Energie auf die passende Spannung, um sie in das Stromnetz einzuspeisen. Aufgrund der hohen Ströme und Spannungen erwärmt sich der Transformator und muss mit tausenden Litern Öl gekühlt werden. Bisher werden hierfür Mineral- oder Silikonöle eingesetzt, die sowohl die Wärme gut ableiten als auch gut gegen elektrische Überschläge isolieren. Diese Öle können allerdings leicht brennen und sind umweltschädlich.

Das neue Isolieröl auf Basis von Raps, Soja oder Sonnenblumen ist biologisch abbaubar und hat einen deutlich höheren Flammpunkt. Es hat Wassergefährdungsklasse Null und kann deshalb auch in Gebieten mit hohen Umweltanforderungen eingesetzt werden. Außerdem müssen die Pflanzenöltransformatoren nicht mehr aufwändig gegen Lecks geschützt sein und können so billiger hergestellt werden.

Die Pflanzenöl-Isolierung wendet Siemens Energy derzeit in kleinen Leistungstransformatoren mit bis zu 69 Kilovolt Spannung und 30 Megavoltampere Leistung an. Bisher hat Siemens mehr als 30 solcher Geräte gebaut. Umweltfreundliche Lösungen für die Energieübertragung sind Teil des Siemens-Umweltportfolios, mit dem der Konzern im Geschäftsjahr 2011 rund 30 Milliarden Euro Umsatz machte.

Foto:
http://www.siemens.com/press/de/pressebilder/?press=/de/pressebilder/innovationn…

Weitere Informationen:
http://www.siemens.de/innovationnews

Quelle: Informationsdienst Wissenschaft

(zurück)


Preisgekrönte Forschungsergebnisse: Wie Brokkoli-Wirkstoffe die Krebstherapie unterstützen

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Inhaltsstoffe aus Brokkoli und verwandtem Gemüse hemmen das Krebswachstum und verstärken die Wirkung von Chemotherapien. Das zeigte Ingrid Herr vom Universitätsklinikum Heidelberg und Deutschen Krebsforschungszentrum in mehreren experimentellen Studien und ist dafür nun mit dem Sebastian-Kneipp-Preis 2012 ausgezeichnet worden. Der mit 10.000 Euro dotierte Preis, den die Sebastian-Kneipp-Stiftung jährlich verleiht, würdigt in diesem Jahr Untersuchungen über die vorbeugenden und therapeutischen Wirkungen von Nahrungsstoffen bzw. sekundären Pflanzenstoffen bei Krebserkrankungen.
Inhaltsstoffe aus Brokkoli und verwandtem Gemüse hemmen das Krebswachstum und verstärken die Wirkung von Chemotherapien. Das zeigte Ingrid Herr vom Universitätsklinikum Heidelberg und Deutschen Krebsforschungszentrum in mehreren experimentellen Studien und ist dafür nun mit dem Sebastian-Kneipp-Preis 2012 ausgezeichnet worden. Der mit 10.000 Euro dotierte Preis, den die Sebastian-Kneipp-Stiftung jährlich verleiht, würdigt in diesem Jahr Untersuchungen über die vorbeugenden und therapeutischen Wirkungen von Nahrungsstoffen bzw. sekundären Pflanzenstoffen bei Krebserkrankungen. Ingrid Herr entdeckte mit ihrem Team, dass Brokkoli-Inhaltsstoffe einen bestimmten Signalweg in besonders aggressiven Zellen des Bauchspeicheldrüsenkrebs blockieren und so deren Resistenz gegen die Chemotherapie unterdrücken.

Die Prognose bei Bauchspeicheldrüsenkrebs ist schlecht. Häufig wird die Erkrankung erst spät bemerkt und nur wenige Patienten überleben die Diagnose länger als ein Jahr. „Wir gehen heute davon aus, dass allein die Vorläuferzellen des Tumors, die Krebsstammzellen, dafür verantwortlich sind, dass der Tumor unkontrollierbar wächst, in weitere Organe streut und resistent gegenüber gängigen Krebstherapien ist“, erklärt Ingrid Herr, Leiterin der Arbeitsgruppe Molekulare OnkoChirurgie, einer Kooperation der Chirurgischen Universitätsklinik Heidelberg (Geschäftsführender Direktor: Professor Dr. Markus W. Büchler) mit dem Deutschen Krebsforschungszentrum.

Sulforaphan bremst Tumorwachstum und Metastasenbildung

Seit 2007 sucht das Team um Ingrid Herr nach Wegen, die Widerstandskraft der Tumorstammzellen zu brechen. Dabei fanden die Wissenschaftler heraus, dass sich diese besonders bösartigen Krebszellen mit einem bestimmten Stoffwechselweg, dem NF-Kappa B-Signalweg, vor der schädlichen Wirkung einer Chemotherapie schützen. Hilfe kommt aus der Natur: Gemüse aus der Familie der Kreuzblütler wie Brokkoli und Blumenkohl haben einen hohen Gehalt an Sulforaphan, einem Wirkstoff gegen Krebs. „Sulforaphan blockiert genau diesen Signalweg und macht damit die Krebsstammzellen verwundbar“, erklärt Ingrid Herr.

Die Heidelberger Arbeitsgruppe zeigte erstmals in Versuchen an Krebszellen und Mäusen, dass Sulforaphan die Tumorstammzellen darin behindert, sich zu regenerieren und zu vermehren. Kombiniert mit verschiedenen konventionellen und neuen Chemotherapien verstärkt der Naturstoff deren Wirkung. Bei Mäusen, die eine Chemotherapie in Kombination mit Sulforaphan erhielten, hörte der Tumor vollständig auf zu wachsen und streute nicht mehr in andere Organe. Zusätzliche Nebenwirkungen traten nicht auf. „Die Daten decken sich mit den Ergebnissen einer kanadischen Ernährungsstudie: Bei Patienten mit Prostatakarzinom verringerte der wöchentliche Verzehr von Broccoli oder Blumenkohl die Streuung des Tumors um 50 Prozent“, sagt Ingrid Herr.

Den schützenden Effekt wies die Preisträgerin inzwischen noch bei einem weiteren Pflanzenstoff nach – bei Quercetin, das ebenfalls in Brokkoli, aber auch in Apfelschalen und in vielen weiteren Obst- und Gemüsesorten enthalten ist. „Wir haben damit gezeigt, dass Brokkoli nicht nur reich an Mineralstoffen und Vitaminen, sondern auch an Wirkstoffen gegen Tumorstammzellen des Bauchspeicheldrüsenkrebs ist“, so Ingrid Herr. Mittlerweile wurden in internationalen Forschungsarbeiten noch weitere Pflanzeninhaltsstoffe mit Wirkung gegen Tumorstammzellen identifiziert. „Ich empfehle daher allen Krebspatienten, sich ausgewogen mit viel Obst und Gemüse zu ernähren. Die Forschungsergebnisse sprechen dafür, dass so die Wirkung der Krebstherapie verstärkt werden kann – besser als durch die Einnahme einzelner Nahrungsergänzungsmittel.“

Weitere Informationen im Internet:
http://www.klinikum.uni-heidelberg.de/fuer-Patienten.111688.0.html
http://www.klinikum.uni-heidelberg.de/Krebsvorbeugung.126768.0.html
http://www.kneipp-stiftung.de

Kontakt:
Ingrid Herr
Experimentelle Chirurgie
Klinik für Allgemein-, Viszeral- und Transplantationschirurgie
Universitätsklinikum Heidelberg
Im Neuenheimer Feld 365, 69120 Heidelberg
E-Mail: i.herr@dkfz.de

Literatur:
Kallifatidis G, Rausch V, Baumann B, Apel A, Beckermann BM, Groth A, Mattern J, Li Z, Kolb A, Moldenhauer G, Altevogt P, Wirth T, Werner J, Schemmer P, Büchler MW, Salnikov AV, Herr I (2009). Sulforaphane targets panceatic tumor-initiating cells by NF-eB-induced anti-apoptotic signaling. GUT, 58, 949-963.

Herr I, Büchler MW (2009). Glukosinolate der Kreuzblütlerfamilie in Prävention und Therapie maligner Tumore. Dt. Zeitschrift Onkologie, 3, 109-114.

Zhou W, Kallifatidis G, Baumann B, Rausch V, Mattern J, Gladkich J, Giese N, Moldenhauer G, Wirth T, Büchler MW, Salnikov A, Herr I. (2010). Targeting of pancreatic cancer stem cell characteristics by food ingredients quercetin and sulforaphane. Int J Oncology, 37, 551-561.

Rausch V, Liu L, Kallifatidis G, Baumann B, Mattern J, Gladkich J, Wirth T, Schemmer P, Büchler MW, Zöller M, Salnikov A, Herr I. (2010). Synergistic activity of sorafenib and sulforaphane abolishes pancreatic cancer stem cell charcteristics. Cancer Res, 70, 5004-5013.

Herr I, Büchler MW (2010). Dietary constituents of broccoli and other cruciferous vegetables: implications for prevention and therapy of cancer. Cancer Treat Rev, 36, 377-383.

Kallifatidis G, Labsch S, Rausch V, Mattern J, Gladkich J, Moldenhauer G, Büchler MW, Salnikov AV, Herr I. (2011). Sulforaphane increases drug-mediated cytotoxicity cancer stem-like cells of pancreas and prostate. Mol Ther,19, 188-195.

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Reduzierte Stickstoffdüngung besser für das Klima als eine Ausdehnung des Energiepflanzenanbaus

Dipl.-Ing. agr. Helene Foltan
Presse- und Öffentlichkeitsarbeit
Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.

Zu diesem Schluss kommt eine soeben im Fachblatt „Mitigation and Adaptation Strategies for Global Change“ erschienene Studie deutscher und dänischer Wissenschaftler. Bei nur begrenzt verfügbaren Ackerflächen müssen weiterhin ausreichend Lebens- und Futtermittel produziert werden. Erhöhte Stickstoffdüngung kann durch die erzielten Mehrerträge Flächen freisetzen, die für den Energiepflanzenanbau genutzt werden könnten – allerdings lassen sich die mit der Bioenergieproduktion angestrebten Treibhausgasminderungen dann kaum mehr erreichen.

Der Anbau von Energiepflanzen wie Mais oder Raps auf landwirtschaftlichen Nutzflächen kann zur Minderung von Treibhausgasen beitragen, insbesondere durch die damit verbundene Substitution fossiler Energieträger. Auf den ersten Blick scheint eine Ausdehnung des Energiepflanzenanbaus sinnvoll. Allerdings müssen bei insgesamt begrenzt verfügbaren Ackerflächen auch künftig Lebens- und Futtermittel in ausreichender Menge produziert werden.

Können eine höhere Stickstoffdüngung und die damit verbundene Freisetzung von Flächen für die Produktion von Bioenergie dazu beitragen, Treibhausgasemissionen zu vermeiden?

Dieser Frage gingen Wissenschaftler des Potsdamer Leibniz-Instituts für Agrartechnik und der dänischen Aarhus University in einer Studie auf Basis von Langzeitversuchen in Deutschland und Dänemark nach. Die Wissenschaftler stellen in ihrer Studie eine Methode vor, mit der sich die Wirkungen der Stickstoffdüngung auf die Treibhausgasemissionen berechnen lassen. Das Modell berücksichtigt Emissionen, die bei der Herstellung von Stickstoffdüngern entstehen, Lachgasemissionen aus dem Boden in Folge der Düngung sowie die Bindung von Kohlenstoff im Boden. „Die so errechneten Emissionen beziehen wir auf die Fläche, die durch die Ertragssteigerung nach einer erhöhten Stickstoffdüngung frei wird. Dies ermöglicht uns eine Bewertung der Treibhausgasminderung durch den Anbau von Energiepflanzen“, beschreibt Projektleiter Dr. Andreas Meyer-Aurich vom ATB die Methode.

Die Untersuchungen zeigen, dass auf der Basis der stickstoffinduzierten Emissionen eine Intensivierung des Ackerbaus zur Bereitstellung von Flächen für Energiepflanzen nur dann gerechtfertigt ist, wenn die Bioenergieproduktion eine Treibhausgasvermeidung in der Größenordnung von 9 bis 15 Tonnen CO2 pro Hektar bewirkt. Dies wird in Deutschland und Dänemark mit der derzeit praktizierten Produktion von Bioenergie nur in Ausnahmefällen erreicht. Politische Maßnahmen zur Reduzierung des Stickstoffdüngereinsatzes, wie in Dänemark etabliert, sind demnach effektiver als eine Ausdehnung der Bioenergieproduktion.

Die Studie wurde mit Forschungsmitteln der OECD und des dänischen Landwirtschaftsministeriums gefördert.

Originalbeitrag
Meyer-Aurich, A.; Olesen, J.; Prochnow, A.; Brunsch, R. (2012): Greenhouse gas mitigation with scarce land: The potential contribution of increased nitrogen input.
„Mitigation and Adaptation Strategies for Global Change“, published online DOI: 10.1007/s11027-012-9399-x

Die Forschung des Leibniz-Instituts für Agrartechnik Potsdam-Bornim e.V. (ATB) zielt auf die ressourceneffiziente und CO2-neutrale Nutzung biologischer Systeme zur Erzeugung von Lebensmitteln, Rohstoffen und Energie in Anpassung an Anforderungen von Klimaschutz und Klimawandel. Zu diesem Zweck entwickelt das ATB verfahrenstechnische Grundlagen für eine nachhaltige Landbewirtschaftung und stellt innovative technische Lösungen für Landwirtschaft und Industrie bereit. Eine der zentralen Aufgaben ist es, die wirtschaftlichen und sozialen Auswirkungen der eingesetzten Verfahren über die gesamte Wertschöpfungskette zu analysieren – vom Feld bis zum Verbraucher.

Kontakt:
Dr. Andreas Meyer-Aurich
Koordinator des Forschungsprogramms „Bewertung des Technikeinsatzes in Agrarsystemen“
Tel.: 0331 5699-222, E-Mail: ameyeraurich@atb-potsdam.de

Helene Foltan – Öffentlichkeitsarbeit
Tel.: 0331 5699-820, E-Mail: hfoltan@atb-potsdam.de

Leibniz-Institut für Agrartechnik Potsdam-Bornim e.V.
Max-Eyth-Allee 100, 14469 Potsdam
www.atb-potsdam.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Sicheres Fleisch durch chemische Behandlung und Bestrahlung?

Dr. Suzan Fiack
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

12. BfR-Forum Verbraucherschutz zum Thema Dekontamination von Lebensmitteln

Am 4. und 5. Juni fand das 12. BfR-Forum Verbraucherschutz zum Thema „Verbesserungen der Lebensmittelhygiene durch Dekontamination? Standortbestimmung und Perspektiven“ in Berlin-Marienfelde statt. Dort erörtern Experten aus Wissenschaft, Wirt-schaft, Politik und Verbraucherverbänden den aktuellen Wissens-stand zum Thema Dekontaminationsverfahren und beurteilen Mög-lichkeiten, die Fleischhygiene zu optimieren. Die Dekontamination von Lebensmitteln hat das Ziel, Bakterien zu reduzieren bzw. abzu-töten. Dazu können zahlreiche physikalische, biologische und chemische Verfahren eingesetzt werden. Im Vordergrund der Le-bensmittelhygiene stehen selbstverständlich immer Maßnahmen zur Verhütung von Infektionen der Tiere während der Aufzucht, der Mast und dem Transport. Ziel ist, eine Kontamination der Schlacht-tierkörper und Produkte mit Keimen so weit wie möglich zu ver-hindern. Dekontaminationsverfahren sind besonders dann sinn-voll, wenn sie die allgemeinen Hygienemaßnahmen zweckmäßig ergänzen und dies zur Lebensmittelsicherheit nachhaltig beiträgt.

Salmonellen, Campylobacter, EHEC und andere Mikroorganismen kön-nen beim Menschen zum Teil schwere Krankheiten auslösen. Verbrau-cher vertrauen darauf, dass im Handel angebotenes Fleisch frei von krankheitserregenden Keimen ist. Es werden deshalb auf allen Stufen der Herstellungs- und Vertriebskette Anstrengungen unternommen, um eine Infektion von Tieren und eine Kontamination der Schlachttierkörper und Lebensmittel mit krankmachenden Keimen zu vermeiden – oder auf ein akzeptables Maß zu reduzieren. Dies gelingt jedoch auch bei sorg-fältigster Anwendung einer guten Lebensmittelhygienepraxis niemals vollständig. Epidemiologische Unter¬suchungen zeigen, dass Campylo-bacter- und Salmonella-Bakterien durch den Ver¬zehr kon¬taminierter tierischer Nahrungsmittel Erkrankungen auslösen können. Diese Er¬krankungen können beim Menschen, von leichten Symptomen bis hin zu lebensbe¬droh¬lichen Zuständen führen.

In der EU wird der Einsatz von De¬konta¬mina¬tions¬maßnahmen disku-tiert. Die Anzahl der Bakterien und Krankheitserreger könnte durch der-artige Maßnahmen verringert werden. Dazu gehören zum Beispiel die Behandlungen von Lebensmitteln mit UV-Licht, ionisierenden Strahlen oder mit chemischen Substanzen, die gegen Bakterien wirken.

In den USA wird das Geflügel nach der Schlach¬tung zur De¬konta¬mination unter anderem mit chlor¬haltigen Substanzen oder Per¬oxysäuren besprüht oder in Tauchkühlbäder eingebracht. Die Behand-lung von Lebensmitteln mit ionisierenden Strahlen wird in einigen EU-Ländern zum Zwecke der Konservierung von Lebensmitteln und der Verringerung von lebensmittelbedingten Infektionen angewendet. Che-mische Dekontaminationsverfahren sind in der EU bislang nicht zuge-lassen. Die Vorschläge der EU-Kommission, vier antimikrobielle Stoffe (Chlordioxid, saures Natriumchlorit, Trinatriumphosphat und Peroxysäu-ren) für die Dekontaminierung von Geflügelschlachtkörpern zuzulassen, wurden bislang von den Mitgliedstaaten abgelehnt.

Bei dem 12. BfR Forum Verbraucherschutz erörtern Experten den aktu-ellen Wissensstand zur Anwendung und Effizienz von Dekontaminati-onsverfahren. Vertreter aus Wissenschaft, Wirtschaft, Politik und Verbraucherverbänden diskutieren über mögliche Handlungsfelder, Lö-sungsansätze und Schlussfolgerungen für den gesundheitlichen Verbraucherschutz. Insbesondere wird die Frage im Fokus stehen, ob dem Lebensmittelunternehmer und dem Ver¬braucher in der EU derzeit mög¬licher¬weise ein potentiell geeignetes, unbedenkliches Verfahren zur Ge¬winnung sicherer Lebensmittel vorenthalten wird. Die berechtigte Verbrauchererwartung nach sicheren und hygienischen Lebens¬mitteln ist nicht vereinbar mit der Tatsache, dass Geflügel¬fleisch in Europa mit Zoonose¬erregern, wie Salmonellen und Campylobacter, kontaminiert ist.
In der Reihe der BfR-Foren Verbraucherschutz greift das BfR stets Themen des gesundheitlichen Verbraucherschutzes auf, die aktuell für viele Akteure relevant und von Interesse sind. Das Forum dient als eine Plattform, auf der aktuelle wissenschaftliche Kenntnisse präsentiert werden und darüber hinaus die praktischen und auch möglichen politi-schen Konsequenzen offen diskutiert werden.

Über das BfR

Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernäh-rung, Landwirtschaft und Verbraucherschutz (BMELV). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsauf-gaben stehen.

BfR-Presseinformation
Bundesinstitut für Risikobewertung
Max-Dohrn-Str. 8-10
10589 Berlin

Telefon: 030 1 8412-4300
Telefax: 030 1 8412-4970

Quelle: Informationsdienst Wissenschaft

(zurück)


Klimaerwärmung kann sich über Freisetzung von CO2 aus Waldböden selbst verstärken

Dr. Eberhard Fritz
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Biogeochemie

Internationale Studie belegt, dass ein Großteil des in Böden gebundenen Kohlenstoffs bei Erwärmung verstärkt als Treibhausgas CO2 freigesetzt werden kann
In Böden wird etwa doppelt so viel Kohlenstoff gespeichert wie in der Atmosphäre vorhanden ist. Die Verweildauer des Kohlenstoffs im Boden ist jedoch recht ungewiss. Üblicherweise gelangt der Kohlenstoff als Bestandteil organischer Verbindungen von zumeist abgestorbenen Lebewesen (Tiere und Pflanzen) in die oberste Bodenschicht. Der Abbau durch Bakterien und Pilze setzt den organisch gebundenen Kohlenstoff im Laufe der Zeit als gasförmiges Kohlendioxid (CO2) wieder frei. Wie stark diese CO2-Freisetzung aus organischem Bodenkohlenstoff von den jeweiligen Umweltbedingungen und anderen Faktoren beeinflusst wird, ist derzeit weitgehend unbekannt. Fest stand bisher, dass der Vorgang durch Erwärmung beschleunigt wird, was zumindest für jungen Boden-Kohlenstoff schon früher mehrfach gezeigt wurde. Doch trifft dies auch für Kohlenstoff zu, der schon vor Jahrzenten im Boden gebunden wurde, und wie hoch ist der Anteil dieses alten Kohlenstoffs im Boden?

Zur Beantwortung dieser Fragen wurden Feldversuche an 2 US-amerikanischen Standorten durchgeführt, in Wäldern gemäßigter Klimazonen in Wisconsin und North Carolina. Die Waldgebiete wurden in einem aufwendigen Verfahren über 10 Jahre lang kontinuierlich mit isotopisch markiertem Kohlendioxid begast. Von den Pflanzen zunächst aufgenommen, gelangte er später in den Boden und konnte durch die Markierung als neuer Kohlenstoff von zuvor gebundenem, altem Kohlenstoff unterschieden werden. In Bodenproben aus 0-15 cm Tiefe wurden dann der Gehalt und das Alter des organisch gebundenen Kohlenstoffs gemessen sowie dessen temperaturabhängige Umsetzung zu CO2 in kontrollierten Laborexperimenten ermittelt. Die Studie wurde als Kooperation zwischen dem Max-Planck-Institut für Biogeochemie, Jena, und der University of California, in Irvine, CA, und Berkeley, CA, sowie dem Lawrence Berkeley National Laboratory, CA, durchgeführt.

„Wir konnten zunächst zeigen, dass etwa 2/3 des gemessenen Kohlenstoffs schon vor über 10 Jahren im Waldboden gebunden worden war“, erklärt die federführende Autorin Francesca M. Hopkins, Doktorandin an der University of California, Irvine, und Gastwissenschaftlerin am Max-Planck-Institut für Biogeochemie. Dieser „alte“ Kohlenstoff überwiegt daher in den gemessenen Bodenproben und bestätigt frühere Abschätzungen des Kohlenstoffalters in Waldböden anderer temperierter, aber auch tropischer Regionen.

Mit zwei unabhängigen Ansätzen, in denen unterschiedliche Isotope des Kohlenstoffs gemessen werden, konnte die Zersetzungsrate des jungen mit der des alten Kohlenstoffs bei steigenden Temperaturen unterschieden werden. In beiden Ansätzen zeigte sich, dass der alte Kohlenstoff zwar nur in 30% des gesamten CO2 freigesetzt wurde. „Überraschenderweise nahm aber die Zersetzung des alten Kohlenstoffs mit steigender Temperatur genauso – oder sogar noch stärker – zu, wie beim jungen Kohlenstoff“, sagt Prof. Susan Trumbore, Direktorin am Jenaer Max-Planck-Institut und Leiterin der Studie.

Damit konnte bestätigt werden, dass auch der „alte“ Bodenkohlenstoff durch Temperaturerhöhung schneller wieder zu CO2 umgewandelt und freigesetzt wird. Mit Ausnahme geringer, sehr alter Kohlenstoff-Vorräte, die vor Jahrhunderten und Jahrtausenden im Boden abgelagert wurden, wird also der überwiegende Teil (etwa 50% bis 95%) des organisch gebundenen Bodenkohlenstoffs durch Erwärmung verstärkt als CO2 freigesetzt.

Für die Entwicklung des Klimas könnte dies gravierende Folgen haben: Die Klimaerwärmung kann eine verstärkte CO2-Freisetzung aus dem Boden in die Atmosphäre verursachen, was wiederum über den Treibhauseffekt des CO2 zur weiteren Erwärmung führt. Erwärmung und CO2-Freisetzung aus dem Boden würden sich also gegenseitig verstärken, in einer positiven Rückkopplung. Wie dieses Szenario durch Auftauen permanent gefrorener Böden, dem Permafrost, beeinflusst würde, soll vom Jenaer Max-Planck-Institut zukünftig in den Tundren Nordsibiriens erforscht werden. [EF]

Kontakt am Max-Planck-Institut für Biogeochemie:
Prof. Susan E. Trumbore, PhD
Max-Planck-Institut für Biogeochemie, Jena
Tel.: +49 3641 576110
Email: trumbore@bgc-jena.mpg.de

Original-Veröffentlichung:
Warming accelerates decomposition of decades-old carbon in forest soils
Francesca M. Hopkins, Margaret S. Torn, Susan E. Trumbore
Proc. Nat. Acad. Sci. USA 2012
elektronische Vorabveröffentlichung unter http://www.pnas.org/content/early/recent

Hintergrund-Informationen:
Das Max-Planck-Institut für Biogeochemie in Jena erforscht die Kreisläufe essentieller Elemente, insbe-sondere Kohlenstoff, und ihre Wechselwirkungen zwischen der Biosphäre, der Atmosphäre, der Geosphäre und den Ozeanen. Die Forschungsarbeiten zielen auf die Erfassung der Stoffkreisläufe und ihre Bedeutung für das Klimasystem im globalen Maßstab und für große Zeitskalen. Bedingt durch die Vielseitigkeit des Fachgebietes arbeiten Physiker, Meteorologen, Geologen, Chemiker, Biologen und Mathematiker sehr eng zusammen. Das Institut wurde 1997 gegründet. Näheres siehe www.bgc-jena.mpg.de.

Weitere Informationen:
http://www.bgc-jena.de Homepage des Instituts
http://www.pnas.org/content/early/recent Elektronische Vorabveröffentlichung der Ergebnisse bei Proc.Natl.Acad.Sci.USA

Quelle: Informationsdienst Wissenschaft

(zurück)


Leichtes Ausdauertraining wirksamer als Schmerzmittel

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Experten aus ganz Deutschland überprüften gängige Therapieformen beim Fibromyalgie-Syndrom auf Wirksamkeit / Überarbeitete Behandlungsleitlinie in deutscher und englischer Version erschienen
In der Behandlung des Schmerzsyndroms Fibromyalgie – eine chronische Schmerzerkrankung des Bewegungssystems – erweist sich individuell angepasstes Ausdauer- und Krafttraining als besonders wirksam; Schmerzmittel zeigen dagegen wesentlich geringere Wirkung als früher angenommen und sind nur im begrenzten Umfang einzusetzen. Um zu ermitteln, welche Therapieformen sich bisher bewährt haben und von welchen abzuraten ist, haben Wissenschaftler und Ärzte des Universitätsklinikums Heidelberg und aus ganz Deutschland sämtliche verfügbaren Therapiestudien, die bestimmte hochrangige Qualitätskriterien erfüllen, ausgewertet und daraus ihre Behandlungsempfehlungen abgeleitet: Die überarbeitete und in deutscher und englischer Version aktuell erschienene Leitlinie der Arbeitsgemeinschaft Wissenschaftlicher Medizinischer Fachgesellschaften bietet behandelnden Ärzten und Betroffenen eine Orientierungshilfe im schwer zu überschauenden Angebot möglicher Therapien.

Professor Dr. Wolfgang Eich, Schmerzexperte an der Klinik für Allgemeine Innere Medizin und Psychosomatik des Universitätsklinikums Heidelberg und federführend an der Überarbeitung der Leitlinie beteiligt, hat diese im Rahmen einer Pressekonferenz am 4. Juni 2012 am Universitätsklinikum Heidelberg vorgestellt.

Rund vier Prozent der Bevölkerung betroffen

Das sogenannte Fibromyalgiesyndrom ist eine chronische Schmerzerkrankung des Bewegungssystems. In den Industrienationen leiden rund vier Prozent der Bevölkerung an der bislang unheilbaren Erkrankung; betroffen sind hauptsächlich Frauen zwischen 40 und 60 Jahren. Eine ganze Reihe von biologischen, psychischen und sozialen Faktoren ist mit der Entwicklung eines Fibromyalgiesyndroms assoziiert, ohne dass bisher eindeutige Aussagen zur Ursache der Erkrankung gemacht werden können. Die Diagnose ist wegen des weiten Spektrums möglicher Beschwerden schwierig und kann nur durch den Ausschluss anderer Erkrankungen getroffen werden. Betroffene leiden unter anhaltenden Schmerzen in Nacken, Rücken, Brust, Bauch oder Gelenken, je nach Schwere der Erkrankung auch unter Schlafstörungen, Erschöpfung, Reizmagen und -darm sowie psychischen Beschwerden wie Depression oder Angst.

Neue medizinische Erkenntnisse, Erfahrungen von Experten und Patienten einbezogen

Seit 2008 gibt es eine Leitlinie für Diagnose und Therapie des Fibromyalgiesyndroms. Sie soll Ärzte darin unterstützen, wirksame Therapien auszuwählen, und Patienten Behandlungen ohne Aussicht auf Erfolg bzw. Nebenwirkungen ersparen. „Bisher gab es zu vielen Behandlungen noch keine belastbaren Ergebnisse, daher konnten wir 2008 dazu keine klaren Aussagen machen“, erklärt Professor Dr. Wolfgang Eich. Die aktualisierte Version bezieht neue medizinische Erkenntnisse aus wissenschaftlichen Studien sowie Erfahrungen von Experten und Patienten mit ein. An der Überarbeitung waren Vertreter aus neun medizinischen Fachgesellschaften und zwei Patientenorganisationen sowie 50 Ärzte und Wissenschaftler aus ganz Deutschland beteiligt.

Ziel jeder Behandlung muss es sein, Patienten das Leben mit der Erkrankung zu erleichtern, ihre Beschwerden zu lindern und ihre Lebensqualität trotz Schmerzen zu verbessern. „Unsere Recherchen haben gezeigt, dass die Patienten besonders von regelmäßigen Aktivitäten profitieren, die sie eigenständig im Sinne eines Selbstmanagements durchführen können“, so Eich. Neu in der Leitlinie ist daher die Empfehlung für ein individuell angepasstes Ausdauer- und leichtes körperliches Krafttraining. Dazu zählen z.B. 30 Minuten schnelles Spazierengehen, Walking oder Fahrradfahren zwei- bis dreimal in der Woche. „Optimal wäre die Kombination mit Entspannungsverfahren und Psychotherapie-Verfahren, die die Selbstwirksamkeit erhöhen, wie z.B. kognitiven Verhaltenstherapien oder anderen Psychotherapieverfahren“, sagt der Mediziner. Diese Formen der „multimodalen“ Therapie zeigen die besten Ergebnisse.

Experten empfehlen Yoga oder Tai Chi

Enttäuscht zeigte sich der Schmerzexperte von den Ergebnissen der medikamentösen Therapieansätze: „Nur wenige Präparate zeigten langfristigen Nutzen, bei den meisten überwiegen die Nebenwirkungen bei längerer Einnahme.“ Nicht geeignet sind entzündungshemmende Schmerzmittel, Opiode oder Cannabinoide. Bestimmte niedrig dosierte Antidepressiva linderten dagegen die Beschwerden und werden daher für den zeitlich begrenzten Einsatz empfohlen.

Auch verschiedene komplementäre Therapieverfahren standen auf dem Prüfstand. „Es gibt Studien zum Einsatz von Homöopathie und Reiki bei Fibromyalgie. Bei beiden Ansätzen konnte keine Wirkung nachgewiesen werden“, sagt Eich. Anders bei meditativen Bewegungstherapien wie Tai Chi oder Yoga: Die Kombination aus bewusster Bewegung und Entspannung tat vielen Patienten gut und wird in der neuen Leitlinie daher sehr empfohlen.

Weitere Informationen im Internet:

——————————————————————————–

Leitlinien Fibromyalgie-Syndrom:
http://de.wikipedia.org/wiki/Fibromyalgie

Forschungsverbund LOGIN:
http://www.klinikum.uni-heidelberg.de
http://www.login-verbund.de
http://www.klinikum.uni-heidelberg.de/Psychosomatik-des-Bewegungssystems

Literatur:
Themenheft „ Fibromyalgiesyndrom – Eine interdisziplinäre S3-Leitlinie. Hintergründe und Ziele – Methodenreport – Klassifikation – Pathophysiologie – Behandlungsgrundsätze und verschiedene Therapieverfahren. Der Schmerz 2012; 26.

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Adler-TV: Bruder-Mord im Schreiadlerhorst

Eva Goris
Kommunikation
Deutsche Wildtier Stiftung

Verfolgen Sie per Web-Kamera der Deutschen Wildtier Stiftung das Geschehen in der Kinderstube der Küken
Junge Schreiadler sehen tollpatschig und unbedarft aus. Mit ihrem weißen Flaum und den taucherbrillenartigen Maserungen rund um die Augen sind sie einfach niedlich. „Wer ein Schreiadlerjunges im Horst sitzen sieht, käme niemals auf den Gedanken, dass ein angeborener Aggressionstrieb das Schicksal der ersten Lebenstage bestimmt und es bald zum Brudermord kommen wird“, sagt Dr. Andreas Kinser, Projektleiter der Deutschen Wildtier Stiftung. „Das erstgeborene Junge attackiert sein Geschwisterchen und hackt schließlich so lange mit dem Schnabel auf es ein, bis es stirbt.“ Kain erschlägt Abel! Daher heißt diese natürliche Verhaltensweise auch „obligatorischer Kainismus“.
Im Abstand von drei bis vier Tagen hat das Weibchen vor etwa 40 Tagen zwei Eier gelegt. Das Schlüpfen des ersten Schreiadler-Kükens haben viele Besucher der Website über www.DeutscheWildtierStiftung.de bereits mit Spannung verfolgt. Jetzt ist das zweite Küken geschlüpft: Der Verdrängungskampf beginnt. Kainismus ist genetisch bedingt. Die Gründe für diese Verhaltensweise sind bis heute nicht abschließend geklärt. Der dramatische „Brudermord“ ist unabhängig vom Ernährungszustand der Küken. „Es könnte sein, dass das Zeitgeborene von der Natur als eine Art Reproduktionsreserve für besonders nahrungsreiche Jahre vorgesehen ist“, sagt Kinser. In diesen extrem seltenen Fällen bleibt der Aggressionstrieb aus und beide Küken werden von ihren Eltern aufgezogen.

Per Mausklick können Sie jederzeit einen Blick in die Küken-Kinderstube der Schreiadler im lettischen Naturreservat Teici werfen. Dr. Andreas Kinser steht in ständigem Kontakt mit Dr. Ugis Bergmanis, dem Kooperationspartner der Deutschen Wildtier Stiftung vor Ort, der auch die Web-Kamera installiert hat. „Es gibt mittlerweile eine feste Fangemeinde, die regelmäßig Adler-TV schaut“, sagt Kinser.

Zugang zur Schreiadler-Kamera und Informationen über das Schutzprogramm: (www.DeutscheWildtierStiftung.de)

Kostenloses Bildmaterial: www.Presse.DeutscheWildtierStiftung.de
Interviews: Hilmar Freiherr von Münchhausen, Geschäftsführer der Deutschen Wildtier Stiftung 039753 29730

Quelle: Informationsdienst Wissenschaft

(zurück)


Fibromyalgie auch bei Kindern?

Kay Gropp
Pressestelle
Universität Witten/Herdecke

Die einschlägigen Fachgesellschaften haben im Frühjahr diesen Jahres eine überarbeitete Therapieleitlinie für die Diagnostik und Therapie der Fibromyalgie erstellt.
Ganzkörperschmerz ist seit einigen Jahren ein gängiger Begriff geworden, insbesondere für Erwachsene. Ärzte und Fachleute sprechen bei dieser Erkrankung von der sogenannten Fibromyalgie. Die einschlägigen Fachgesellschaften haben im Frühjahr diesen Jahres eine überarbeitete Therapieleitlinie für die Diagnostik und Therapie der Fibromyalgie erstellt. Aber was ist, wenn Kinder unter Schmerzen am ganzen Körper leiden? Leiden sie dann auch unter Fibromyalgie?

Die Antwort ist gar nicht so leicht. Sicherlich können Kinder unter Schmerzen am ganzen Körper leiden; das steht außer Frage. Aber handelt es sich dann auch um eine Fibromyalgie, die durch chronische Schmerzen in mehreren Körperregionen und Druckschmerz in sogenannten Tender Points (Druckpunkte, z.B. am Ellenbogen) inklusive Müdigkeit und Erschöpfung gekennzeichnet ist? Die ExpertInnen (insgesamt 50 aus 8 Arbeitsgruppen) sagen: „nein, nicht sicher“. Während die Diagnose im Erwachsenenalter gesichert ist, ist dies bei Kindern und Jugendlichen keinesfalls der Fall. Tatsächlich wurde bisher kaum überprüft, ob die Kriterien der Erwachsenen auch für Kinder und Jugendliche gelten, geschweige denn, ob man anhand dieser Kriterien tatsächlich Fibromyalgie bei Kindern sicher diagnostizieren kann. Die ExpertInnen sprechen daher vom „sogenannten juvenilen Fibromyalgie-Syndrom (sogenanntes JFMS)“, sogenannt, weil viele Forscher an die Existenz des Fibromyalgiesyndroms glauben und es so benennen.

Dieser Meinung konnten sich die deutschen Experten nicht anschließen. Federführender Autor der Leitlinie war der Lehrstuhlinhaber für Kinderschmerztherapie der Universität Witten/ Herdecke und Chefarzt des Deutschen Kinderschmerzzentrums, Prof. Dr. Boris Zernikow, er meint: „Trotz des Streites um den Namen der Krankheit, der eigentlich nebensächlich ist, dass diese Kinder an einem Ganzkörperschmerz leiden und einer spezialisierten Behandlung bedürfen, steht außer Frage“. Genau hinschauen, bevor man diagnostiziert, raten die ExpertInnen. Eine umfassende Diagnostik, die sowohl medizinische als auch psychologische Abklärungen einschließt, ist insbesondere bei Kindern unabdingbar. Andere Erkrankungen wie jugendliche (juvenile) Rheumaerkrankungen müssen ausgeschlossen werden. Psychische Erkrankungen, z.B. kindliche Angststörungen, die bei diesen Kindern sehr häufig zeitgleich bestehen können, müssen in der Therapie berücksichtigt werden. Erst bei der gesicherten Diagnose einer chronischen Schmerzstörung, so die ExpertInnen, wird eine multimodale spezialisierte Therapie empfohlen. Multimodal therapieren – d.h. nicht nur der Arzt behandelt, sondern ein Team aus KinderärztInnen, PhysiotherapeutInnen und Kinder- und JugendpsychotherapeutInnen ist für die Behandlung verantwortlich.

Das Deutsche Kinderschmerzzentrum hat sich auf die Behandlung von chronisch schmerzkranken Kindern und Jugendlichen spezialisiert, darunter auch Kinder, die unter Ganzkörperschmerzen leiden. Die Kinder lernen hier im Rahmen der multimodalen Schmerztherapie unter anderem, ihren Schmerz zu verstehen, selbstständig damit umzugehen und sich trotz bestehender Schmerzen zu bewegen.

Auch das 12-jährige Mädchen Janine leidet vermutlich unter einer chronischen Schmerzstörung und kann mit der Bezeichnung juveniles Fibromyalgie-Syndrom wenig anfangen. Doch ihr kann geholfen werden, so die ExpertInnen. Denn laut ihrer Analysen (sie haben mehr als 150 wissenschaftliche Studien durchforstet) zeigen erste Studien, dass es betroffenen Kindern nach multimodalen Interventionen besser geht. Trotzdem besteht Bedarf nach weiteren Erkenntnissen, z.B. nach klaren Diagnosekriterien für chronische Schmerzstörungen bei Kindern und Jugendlichen, und nach weiteren Therapiestudien, die bestätigen, dass diesen Kindern geholfen werden kann.

Die Leitlinie ist online unter http://www.awmf.org/uploads/tx_szleitlinien/041-004l_S3_Fibromyalgiesyndrom_2012-04.pdf abrufbar.

Kontakt:

Deutsches Kinderschmerzzentrum
Ann-Kristin Ruhe, MScPH
Projektmanagement & Öffentlichkeitsarbeit
Vestische Kinder- und Jugendklinik Datteln – Universität Witten/Herdecke
Dr. Friedrich-Steiner-Str. 5, 45711 Datteln
Tel. 02363-975-193
E-Mail : A.Ruhe@deutsches-kinderschmerzzentrum.de
www.deutsches-kinderschmerzzentrum.de

Über uns:

Das Deutsche Kinderschmerzzentrum an der Vestischen Kinder- und Jugendklinik Datteln – Universität Witten/Herdecke gilt als Referenzzentrum in der Versorgung chronisch schmerzkranker Kinder und Jugendliche. Es baut auf große Erfahrungen in der Behandlung schmerzkranker Kinder und Jugendlicher auf: Schon seit Jahren gibt es hier eine einzigartige Kinderschmerzstation und ein ambulantes Angebot in der Kinderschmerzambulanz.
Im Deutschen Kinderschmerzzentrum wird in Zukunft therapiert, geforscht und daran gearbeitet, die Situation von Kindern und Jugendlichen mit chronischen Schmerzen öffentlich zu machen und zu verbessern.

Die Universität Witten/Herdecke (UW/H) nimmt seit ihrer Gründung 1982 eine Vorreiterrolle in der deutschen Bildungslandschaft ein: Als Modelluniversität mit rund 1.450 Studierenden in den Bereichen Gesundheit, Wirtschaft und Kultur steht die UW/H für eine Reform der klassischen Alma Mater. Wissensvermittlung geht an der UW/H immer Hand in Hand mit Werteorientierung und Persönlichkeitsentwicklung.

Witten wirkt. In Forschung, Lehre und Gesellschaft.

Weitere Informationen:
http://www.awmf.org/uploads/tx_szleitlinien/041-004l_S3_Fibromyalgiesyndrom_2012…

Quelle: Informationsdienst Wissenschaft

(zurück)


Kostengünstige Deiche aus Baggergut

Ingrid Rieck
Presse und Kommunikation
Universität Rostock

Universität Rostock testet neuartige Materialien und Verfahren
Für Deichbauten entlang der Ostseeküste könnte künftig Baggergut aus Flüssen und Bodden verwendet werden. Das würde im Deichbau enorme Kosten sparen.
Federführend leitet die Rostocker Agrar- und Umweltwissenschaftliche Fakultät unter Leitung von Professor Fokke Saathoff vom Lehrstuhl für Geotechnik und Küstenwasserbau in Kooperation mit der Technischen Universität Danzig (Polen) und dem Steinbeis Transferzentrum für Angewandte Landschaftsplanung auf dem städtischen Spülfeld „Radelsee“ in Markgrafenheide das mehrjährige Forschungsprojekt DredgDikes (Nassbaggergut-Deiche), das von der EU mit 1,85 Millionen Euro kofinanziert wird. Neben den zuständigen Behörden aus Deutschland und Polen sind auch Unternehmen aus Deutschland, Polen, Litauen und Lettland beteiligt.

Das Ziel: Die Forscher testen Baggergut als Ersatzmaterial für den Deichbau in großmaßstäblichen Versuchen. Die ersten zwei parallel angelegten Versuchsdeiche sind jetzt auf den Spülfeldern der Hansestadt Rostock errichtet worden. Dafür wurde feinkörniges Baggergut aus Mecklenburg-Vorpommern als Baumaterial verwendet. Die Testdeiche haben eine Höhe von 3,30 Metern. Sie sind etwa 150 Meter lang und am Fuß 50 Meter breit. Die Bauwerke sind in acht Abschnitte geteilt, an denen unterschiedliche Bauweisen, Materialien und Querschnitte getestet werden. Im Langzeittest werden jetzt die Eigenschaften der Baumaterialien auf Durchsickerung und Erosionsstabilität, aber auch ihr Verhalten bei Überflutung untersucht. Verbaut wurden unter anderem Seesand für den Deichkern und Baggergut von der Warnowquerung für die Deckschicht. Dieses Material ist mehrere Jahre lang gereift. „Beim Bau der Versuchsdeiche hat die Firma UTL aus Kaschow (Mecklenburg-Vorpommern) hervorragende Arbeit geleistet“, resümiert Projektkoordinator Dr. Stefan Cantré.

„Wir sind begeistert von dieser Forschung und froh, dass wir die Universität Rostock mit im Boot haben“, sagt Hans-Joachim Meier, Leiter des Staatlichen Amtes für Landwirtschaft und Umwelt Mittleres Mecklenburg. „Wenn es den Forschern gelingt, den Nachweis zu erbringen, dass Baggergut für den Deichbau genutzt werden kann, bringt das gerade für Mecklenburg-Vorpommern große Vorteile“. Meier verweist auf notwendige Küstenschutzmaßnahmen, beispielsweise auf dem Darß. „Wenn wir Baumaterial über lange Wege für den Deichbau anfahren lassen, oder Sand aus der Ostsee baggern müssen, kostet das viel Geld oder erfordert lange Genehmigungsverfahren. Wir verfolgen die Forschungen der Universität auf diesem Gebiet mit großem Interesse und wirken gern als Praxispartner des Hoch- und Küstenschutzes mit.“

„Die neuen Bauweisen, die wir entwickelt haben, rufen international großes Interesse hervor“, sagt Prof. Fokke Saathoff. Die Rostocker Wissenschaftler wollen herausfinden, ob sich verschiedene Arten von Baggergut als Baustoffe für den Deichbau eignen und in welchen Fällen man die Eignung herbeiführen kann, indem man beispielsweise Geokunststoffe als Erosionsschutz oder als Bewehrungsschicht mit verbaut.

Baggergut falle nicht nur an der Küste, sondern auch im Binnenland an, sagt Dr. Cantré. Allein auf den Rostocker Spülfeldern, die von der Hansestadt Rostock betrieben werden, könnten jährlich bis zu 200.000 Kubikmeter aufbereitet werden. Getrocknet eignet sich das feinkörnige Bodenmaterial mit seinem Humusanteil unter anderem auch für den Landschaftsbau.

Wurde lange Zeit das Baggergut ohne Nutzungsabsicht verspült, erfolgte zwischen 1991 – 2000 ein Umbau der Spülfelder Radelsee und Schnatermann in der Nähe Rostocks zu einer industriellen Absetz-und Aufbereitungsanlage (IAA) für Nassbaggergut. Die Spülfelder stehen unter Aufsicht des Tief- und Hafenbauamtes Rostock. „Wir haben großes Interesse an effektiven Nutzungsstrategien für Baggergut“, sagt Amtsleiter Heiko Tiburtius und ist stolz, dass Rostock damit federführend in der Fachwelt ist. Alle zwei Jahre findet in der Hansestadt ein Baggergutseminar statt, auf dem neueste Erkenntnisse besprochen werden.

Die Hansestadt Rostock stellt eine mehrere Hektar große Fläche zum Bau und zur Instandhaltung der Testdeiche auf dem Spülfeld Radelsee für die nächsten Jahre zur Verfügung. Diese Deiche werden auf dem Spülfeld mindestens fünf Jahre nach Projektende bestehen bleiben, so dass unter Regie des Tief- und Hafenbauamtes auch weiterhin Tests durchgeführt werden können.

Neben den Versuchsdeichen in Rostock wird ein Pilotdeich in der Nähe von Ribnitz-Damgarten errichtet und anschließend ein dreisprachiges Handbuch zur Verwendung von Baggergut im Deichbau erstellt, das in der Region der südlichen Ostsee verteilt werden soll.

Kontakt:
Universität Rostock
Fakultät für Agrar- und Umweltwissenschaften
Prof. Dr. Fokke Saathoff
Fon: +49 (0) 381 498 3700
Mail: fokke.saathoff@uni-rostock.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Fußball-Nationalspieler der vergangenen 100 Jahre hatten eine leicht geringere Lebenserwartung

Jens Müller M.A.
Medizinische Fakultät / UKH
Martin-Luther-Universität Halle-Wittenberg

Die deutschen Fußball-Nationalspieler der vergangenen 100 Jahre hatten eine leicht geringere Lebenserwartung als die Durchschnittsbevölkerung. Dies fand der hallesche Epidemiologe PD Dr. Oliver Kuß in einer Studie heraus.
Die deutschen Fußball-Nationalspieler hatten in der Zusammenfassung der vergangenen 100 Jahre eine etwas geringere Lebenserwartung als die Durchschnittsbevölkerung. Dies ergab eine statistische Untersuchung des Instituts für Medizinische Epidemiologie, Biometrie und Informatik der Medizinischen Fakultät der Martin-Luther-Universität Halle-Wittenberg. Die Untersuchung durch PD Dr. Oliver Kuß umfasste alle 847 Nationalspieler, die von 1908 bis 2006 ein Länderspiel für den Deutschen Fußball-Bund absolviert hatten. Von diesen Sportlern wurden die Geburts- und Sterbedaten erfasst sowie das Datum des ersten und letzten Länderspieles. Von 35 Sportlern konnte das Todesdatum nicht festgestellt werden, so dass schließlich 812 Nationalspieler in die Bewertung einbezogen wurden. Die erhobenen Daten wurden dann mit den erwarteten Werten aus der Normalbevölkerung verglichen: „Die Lebenserwartung der Nationalspieler lag um 1,9 Jahre unter dem erwarteten Wert der Bevölkerung“, stellte PD Dr. Oliver Kuss fest. Selbst 25 Jahre nach dem letzten Länderspiel lag noch eine um 0,7 Jahre reduzierte Lebenserwartung vor.
Die geringere Lebenserwartung war vor allem in der ersten Hälfte des Betrachtungszeitraumes festzustellen. Ursachen könnten in der schlechteren medizinischen Versorgung in der ersten Hälfte des 20. Jahrhunderts sowie im Tod von Nationalspielern im Zweiten Weltkrieg liegen. Gegen Ende des Beobachtungszeitraumes verflachte sich der Unterschied bei der Lebenserwartung von Nationalspielern und der Normalbevölkerung deutlich, so dass für die aktuellen Nationalspieler nicht mehr von einer reduzierten Lebenserwartung auszugehen ist.

Die Epidemiologen konnten zudem feststellen, dass je jünger der Nationalspieler sein erstes Länderspiel absolvierte desto größer sein Verlust an Lebenserwartung war. Je älter der Spieler war, um so mehr nahm die Differenz bei der Lebenserwartung ab. „Ursachen für diese statistisch festgestellten Unterschiede können wir allerdings nicht benennen, da uns Daten über das Gesundheitsverhalten von Fußballern nach ihrem Karriere-Ende fehlen“, sagt Dr. Kuß.

Die Untersuchung ist in der Fachzeitschrift Scandinavian Journal of Medicine & Science in Sports erschienen.

Quelle: Informationsdienst Wissenschaft

(zurück)


Gesundheits-Check für Fließgewässer in Europa

Christine Vollgraf
Pressestelle des Forschungsverbundes Berlin e.V.
Forschungsverbund Berlin e.V.

In einem einmaligen Feldexperiment untersuchten zehn Forscherteams aus neun Ländern den ökologischen Zustand von einhundert Fließgewässern in ganz Europa. Sie setzten dabei zum ersten Mal in großem Maßstab den Abbau von Falllaub als Bewertungsmethode ein. Über die Studie berichten sie in der aktuellen Ausgabe von Science.

Flüsse und Bäche in Europa sind durch Landwirtschaft, Abwässer und Schadstoffe aus der Atmosphäre unterschiedlich stark belastet. Die im Jahr 2000 in Kraft getretene Wasserrahmenrichtlinie der EU hat deshalb zum Ziel, bis 2015 alle Fließgewässer in einen „guten ökologischen und chemischen Zustand“ zu überführen. Insbesondere solle auch die ganzheitliche Betrachtung aus ökologischer Sicht mehr berücksichtigt werden, heißt es in der Richtlinie.

Um den Zustand von Bächen und Flüssen zu ermitteln, messen Umweltexperten derzeit routinemäßig Parameter wie Temperatur, Säuregrad und Nährstoffgehalt. Und sie untersuchen die Zusammensetzung des sogenannten Makrozoobenthos – das sind Insektenlarven und andere Kleinlebewesen an der Gewässersohle. Letztere Methode wurde ursprünglich entwickelt, um zu beurteilen, wie stark das Wasser durch Abwässer belastet ist. Heute ist die Belastungssituation von Gewässern viel komplexer. Uferbefestigungen, Staustufen und massive Veränderungen des natürlichen Abflusses beeinträchtigen Fließgewässer als Ökosysteme ebenso stark wie eine Vielzahl chemischer Stoffe, die Einwanderung exotischer Arten und der Klimawandel.

Für die Beurteilung eines Ökosystems in seiner Gesamtheit reichen die etablierten Kriterien deshalb nicht mehr aus, ist Professor Mark Gessner vom Leibniz-Institut für Gewässerökologie und Binnenfischerei (IGB) überzeugt. „So wie ein Patient ohne Fieber trotzdem krank sein kann, können Bäche und Flüsse als Ökosystem trotz sauberen Wassers eine Vielzahl anderer Probleme haben“, sagt der Biologe. Mitentscheidend für ein gesundes Ökosystem seien funktionierende Prozesse, die für das natürliche System charakteristisch sind. Dieser Aspekt werde bei der Bewertung von Fließgewässern bislang völlig ausgeklammert.

Gessner und seine europäischen Forscherkollegen haben deshalb ein neues Verfahren getestet, das auf einem solchen Prozess beruht – dem Abbau von Laub in Fließgewässern. „Laubeintrag ist die wichtigste Quelle für die Nahrungsnetze in kleineren Fließgewässern und von größter Bedeutung für den Gesamtstoffumsatz“, so Gessner, der die Untersuchungen mit seiner ehemaligen Arbeitsgruppe an der Eawag, dem Wasserforschungsinstitut der Schweiz, durchgeführt hat. Verantwortlich für den Abbau sind vor allem mikroskopisch kleine Pilze mit zum Teil bizarr geformten Sporen sowie das Makrozoobenthos.

Die Forscher platzierten mit Erlen- und Eichenlaub gefüllte Netzbeutel in 100 Bächen in Frankreich, Großbritannien, Irland, Polen, Portugal, Rumänien, Spanien, Schweden und der Schweiz. Durch die Wahl verschiedener Maschenweiten konnte das Makrozoobenthos ein- oder ausgeschlossen und dadurch dessen Beitrag am Abbau ermittelt werden. Die Nährstoffkonzentration in den Gewässern unterschied sich um einen Faktor bis zu Tausend. Dann ermittelten die Forscher die Zeit, in der bei normierter Temperatur die Hälfte des Laubs abgebaut wurde – analog der Halbwertzeit beim radioaktiven Zerfall. Außerdem bestimmten sie in einem Teil der Gewässer Anzahl und Artenspektrum des Makrozoobenthos sowie die Konzentration von Phosphat und mineralischen Stickstoffverbindungen.

Es zeigte sich, dass in nährstoffarmen Gewässern nur wenige Organismen leben, die das Laub effizient nutzen können. Gewässer mit einem hohen Überangebot an Nährstoffen bieten für diese Tiere ebenfalls kaum geeignete Lebensbedingungen. Entsprechend gering war in beiden Fällen ihr Beitrag zum Abbau. Im Bereich mittlerer Nährstoffkonzentrationen fanden die Forscher jedoch keinen Zusammenhang mehr zwischen Konzentration, Makrozoobenthos und Abbaurate. Gessner sagt das so: „In manchen Bächen mit mittlerer Nährstoffkonzentration war der Abbau durch Tiere rasant schnell. In anderen hingegen erfolgte er ebenso langsam wie in den nährstoffarmen und stark verschmutzten Gewässern.“

Ein beschleunigter Laubabbau kann also Beeinträchtigungen durch Nährstoffe signalisieren, wo herkömmliche Methoden auf eine einwandfreie Gewässerqualität schließen würden, nämlich im Bereich relativ niedriger Nährstoffkonzentrationen. Die Ergebnisse zeigen aber auch, dass der Laubabbau als Bewertunsgmethode differenziert betrachtet werden muss und nur in Kombination mit anderen Kriterien funktioniert. Gessner sieht trotzdem Potenzial in der Methode: „Eine ganzheitliche Betrachtung der Gewässer ist unabdingbar. Und wir brauchen eine leistungsfähige Differentialdiagnose, ähnlich wie in der Medizin.“ Prozesse wie der Laubabbau könnten hierzu einen wichtigen Beitrag leisten. „Als allzeit verlässlicher Gesundheits-Check reicht schnelles Fiebermessen für Fließgewässer in Europa schon lange nicht mehr aus“, ist der Biologe überzeugt.

Kontakt:
Prof. Mark Gessner
Leibniz-Institut für Gewässerökologie und Binnenfischerei
16775 Stechlin/ Neuglobsow
Tel.: (033082) 699 11
gessner@igb-berlin.de

Weitere Informationen:
http://www.igb-berlin.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Zähne bürsten – aber wie?

Prof. Dr. Peter Kropp
Presse- und Öffentlichkeitsarbeit
Deutsche Gesellschaft für Medizinische Psychologie

Medizinpsychologie erforscht gemeinsam mit Zahnmedizin und Bewegungswissenschaften Möglichkeiten zur Verbesserung von Mundhygienefertigkeiten

Das tägliche Zähnebürsten ist ein besonders konsequent ausgeübtes Gesundheitsverhalten in Deutschland. Rund 70% der Deutschen berichten, die Zähne mindestens zweimal täglich zu putzen. Gleichzeitig leiden aber mehr als 90% unter Erkrankungen, die mit mangelnder Mundhygiene in Zusammenhang gebracht werden. Fragt man die Deutschen, wie man die Zähne am besten reinigt, sind viele ratlos. Damit spiegeln sie den Stand der Forschung in dieser wichtigen Frage wieder: Zwar werden in der Zahnmedizin viele Zahnbürsttechniken beschrieben, bis heute fehlen aber wissenschaftliche Belege dafür, welche Technik sich am besten für die häusliche Mundhygiene eignet.

An der Justus-Liebig-Universität Gießen hat sich daher ein multidisziplinäres Team unter Federführung des dortigen Instituts für Medizinische Psychologie (Leitung: Prof. Dr. Renate Deinzer) zusammengefunden, um dieser Frage nachzugehen. In der Zusammenarbeit zwischen Zahnmedizin, Medizinischer Psychologie und Bewegungswissenschaften wurden Computerpräsentationen entwickelt, die jeweils eine von zwei in der Zahnmedizin in Deutschland besonders häufig empfohlenen Bürsttechniken („Fones-Technik“ vs. modifizierter „Bass-Technik“) vermitteln sollten. Bei der Erstellung der Präsentationen wurden dabei nicht nur zahnmedizinische Aspekte bedacht, wie etwa die Frage nach der richtigen Darstellung der Technik. Auch medizinpsychologische Kenntnisse zur Förderung des Verstehens, Behaltens und Umsetzens des Erlernten wurden berücksichtigt, ebenso wie bewegungswissenschaftliche Erkenntnisse darüber, wie Bewegungsabläufe am besten gelernt und eintrainiert werden.

In einer ersten soeben in der angesehenen Zeitschrift PLoS ONE publizierten Studie konnte das Autorenteam zeigen, dass solche Computerpräsentationen helfen können, die Mundhygiene¬fertigkeiten Studierender zu verbessern. Dabei erzielte die Fones-Technik die besten Erfolge. Die Studienleiterin, Prof. Dr. Renate Deinzer, sagt dazu: „Die Fones-Technik erinnerte viele an das, was sie bereits im Kindergarten gelernt hatten. Möglicherweise begründet das ihren Erfolg. Wir hätten allerdings erwartet, dass die Bass-Technik, die in der Zahnmedizin oft für die Methode der Wahl zur Bekämpfung von Zahnfleischentzündungen und Parodontitis gehalten wird, besser abschneidet. Das Erlernen dieser Technik fiel aber den Studierenden schwer und brachte ihnen keinen Erfolg. In weiteren Studien werden wir prüfen müssen, ob sich dieses Ergebnis auch in anderen Bevölkerungsgruppen bestätigt. Ganz unabhängig davon waren für uns die mangelnden Hygienefertigkeiten der Studierenden zu Studienbeginn erschreckend. Möglicherweise ist mangelnde Mundhygiene tatsächlich häufig keine Frage mangelnder Motivation sondern mangelnder Fertigkeiten. Umso wichtiger wäre es demnach, diese Fertigkeiten in der Praxis zu überprüfen und nötigenfalls zu verbessern. Unsere Forschungsaufgabe sehen wir darin, in multidisziplinärer Zusammenarbeit Wege zu finden, wie dies am besten gelingt.“
Die Deutsche Gesellschaft für Medizinische Psychologie (DGMP) befasst sich seit Jahrzehnten mit Forschung an der Schnittstelle von Psychologie und Zahnmedizin. Prof. Dr. Renate Deinzer, die zugleich auch Präsidentin dieser wissenschaftlichen Fachgesellschaft ist, leitet gemeinsam mit Dr. Margraf-Stiksrud eine Arbeitsgruppe der DGMP zu diesem Themenbereich.

Publikationsverweis:
Harnacke D, Mitter S, Lehner M, Munzert J, Deinzer R (2012) Improving Oral Hygiene Skills by Computer-Based Training: A Randomized Controlled Comparison of the Modified Bass and the Fones Techniques. PLoS ONE 7(5): e37072. doi:10.1371/journal.pone.0037072; http://www.plosone.org/article/info%3Adoi%2F10.1371%2Fjournal.pone.0037072

Autoren: Daniela Harnacke, Simona Mitter, Marc Lehner, Jörn Munzert, Renate Deinzer
Kontakt zur Autorin:
Prof. Dr. Renate Deinzer, Institut für Medizinische Psychologie, Justus-Liebig-Universität Gießen, Friedrichstraße 36, 35392 Gießen. Tel.: 0641 99 45680, Fax: 0641 99 45689

Quelle: Informationsdienst Wissenschaft

(zurück)


Unscheinbar und doch gewaltig: Flechten, Algen und Moose sind Großspeicher für Stickstoff und CO2

Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Senckenberg Forschungsinstitut und Naturmuseen

Auf der Mauer, auf der Lauer sitzen nicht nur Wanzen, sondern oft auch Flechten, Algen, Moose und Pilze. Wissenschaftlerinnen und Wissenschaftler des Biodiversität und Klima Forschungszentrums, des Mainzer Max-Planck-Instituts für Chemie und der Universität Kaiserslautern haben erstmals berechnet, wie viel Kohlendioxid und Stickstoff dieser flächigen Bewuchs weltweit speichert. Dabei kam Erstaunliches zu Tage: Jährlich nehmen diese Lebensgemeinschaften rund 50 Millionen Tonnen Stickstoff auf und binden rund 14 Milliarden Tonnen Kohlendioxid, berichtet das Team im Fachblatt „Nature Geoscience“.
Anhand von Daten zum Vorkommen und Stoffwechsel der einzelnen Arten der als Kryptogamen (Arten, deren sexuelle Vermehrung ohne Blüte stattfindet) bezeichneten Pflanzen und Pilze errechneten die Wissenschaftler und Wissenschaftlerinnen die Aufnahme von Kohlendioxid und Stickstoff. Insgesamt wurden dazu mehr als zweihundert Einzelstudien ausgewertet und zusammengeführt.

50% des terrestrischen Stickstoffs in Flechten, Algen und Moosen
Stickstoff ist der Hauptbestandteil der Luft und befindet sich in einem ständigen Kreislauf. Geringe Mengen des Luft-Stickstoffs werden hierbei an Land gebunden. Das erstaunliche Ergebnis der Studie: Gemeinschaften aus Flechten, Algen, Moosen, Farnen und Pilzen fixieren jährlich 50 Millionen Tonnen und damit 50 Prozent dieses Luftstickstoffs, der an Land gebunden wird. Sie binden gleichzeitig so viel Kohlendioxid, wie pro Jahr durch Waldbrände und die Verbrennung von Biomasse weltweit freigesetzt wird. „Es gibt noch einzelne weiße Flecken, beispielsweise die Steppenlandschaften im Süden Russlands und im nördlichen Kasachstan, die nicht mit berücksichtigt werden konnten, weil keine Daten zu den dort vorkommenden Kryptogamen und deren Stoffwechsel verfügbar sind. Es ist deshalb möglich, dass die tatsächliche Stickstoff- und Kohlendioxidfixierung sogar noch höher ist“, ergänzt Dr. Jörg Steinkamp, Biodiversität und Klima Forschungszentrum (BiK-F).

Kryptogame Schichten in Nordeuropa speichern das meiste Kohlendioxid
Der Untersuchung zufolge unterscheidet sich das Speicherpotential je nach Lokalität. In außertropischen Wäldern wird am meisten Kohlendioxid, durch kryptogame Schichten gespeichert, die am Boden wachsen. In den Tropenwäldern verhält es sich umgekehrt: Hier binden Flechten, Moose und Algen, die auf Pflanzen, beispielsweise deren Rinde, wachsen, das meiste CO2. Global gesehen sind die in den Wäldern der Nordhalbkugel vorkommenden kryptogamen Schichten der größte Speicher für Kohlendioxid. Hier wird auch der Löwenanteil des an Land gebundenen Stickstoffs aus der Atmosphäre fixiert.

Ein Mittel gegen den Klimawandel?
Mit Hilfe der kryptogamen Schichten den Klimawandel zu bekämpfen, ist jedoch nicht möglich, denn der flächige Bewuchs speichert das Treibhausgas Kohlendioxid nur über wenige Jahre hinweg. Dennoch erhöhen Flechten, Algen, Moose, Farne und Pilze über die Stickstoffbindung auch die globale CO2-Fixierung, denn über Kryptogame gelangt Stickstoff als mineralischer Dünger in den Boden. Damit wird das Wachstum von Pflanzen (z.B. Bäumen), die das Treibhausgas langfristig speichern, in Stickstoff-limitierten Ökosystemen angekurbelt und sie können mehr Kohlendioxid aus der Atmosphäre aufnehmen. „Diese Studie ermöglicht verbesserte Vegetationsmodelle, in denen der Stickstoffkreislauf, insbesondere durch seine Wirkung auf Vegetation und deren CO2-Aufnahmekapazität, immer mehr an Bedeutung gewinnt“, so Steinkamp, der am BiK-F im Bereich Modellierung der terrestrischen Vegetation arbeitet.

Uralte Lebensform
Die in der Studie untersuchten Kryptogamen vermehren sich durch Sporenbildung. Sie sind eine sehr alte Lebensform. Fossilien datieren die zu dieser Gruppe zählenden Blaualgen auf etwa 2,6 bis 2,7 Milliarden Jahre zurück. Im Laufe der Zeit hat sich in der Gruppe eine beeindruckende Vielfalt an Formen, Farben und Arten herausgebildet. Zudem sind Kryptogamen absolute Anpassungskünstler und kommen fast überall vor. Insbesondere in nährstoffarmen Ökosystemen, die extremen Bedingungen ausgesetzt sind, sind sie daher ein wichtiger Bestandteil des Stoffkreislaufs.

Studie:
Wolfgang Elbert, Bettina Weber, Susannah Burrows, Jörg Steinkamp, Burkhard Büdel, Meinrat O. Andreae und Ulrich Pöschl (2012). Contribution of cryptogamic covers to the global cycles of carbon and nitrogen. Nature Geoscience, DOI:10.1038/NGEO1486. Online unter http://www.nature.com/ngeo/journal/vaop/ncurrent/full/ngeo1486.html

Für weitere Informationen wenden Sie sich bitte an:
Dr. Jörg Steinkamp
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F)
Tel. 069 7542 1866
E-Mail: joerg.steinkamp@senckenberg.de

oder
Sabine Wendler
LOEWE Biodiversität und Klima Forschungszentrum (BiK-F), Pressereferentin
Tel.: 069 7542 1838
E-Mail: sabine.wendler@senckenberg.de

________________________________________________________________________________
LOEWE Biodiversität und Klima Forschungszentrum, Frankfurt am Main
Mit dem Ziel, anhand eines breit angelegten Methodenspektrums die komplexen Wechselwirkungen von Biodiversität und Klima zu entschlüsseln, wird das Biodiversität und Klima Forschungszentrum (BiK-F) seit 2008 im Rahmen der hessischen Landes-Offensive zur Entwicklung Wissenschaftlich ökonomischer Exzellenz (LOEWE) gefördert. Die Senckenberg Gesellschaft für Naturforschung und die Goethe Universität Frankfurt sowie weitere direkt eingebundene Partner kooperieren eng mit regionalen, nationalen und internationalen Institutionen aus Wissenschaft, Ressourcen- und Umweltmanagement, um Projektionen für die Zukunft zu entwickeln und wissenschaftlich gesicherte Empfehlungen für ein nachhaltiges Handeln zu geben. Mehr unter http://www.bik-f.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Afrikanische Profifußballer in Deutschland: integriert und doch als andersartig ausgegrenzt?

Christian Wißler
Mediendienst Forschung
Universität Bayreuth

Wie gut sind afrikanische Profifußballer in Deutschland integriert? Welche Rolle spielt dabei der sportliche Erfolg, und welchen Einfluss haben tradierte Afrika-Klischees auf die öffentliche Wahrnehmung? Mit diesen Fragen befasst sich eine neue Forschungsarbeit von Christian Ungruhe, der als Sozialanthropologe an der Universität Bayreuth tätig ist.

Andersartig, weil afrikanisch: Stereotypen aus der Kolonialzeit

Afrikanische Profifußballer in Deutschland werden von Fußballfans und in der breiten Öffentlichkeit oft bewundert, nach siegreichen Turnieren sogar als Stars gefeiert. Hingegen ist der offen ausgedrückte Rassismus in den Fußballstadien während der letzten 15 Jahre spürbar zurückgegangen. Insofern scheinen Profifußballer aus Afrika, vor allem wenn sie in der Bundesliga spielen, in die deutsche Gesellschaft gut integriert zu sein. Dennoch ist ihr Bild in der Öffentlichkeit bis heute von Stereotypen geprägt, deren Wurzeln bis in die Kolonialzeit zurückreichen. Oftmals wird den Spielerpersönlichkeiten aus Afrika, in bewusster Abgrenzung zu ‚weißen‘ europäischen Fußballern, eine in ihrem Wesen liegende Andersartigkeit zugeschrieben – selbst dann, wenn sie sich in ihren deutschen Vereinen zu beliebten Stammspielern entwickelt haben.

Zu diesen Ergebnissen kommt der Bayreuther Sozialanthropologe Christian Ungruhe in einer neuen Untersuchung, die sich mit der Lebenssituation afrikanischer Fußballer in Deutschland befasst. Seine Studie ist Teil des Projekts „Fußballmigration – ein Traum von Europa und seine Wirkung auf das deutsche Ausländerbild“; sie entstand im Rahmen des Bayerischen Forschungsverbunds Migration und Wissen (ForMig).

Ausbildungsziele in Europa: Taktische Disziplin statt ‚naiver‘ Verspieltheit

Als verspielt und taktisch wenig ausgereift, als ballverliebt und grazil, als Ausdruck einer natürlichen afrikanischen Lebensfreude wird die Spielweise afrikanischer Profifußballer häufig beschrieben – nicht nur von Fußballfans und Sportmedien, sondern auch von Trainern und Sportfunktionären. „Ich habe mit zahlreichen Fußballspielern aus Afrika gesprochen“, berichtet Ungruhe. „Sie alle haben wiederholt die Erfahrung gemacht, dass europäische Fußballclubs ihnen eine stärkere taktische Disziplin vermitteln wollen. Dabei spielen offenbar auch Klischees von einer kraftvollen, aber naiven afrikanischen Ursprünglichkeit eine Rolle.“ Einige finanzkräftige Clubs haben in Afrika sogar eigene Akademien eingerichtet, um frühzeitig talentierte Nachwuchsspieler zu entdecken und zu fördern. Auch dort zielt das Training, wie deren Leiter im Interview bestätigten, insbesondere darauf ab, „spielerische Ballverliebtheit“ durch strategische Spielplanung und taktische Disziplin zurückzudrängen.

Derartige Ausbildungsziele stehen allerdings in einer Traditionslinie, die bis in die Kolonialzeit zurückführt. Vor allem seit den 1920er Jahren haben Kolonialverwalter und christliche Missionare den Sport eingesetzt, um die jungen, vermeintlich unzivilisierten Afrikaner im Team zu disziplinieren. Von derartigen Vorstellungen haben sich die afrikanischen Staaten seit ihrer Unabhängigkeit entschieden distanziert. Mit Nachdruck fördern sie heute in ihren nationalen Fußballteams Spielintelligenz und Technik – in bewusster Abgrenzung von blinder Mannschaftsdisziplin, aber auch von einer taktisch unausgereiften, scheinbar natürlichen Spielweise. „In Europa wird zu wenig beachtet, dass afrikanische Profivereine dazu übergegangen sind, ihre Nachwuchstalente gezielt auf die international etablierten Standards im Profifußball vorzubereiten“, meint Ungruhe. „Auch dies ist ein Ausdruck der Globalisierung im Sport.“

Gelungene Integration? Positive Umwertung tradierter Klischees

Afrikanische Profifußballer erleben ihre Integration in Deutschland durchaus als ambivalent. Denn einerseits hängt ihre Karriere wesentlich davon ab, dass sie sich sogenannte ‚europäische Fußballtugenden‘ wie Teamgeist und ausgereifte Taktik aneignen. Andererseits aber spüren sie, dass Stereotype wie ‚Ursprünglichkeit‘ und ‚natürliche Spielfreude‘ weiterhin in Kraft bleiben. Mehr noch: Derartige Eigenheiten werden vor allem dann, wenn die Fußballer sich zu beliebten Stars entwickeln, als afrikanische Spezialitäten bewundert. Ein Paradox: Je erfolgreicher die Fußballtalente aus Afrika in ihre Vereine und in die deutsche Gesellschaft integriert sind, desto mehr werden sie aufgrund einer vermeintlichen Exotik wertgeschätzt. Klischees, die sich seit der Kolonialzeit in diskriminierender Absicht gegen Menschen in Afrika richten, werden durch Integrationserfolge nicht beseitigt, sondern erfahren eine positive Umwertung.

Manche Profifußballer befördern diesen Prozess zusätzlich dadurch, dass sie sich in den Medien mit einer exotisch anmutenden Ästhetik präsentieren. Ungruhe spricht in solchen Fällen von einer „Selbstcharismatisierung“ und fragt kritisch: „Kann man tatsächlich von gelungener Integration sprechen, wenn herkömmliche Afrika-Klischees derart wirkmächtig bleiben?“

Erfolgsabhängige Integration: Unterschiede zwischen Profi- und Amateurfußball

Wie die Studie zeigt, hängt es insbesondere vom sportlichen und ökonomischen Erfolg ab, wie die deutsche Öffentlichkeit auf afrikanische Fußballer reagiert. Profifußballer in deutschen Erstligaklubs werden als Stars gefeiert, sie gelten geradezu als ‚Vorzeigemigranten‘. Zu dieser Entwicklung hat nicht zuletzt die wachsende Zahl afrikanischer Fußballer beigetragen, die in der Bundesliga als erfolgreiche Leistungsträger agieren. Seit der Saison 2006 / 2007 ist es rechtlich möglich, dass im deutschen Profifußball beliebig viele Nicht-EU-Ausländer eingesetzt werden. In der Rückrunde der Saison 2011 / 2012 spielten 33 Afrikaner aus 17 Ländern bei zwölf deutschen Erstligavereinen; in der 2. Bundesliga waren zu diesem Zeitpunkt ebenfalls 33 afrikanische Fußballer aktiv.

Sportverbände, Faninitiativen und Vereine im Profibereich setzen sich schon seit längerem aktiv dafür ein, rassistische Anfeindungen zu bekämpfen. Hingegen sind derartige Initiativen im Amateurbereich seltener anzutreffen. Insbesondere deshalb haben sich rassistische Beleidigungen und Übergriffe in den letzten 15 Jahren „weitgehend vom Profi- in den Amateurbereich verlagert“, meint Ungruhe. In abgeschwächter Form seien sie aber „in allen Fanszenen weiterhin anzutreffen.“

Veröffentlichung:

Christian Ungruhe, Anders bleiben. Auseinandersetzungen mit Migration und Integration afrikanischer Profifußballer in Deutschland.
In: Herbert Popp (Hg.), Migration und Integration in Deutschland.
Bayreuther Kontaktstudium Geographie 6,
Bayreuth: Naturwissenschaftliche Gesellschaft Bayreuth 2012, S. 95-105.

=> Zusätzlich zu der o.g. Veröffentlichung ist eine ausführlichere Darstellung der Forschungsergebnisse in Vorbereitung und wird voraussichtlich im Herbst 2012 erscheinen.

Kontaktadresse:

Christian Ungruhe M.A.
Wiss. Mitarbeiter am Lehrstuhl für Sozialanthropologie
Universität Bayreuth
D-95440 Bayreuth
Tel.: +49 (0)921 55-4850
E-Mail: christian.ungruhe@uni-bayreuth.de

Quelle: Informationsdienst Wissenschaft

(zurück) 


Deutsche Gesellschaft für Endokrinologie rät zu Aufklärung: Jodmangel gefährdet Mutter und Kind

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Altdorf – Ein Jodmangel in der Schwangerschaft kann fatale Folgen haben: Ist die werdende Mutter nicht ausreichend mit dem für die Schilddrüse wichtigen Spurenelement versorgt, kann dies eine Fehl- oder Frühgeburt auslösen. Beim Kind kann der Mangel Sprach- und Hörbeeinträchtigungen verursachen, die geistige Entwicklung verzögern und die Motorik einschränken. Diese Risiken sind vermeidbar, so die Deutsche Gesellschaft für Endokrinologie (DGE). Durch eine Hormon-Messung im mütterlichen Blut in der frühen Schwangerschaft lässt sich ein Jodmangel nachweisen und entsprechend behandeln.
„Für eine normale Schilddrüsenfunktion benötigt eine werdende Mutter in der Frühphase der Schwangerschaft etwa 50 Prozent mehr an Schilddrüsenhormonen“, erklärt Professor Dr. Dr. med. Dagmar Führer, Vize-Präsidentin der Deutschen Gesellschaft für Endokrinologie und Direktorin der Klinik für Endokrinologie und Stoffwechselerkrankungen am Universitätsklinikum Essen. Entgegen den allgemeinen Empfehlungen sollten Schwangere den Test bereits zu Beginn der Schwangerschaft durchführen. „Die Funktionskontrolle der Schilddrüse sollte deshalb bereits etwa in der sechsten Woche stattfinden“, so die Expertin. In der Regel bieten Ärzte die Untersuchung als sogenannte individuelle Gesundheitsleistung (IGeL) im dritten Schwangerschaftsmonat an. Der Test kostet etwa 15 Euro. Bislang übernehmen die Krankenkassen die Kosten nicht.

Der Schilddrüsenfunktionstest beruht auf einer Messung des sogenannten Thyreoidea-stimulierenden Hormons (TSH) im Blut. Ist dieser Wert erhöht, und werden zudem normale oder erniedrigte Werte des Schilddrüsenhormons Tetrajodthyronin (fT4) gemessen, ist dies ein Anzeichen für eine Unterfunktion der Drüse. Zu niedrige TSH-Werte weisen auf eine Schilddrüsenüberfunktion hin.

„Die Investition in den Test ist in jedem Fall sinnvoll“, sagt Professor Führer. „Sowohl eine Unter- als auch eine Überfunktion der Schilddrüse beeinflussen den Verlauf der Schwangerschaft und die Entwicklung des Kindes, beide können zu Komplikationen und Schäden führen“. Während der Schwangerschaft komme es bei etwa 0,4 Prozent aller Frauen zu einer ausgeprägten und bei 3 Prozent zu einer unterschwelligen Schilddrüsenunterfunktion. Eine Überfunktion der Schilddrüse liege bei etwa 0,1 bis 0,4 Prozent der Schwangeren vor.

Wichtig sei es, schwangerschaftsbedingte Veränderungen der Schilddrüsenwerte von eigenständigen Schilddrüsenfehlfunktionen abzugrenzen, so die Expertin aus Essen. Neben Jodmangel könne auch eine gestörte, fehlgeleitete körpereigene Abwehr Ursache einer Schilddrüsenfehlfunktion sein. Besonders bei Frauen mit Autoimmunerkrankungen wie beispielsweise Typ-1-Diabetes, aber auch bei Frauen mit gehäuften Schilddrüsenerkrankungen in der Familie rät die DGE-Expertin, bereits vor der Schwangerschaft die Schilddrüsenfunktion zu kontrollieren. Nehme eine Frau bereits Schilddrüsenhormone ein, müsse die Dosis in der Schwangerschaft entsprechend angepasst werden. Wenn etwa unter der bisherigen Thyroxindosis eine normale Funktion vorliegt, so wird diese in der Regel um 30 Prozent erhöht.

Über eine Aufnahme der Schilddrüsenuntersuchung in den Katalog der Krankenkassenleistungen im Rahmen der „normalen“ Schwangerschaftsvorsorge diskutiert die Fachwelt seit Jahren. „Noch liegen keine ausreichenden Studienergebnisse vor, die zu einem einheitlichen Votum geführt haben“, erklärt DGE-Mediensprecher Professor Dr. med. Dr. h. c. Helmut Schatz aus Bochum. Die DGE plädiert jedoch dafür, dass Gynäkologen gemeinsam mit ihren endokrinologischen Kollegen alle werdenden Mütter über die Bedeutung von Jod in der Schwangerschaft aufklären. Um eine Unterfunktion der Schilddrüse zu vermeiden, sollten schwangere Frauen auf jeden Fall ausreichend Jod zu sich nehmen, betont Professor Schatz. Die Weltgesundheitsorganisation (WHO) empfiehlt bei Schwangerschaft eine tägliche Jodaufnahme von insgesamt 250 Mikrogramm pro Tag. Da in Deutschland die Verwendung von jodiertem Speisesalz üblich ist, sodass mit der Nahrung ungefähr 100 Mikrogramm Jod pro Tag aufgenommen werden, liegen die Empfehlungen der zusätzlichen Jodzufuhr durch Tabletten während der Schwangerschaft bei 150 Mikrogramm am Tag.

Literatur:
D. Führer: Schilddrüsenerkrankungen und Schwangerschaft, Internist 2011, 52:1158-1166, DOI 10.1007/s00108-011-2823-6, Online publiziert: 5. August 2011

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

Weitere Informationen:
http://www.endokrinologie.net

Quelle: Informationsdienst Wissenschaft

(zurück)


Große Unsicherheiten im globalen Wasserhaushalt

Monika Landgraf
Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Ohne Wasser kein Leben. Katastrophen wie Dürre oder Starkregen belegen unsere Abhängigkeit von Wasserkreislauf und Klimasystem. Entsprechend wichtig ist es, die Details des Wasserkreislaufs zwischen Atmosphäre, Ozeanen und Festland zu verstehen. Eine Studie im Journal of Hydrometeorology zeigt nun signifikante Unterschiede sowohl zwischen den globalen Modellen als auch zwischen den Messdatensätzen. Darüber hinaus schrumpft das Netz von Messstationen weltweit dramatisch, was die Unsicherheiten vergrößert. (DOI: 10.1175/JHM-D-11-088.1)
„Der Klimawandel und die sich damit verändernde Wasserverfügbarkeit ist eine Tatsache und wird teils große Anpassungen erfordern“, stellen Harald Kunstmann und Christof Lorenz vom Karlsruher Institut für Technologie klar, die die aktuelle Studie verfasst haben. „Gerade deshalb müssen wir das Wechselspiel zwischen Verdunstung, Wolken und Niederschlägen auch auf regionaler Ebene besser verstehen.“ Um zu prüfen, wie verlässlich die verschiedenen globalen Analysen sind, haben die Hydrologen und Klimaforscher drei der modernsten globalen gekoppelten Atmosphären- und Ozeanmodelle auf den Wasserhaushalt hin neu ausgewertet und mit Messdaten der Jahre 1989 bis 2006 verglichen.

„Wir haben wirklich sehr große Unsicherheiten in den globalen Wasserhaushaltsabschätzungen festgestellt“, erklärt Kunstmann. So weichen etwa die Analysen der mittleren Niederschläge in einigen Regionen um bis zu vier Liter pro Quadratmeter und Tag voneinander ab. Zum Vergleich: in Deutschland fallen im Schnitt etwa zwei Liter Regen pro Tag und Quadratmeter. Aus diesen Modellen lässt sich also nicht verlässlich ableiten, wann und wo wirklich wie viel Niederschlag fällt. Selbst einfache Zusammenhänge wie etwa zwischen dem Verdunstungsüberschuss über den Ozeanen und den Niederschlägen über den Kontinenten sind in den Modellen nicht konsistent. „Aus den Modellen wissen wir also weiterhin nur mit sehr großen Unsicherheiten, wie viel Niederschläge und damit sich stetig erneuerndes Süßwasser auf der Erde eigentlich wirklich zur Verfügung stehen.“

„Andererseits liegen aus vielen Regionen der Welt keine ausreichenden Daten vor“, erläutert Kunstmann. „Und die Lage wird immer schlechter.“ So hat sich beispielsweise in Südamerika die Zahl der Messstationen von rund 4350 auf 550 um mehr als 85 Prozent verringert (Datengrundlage: GPCC v5.0). Aber auch in Europa ist ein signifikanter Rückgang erkennbar. Zwischen Januar 1989 und Dezember 2006 hat sich die Anzahl an Niederschlagsmessstationen von rund 10000 auf 5800 fast halbiert, wobei ungefähr die Hälfte aller europäischen Stationen allein in Deutschland steht. „Und ohne eine solide Datenbasis lassen sich auch die Wasserhaushaltsmodelle nicht entscheidend verbessern“, schildert Kunstmann das Problem. „Eine Quantifizierung der Trends von Regen und Dürre wird so erheblich erschwert.“

Deshalb ist es dringend notwendig, wieder Investitionen in Niederschlagsmessstationen zu tätigen und die meteorologischen Dienste auch in entlegenen Regionen zu verstärken. „Denn wenn wir den hydrologischen Wandel verstehen und uns in Zukunft effektiv auf ihn einstellen wollen, müssen wir unbedingt die notwendige Infrastruktur dazu schaffen und aufrecht halten“, sagt Kunstmann.

Lorenz, C., and H. Kunstmann, 2012: The Hydrological Cycle in Three State-of-the-art Reanalyses: Intercomparison and Performance Analysis. J. Hydrometeor.

Die Studie finden Sie online unter:
http://journals.ametsoc.org/doi/abs/10.1175/JHM-D-11-088.1

Das KIT-Zentrum Klima und Umwelt entwickelt Strategien und Technologien zur Sicherung der natürlichen Lebensgrundlagen: Dafür erarbeiten 660 Mitarbeiterinnen und Mitarbeiter aus 32 Instituten Grundlagen- und Anwendungswissen zum Klima- und Umweltwandel. Dabei geht es nicht nur um die Beseitigung der Ursachen von Umweltproblemen, sondern zunehmend um die Anpassung an veränderte Verhältnisse.

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Das Foto steht in druckfähiger Qualität auf www.kit.edu zum Download bereit und kann angefordert werden unter: presse@kit.edu oder +49 721 608-47414. Die Verwendung des Bildes ist ausschließlich in dem oben genannten Zusammenhang gestattet.

Weiterer Kontakt:

Kosta Schinarakis
PKM – Themenscout
Tel.: +49 721 608 41956
Fax: +49 721 608 43658
E-Mail:schinarakis@kit.edu

Weitere Informationen:
http://www.kit.edu/besuchen/pi_2012_10808.php

Anhang:
http://idw-online.de/de/attachment17282

Quelle: Informationsdienst Wissenschaft

(zurück)


Maßgeschneidertes Hundefutter. High-Tech Gründerfonds investiert in Start-Up von HHL-Absolventen

MBA Volker Stößel
Marketing und Public Relations
HHL Leipzig Graduate School of Management

Nach mehr als einem Jahr Forschungs- und Entwicklungsarbeit, präsentiert das von den HHL-Absolventen Janes Potthoff und Christian Hetke gemeinsam mit der Tierärztin Stefanie Schmidt von der Universität Leipzig gegründete Unternehmen futalis seit einigen Tagen ein innovatives Futterkonzept für Hunde. Auf Grundlage veterinärmedizinischer Erkenntnisse bestimmt futalis anhand von neun Kriterien den exakten Ernährungsbedarf eines Hundes und erstellt in einem TÜV-geprüften Produktionsprozess ein individuelles Futter. Durch das Zusammenspiel aus bedarfsgerechter Futterzusammensetzung und hochwertigen Inhaltsstoffen, werden Gesundheit, Wohlbefinden und Vitalität des Hundes gefördert. Unterstützung erhält das Leipziger Start-Up dabei durch den High-Tech Gründerfonds, der in junge, chancenreiche Technologie-Firmen investiert, die vielversprechende Forschungsergebnisse unternehmerisch umsetzen.

Die Idee für futalis entstand am Institut für Tierernährung, Ernährungsschäden und Diätetik der Universität Leipzig. Dort beschäftigte sich die Tierärztin und Ernährungsberaterin Stefanie Schmidt mehrere Jahre lang mit den ernährungsbezogenen Problemen von Hunden. „Im Rahmen meiner Arbeit kamen u. a. adipöse Hunde mit Allergien oder Herz-Kreislauf- und Gelenkproblemen zu mir. Viele dieser Probleme waren auf die Ernährung zurückzuführen“, erinnert sich die Unternehmensgründerin. Leider konnte sie bei der Behandlung kaum auf Standardfutter zurückgreifen, da die jeweiligen Ernährungsbedürfnisse stark von der Zusammensetzung der zur Verfügung stehenden Futtermischungen abwichen. Hier mussten meist selbst zubereitete Rationen empfohlen werden.

„Das maßgeschneiderte Futter von futalis wird in Tagesrationen verpackt und dem Hundehalter direkt zugeschickt. Damit stellen wir sowohl die optimale Nährstoffversorgung der Hunde als auch den Komfort für den Halter sicher“, so Janes Potthoff, HHL-Absolvent und einer der Geschäftsführer von futalis.

Über die Aufbauphase des jungen Unternehmens sagt Christian Hetke, ebenfalls HHL-Absolvent: „Von der Produktentwicklung über den Rohstoffeinkauf, die Produktion und Qualitätssicherung bis hin zur Ansprache und Beratung von Hundehaltern – die gesamte Wertschöpfungskette wird von uns betreut. Das bringt natürlich ein großes Maß an Komplexität mit sich. Aber genau das ist es, was unser Team von Anfang an gereizt hat: sich einer solchen Herausforderung erfolgreich zu stellen. Und das erste Feedback unserer Kunden zeigt, dass sich die Arbeit gelohnt hat.“

Das Gründerteam von futalis freut sich über die Seed-Finanzierung des High-Tech Gründerfonds, der seit April das Start-Up unterstützt. Marco Winzer, verantwortlicher Portfoliomanager des High-Tech Gründerfonds, sagt: „Die Wettbewerbssituation von futalis war uns von Anfang an bewusst. Entscheidendes Argument für die Finanzierung und den Erfolg der Idee ist jedoch die veterinärmedizinische Untermauerung des Konzeptes. Das Futter wird nicht nach ‚Gusto‘ des Herrchens à la ‚Mein Müsli-Mix für Hunde‘ zusammengestellt, sondern berücksichtigt ernährungsbedingte Probleme, wie beispielsweise Wachstumsstörungen, Fettleibigkeit, Harnsteine, Pigmentstörungen, Allergien, Verdauungsstörungen etc. und trägt damit entscheidend zur Gesundheit des Hundes bei“.

Über den High-Tech Gründerfonds

Der High-Tech Gründerfonds investiert Risikokapital in junge, chancenreiche Technologie-Unternehmen, die vielversprechende Forschungsergebnisse unternehmerisch umsetzen. Mit Hilfe der Seed-Finanzierung sollen die Start-Ups das F&E-Vorhaben bis zur Bereitstellung eines Prototypen bzw. eines „Proof of Concept“ oder zur Markteinführung führen. Der Fonds beteiligt sich initial mit 500.000 Euro; insgesamt stehen bis zu zwei Millionen Euro pro Unternehmen zur Verfügung. Investoren der Public-Private-Partnership sind das Bundesministerium für Wirtschaft und Technologie, die KfW Bankengruppe sowie die 12 Industriekonzerne ALTANA, BASF, B. Braun, Robert Bosch, CEWE Color, Daimler, Deutsche Post DHL, Deutsche Telekom, Qiagen, RWE Innogy, Tengelmann und Carl Zeiss. Der High-Tech Gründerfonds verfügt insgesamt über ein Fondsvolumen von rund 560,5 Mio. EUR (272 Mio. EUR Fonds I und 288,5 Mio. EUR Fonds II). www.high-tech-gruenderfonds.de

Über futalis

Im November 2011 in Leipzig von der Tierärztin Stefanie Schmidt und den beiden Absolventen der HHL Leipzig Graduate School of Management, Janes Potthoff und Christian Hetke, gegründet, arbeitet futalis eng mit dem Institut für Tierernährung, Ernährungsschäden und Diätetik der Universität Leipzig und Züchtern des Verbands für das Deutsche Hundewesen (VDH) zusammen, um dauerhaft höchste Futterqualität zu garantieren. http://futalis.de

Über die HHL Leipzig Graduate School of Management

Mit über 120 Gründungen, die in den letzten 14 Jahren von HHL-Absolventen ausgegangen sind, hat sich Deutschlands erste Adresse für den Management-Nachwuchs auch zu einem sehr erfolgreichen Inkubator für Unternehmensgründungen entwickelt. Prominente Beispiele sind neben Gollmann Kommissioniersysteme auch die Gewinner des WirtschaftsWoche-Gründerwettbewerb SunCoal Industries oder auch die Leipziger Unternehmen Spreadshirt und billigflieger.de. Durch das unternehmerische Engagement der Gründer konnten bereits mehr als 2.500 Jobs geschaffen werden, über 1.100 davon allein in der Region Leipzig. Die HHL wurde Mitte Februar 2012 in der zweiten Runde des Wettbewerbs „EXIST-Gründungskultur – Die Gründerhochschule“ des Bundesministeriums für Wirtschaft und Technologie (BMWi) unter die 20 besten Gründerhochschulen Deutschlands gewählt. www.hhl.de/gruenderschmiede

Weitere Informationen:
http://futalis.de
http://www.hhl.de/gruenderschmiede
http://www.high-tech-gruenderfonds.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Mikrobiologie in Kläranlagen

Sigrid Lindstadt
Hochschulkommunikation
Georg-Simon-Ohm-Hochschule Nürnberg

STAEDTLER Stiftung fördert neues Forschungsprojekt an der Ohm-Hochschule mit 40.000 Euro

Welche mikrobiologischen Vorgänge spielen sich in Kläranlagen ab? Dieser Frage geht ein neues Forschungsprojekt von Prof. Dr. Eberhard Aust an der Fakultät Angewandte Chemie und dem Umweltinstitut Neumarkt der Georg-Simon-Ohm-Hochschule Nürnberg nach. Dafür untersucht er Mikroorganismen in den biologischen Stufen von Kläranlagen mit Hilfe der Fluoreszenz-in-situ-Hybridisierung. Die STAEDTLER Stiftung unterstützt das Forschungsprojekt, das im Juni 2012 startet und bis Ende Dezember 2013 läuft, mit 40.000 Euro.
„Unser besonderes Augenmerk gilt den so genannten anaeroben Ammonium-Oxidierern, die auch Anammox genannt werden, und zur Gattung der Planctomyceten zählen“, erläutert der Projektleiter die Vorgehensweise. „Diese Bakterien wurden erstmals Ende der 1990er Jahre beschriebenen und bauen das im Abwasser enthaltene Ammonium in der Gegenwart von Nitrit zu molekularen Stickstoff ab.“

Im Rahmen des Forschungsprojekts untersuchen die Forscherinnen und Forscher des OHM diese Mikroorganismen in den biologischen Stufen von Kläranlagen mit Hilfe der Fluoreszenz-in-situ-Hybridisierung. So soll das Wissen um die mikrobiologischen Vorgänge erhöht werden und der Zustand der entsprechenden Anlagen besser beschrieben werden.

„Wir vermuten, dass die Betriebsbedingungen in den Kläranlagen und die jahreszeitlichen Schwankungen der Umgebungsbedingungen großen Einfluss auf die Anreicherung bestimmter Organismen und die Beeinflussung ihrer Leistungsfähigkeit im Prozess haben“, betont Prof. Dr. Eberhard Aust. „Die genauen Mechanismen sind allerdings noch unbekannt, da bislang sehr wenige Messdaten aus Kläranlagen vorliegen und Langzeitstudien zur Entwicklung der mikrobiologischen Zusammensetzung der Schlämme bislang fehlen.“ Genau diese Lücke soll das Forschungsprojekt nun schließen.

Darüber hinaus soll die Fluoreszenz-in-situ-Hybridisierungs-Methode auch der Vertiefung des wissenschaftlichen Wissens über die verschiedenen Anammox-Arten dienen. Zum Beispiel könnte herausgefunden werden, welche Anammox-Arten in Konkurrenz um die Nahrungsgrundlage stehen, bzw. ob diese in Symbiose vergesellschaftet existieren.

STAEDTLER Stiftung: Partner der Wissenschaft
Die gemeinnützige STAEDTLER Stiftung unterstützt die Georg-Simon-Ohm-Hochschule Nürnberg – Bayerns forschungsstärkste Hochschule für angewandte Wissenschaften – bereits seit vielen Jahren. Jährlich vergibt sie darüber hinaus hoch dotierte Promotionspreise an Doktoranden für herausragende Leistungen. An der Georg-Simon-Ohm-Hochschule Nürnberg förderte die STAEDTLER Stiftung bereits zahlreiche Projekte. In den vergangenen zehn Jahren flossen über eine Million Euro Fördergelder. Diese wurden unter anderem in folgenden Projekten eingesetzt: Das hochschuleigene Institut für Energie und Gebäude konnte mit Hilfe der Fördergelder Latentwärmespeicher-Materialien erforschen, an der Fakultät Maschinenbau und Versorgungstechnik kombinierte man Software und Kreativitätstechniken, an der Fakultät Informatik wurde das Projekt „intelligente Baustelle“ vorangebracht und an der Fakultät Angewandte Chemie beschäftigte sich ein Forscherteam mit der Behandlung von Allergien des Typs 1 (Soforttyp).

Weitere Informationen im Internet unter www.ohm-hochschule.de und www.staedtler.de

Quelle: Informationsdienst Wissenschaft

(zurück)


Weltwüstentag 2012: Plantagen könnten Regen in die Wüste bringen

Florian Klebs
Presse- und Öffentlichkeitsarbeit
Universität Hohenheim

Meteorologe an der Universität Hohenheim begrünt im Computermodell die Wüste und untersucht damit die Änderung des lokalen Klimas
Blühende Landschaften, mildere Temperaturen und eventuell sogar Regen: Mit einem Computermodell erforschen Meteorologen von der Universität Hohenheim, unter welchen geographischen Voraussetzungen sich die Wüste durch Parzellen begrünen lässt und wie sich dadurch das regionale Klima verändert.

Noch ist es nur ein Computermodell: Prof. Dr. Volker Wulfmeyer, der Leiter des Instituts für Physik und Meteorologie an der Universität Hohenheim, hat virtuelle Plantagen mit den äußerst genügsamen Pflanzen Jojoba und Jatropha angelegt – mitten in der Wüste. „Ihre Sprösslinge lassen sich auch in der Realität im Wüstensand aussäen“, sagt er Forscher. „Mit moderater Bewässerung wachsen und gedeihen sie trotzdem und schaffen sich so ihr eigenes Biotop.“

Die Simulationen hängen aber nicht in der Luft sondern werden durch Ergebnisse gestützt, die schon jetzt durch Messungen an real existierenden Plantagen in Luxor (Ägypten) und in der Negev-Wüste (Israel) durchgeführt werden.

Das Modell simuliert, wie die virtuelle Plantage die Temperatur und die Feuchte der Ätmosphäre ändert. Durch die Änderungen der lokalen Gegebenheiten kann sogar die erste Voraussetzung für Wolkenbildung gegeben sein. „Vor allem in Küstennähe ist die Luft in der Wüste gar nicht so trocken wie man denkt“, erklärt Prof. Dr. Wulfmeyer. „Dort liegt die relative Luftfeuchtigkeit oft sogar bei 30 oder 40 Prozent. „Ein einfacher Effekt könnte dann tatsächlich für Regen mitten in der Wüste sorgen: „Über Wäldern und Plantagen erhitzt sich die Luft stärker als über dem unbewachsenen Sandboden“ sagt Prof. Dr. Wulfmeyer. „Unser Modell zeigt, dass so kleinräumige Temperaturunterschiede entstehen. Sie verursachen nicht nur Wind, sondern führen auch dazu, dass sich Wolken bilden und schließlich Regen fällt.“

Dennoch bleiben viele Fragen offen. „Bisher ist völlig unklar, welche Entfernung zum Meer oder Gebirgen die besten Voraussetzungen bietet“, erklärt Prof. Dr. Wulfmeyer. Ebenso unklar ist, wie die Effekte von der Form und der Größe der Plantage oder des Waldstücks abhängen. „Uns interessiert auch wie viel Kohlendioxid von Wäldern und Plantagen gebunden und wie viel Bioenergie durch die Früchte produziert werden kann.“

Praktische Bestätigung für seine Computermodelle bekommt Prof. Dr. Wulfmeyer aus Israel. Dort haben Wissenschaftler schon vor Jahren einen etwa 30 km² großen Pinienwald in der Negev-Wüste gepflanzt.

Die Anpflanzung trägt sich selbst durch 100 bis 200 Millimeter Niederschlag pro Jahr. Simulationen durch Computermodelle haben die israelischen Forscher aber nicht geliefert: „Sie haben gezeigt, dass es geht“, sagt Prof. Dr. Wulfmeyer, „aber es soll nun geklärt werden, warum und wie man den Einzelfall übertragen kann und wie der Wald selbst nun die Niederschlagsmengen beeinflusst.“

Wüstenwälder könnten das überregionale Klima beeinflussen

Eine weitere Frage muss laut Prof. Dr. Wulfmeyer ebenfalls genau untersucht werden: „Bislang erzeugen wir in unseren Computermodellen nur kleinräumige Effekte. Es ist nicht ausgeschlossen, dass die Wüstenwälder ab einer bestimmten Größe auch das überregionale Klima beeinflussen“, warnt er.

Ein Fokus der Computersimulation liegt deshalb auch auf diesem Effekt: „Wir müssen unbedingt wissen, wo die Obergrenze liegt.“

Ingesamt soll dieses Projekt einen wichtigen Beitrag zur Mitigation des Klimawandels durch die kombinierte Erforschung des lokalen Klimas, der Kohlenstoffbindung und der Produktion von Bioenergie liefern, so Prof. Dr. Wulfmeyer.

Hintergrund: Weltwüstentag

Die Vereinten Nationen haben den 17. Juni zum Weltwüstentag ernannt. Der weltweite Aktionstag soll die breite Öffentlichkeit für die bedrohliche Ausbreitung der Wüsten sensibilisieren und ihr bewusst machen, wie wichtig Gegenmaßnahmen sind. Der Weltwüstentag wirft aber auch ein Schlaglicht auf die Regionen der Erde, in denen die nachhaltige Landnutzung im Zeitalter des Klimawandels besonders wertvoll sein wird.

Quelle: Informationsdienst Wissenschaft

(zurück)


DGE warnt vor Weichmachern in Plastik: Phthalate begünstigen Diabetes Typ 2

Medizin – Kommunikation
Medizinkommunikation
Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften

Altdorf – Bestimmte Weichmacher in Kunststoffen, sogenannte Phthalate, fördern offenbar die Entstehung eines Diabetes mellitus Typ 2. Einer aktuellen schwedischen Studie zufolge sind Menschen mit Diabetes auffällig mit Phthalaten belastet. Weichmacher stecken etwa in Verpackungen und vielen Kosmetikartikeln, aber auch in Medikamenten und Medizinprodukten wie Kathetern oder Blutbeuteln. Frühere Untersuchungen ergaben, dass bestimmte Phthalate Männer unfruchtbar machen oder zu genitalen Fehlbildungen bei Kindern führen können. Die Deutsche Gesellschaft für Endokrinologie (DGE) fordert, diese Weichmacher durch unschädliche Stoffe zu ersetzen.
Phthalate werden in sehr großen Mengen industriell erzeugt und als Weichmacher für Kunststoffe wie etwa PVC verwendet. Professor Dr. med. Dr. h. c. Helmut Schatz, Endokrinologe aus Bochum und Mediensprecher der DGE: „Man weiß heute, dass diese Stoffe die Gesundheit des Menschen schädigen. Sie sind daher innerhalb der Europäischen Union (EU) etwa in Kinderspielzeug verboten.“ Für Verpackungen von Lebensmitteln wurden die Richtwerte für Phthalatgehalte inzwischen gesenkt. Aber viele Medizinprodukte wie Blut- und Infusionsbeutel, Schläuche oder Katheter enthalten noch immer Phthalate in höheren Konzentrationen. Die Stoffe lösen sich leicht aus dem Kunststoff und gelangen auf diese Weise in den menschlichen Körper. Die EU hat im März 2010 zumindest eine Kennzeichnungspflicht für Medizinprodukte, welche Di(2-ethylhexyl)-Phthalat enthalten, erlassen.

Etliche Weichmacher stören als „endokrine Disruptoren“ das menschliche Hormonsystem, indem sie zum Beispiel männliche Sexualhormone hemmen. Studien aus Deutschland und den USA fanden wiederholt hormonell aktive Phthalate im Urin der Bevölkerung. Teilweise überschritten die Konzentrationen sogar die empfohlenen Richtwerte. Zudem können sich unterschiedliche Phthalate in ihrer schädigenden Wirkung steigern. Bei Männern können sie Unfruchtbarkeit fördern und bei Neugeborenen Fehlbildungen der Geschlechtsorgane hervorrufen.

Die neue schwedische Untersuchung (1) zeigt nun einen Zusammenhang zwischen Phthalaten und Diabetes Typ 2. Die Forscher der Universität Uppsala untersuchten gut 1000 Menschen im Alter über 70 Jahren auf die Erkrankung. Etwa jeder neunte Teilnehmer litt an einem Diabetes. Bei fast allen Patienten fanden die Forscher mindestens vier von zehn Abbauprodukten von Phthalaten. Drei dieser Metabolite gingen mit einem erhöhten Diabetesrisiko einher. Die Forscher vermuten in der Fachzeitschrift „Diabetes Care“, dass die betroffenen Weichmacher den Glukosehaushalt beeinflussen. Eine kleine mexikanische Untersuchungsreihe (2) wies ebenfalls auf ein erhöhtes Diabetesrisiko durch Phthalate hin.

„Anscheinend hemmen bestimmte Phthalate die Bildung von Insulin“, erläutert Professor Schatz. „Andere begünstigen dagegen vermutlich eine Resistenz gegen das Hormon. Dieser Zusammenhang muss nun möglichst rasch durch Studien geklärt werden.“ Da bestimmte Weichmacher offenbar auch andere gesundheitliche Schäden hervorrufen können, fordert die Deutsche Gesellschaft für Endokrinologie, phthalathaltige Medizinprodukte durch phthalatfreie zu ersetzen.

Literatur:
(1) Monica Lind et al.: Circulating Levels of Phthalate Metabolites Are Associated With Prevalent Diabetes in the Elderly. In: Diabetes Care, Published online April 12, 2012
(2) K. Svensson et al.: Phthalate exposure associated with self-reported diabetes among Mexican women. In: Environ Res 2011 Aug. 111(6):792-796. Epub 2011 Jun 21

Endokrinologie ist die Lehre von den Hormonen, Stoffwechsel und den Erkrankungen auf diesem Gebiet. Hormone werden von endokrinen Drüsen, zum Beispiel Schilddrüse oder Hirnanhangdrüse, aber auch bestimmten Zellen in Hoden und Eierstöcken, „endokrin“ ausgeschüttet, das heißt nach „innen“ in das Blut abgegeben. Im Unterschied dazu geben „exokrine“ Drüsen, wie Speichel- oder Schweißdrüsen, ihre Sekrete nach „außen“ ab.

http://www.endokrinologie.net 

Quelle: Informationsdienst Wissenschaft

(zurück)


Schaufenster-Krankheit: Beim Radiologen in guten Händen

Pressesprecher Florian Schneider
Presse- und Öffentlichkeitsarbeit
Deutsche Röntgengesellschaft e.V.

Patienten mit Durchblutungsstörungen an den Beinen werden in Deutschland vielfach von interventionellen Radiologen behandelt, die verengte Beinarterien aufdehnen oder sogar wiedereröffnen können. Ein deutschlandweites Register zur Qualitätssicherung belegt jetzt, dass die Erfolgsraten dieser Prozedur hoch und die Komplikationen ausgesprochen gering sind.
Die „Schaufenster-Krankheit“, im Fachjargon periphere arterielle Verschlusskrankheit oder kurz PAVK genannt, ist eine der häufigsten Herz-Kreislauf-Erkrankungen in den Industrienationen. Je nach Erfassungsmethode liegt bei 5 bis über 15 Prozent der Menschen über 70 Jahren eine PAVK vor. Typisch für diese Erkrankung ist, dass die Patienten nach einer gewissen Zeit Schmerzen beim Gehen haben. Sie müssen dann anhalten und kurz warten, bevor sie weiter gehen können. Dieses sehr charakteristische Muster hat zu dem Namen „Schaufenster-Krankheit“ geführt.
Sind die Beschwerden so ausgeprägt, dass sie mit Gehtraining alleine nicht in den Griff zu bekommen sind, wird den Patienten entweder vom Chirurgen ein Bypass angelegt, oder aber die betreffenden Gefäße werden vom interventionellen Radiologen mit Hilfe eines Ballonkatheters aufgedehnt. Teilweise werden auch Gefäßstützen, so genannte Stents, eingesetzt, um die Arterien dauerhaft offen zu halten. Geübte Radiologen können auf diese Weise sogar komplett verschlossene Gefäße wieder eröffnen. Fließt das Blut wieder ungehindert von der Hauptschlagader in Richtung Becken und Bein, dann verschwinden die Schmerzen im Allgemeinen sofort.

Radiologen lassen sich gerne auf die Finger schauen
Im Rahmen des Qualitätsmanagement-Programms der Deutschen Gesellschaft für Interventionelle Radiologie (DeGIR) haben sich Wissenschaftler unter der Federführung von Professor Dr. Lothar Heuser (Ruhr-Universität Bochum) aus 82.881 Datensätzen von 192 radiologischen Instituten die Daten jener 36.467 Patienten ausgewertet, die im Jahr 2011 wegen einer PAVK in interventioneller Behandlung waren.

Die Erhebung belegt die hohe Bereitschaft der Radiologen in Deutschland, das eigene Tun transparent zu machen. Einmal im Jahr erhalten teilnehmende Institute eine Auswertung, die es nach dem Benchmarking-Prinzip erlaubt, die individuellen Stärken und Schwächen bei bestimmten Behandlungen oder Verfahren im Vergleich mit den Kollegen einzuschätzen. Für die PAVK ist das Ergebnis außerdem ein in dieser Breite bisher einmaliger Nachweis der hohen Versorgungsqualität in Deutschland in diesem Teilsegment der Medizin.

Hohe Erfolgsrate, wenig Komplikationen
Die Erhebungen zeigen, dass die Entscheidung für die interventionelle Therapie in aller Regel interdisziplinär getroffen wurde: Bei neun von zehn Patienten war in die Entscheidung für eine interventionelle Therapie mindestens eine weitere Disziplin eingebunden oder die Entscheidung wurde nach multidisziplinären Fallkonferenzen getroffen.
Bei den Interventionen gelingt es bei 96,2 Prozent der Patienten, die Gefäßengstelle aufzudehnen oder das verschlossene Gefäß wiederzueröffnen. Diese „technische Erfolgsrate“ ist ausgesprochen hoch. Dabei wird in etwas weniger als der Hälfte der Fälle eine Gefäßstütze eingesetzt. Bei 47,3% der Patienten erfolgt ausschließlich eine Aufdehnung der Engstelle mit einem Ballonkatheter (PTA). Die Komplikationsrate wiederum ist mit gerade einmal 3,2% sehr gering. Werden nur die als schwer einzustufenden Komplikationen berücksichtigt, liegt die Quote sogar nur bei 1,43%.

Akzeptanz des Qualitätsmanagements wächst
Die Auswertung zur PAVK zeige erneut, dass sich das vor nunmehr 18 Jahren eingeführte, freiwillige Qualitätsmanagement-System der Radiologen in der Praxis bewähre, so Heuser. Die Möglichkeit, die eigene Leistung anonym mit der von Kollegen vergleichen zu können, bewege viele Radiologen zur Teilnahme: „Das lernende und wachsende System zeigt eine deutlich zunehmende Akzeptanz, was die Qualitätsbestrebungen in der Radiologie plastisch vor Augen führt.“ Künftig soll der umfangreiche Datenpool auch für die Beantwortung wissenschaftlicher Fragestellungen genutzt werden.
Bislang schon wird die Datenbank für die Zertifizierungen in Interventioneller Radiologie für Ärzte und Ausbildungsstätten genutzt. Die Nutzung des Systems ist ferner verpflichtend für die Zertifizierung als interdisziplinäres Gefäßzentrum.

Weitere Informationen:
http://www.drg.de

(zurück)


Erste Forschungsanlage zur Abwasserreinigung und Holzproduktion in der Mongolei in Betrieb genommen

Tilo Arnhold
Presse- und Öffentlichkeitsarbeit
Helmholtz-Zentrum für Umweltforschung – UFZ

Darkhan/ Leipzig. Lange Winter mit Temperaturen bis zu -40°C und heiße Sommer mit Sandstürmen und Dürreperioden – diese Klimabedingungen in der Mongolei sind für die Infrastruktur eine große Herausforderung. Das an Rohstoffen reiche, aber gleichzeitig an Wasser sehr arme Land steht im Mittelpunkt der Forschungsaktivitäten des vom Bundesministerium für Bildung und Forschung (BMBF) unterstützten und vom Helmholtz-Zentrum für Umweltforschung (UFZ) koordinierten Projektes „MoMo“ („Integriertes Wasserressourcen-Management in Zentralasien: Modellregion Mongolei).
Eine der Aufgaben der Forscher ist es, integrierte Konzepte und geeignete Technologien zur dezentralen Abwasserbehandlung zu entwickeln und vor Ort auf ihre Tauglichkeit hin zu überprüfen.
Am 15. Mai wurde eine von deutschen und mongolischen Wissenschaftlern konzipierte Forschungsanlage zur dezentralen Abwasserbehandlung mit gekoppelter Holzproduktion in Betrieb genommen und an die Mongolische Technische Universität (MUST) in Darkhan übergeben. Die Wissenschaftler wollen unter den klimatischen Bedingungen vor Ort dezentrale Abwassertechnologien so optimieren, dass sie helfen können, drei zentrale Probleme des Landes zu lösen: Die unzureichende sanitäre Versorgung, eine zunehmende Wasserknappheit sowie die fortschreitende Entwaldung und Verknappung von Holz.

Jurten, Yaks und Chinggis Khaan, das sind erste Assoziationen, die mit der Mongolei entstehen. Das große Land mit der weltweit geringsten Bevölkerungsdichte ist ein Land der Gegensätze. Nach der politischen Wende in den frühen 1990er Jahren lebt heute immer noch nahezu ein Drittel der Bevölkerung unterhalb des nationalen Armutsniveaus. Jedoch hat die Ausbeutung der Bodenschätze in jüngster Zeit zu einem starken ökonomischen Wachstum geführt, das vor allem in den urbanen Zentren sichtbar wird. Allerdings steigt die Armut in städtischen Randbereichen, da das traditionelle Nomadentum mehr und mehr durch eine sesshafte Lebensweise der mongolischen Einwohner abgelöst wird. Der schlechte Zustand der Sanitärsysteme ist dabei ein ernstzunehmendes Risiko für die menschliche Gesundheit und die Umwelt. Dabei ist die große Dynamik sich verändernder Siedlungsstrukturen eine besondere Herausforderung für eine langfristige Planung und Implementierung von zukunftsfähigen Abwasserinfrastrukturen besonders im ländlichen und peri-urbanen Raum.
Die vom MoMo-Projektleiter Prof. Dietrich Borchardt (UFZ) und dem Direktor Prof. Dorligsuren Lkhanag der Mongolischen Technischen Universität in Darkhan eröffnete Forschungsanlage ist Teil der Phase II des MoMo-Projektes, in der mongolische und deutsche Forscher, Ministerien und Unternehmen zusammenarbeiten, um einen Plan für das integrierte Wasserressourcenmanagement im Einzugsgebiet des Flusses Kharaa um die Stadt Darkhan im Norden der Mongolei zu erarbeiten und die dringlichsten Probleme anzugehen. Dort fallen nur 280 mm Niederschlag pro Jahr. Wie andere Gebiete auch droht es durch den übermäßigen Holzeinschlag zu versteppen. Auch die ökologisch wichtigen Weidenauen entlang des Flusses Kharaa werden dezimiert, um Brennholz zu gewinnen.
Aufgrund der extremen klimatischen Bedingungen sind die Anforderungen an geeignete Infrastrukturen im Wassersektor immens. So müssen alle Trinkwasserleitungen und Abwasserkanäle zwischen 3,5 und 4,5 Meter tief unterhalb der Oberfläche verlegt werden, um die Frostsicherheit zu gewährleisten. Auch die biologische Reinigungsstufe einer konventionellen Abwasserreinigungsanlage benötigt im Winter eine externe Heizung oder muss aufwändig eingehaust werden. Notwendige Maßnahmen wie diese lassen die Kosten ins Unerschwingliche steigen. Diese Mischung aus Umweltfaktoren, sozialen, demographischen sowie ökonomischen Rahmenbedingungen sowie andererseits veralteten, unzuverlässigen Infrastrukturen verlangt innovative und angepasste Abwasserbehandlungstechnologien.
Der Lösungsansatz der Leipziger Forscher ist, (vor-)gereinigtes Abwasser zur Bewässerung und Produktion von schnell wachsenden Weiden einzusetzen. Die Bewässerung dieser Kurzumtriebsplantagen wird dabei als integraler Bestandteil der Abwasserbehandlung angesehen. Da in der Mongolei kein Mangel an Flächen besteht, setzt das Konzept darauf, vorgereinigtes Abwasser aus kleineren Ortschaften oder Stadtteilen großflächig zur Produktion von Weidenholz zu verwenden. Dazu wollen die Wissenschaftler Bewässerungswasser zur Verfügung stellen, um das Risiko, Grundwasser oder Boden nachhaltig zu schädigen, auszuschließen. Ein weiterer Fragenkomplex ist mit den extremen klimatischen Bedingungen verknüpft – wie die Speicherung des Bewässerungswassers und der Betrieb der Anlage im Winter.
Die Erfahrungen aus den Arbeiten in der Mongolei sollen helfen, die Stabilität des Verfahrens zu optimieren und dessen Potenzial abzuschätzen, das entwickelte Know-how als Komponente eines integrierten Wasser Ressourcen Managements auf einen größeren Maßstab zu übertragen.

Weitere fachliche Informationen:
Helmholtz-Zentrum für Umweltforschung (UFZ)
Department: Umwelt- und Biotechnologisches Zentrum
Dr. Roland Arno Müller, Dr. Manfred van Afferden, Christopher Sullivan
Tel. 0341-235-1229, -1019, -1848,
http://www.ufz.de/index.php?de=19158
oder über
Tilo Arnhold (UFZ-Pressestelle)
Telefon: 0341-235-1635
http://www.ufz.de/index.php?de=640

Weiterführende Links:
Integriertes Wasserressourcen-Management (IWRM) in Zentralasien: Modellregion Mongolei (MoMo) – Phase II Implementierung von IWRM Elementen im Kharaa-Einzugsgebiet (Förderkennzeichen: BMBF 033L003A)
http://www.iwrm-momo.de/
http://www.bmbf.wasserressourcen-management.de/de/111.php
Nomadenleben adé (UFZ-Spezial „In Sachen Wasser“ Juni 2011, S. 21):
http://www.ufz.de/export/data/1/28826_ufz_spezial_wasser_jun_2011_.pdf

Im Helmholtz-Zentrum für Umweltforschung (UFZ) erforschen Wissenschaftler die Ursachen und Folgen der weit reichenden Veränderungen der Umwelt. Sie befassen sich mit Wasserressourcen, biologischer Vielfalt, den Folgen des Klimawandels und Anpassungsmöglichkeiten, Umwelt- und Biotechnologien, Bioenergie, dem Verhalten von Chemikalien in der Umwelt, ihrer Wirkung auf die Gesundheit, Modellierung und sozialwissenschaftlichen Fragestellungen. Ihr Leitmotiv: Unsere Forschung dient der nachhaltigen Nutzung natürlicher Ressourcen und hilft, diese Lebensgrundlagen unter dem Einfluss des globalen Wandels langfristig zu sichern. Das UFZ beschäftigt an den Standorten Leipzig, Halle und Magdeburg über 1.000 Mitarbeiter. Es wird vom Bund sowie von Sachsen und Sachsen-Anhalt finanziert.
Die Helmholtz-Gemeinschaft leistet Beiträge zur Lösung großer und drängender Fragen von Gesellschaft, Wissenschaft und Wirtschaft durch wissenschaftliche Spitzenleistungen in sechs Forschungsbereichen: Energie, Erde und Umwelt, Gesundheit, Schlüsseltechnologien, Struktur der Materie, Verkehr und Weltraum. Die Helmholtz-Gemeinschaft ist mit über 31.000 Mitarbeiterinnen und Mitarbeitern in 18 Forschungszentren und einem Jahresbudget von rund 3,4 Milliarden Euro die größte Wissenschaftsorganisation Deutschlands. Ihre Arbeit steht in der Tradition des Naturforschers Hermann von Helmholtz (1821-1894).

Weitere Informationen:
http://www.ufz.de/index.php?de=30500

(zurück)


WSI-Tarifarchiv: Wer bekommt Urlaubsgeld und was sehen die Tarifverträge vor?

Rainer Jung
Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung

46 Prozent der Beschäftigten erhalten von ihrem Arbeitgeber ein Urlaubsgeld. Zu diesem Ergebnis kommt eine Online-Umfrage der Internetseite http://www.lohnspiegel.de, die vom WSI-Tarifarchiv der Hans-Böckler-Stiftung betreut wird und an der sich rund 20.500 Beschäftigte beteiligt haben. Die Analyse der Befragungsdaten, die im Zeitraum von Anfang Januar 2011 bis April 2012 erhoben wurden, zeigt, dass die Chancen ein Urlaubsgeld zu erhalten, ungleich verteilt sind:

– Betriebsgröße: Je größer der Betrieb, umso eher gibt es Urlaubsgeld. Beschäftigte in Betrieben mit mehr als 500 Beschäftigten erhalten zu 56 Prozent ein Urlaubsgeld, in Betrieben unter 100 Beschäftigten sind es nur 38 Prozent.

– West/Ost: Nach wie vor gibt es deutliche Unterschiede zwischen Ost- und Westdeutschland. In Westdeutschland bekommen 50 Prozent, in Ostdeutschland 31 Prozent der Beschäftigten ein Urlaubsgeld.

– Berufserfahrung: Je länger das Berufsleben dauert, umso größer die Chance auf ein Urlaubsgeld. Bei einer Berufserfahrung von unter fünf Jahren gibt es für 38 Prozent ein Urlaubsgeld, der Anteil steigt auf knapp 52 Prozent bei 20 und mehr Jahren Berufserfahrung.

– Einkommenshöhe: Je höher das Einkommen, umso eher erhalten die Beschäftigten Urlaubsgeld. Bei einem monatlichen Bruttoeinkommen zwischen 1.000 und 2.000 Euro kommen nur 34 Prozent in den Genuss eines Urlaubsgeldes, in der Einkommensklasse von 2.000 – 3.000 Euro sind es immerhin 49 Prozent. Zwischen 4.000 und 5.000 Euro bekommen 56 Prozent der Beschäftigten ein Urlaubsgeld. Danach sinkt der Anteil wieder.

– Männer-Frauen: Frauen erhalten weniger oft Urlaubsgeld als Männer. Bei den Frauen sind es 40 Prozent, bei den Männern dagegen 50 Prozent.

– Tarifbindung: Eindeutig profitieren die Beschäftigten von einer Tarifbindung ihres Arbeitgebers. Beschäftigte mit Tarifbindung erhalten zu 59 Prozent ein Urlaubsgeld, Beschäftigte ohne Tarifbindung dagegen nur zu 35 Prozent.

Die Höhe der tariflich vereinbarten Urlaubsextras fällt je nach Branche sehr unterschiedlich aus: Zwischen 155 und 2.140 Euro bekommen Beschäftigte in der mittleren Lohn- und Gehaltsgruppe in diesem Jahr als tarifliches Urlaubsgeld (ohne Berücksichtigung von Zulagen/Zuschlägen, bezogen auf die Endstufe der Urlaubsdauer). Das zeigt die aktuelle Auswertung für 22 Wirtschaftszweige, die das Tarifarchiv des Wirtschafts- und Sozialwissenschaftlichen Instituts (WSI) in der Hans-Böckler-Stiftung vorlegt (Regelungsstand: 30.4.2012). Am wenigsten Geld für die Urlaubskasse bekommen Beschäftigte in der Landwirtschaft und im Steinkohlenbergbau. Die höchsten Zahlungen erhalten Arbeitnehmerinnen und Arbeitnehmer u. a. in der Holz- und Kunststoffverarbeitung, in der Druckindustrie sowie in der Metallindustrie.

Verglichen mit 2011 ist das tarifliche Urlaubsgeld in acht der untersuchten Branchen gleich geblieben, in elf Bereichen dagegen angestiegen, zum Beispiel:

– Im Einzelhandel Nordrhein-Westfalen steigt das Urlaubsgeld um rund 32 Euro auf 1.102 Euro, in Brandenburg um 28 Euro auf 977 Euro (gerundet).

– In der Holz und Kunststoff verarbeitenden Industrie Westfalen-Lippe gibt es für die Angestellten mit 2.140 Euro insgesamt 82 Euro mehr als im Vorjahr, bei den Arbeiter/innen sind es 69 Euro mehr (auf 1.809 Euro).

– Ein Plus von 49 Euro auf 364 Euro erhalten die Beschäftigten in der ostdeutschen Textilindustrie.

– Im Versicherungsgewerbe erhöht sich das Urlaubsgeld um 38 Euro auf 1.320 Euro.

In der Metallindustrie steigt durch den aktuellen Tarifabschluss vom 19.5. das Urlaubsgeld in Baden-Württemberg voraussichtlich um 77 Euro auf 1.870 Euro.

Im Westen ist das Urlaubsgeld vielfach höher als in Ostdeutschland. Im öffentlichen Dienst und in der Stahlindustrie gibt es kein gesondertes tarifliches Urlaubsgeld. Es wird mit dem Urlaubsgeld zu einer einheitlichen Jahressonderzahlung zusammengefasst. Auch im Bankgewerbe und in der Energiewirtschaft gibt es kein tarifliches Urlaubsgeld. Für die Beamtinnen und Beamten gibt es keine tarifliche Urlaubsgeldregelung. Hier gelten die unterschiedlichen gesetzlichen Regelungen der Beamtenbesoldung für den Bund und für die einzelnen Länder einschließlich der Gemeinden.

Die Pressemitteilung mit Grafik und Tabellen (pdf): http://www.boeckler.de/pdf/pm_ta_2012_05_29.pdf

(zurück)


E4Water – EU-Projekt zu effizientem Wassermanagement in der chemischen Industrie

Dr. Kathrin Rübberdt
Öffentlichkeitsarbeit
DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V.

Am 1. Mai 2012 startete ein neues Projekt zur Optimierung des Wasserverbrauchs in der chemischen Industrie in Europa. Das E4Water-Projekt soll neue integrierte Methoden für mehr Effizienz und Nachhaltigkeit in industrieller Wasseraufbereitung und Wassermanagement entwickeln.
Die Herausforderungen im Zusammenhang mit Wasser – knappe Frischwasserressourcen, Belastungen für aquatische Ökosysteme und mehr – stehen auf der europäischen und internationalen Agenda weit oben. Ein wirtschaftliches und umweltschonendes, effizientes Wassermanagement wird dabei als eine der wesentlichen Strategien für den Umweltschutz in vielen europäischen Ländern gesehen. Innovative Lösungen bei der industriellen Wassernutzung können dazu beitragen, Produktionszuwächse weiter vom Wasserverbrauch zu entkoppeln und gleichzeitig lokale Gegebenheiten zu berücksichtigen.

Die chemische Industrie ist ein Eckpfeiler der europäischen Wirtschaft. Sie ist sowohl ein Wassergroßverbraucher als auch ein Lösungsanbieter für andere Prozessindustrien wie Bergbau und Verhüttung, industrielle Biotechnologie, die pharmazeutische und die Elektronieindustrie, Zellstoff- und Papierproduzenten und den Energiesektor. Die chemische Industrie kann so entscheidend dazu beitragen, die Ökoeffizienz des industriellen Wassermanagements über die gesamte Wertschöpfungskette zu steigern.

Das E4Water-Projekt widmet drängenden Fragen der Prozessindustrie bei der Beseitigung von Engpässen und Hürden für ein integriertes und energieeffizientes Wassermanagement. Vier Jahre lang werden 19 internationale Partner, darunter Industrieunternehmen, Forschungseinrichtungen und Anwender, gemeinsam neue Ansätze für eine Senkung des Wasserverbrauchs und der Abwassermengen sowie des Energieverbrauchs in der chemischen Industrie entwickeln.

Wichtigstes Ziel von E4Water ist die Entwicklung und Validierung integrierter Ansätze, Methoden und Verfahren. In sechs industriellen Fallstudien sollen dabei 20-40% Wasser eingespart, 30-70% weniger Abwasser erzeugt und 15-40% weniger Energie verbraucht werden; gleichzeitig soll die Wirtschaftlichkeit um bis zu 60% steigen. Davon soll nicht nur die chemische Industrie profitieren, das Projekt soll auch Ideen für andere Branchen liefern.

Das Projektkonsortium vereint große Chemieunternehmen, führende europäische Wasserversorger und innovative Forschungs- und Technologieentwicklungszentren und Universitäten. Die Partner beteiligen sich auch an der Water supply and sanitation Platform WssTP und SusChem, der europäischen Technologieplattform für nachhaltige Chemie. Darüber hinaus arbeiten sie mit den Wasserbehörden verschiedener europäischer Staaten zusammen.

Kontakt: DECHEMA e. V., Theodor-Heuss-Allee 25, 60486 Frankfurt am Main, Germany
http://www.dechema.de

Dr. Thomas Track
Tel: +49 69 7564-427
Fax: +49 69 7564-117
track@dechema.de

Dr. Christina Jungfer
Tel: +49 69 7564-364
Fax: +49 69 7564-117
jungfer@dechema.de

Dr. Renata Körfer
Tel: +49 69 7564-619
Fax: +49 69 7564-117
koerfer@dechema.de

Weitere Informationen:
http://www.e4water.eu

(zurück)


Zecken in Baden-Württemberg – ökologisch betrachtet

Monika Landgraf
Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Durch Zeckenbisse ziehen sich jährlich mehr als 100.000 Menschen eine Borreliose-Infektion zu, etwa 300 erkranken an Frühsommer-Meningoenzephalitis (FSME). Ein Team aus Parasitologen und Geoökologen untersucht, in welchen Gebieten Zecken welche Krankheitserreger in sich tragen, wo ihre Population besonders hoch ist und welche Umwelteinflüsse dafür verantwortlich sind. Die Ergebnisse sollen helfen, konkretere Impfempfehlungen sowie Zeckenwarnungen herauszugeben. Das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg fördert das Vorhaben als BWPLUS-Projekt.
Die in unseren Breitengraden häufigste Zeckenart ist der Gemeine Holzbock (Ixodes ricinus), der im Laufe seines Lebens die drei Entwicklungsstufen Larve, Nymphe und Adult durchläuft. Um die jeweils nächste zu erreichen, benötigt er je einen Wirt. Hier setzen die KIT-Forscher an: In verschiedenen Gegenden Baden-Württembergs wollen sie die Zecken von Mäusen – den häufigsten Wirtstieren der Larven – absammeln. Die Zecken werden vom Landesgesundheitsamt in Stuttgart auf Krankheitserreger (Pathogene) untersucht, die Mäuse werden markiert und wieder freigelassen. Einige Wochen später sollen in denselben Gebieten erneut Mäuse eingefangen werden. „Anhand der Anzahl der markierten, wiedergefangenen Mäuse lässt sich errechnen, wie viele potenzielle Wirtstiere in einem Gebiet leben“, erklärt KIT-Parasitologe Dr. Trevor Petney. „Wenn wir das oft und lange genug machen, wissen wir, wie leicht sich die Zecken dort infizieren können.“

Die Lebensdauer einer Zecke ist auch abhängig von klimatischen Bedingungen, der Bodenbeschaffenheit und der Vegetation. Die Geoökologen im Forschungsteam betreuen deshalb über zwanzig Stationen in ganz Baden-Württemberg. Dort messen sie unter anderem die Temperatur und Feuchtigkeit über und unter der Erdoberfläche und gleichen diese Daten mit der Zeckenpopulation ab. „So können wir herausfinden, wie sich die physisch-geographischen Eigenschaften einer bestimmten Umgebung auf die Zecken auswirken“, sagt Dr. Stefan Norra vom Institut für Geographie und Geoökologie. „Bislang dachte man immer, dass Zecken Feuchtigkeit brauchen. Aus einer unserer Vorstudien wissen wir aber, dass zuviel Feuchtigkeit offenbar auch nicht gut für sie ist.“

Das Ministerium für Umwelt, Klima und Energiewirtschaft Baden-Württemberg fördert das Vorhaben als BWPLUS-Projekt zum Thema „Ökologie von Zecken als Überträger von Krankheitserregern in Baden-Württemberg“. Das Projekt am KIT läuft zunächst bis Anfang 2014. Um belastbare Aussagen treffen zu können, soll es aber noch länger fortgeführt werden. Ziel der Wissenschaftler ist es, Zusammenhänge zwischen Zecken, Wirtstieren, Krankheitserregern, klimatischen Bedingungen, Boden und Vegetation aufzuzeigen. „Am Ende sollen Modelle stehen, die uns erlauben, zu sagen, aus welchem Grund in einer bestimmten Gegend häufiger Zecken vorkommen als anderswo und welche Krankheitserreger sie in sich tragen“, sagt KIT-Forscher Stefan Norra. Die Ergebnisse könnten nicht nur helfen, konkretere Impfempfehlungen herauszugeben. Trevor Petney hofft auch, dass sie zu einem gänzlich anderen Umgang mit der Zeckenproblematik führen: „In Deutschland müssen derzeit noch große Landstriche zu Zecken-Hochrisikogebieten erklärt werden. In den USA ist die Forschung bereits so weit, dass sehr feinskalierte und aktuelle Zeckenwarnungen gegeben werden können.“ In Zukunft sollten sich die Bürger auch in Deutschland auf Internetseiten oder per App darüber informieren können, ob ein Waldstück zu einem bestimmten Zeitpunkt als „zeckensicher“ gilt oder ob dort besondere Vorsicht geboten ist.

Das KIT-Zentrum Klima und Umwelt entwickelt Strategien und Technologien zur Sicherung der natürlichen Lebensgrundlagen: Dafür erarbeiten 660 Mitarbeiterinnen und Mitarbeiter aus 32 Instituten Grundlagen- und Anwendungswissen zum Klima- und Umweltwandel. Dabei geht es nicht nur um die Beseitigung der Ursachen von Umweltproblemen, sondern zunehmend um die Anpassung an veränderte Verhältnisse.

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Anhang
attachment icon Zecken in Baden-Württemberg – ökologisch betrachtet
http://idw-online.de/de/attachment16959

(zurück)


Neue Chemikalien-Stoffdatenbank hilft Wasserqualität sichern

Dr. Ulrich Marsch
Corporate Communications Center
Technische Universität München

Arzneien, Kosmetika oder Waschmittel: Aus Produkten des täglichen Lebens gelangen kontinuierlich unterschiedliche Chemikalien ins Abwasser. Viele von ihnen können bislang nicht erfasst werden – ein Risiko für die Wasserqualität. Wissenschaftler der Technischen Universität München (TUM) wollen bislang nicht erkannte Spurenstoffe nun dingfest machen. Gemeinsam mit Partnern aus Behörden, Wissenschaft und Wirtschaft entwickeln sie neue Verfahren, um die „Fingerabdrücke“ der Schadstoffe systematisch zu erfassen und in einer neuen Datenbank zu veröffentlichen. Um die Zuverlässigkeit der neuen Analyseverfahren zu prüfen, bittet die TUM deutschlandweit Labore um Beteiligung an einem Ringversuch.
Etwa 100.000 verschiedene Chemikalien sind innerhalb der Europäischen Union auf dem Markt. Sie befinden sich in vielen Produkten des täglichen Lebens: in Arzneien und Kosmetika, in Waschpulver und Farben sowie Desinfektionsmitteln und Pestiziden. Viele der chemischen Verbindungen sind noch nicht analytisch erfasst, über das Auftreten und die Wirkung vieler Abbauprodukte ist bislang wenig bekannt. Klar ist allerdings, dass schon kleinste Mengen bestimmter Chemikalien eine große Wirkung auf Umwelt und Gesundheit haben können. Werden die Spurenstoffe in Kläranlagen nicht vollständig abgebaut, können sie Wasserpflanzen und Fische schädigen oder sich in den Lebewesen anreichern – mit Folgen für die Ökosysteme in Flüssen oder Seen. Gelangen toxische oder hormonell wirksame Verbindungen darüber hinaus in die Nahrungskette oder in das Trinkwasser, können sie auch für den Menschen problematisch werden.

Wissenschaftler der Technischen Universität München (TUM) und des Bayerischen Landesamtes für Umwelt (LfU) wollen diese bislang nicht erkannten Spurenstoffe nun dingfest machen. Im Rahmen des Verbundprojektes RISK-IDENT entwickeln sie gemeinsam mit Experten aus Behörden, Hochschulen und Unternehmen neue Verfahren, um die „Fingerabdrücke“ der Schadstoffe, über deren unverwechselbare molekulare Eigenschaften, im Wasser systematisch zu erfassen. „Zwar wird im Rahmen der ‚normalen‘ Reinigung und Aufbereitung von Abwasser ein Großteil der Schadstoffe entfernt“, sagt Dr. Thomas Letzel, Dozent an der Technischen Universität München. „Dennoch können diejenigen Verbindungen, die nicht abgebaut werden, die Wasserqualität beeinträchtigen, trotz ihrer teilweise geringen Konzentration. Gerade diesen Spurenstoffen kann man nur mit modernsten analytischen Verfahren auf die Spur kommen, und auch nur wenn sie auf ‚das Molekül genau‘ arbeiten.“

Suspected-Target-Screening ist der Fachbegriff für die Detektivarbeit, die Thomas Letzel und seine Projektpartner durchführen. Wie in der klassischen Analytik werden die in einer Wasserprobe gelösten chemischen Substanzen zunächst chromatographisch getrennt. In einem zweiten Schritt kann mittels Massenspektrometrie die jeweils spezifische Masse der einzelnen Moleküle bestimmt werden. Im Projekt RISK-IDENT geht das Konsortium nun noch einen Schritt weiter: Neben der jeweiligen Molekularmasse (und der Bruchteile) werden die Retentionszeiten der Moleküle, also ihre Fließgeschwindigkeit, bestimmt und normiert. Wie ein „Fingerabdruck“ erlaubt es dieser zusätzliche Parameter, chemische Stoffe eindeutig zu identifizieren – und das über verschiedene Laboratorien hinweg. Die so gewonnenen „Fingerabdrücke“ fließen in eine öffentliche Datenbank (STOFF-IDENT) ein.

„Ziel ist es, bislang nicht erkannte Spurenstoffe mit den neu erfassten Daten abzugleichen und sie so zu ‚überführen'“, sagt Letzel. Möglich wird dieser Abgleich u.a. durch die Einbindung der Stoffdaten aus der europäischen Verordnung zur Registrierung, Bewertung, Zulassung und Beschränkung chemischer Stoffe (REACH) in die Datenbank. REACH verpflichtet Hersteller und Importeure von Chemikalien dazu, deren physikalische und chemische Eigenschaften zu veröffentlichen und Umwelt- und Gesundheitsgefahren aufzuführen. „Auf dieser Grundlage lässt sich in Zukunft schneller und mit größerer Sicherheit sagen, welche Wasserschadstoffe sich hinter einigen wenigen Molekülen verbergen“, ist sich Letzel sicher.

Projektinformation: Das Bundesforschungsministerium unterstützt mit der Fördermaßnahme „Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf (RiSKWa)“ 12 Verbundprojekte mit ca. 30 Mio. Euro Fördermitteln. Ziel ist es, innovative Technologien und Konzepte zum Risikomanagement von neuen Schadstoffen und Krankheitserregern für den vorsorgenden Gesundheits- und Umweltschutz zu entwickeln. Das Verbundprojekt RISK-IDENT soll bislang nicht identifizierte anthropogene Spurenstoffe bewerten und Handlungsstrategien zum Risikomanagement im aquatischen System entwickeln. Koordiniert wird das Projekt vom Bayerischen Landesamt für Umwelt; Partner sind: Technische Universität München, Hochschule Weihenstephan-Triesdorf, Zweckverband Landeswasserversorgung Stuttgart, CONDIAS GmbH. (http://risk-ident.hswt.de)

Aufruf zum Ringversuch zu Retentionszeitindex:
Um die Zuverlässigkeit der neuen Analyseverfahren zu gewährleisten, bittet die TUM deutschlandweit LC-MS-Labore um die Teilnahme an einem Ringversuch. Beteiligen können sich alle Labore, die Trennungen basierend auf C18-Umkehrphasenmaterial durchführen. Dabei müssen die Labore nicht zwingend im Abwasserbereich tätig sein. Ein Referenzmix (mit verschiedenen organischen Substanzen) und einer Lösung mit „unbekannten“ Substanzen sollen dabei mit der etablierten LC-MS Methode vermessen werden. Zudem sollen die Retentionszeiten softwaregestützt normiert werden (Software unter „openMASP.hswt.de“).

Kontakt:
Technische Universität München
PD Dr. Thomas Letzel
Leiter der Analytischen Forschungsgruppe am Wissenschaftszentrum Weihenstephan
E-Mail: letzel@wzw.tum.de

Weitere Informationen:
http://www.afg.wzw.tum.de/index.php?id=11&tx_ttnews[tt_news]=7&cHash=457… Weitere Informationen zum Ringversuch

(zurück)


Erstkäufer von Elektroautos: männlich, zwischen 40 und 50, lebt mit Kindern auf dem Land

Anne-Catherine Jung
Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Gut ausgebildete Männer zwischen 40 und 50, die gut verdienen, technikaffin sind und in Mehrpersonenhaushalten auf dem Land oder in der Vorstadt leben, sind voraussichtlich die ersten Autokäufer, die sich für ein Elektrofahrzeug entscheiden werden. Das ist das Ergebnis einer aktuellen Studie des Fraunhofer-Instituts für System- und Innovationsforschung ISI und des Instituts für Ressourceneffizienz und Energiestrategien (IREES), die potenzielle private Erstkäufer von Elektrofahrzeugen identifiziert hat.
Deutschlands Industrie und die Bundesregierung haben das Ziel, dass bis 2020 mindestens eine Million Elektrofahrzeuge auf Deutschlands Straßen fahren. Um das zu erreichen, braucht es zielgerichtete und effektive Maßnahmen. Diese sind aber nur möglich, wenn die Zielgruppen klar definiert sind. Die potenziellen ersten Kunden zu identifizieren und zu beschreiben war das Ziel der Studie „Kaufpotenzial für Elektrofahrzeuge bei sogenannten ,Early Adoptern‘“ des Fraunhofer ISI in Kooperation mit dem IREES. Im Auftrag des Bundesministeriums für Wirtschaft und Technologie untersuchte das Forscherteam, welche Privatpersonen mit welchen Eigenschaften die wahrscheinlichsten ersten Käufer von Elektroautos sind.

Laut der Studie bilden Männer zwischen 40 und 50, die technikaffin sind und ein überdurchschnittliches Einkommen beziehen, die wichtigste mögliche erste Käufergruppe. Sie leben auf dem Land oder in kleineren Städten, und zwar vorwiegend in Mehrpersonenhaushalten mit Kindern.

Wirtschaftliche Vorteile durch die geringen Betriebskosten von Elektrofahrzeugen haben für ihre Kaufentscheidung allerdings keine große Bedeutung, da Elektrofahrzeuge derzeit nicht als wirtschaftlich wahrgenommen werden – ihre Anschaffungskosten werden von den meisten potenziellen Käufern als zu hoch angesehen . Für die Akzeptanz eines höheren Anschaffungspreises spielen eine positive Umweltwirkung der Elektrofahrzeuge und der Fahrspaß, welcher besonders durch die bessere Beschleunigung im Vergleich zu konventionellen Fahrzeugen vermutet wird, eine bedeutende Rolle. Die positive Umweltwirkung und das gute Beschleunigungsverhalten der Elektroautos stellen daher Alleinstellungsmerkmale dieser Fahrzeuge dar, die bei den potenziellen „Early Adoptern“ zu einer positiven Kaufentscheidung führen können. Der für diese Alleinstellungsmerkmale akzeptierte Aufpreis liegt allerdings deutlich unter den heutigen Mehrkosten elektrischer im Vergleich zu konventionellen Fahrzeugen.

Da die technikaffinen Männer mit Pkw-Kaufabsicht zwischen 40 und 50 voraussichtlich nicht ausreichen werden, um das Ziel von einer Million Elektro-Pkw zu erreichen, bestimmten die Wissenschaftlerinnen und Wissenschaftler weitere mögliche Käufergruppen: Bedeutsam werden beispielsweise etwas ältere berufstätige Männer über 50, die eine hohe Technikaffinität aufweisen. Allein aufgrund des demographischen Wandels wird das Alter der potenziellen „Early Adopter“ vermutlich ansteigen. Eine mögliche weitere Gruppe sind gutsituierte Personen im Ruhestand. Für sie sind die technischen Aspekte, ihr Umweltbewusstsein sowie der Wunsch, ein besonderes Auto zu fahren, ausschlaggebend. Zudem muss das Elektroauto ihren gehobenen, altersgerechten Komfortansprüchen genügen.

Eine große Gruppe potenzieller „Early Adopter“ bilden außerdem sehr umweltbewusste Menschen, die aber auf ein Auto angewiesen sind. Die Studie zeigt: Je „normaler“ Elektrofahrzeuge im Alltag werden, desto bedeutungsloser wird die Rolle des Technikinteresses als mögliches Kaufmotiv werden. Stattdessen entscheidet die Umweltentlastung, ob gekauft wird oder nicht.
Obwohl die potenziellen „Early Adopter“ ein eher überdurchschnittliches Einkommen haben, ist der derzeitige Preis für Elektroautos – neben der beschränkten Reichweite – eines der größten Hemmnisse für den Kauf eines eigenen Fahrzeugs. Für die weitere Verbreitung von Elektroautos müsste also der Anschaffungspreis weiter sinken, so die Studie des Fraunhofer ISI.

Eine hohe Nutzungsintensität der Fahrzeuge beeinflusst die wirtschaftliche Bewertung. Deshalb empfiehlt das Forscherteam des Fraunhofer ISI, neben den Privatautos auch die Geschäftsfahrzeuge in den Blick zu nehmen, da die gewerblichen Fahrzeughalter derzeit einen sehr großen Anteil der aktuellen Käufer beziehungsweise Nutzer von Elektrofahrzeugen ausmachen. Aufgrund des generell hohen Anteils gewerblicher Käufer an den Pkw-Neuzulassungen sowie der oft besseren Wirtschaftlichkeit von Elektrofahrzeugen durch eine hohe Fahrleistung ist von einer großen Bedeutung dieser Käufergruppe für die Verbreitung der Elektromobilität in den kommenden Jahren auszugehen.

Die Studie „Kaufpotenzial für Elektrofahrzeuge bei sogenannten ,Early Adoptern‘“ kann unter http://www.isi.fraunhofer.de/isi-de/service/presseinfos/2012/pri12-11.php heruntergeladen werden.

Kontakt:
Anne-Catherine Jung MA
Telefon: +49 721 6809-100
E-Mail: presse@isi.fraunhofer.de

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der breiten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

(zurück)


Jeden Fünften quält einmal im Leben anhaltender Juckreiz

Dr. Annette Tuffs
Unternehmenskommunikation
Universitätsklinikum Heidelberg

Sozialmediziner des Universitätsklinikums Heidelberg veröffentlichen erste Studie zu chronischem Juckreiz in der Allgemeinbevölkerung
Jeder Fünfte leidet einmal im Leben unter mindestens 6 Wochen anhaltendem Juckreiz. Zu diesem Ergebnis ist eine repräsentative Umfrage mit 2.540 Teilnehmern im Rhein-Neckar-Kreis gekommen, die von der Abteilung für Klinische Sozialmedizin am Universitätsklinikum Heidelberg durchgeführt wurde. Sie ist in der renommierten dermatologischen Zeitschrift „Acta Dermato-Venerologica“ erschienen. Die Studie liefert die weltweit ersten Daten zur Häufigkeit des chronischen Juckreiz in der Bevölkerung. „Chronischer Juckreiz ist in der Allgemeinbevölkerung weiter verbreitet als bislang abgenommen wurde“, erklärt Studienleiterin Professor Dr. Elke Weisshaar.

Chronischer Juckreiz, der mindestens sechs Wochen andauert, ist das häufigste Symptom von Hautkrankheiten wie Neurodermitis oder Schuppenflechte, kommt aber auch bei Lebererkrankungen, Nierenerkrankungen oder verschiedenen neurologischen oder psychischen Erkrankungen vor. Weitere Auslöser können Medikamente sein, die gerade bei älteren Menschen eine große Rolle spielen. In vielen Fällen liegen mehrere Ursachen oder Kofaktoren wie z. B. trockene Haut vor. Daher ist eine gründliche Abklärung und Durchuntersuchung sehr wichtig. Bei rund 30 Prozent der Patienten bleibt die Ursache ungeklärt. Noch fehlen spezifische Medikamente, die zuverlässig und langfristig eine anhaltende Bekämpfung und Linderung des chronischen Juckreizes verschaffen. Umso wichtiger ist es daher, Auftreten, Merkmale und Begleitumstände genau zu analysieren, um Hinweise auf mögliche Auslöser und Behandlungsmöglichkeiten zu erhalten.

Immigranten sind häufiger betroffen

Für die Heidelberger Studie wurden im Jahr 2008 Fragebögen an über die zuständigen Einwohnermeldeämter zufällig ausgewählte Personen in Heidelberg und Umgebung versandt, die Datenauswertung erfolgte bis Juli 2009. Zum Zeitpunkt der Erhebung litten 13 Prozent der Befragten seit mindestens sechs Wochen an Juckreiz, 16 Prozent waren in den vergangenen zwölf Monaten betroffen, jeder fünfte war schon mindestens einmal im Leben damit konfrontiert.

Die Auswertung ergab, dass sich lediglich in Bezug auf die Herkunft Unterschiede im Erkrankungsrisiko ergaben: Teilnehmer mit ausländischen Wurzeln, in dieser Studie größtenteils türkischer Herkunft, litten signifikant häufiger an chronischem Juckreiz als Deutschstämmige. „Hier müssen nun weitere Studien prüfen, ob diese Gruppe insgesamt anfälliger für diese Beschwerden oder anderen Risikofaktoren ausgesetzt ist“, erklärt Professor Weisshaar. Das Risiko von Frauen, einmal im Leben chronischen Juckreiz zu entwickeln, war leicht erhöht.

Chronischer Juckreiz hält häufig jahrelang an

Bei der Hälfte der Teilnehmer, die zum Zeitpunkt der Befragung an chronischem Juckreiz litten, dauerten die Beschwerden bereits seit drei Jahren, bei einem Drittel sogar seit acht Jahren an. Insgesamt hatten 50 Prozent der Betroffenen einen Arzt aufgesucht, die Behandlung hatte bei 48 Prozent zu einer leichten und bei 21 Prozent zu einer deutlichen Besserung des Juckreizes geführt.

Die Studie hat eine weit höhere Verbreitung von Juckreiz gezeigt, als vergangene Untersuchungen angedeutet hatten. Bisherige Studien untersuchten das Vorkommen von chronischem Pruritus in Zusammenhang mit bestimmten Erkrankungen, bestimmten Fragestellungen oder in ganz bestimmten Studienkollektiven. Bisher hatte noch keine Studie das Vorkommen des chronischen Pruritus in der Allgemeinbevölkerung untersucht. Aufbauend auf diesen Ergebnissen wollen die Heidelberger Wissenschaftler nun erforschen, welche Faktoren das Risiko, an chronischem Juckreiz zu erkranken, erhöhen.

Die Spezialsprechstunde Juckreiz wird in der Heidelberger Hautklinik seit 2006 angeboten. Zudem besteht eine Arbeitsgruppe, die sich mit gezielten Fragestellungen zum chronischen Pruritus, den davon betroffenen Patienten und vielen wissenschaftlichen Aspekten beschäftigt. In der Spezialsprechstunde wird sich viel Zeit genommen, um die Patienten sorgfältig zu untersuchen. Bisher haben sich schon ca. 500 in der Sprechstunde vorgestellt.

Literatur:
Uwe MATTERNE, Christian J. APFELBACHER, Adrian LOERBROKS, Tamara SCHWARZER, Marion BÜTTNER, Robert OFENLOCH, Thomas L. DIEPGEN and Elke WEISSHAAR.
Prevalence, Correlates and Characteristics of Chronic Pruritus: A Population-based Cross-sectional Study.
Acta Derm Venereol 2011; 91: 674-679. doi: 10.2340/00015555-1159

Internet:
http://www.klinikum.uni-heidelberg.de/Juckreizschulung.112672.0.html

Universitätsklinikum und Medizinische Fakultät Heidelberg
Krankenversorgung, Forschung und Lehre von internationalem Rang
Das Universitätsklinikum Heidelberg ist eines der größten und renommiertesten medizinischen Zentren in Deutschland; die Medizinische Fakultät der Universität Heidelberg zählt zu den international bedeutsamen biomedizinischen Forschungseinrichtungen in Europa. Gemeinsames Ziel ist die Entwicklung neuer Therapien und ihre rasche Umsetzung für den Patienten. Klinikum und Fakultät beschäftigen rund 11.000 Mitarbeiter und sind aktiv in Ausbildung und Qualifizierung. In mehr als 50 Departments, Kliniken und Fachabteilungen mit ca. 2.000 Betten werden jährlich rund 550.000 Patienten ambulant und stationär behandelt. Derzeit studieren ca. 3.600 angehende Ärzte in Heidelberg; das Heidelberger Curriculum Medicinale (HeiCuMed) steht an der Spitze der medizinischen Ausbildungsgänge in Deutschland.

http://www.klinikum.uni-heidelberg.de

Diese Pressemitteilung ist auch online verfügbar unter
http://www.klinikum.uni-heidelberg.de/presse

Weitere Informationen:
http://www.klinikum.uni-heidelberg.de/Juckreizschulung.112672.0.html

(zurück)


Windeln als Meerwasserfilter

Monika Landgraf
Presse, Kommunikation und Marketing
Karlsruher Institut für Technologie

Für 700 Millionen Menschen weltweit, so die UN, ist Trinkwasser knapp. Abhilfe kann in Küstengebieten die Entsalzung von Meerwasser schaffen. Die gängigen Methoden, vor allem Destillation und Umkehrosmose, benötigen jedoch viel Energie – und sind für die oft armen Regionen zu teuer. Chemiker des Karlsruher Instituts für Technologie (KIT) arbeiten an einem völlig neuen Verfahren. Quellfähige Kunststoffpartikel (Superabsorber), ähnlich denen in Windeln, dienen dabei als Filter: Beim Quellen nehmen sie nur einen Teil des Salzes auf, beim Auspressen geben sie salzarmes Wasser ab.
Dass das Prinzip funktioniert, haben Professor Manfred Wilhelm und sein Doktorand Johannes Höpfner vom Institut für Technische Chemie und Polymerchemie des KIT bereits nachgewiesen. Mit ihrem Verfahren können sie den Salzgehalt in einem Durchlauf um mehr als ein Drittel reduzieren. Als Quellmaterial dient ein Hydrogel auf Acrylsäurebasis: kugelförmige, vernetzte Polymere, die in Wasser aufquellen und das 100-fache ihrer Masse aufnehmen können. Das Besondere daran sind die geladenen Gruppen in den Polymeren: Beim trockenen Material ist die Ladungsdichte hoch – und sorgt dafür, dass das Salz zunächst abgestoßen wird und vor allem Wasser eindringt. Quillt das Netz weiter auf, wird die Ladungsdichte geringer und Salz dringt ein. „An diesem Punkt drehen wir den Prozess um: Wir pressen das aufgequollene Hydrogel mechanisch wieder aus, ähnlich wie einen Schwamm“, sagt Johannes Höpfner. „Das Wasser hat dann gegenüber Meerwasser bereits einen deutlich reduzierten Salzgehalt.“ Der Salzgehalt von Meerwasser entspricht 35 Gramm Natriumchlorid pro Liter. „Wir wollen im ersten Durchlauf auf zehn Gramm kommen, im zweiten auf drei und im dritten schließlich auf ein Gramm pro Liter – das ist eine Menge, die man trinken kann“, so Manfred Wilhelm.

Zurzeit arbeitet Johannes Höpfner daran, den Superabsorber genau auf diese Verwendung anzupassen. „In Windeln muss das Material auch unter Druck, wenn das Baby darauf sitzt, trocken bleiben. Bei uns soll es – um Energie zu sparen – die Flüssigkeit gerade mit möglichst wenig Druck wieder abgeben.“ Erreichen will er dies etwa über eine chemisch ideal eingestellte Vernetzungs- und Ladungsdichte der Hydrogele. „Setze ich die Knotenpunkte und damit die Ladungen sehr eng, sind die Kugeln sehr hart: Das hat den Vorteil, dass das Salz sehr gut abgestoßen wird, allerdings brauche ich dann viel Energie, um das Hydrogel auszupressen. Hier geht es darum, das Optimum zu finden“, erläutert der Doktorand. Um das Verfahren anhand detaillierter Analysedaten weiterzuentwickeln, hat er einen präzisen Teststand konstruiert: eine Halbliter-Hydraulikpresse, die Polymer und Wasser voneinander trennt, und an der sich der Stempelweg, Druck und Salzgehalt genau messen lassen. Die Daten fließen dann auch in Computersimulationen, die in Kooperation mit der Universität Stuttgart durchgeführt werden.

Mit ihrer Idee stießen Wilhelm und Höpfner bereits bei mehreren Firmen auf großes Interesse. Ob sie den Weg in die Anwendung findet, hängt unter anderem von der Energiebilanz ab. „Für die gängigen Verfahren Destillation und Umkehrosmose, die unter Druck über eine Membran Süßwasser von salzhaltigerem Wasser trennt, benötigt man in der Praxis zwischen drei und zehn Kilowattstunden pro Kubikmeter Wasser. Ob wir besser sind, wissen wir noch nicht – aber wir arbeiten aktuell an der Abschätzung“, sagt Manfred Wilhelm. Destillation und Umkehrosmose werden in der Regel aber durch Dieselgeneratoren angetrieben, beim Verfahren der Karlsruher Chemiker wäre ein direkter Antrieb über ein Windrad denkbar – rein mechanisch und somit sehr effektiv.

Die Polymerpresse könnte damit eine besser skalierbare Alternative zu den herkömmlichen Verfahren darstellen, die technische Umsetzung ist aber noch offen. „Wir schaffen die naturwissenschaftlichen Grundlagen, eine entsprechend größere Anlage zu entwickeln, wäre dann Aufgabe für Chemieingenieure und Maschinenbauer“, sagt Manfred Wilhelm. Bei möglichen Anwendungen denkt er aber vor allem an Nischen, beispielsweise eine Kartusche, die es ermöglicht, Meerwasser von Hand auszupressen und so mobil und unkompliziert Trinkwasser zu gewinnen. Lohnen könnte sich das Verfahren insbesondere bei der Aufbereitung von Brackwasser, da es umso besser funktioniert, je niedriger der Salzgehalt ist.

Nähere Informationen: http://www.itcp.kit.edu/wilhelm/577.php

Dieses und weitere innovative, am KIT entwickelte Produkte, Verfahren und Dienstleistungen – und die Menschen dahinter – stellt das Projekt NEULAND des KIT-Innovationsmanagements vor: NEULAND erzählt in crossmedialer Publikation, wie Unternehmergeist und Kooperation aus einer guten Idee ein erfolgreiches Produkt machen können: in neun Geschichten, die dem Weg von Ideen an den Markt durch die Kapitel Potenziale, Projekte und Produkte folgen.

Nähere Informationen unter www.kit-neuland.de

Das Karlsruher Institut für Technologie (KIT) ist eine Körperschaft des öffentlichen Rechts nach den Gesetzen des Landes Baden-Württemberg. Es nimmt sowohl die Mission einer Universität als auch die Mission eines nationalen Forschungszentrums in der Helmholtz-Gemeinschaft wahr. Das KIT verfolgt seine Aufgaben im Wissensdreieck Forschung – Lehre – Innovation.

Diese Presseinformation ist im Internet abrufbar unter: www.kit.edu

Weiterer Kontakt:

Margarete Lehné
Presse, Kommunikation und
Marketing
Tel.: +49 721 608-48121
Fax: +49 721 608-3658
E-Mail: margarete.lehne@kit.edu

Anhang
http://idw-online.de/de/attachment16728

(zurück)


Wirtschaft und Umweltschutz in Einklang bringen

Lisa Dittrich
Referat für Presse- und Öffentlichkeitsarbeit
Justus-Liebig-Universität Gießen

Deutsch-japanisches Kooperationsprojekt JAGUAR wird vom Bundesministerium für Bildung und Forschung unterstützt

Deutschland und Japan stehen vor ähnlichen Herausforderungen – beide Industrienationen müssen auf begrenztem Raum soziale, ökonomische und ökologische Ziele in Einklang bringen. Hier setzt das neue deutsch-japanische Kooperationsprojekt JAGUAR an, das von Prof. Dr. Volkmar Wolters, Leiter der Arbeitsgruppe Tierökologie an der Justus-Liebig Universität, koordiniert wird. Die Projektsteuerung übernimmt Dr. Stefan Hotes, der viele Jahre in Japan gelebt und geforscht hat. Die Forschungsarbeiten in Deutschland werden mit rund 770.000 Euro vom Bundesministerium für Bildung und Forschung (BMBF) gefördert, für die Arbeiten der japanischen Partner gibt das dortige Kultus- und Wissenschaftsministerium (MEXT) noch einmal dieselbe Summe dazu. Das Projekt hat mit der Reaktorkatastrophe von Fukushima noch einmal deutlich an Aktualität gewonnen.

Den Bewilligungsbescheid für das Projekt JAGUAR („Für eine Nachhaltige Zukunft der Kulturlandschaft Japans und Deutschlands: Biodiversität und Ökosystemare Dienstleistungen als übergreifende Managementkonzepte in agrarisch geprägten Regionen“) wird Dr. Helge Braun, Parlamentarischer Staatssekretär bei der Bundesministerin für Bildung und Forschung, am Montag, 14. Mai 2012, um 12.30 Uhr im Japanischen Garten im Innenhof der Kongresshalle Gießen übergeben. Die Medien sind zu diesem Termin herzlich eingeladen. Neben Prof. Wolters und Dr. Hotes werden für die JLU Kanzler Dr. Michael Breitbach und Prof. Dr. Volker Wissemann, Prodekan des Fachbereichs Biologie und Chemie, teilnehmen.

Die „Energiewende“ ist sowohl in Deutschland als auch in Japan ein Thema von hoher politischer Priorität. Die damit zwangsläufig verbundene Zunahme der Nutzung regenerativer Energiequellen bringt einen enormen Raumbedarf mit sich – vor allem für den Anbau sogenannter „Energiepflanzen“, aber auch für den Ausbau von Windkraft- und Solaranlagen sowie von neuen Leitungsnetzwerken. „Wir haben mit unseren Planungen für das Projekt schon lange vor der Reaktorkatastrophe begonnen“, erläutert Prof. Wolters und fährt fort: „Im Nachhinein müssen wir nun erstaunt den fast visionären Charakter dieser Ideen feststellen, denn bei allem Entsetzen über die unmittelbaren Auswirkungen des schrecklichen Unglücks dürften die dadurch ausgelösten überregionalen Umweltveränderungen im Zuge der Energiewende langfristig mindestens so dramatisch sein wie die regionalen Folgen der radioaktiven Verseuchung.“

Deutschland und Japan haben sich durch die Ratifizierung der UN-Konvention zur biologischen Vielfalt international verpflichtet, die Leitlinien einer nachhaltigen Landnutzung, die den Erhalt der biologischen Vielfalt und der Ökosystemfunktionen ausdrücklich mit einschließen, einzuhalten. Dennoch ist es beiden Ländern nicht gelungen, ihre wirtschaftlichen Aktivitäten so zu organisieren, dass diese den damit verbundenen Ansprüchen gerecht werden. JAGUAR wird sich dem scheinbar unlösbaren Problem stellen und Nutzungskonzepte zur Versöhnung ökonomischer und ökologischer Ziele erarbeiten. Eine wichtige Grundidee ist, dass die trotz vieler Gemeinsamkeiten enormen historischen, kulturellen und biogeographischen Unterschiede zwischen den beiden Ländern dazu beitragen werden, die Entwicklung innovativer Lösungen durch wechselseitiges Lernen zu beschleunigen.

Deutsche und japanische Wissenschaftlerinnen und Wissenschaftler sowie Behörden haben in den letzten Jahren schon eng bei der Entwicklung ökologischer Konzepte zusammengearbeitet. Darauf wird das JAGUAR-Projekt aufbauen und unter anderem intensive Untersuchungen zur Landnutzung durchführen. In Deutschland konzentrieren sich die Forscherinnen und Forscher auf ein Gebiet vom Rhein-Main-Ballungsraum bis in die durch Land- und Forstwirtschaft geprägte Region des Hohen Vogelsbergs, in Japan analysieren die Partner von der Tokyo-Universität und vom Nationalen Institut für Umweltforschung vergleichbare Gebiete in den Regionen Hokkaido und Honshu. Über die jeweiligen methodischen und inhaltlichen Fortschritte wird es zu einem regelmäßigen Austausch kommen. Zusätzlich sollen enge Kontakte mit Behörden, Verbänden und Landnutzern von vornherein sicherstellen, dass die Ergebnisse weitervermittelt und angewendet werden.

„Dabei werden wir sehr von dem kürzlich der AG Tierökologie bewilligten BMBF-Projekt ÖkoService profitieren“, sagt Dr. Hotes, „denn auch in JAGUAR wollen wir die sogenannten ökosystemaren Dienstleistungen – also den ökonomischen Profit, den die Menschheit aus der umweltgerechten Nutzung der Natur ziehen kann – zu einem zentralen Thema machen.“

Kontakt:
Prof. Dr. Volkmar Wolters, Institut für Tierökologie und Spezielle Zoologie
Heinrich-Buff-Ring 26 (IFZ), 35392 Gießen
Telefon: 0641-99-35701, Fax: 0641-99-35709

Weitere Informationen:
http://www.uni-giessen.de/cms/fbz/fb08/biologie

(zurück)


Was tun gegen Bluthochdruck?

Pierre König
Presse- und Öffentlichkeitsarbeit
Deutsche Herzstiftung e.V./Deutsche Stiftung für Herzforschung

Welt-Hypertonie-Tag: Deutsche Herzstiftung mahnt zu frühzeitiger Messung und konsequenter Behandlung des Bluthochdrucks / Kostenlose Tipps
Anlässlich des Welt-Hypertonie-Tags am 17. Mai bietet die Deutsche Herzstiftung ein kostenloses Heft mit wichtigen Tipps zum Bluthochdruck im Taschenformat an. Bluthochdruck (Hypertonie) ist eine der häufigsten Erkrankungen in Deutschland und weltweit. Nach Schätzungen haben in Deutschland zwischen 18 und 35 Millionen Menschen einen zu hohen Blutdruck. Bluthochdruck hat die tückische Eigenschaft, dass er jahrelang keine Beschwerden verursacht und unbehandelt bleibt. Oft führen erst die katastrophalen Folgen eines unbehandelten Bluthochdrucks die Menschen zum Arzt: Schlaganfall, Herzinfarkt, Herzschwäche, Herzrhythmusstörungen, Nierenschädigung oder Minderung des Sehvermögens. Für die Vorbeugung und Behandlung dieser Erkrankung gibt es zahlreiche wichtige Hinweise und Fragestellungen zu beachten. Eine Auswahl davon, u. a. zu den Schweregraden des Bluthochdrucks, zur Blutdruckmessung (Wann? Wie? Welche Messgeräte?) und zur Medikamenteneinnahme, hat die Deutsche Herzstiftung in dem handlichen Heft Tipps zum Bluthochdruck zusammengefasst.

Frühzeitige und regelmäßige Messung wichtig
Die Senkung des hohen Blutdrucks rettet Leben und Gesundheit des Betroffenen, sie führt zu einer Zunahme der Lebenserwartung und auf Dauer zu einer besseren Lebensqualität. „Deswegen sind die frühzeitige Erkennung und eine konsequente Behandlung des Bluthochdrucks so wichtig, um es zu einer schleichenden schwerwiegenden Schädigung von Gehirn, Herz, Niere und Augen gar nicht erst kommen zu lassen“, sagt der Herzspezialist Prof. Dr. med. Gerd Bönner, Ärztlicher Direktor der Klinik Baden-Privatklinik am Park-Klinikum Bad Krozingen und Mitglied des Wissenschaftlichen Beirats der Deutschen Herzstiftung. „Wir propagieren frühzeitig – beginnend beim Kinderarzt, später beim Hausarzt – regelmäßige Blutdruckmessungen bei jeder Routineuntersuchung und eine konsequente Behandlung, wenn die Werte zu hoch sind.“

Zu hoher Blutdruck ist definiert als eine mehrfach gemessene Erhöhung des Blutdrucks ab 140/90 mmHg. Der optimale Wert liegt bei 120/80 mmHg. Ab 40 Jahren sollte jedes Jahr mindestens einmal der Blutdruck gemessen werden, ab 50 Jahren halbjährlich. Tritt Bluthochdruck in der Familie bei Geschwistern, Eltern oder Großeltern auf, sollte ab 30 Jahren oder sogar früher der Blutdruck jährlich gemessen werden.

Gesunder Lebensstil essenziell für Vorbeugung und Behandlung
Für die Vorbeugung und die Therapie des Bluthochdrucks sind nicht nur Blutdruckmedikamente, sondern ein gesunder Lebensstil von großer Bedeutung. Dazu gehören eine gesunde Ernährung (Mittelmeerküche), regelmäßige Ausdauerbewegung, wenig Alkohol, wenig Salz und Entspannung bei chronischem Stress. Eine besondere Rolle spielt das Übergewicht, das als wesentlicher Faktor für die Entstehung von Bluthochdruck gilt und infolgedessen ein erhöhtes Risiko für Herzinfarkt und Schlaganfall mit sich bringt. Umgekehrt lassen sich Bluthochdruck und die Risiken für Herzinfarkt, Schlaganfall und Diabetes durch den Abbau von Übergewicht senken.
„Die Effekte der Lebensstiländerung für die Vorbeugung und Behandlung des Bluthochdrucks dürfen keinesfalls unterschätzt werden“, betont der Hypertensiologe Prof. Bönner. „Jede Behandlung eines mäßigen (140-159/90-99 mmHg) bis mittelschweren (160-179/100-109 mmHg) Bluthochdrucks sollte mit Änderungen des Lebensstils beginnen, da sie effektiv und frei von Nebenwirkungen sind.“ Ein mäßiger Bluthochdruck kann allein durch eine Lebensstiländerung normalisiert werden. Müssen Medikamente eingenommen werden, ermöglicht der gesunde Lebensstil, mit weniger Tabletten oder einer niedrigeren Dosierung auszukommen. Dadurch verringern sich automatisch die Nebenwirkungen.

Die „Tipps zum Bluthochdruck“ im Taschenformat können kostenfrei angefordert werden bei: Deutsche Herzstiftung, Vogtstraße 50, 60322 Frankfurt am Main, Tel.: 069 955128-0, Mail: info@herzstiftung.de

Informationen:
Deutsche Herzstiftung e.V.
Pressestelle:
Michael Wichert /Pierre König
Tel. 069/955128-114/-140
Fax: 069/955128-345
E-Mail: wichert@herzstiftung.de
koenig@herzstiftung.de

Weitere Informationen:
http://www.herzstiftung.de

(zurück)


Sicherheit von Nano-Produkten für Mensch und Umwelt

Andrea Höra
Unternehmenskommunikation und Forschungsmarketing
Hohenstein Institute

TechnoTox – ein Projekt zur Risikoabschätzung von Nano-Materialien
BÖNNIGHEIM (ha/mdi) Mit Nano-Teilchen (gr. nanos = Zwerg) entstehen heutzutage faszinierende Produkte mit ganz neuen Funktionalitäten. Dazu gehören z. B. Textilien, von denen Schmutz einfach abperlt oder die antibakteriell wirken. Doch wie bei jeder neuen Technologie muss auch diese sicher in der Anwendung sein. Hersteller und Anwender solcher High-Tech-Produkte sind daher gleichermaßen daran interessiert, dass die Nano-Partikel für Mensch und Umwelt unschädlich sind und das über den gesamten Lebenszyklus.
Um eine exemplarische Risikoabschätzung textiler Nano-Produkte durchführen zu können, wurde im Dezember 2010 das Forschungsprojekt „TechnoTox“ gestartet. Das vom Land Baden-Württemberg auf Initiative der AFBW e.V. (Allianz Faserbasierte Werkstoffe Baden-Württemberg) geförderte Projekt beschäftigt sich ausführlich mit Fragen der Nanotoxikologie von Textilien.

Der Sachverständigenrat für Umweltfragen (SRU) veröffentlichte 2011 zum Einsatz von Nano-Materialien folgende Feststellung: „Bisher gibt es keine wissenschaftlichen Beweise dahin gehend, dass Nano-Materialien – wie sie heute hergestellt und verwendet werden – zu Schädigungen von Umwelt und Gesundheit führen.“

Da jedoch zukünftig ein steigender Verbrauch von nanofunktionalisierten Textilien erwartet wird, und möglicherweise neue Nano-Materialien zum Einsatz kommen, die in den bisherigen Risikountersuchungen noch nicht berücksichtigt wurden, besteht weiterhin ein Bedarf an aussagekräftigen Prüfmethoden bezüglich der Wirkung der Nano-Materialen und deren toxikologischen Eigenschaften.

Im Rahmen des Projektes „TechnoTox“ wird untersucht, ob nano-funktionalisierte Textilien sicher für Mensch und Umwelt sind. Es werden Daten zum Verhalten, Verbleib und zur biologischen Wirkung nano-funktionalisierter faserbasierter Werkstoffe in Abhängigkeit von
Umgebungsbedingungen erarbeitet und eine exemplarische Risikoabschätzung
durchgeführt. Im Verlauf des Vorhabens werden zudem Methoden entwickelt, die den Nachweis und die Charakterisierung von Nano-Partikeln sowie die Beurteilung ihres human- und ökotoxikologischen Gefährdungspotenzials in relevanten Umweltmedien ermöglichen.
Das Projekt wird in enger Kooperation zwischen Wissenschaft und Industrie durchgeführt. Projektpartner sind hier das Institut für Textil- und Verfahrenstechnik Denkendorf (ITV), das Hohenstein Institut für Textilinnovation sowie mehrere Industrieunternehmen.
Alle Teilnehmer wollen durch die Projektteilnahme ihre eigenen Entwicklungen zu nanotechnologisch modifizierten Textilien vorantreiben und durch eine begleitende und ergänzende Prüfmethodik risikotechnisch absichern.

Die Einbindung von Wirtschaftsunternehmen verfolgt dabei einen interdisziplinären Ansatz. Dieser wird am Beispiel der textilen Kette baden-württembergischer Unternehmen durchgeführt.
Das in diesem Vorhaben verfolgte Konzept zielt darauf ab, die Wettbewerbsfähigkeit der innovativen Unternehmen auszubauen, welche Nano-Produkte herstellen und Nano-Materialien beziehungsweise nanotechnologisch funktionalisierte Materialien
verarbeiten, sowie die verantwortungsbewusste Nutzung der Nanotechnologie zu unterstützen.

Für das Projektziel wird ein komplementärer Lösungsansatz gewählt, in dem physikalische Materialuntersuchungen zur Exposition.direkt an wirkungsbezogene biologische Untersuchungen gekoppelt werden. Die Ergebnisse dieser Untersuchungen werden zusammengeführt und auf die Übereinstimmung von Effekten (z.B. der Wirkkonzentration) hin bewertet.
Die Ermittlung von Partikeleigenschaften und -wirkungen an realen Produkten ermöglicht eine umfassende Gefährdungs- und Risikoabschätzung für nanotechnologisch funktionalisierte Faserbasierte Werkstoffe in Verbrauchsprodukten.

Weitere Informationen:
http://www.hohenstein.de/de/inline/pressrelease_16832.xhtml?excludeId=16832

(zurück)


Jahresbericht 2011 des Deutschen Biomasseforschungszentrums (DBFZ) ist erschienen

Antje Sauerland
Presse- und Öffentlichkeitsarbeit
Deutsches Biomasseforschungszentrum

Der aktuell erschienene Jahresbericht des DBFZ bietet einen Überblick über die Aktivitäten des Jahres 2011 und zeigt die Vielfalt der wissenschaftlichen Arbeiten am DBFZ anhand zahlreicher aktueller Forschungsprojekte. Darüber hinaus bietet die Publikation eine detaillierte Übersicht über personelle und infrastrukturelle Entwicklungen der Leipziger Forschungseinrichtung.
In wissenschaftlicher Hinsicht konnte das DBFZ weiteres Wachstum, viele Highlights und zahlreiche neue Forschungsvorhaben verzeichnen. So bearbeiteten die MitarbeiterInnen über 130 Forschungsprojekte rund um das Thema der Energiebereitstellung aus Biomasse und gingen mit 180 Beiträgen an die Öffentlichkeit.

Das DBFZ hat darüber hinaus wieder eine Vielzahl von Forschungsaktivitäten initiiert bzw. sich erfolgreich an bestehenden Initiativen beteiligt. Die Wissenschaftler haben zum Beispiel gemeinsam mit den Projektpartnern der Thüringer Landesanstalt für Landwirtschaft (TLL), dem Institut für Nachhaltige Landbewirtschaftung e.V. (INL) und dem Öko-Institut e.V. in einem zweijährigen Verbundvorhaben „Basisinformationen für eine nachhaltige Nutzung von landwirtschaftlichen Reststoffen zur Bioenergiebereitstellung“ erarbeitet.

Ein wichtiges europäisches Forschungsprojekt war u. a. das Projekt „Technology opportunities and strategies toward climate-friendly transport (TOSCA)“. Hier arbeitete das DBFZ mit sechs weiteren europäischen Forschungseinrichtungen an der Frage, wie sich auf der Grundlage verfügbarer Prognosen zur Entwicklung des Transportsektors die europäischen Klimaschutzziele bis zum Jahr 2020 und darüber hinaus (bis 2050) erreichen lassen.

Neben der intensiven wissenschaftlichen Arbeit hat sich auch auf dem Gelände des DBFZ viel getan. So sind neben dem frisch sanierten Hauptgebäude gleich mehrere neue Gebäude und Anlagen wie ein Motorprüfstand, eine große Lagerhalle sowie eine Forschungsbiogasanlage entstanden.

Mehr Informationen findet man im Jahresbericht. Der Bericht kann in Deutsch und Englisch kostenlos über die Website des DBFZ (http://www.dbfz.de) als PDF-Download bezogen oder auf Anfrage postalisch versendet werden.

Jahresbericht 2011 des Deutschen Biomasseforschungszentrums (DBFZ) ist erschienen
http://idw-online.de/de/attachment16841

(zurück)


Der Rhein: 5 Millionen Jahre älter als gedacht – Alter des Flusses anhand von Fossilien korrigiert

Judith Jördens
Senckenberg Pressestelle
Senckenberg Forschungsinstitut und Naturmuseen

Wissenschaftler des Senckenberg Center for Human Evolution and Palaeoecology (HEP) an der Universität Tübingen und des Senckenberg Forschungsinstitutes in Frankfurt haben das Alter des Rheins anhand von Fossilien untersucht. Sie kommen zu dem Ergebnis, dass der Fluss fünf Millionen Jahre älter ist, als bisher angenommen. Die zugehörige Studie erscheint heute im Fachjournal „PLoS ONE“.
Der Rhein ist kein Unbekannter in Europa – auf seiner Reise zur Nordsee durchfließt er die Schweiz, Österreich, Deutschland und die Niederlande. Darüber hinaus umfasst das Einzugsgebiet des etwa 1.233 Kilometer langen Fließgewässers fast ganz Luxemburg sowie kleine Teile Belgiens, Frankreichs, Lichtensteins und Italiens. So bekannt der Fluss auch ist, sein Ursprungs-Alter ist nach wie vor umstritten.

„Bisher ist man davon ausgegangen, dass der Ur-Rhein etwa zehn Millionen Jahre alt ist“, erklärt Prof. Madelaine Böhme, Erstautorin der Studie und Leiterin der HEP-Arbeitsgruppe „Terrestrische Paläoklimatologie“, und fährt fort: „Aufgrund unserer Untersuchungen an Fossilien einer Fundstelle nahe Sprendlingen gehen wir aber davon aus, dass der Fluss mindestens fünf Millionen Jahre älter ist.“

Die Säugetierfossilien im Raum Sprendlingen und Eppelsheim gelten unter Wirbeltier-Paläontologen seit 200 Jahren als Maßstab für das Neogen – die Zeitspanne vor etwa 23 Millionen bis etwa vor 2,5 Millionen Jahren. Weltberühmt wurden die Fundstellen durch den weltweit ersten Fund eines fossilen Affen (1822) und die wissenschaftliche Erstbeschreibung von 19 großen Säugetierarten im frühen 19. Jahrhundert.

Die zeitliche Einordnung der dort zu findenden Dinotheriensande – die neben den namensgebenden Zähnen und Knochen des Rüsseltiers Dinotherium zahlreiche andere Fossilien enthalten – war schon häufig Gegenstand der wissenschaftlichen Diskussion.

„Wir haben deshalb eine neue Probe mit über 300 Säugetierfossilien, Blättern und versteinerten Hölzern untersucht. Dabei haben wir Zähne und Knochen verschiedener Hirscharten gefunden, die in Zentraleuropa allesamt zu Beginn des mittleren Miozän – also der Zeit zwischen 14 und 16 Millionen Jahre vor heute – lebten.“, erläutert Böhme. „Die Ergebnisse aus den Untersuchungen von fossilen Pflanzenresten, die unter- und oberhalb der säugetierführenden Fundschichten gefunden wurden, bekräftigen unsere Schlussfolgerungen.“

Die Resultate haben unmittelbare Folgen für das Verständnis der Entwicklung des Mainzer Beckens und des Oberrheingrabens in der Erdgeschichte. Da die Funde aus den ältesten bekannten Ablagerungen des Rheins stammen, muss dieser ebenfalls mindestens fünf Millionen Jahre älter sein.

Die Schlüsse der Senckenberger Wissenschaftler wirken sich auf die gesamte chronologische Einordnung der Tier- und Pflanzenumwelt des mittleren bis späteren Miozäns aus – galten die Fundstellen rund um Sprendlingen doch bisher als zeitlicher Fixpunkt für Paläontologen.

Kontakt
Prof. Dr. Madelaine Böhme
Universität Tübingen
Fachbereich Geowissenschaften
Senckenberg Center for Human Evolution and Palaeoecology (HEP)
Tel.: 0151-22385151
madelaine.boehme@senckenberg.de

Publikation
Madelaine Böhme, Manuela Aiglstorfer, Dieter Uhl, Ottmar
Kullmer (2012): The Antiquity of the Rhine River: Stratigraphic Coverage of the Dinotherien-sande (Eppelsheim Formation) of the Mainz Basin (Germany), PLoS ONE, http://dx.plos.org/10.1371/journal.pone.0036817

Die Erforschung von Lebensformen in ihrer Vielfalt und ihren Ökosystemen, Klimaforschung und Geologie, die Suche nach vergangenem Leben und letztlich das Verständnis des gesamten Systems Erde-Leben – dafür arbeitet die SENCKENBERG Gesellschaft für Naturforschung. Ausstellungen und Museen sind die Schaufenster der Naturforschung, durch die Senckenberg aktuelle wissenschaftliche Ergebnisse mit den Menschen teilt und Einblick in vergangene Zeitalter sowie die Vielfalt der Natur vermittelt. Mehr Informationen unter www.senckenberg.de.

Die Forschungsschwerpunkte der im Jahr 1477 gegründeten Universität Tübingen sind: Integrative Neurowissenschaften; Translationale Immunologie und Krebsforschung; Mikrobiologie und Infektionsforschung; Molekularbiologie; Sprache und Kognition; Medien und Bildung; Geo- und Umweltforschung; Archäologie und Anthropologie. An der Universität Tübingen sind knapp 26.000 Studierende aus dem In- und Ausland eingeschrieben. 400 Professoren und mehr als 4.000 Wissenschaftler lehren und forschen an sieben Fakultäten. Derzeit sind fünf Sonderforschungsbereiche, sechs Sonderforschungsbereiche Transregio, fünf Graduiertenkollegs und das Exzellenzcluster: Werner-Reichardt-Centrum für Integrative Neurowissenschaften (CIN) an der Universität Tübingen angesiedelt. Mehr Informationen unter: www.uni-tuebingen.de

(zurück)


Ich denke – also spreche ich? / Was im Kopf von Menschen vor sich geht, die zum Grübeln neigen

Dr. Britta Grigull
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Bildungsforschung

Grübeln kennt jeder: Die Gedanken kreisen um ein bestimmtes Thema, um ein Problem, doch man gelangt zu keiner Lösung. Solche Grübeleien kosten nicht nur Zeit, sie verderben einem häufig auch die Stimmung. Dr. Simone Kühn, Wissenschaftlerin am Max-Planck-Institut für Bildungsforschung in Berlin, ist der Frage nachgegangen, was im Kopf von Menschen vor sich geht, die besonders häufig zum Grübeln neigen.
Braucht der Gedanke immer das Wort? In der Philosophie ist der Zusammenhang zwischen dem Denken und der Sprache vielfach diskutiert worden. In den psychologischen Disziplinen hingegen stand bislang bevorzugt der Patient im Mittelpunkt des Interesses: Menschen, die bestimmte unerwünschte Gedanken nicht abstellen können, weil sie beispielsweise depressiv sind oder unter einer posttraumatischen Belastungsstörung leiden. Doch auch gesunde Menschen können in unterschiedlichem Maße von Grübeleien betroffen sein. In diesem Kontext setzt sich eine jetzt in dem Fachmagazin „Social Cognitive and Affective Neuroscience“ veröffentlichte Untersuchung des Berliner Max-Planck-Instituts für Bildungsforschung mit der Frage auseinander, ob Personen, die über häufiges Grübeln berichten, eine entsprechend höhere Aktivität in denjenigen Hirnregionen aufweisen, die für die Sprachproduktion zuständig sind.

In einer lang angelegten Kognitionsstudie namens COGITO wurden jüngere (20-32 Jahre) und ältere Probanden (65-80 Jahre) in 100 Sitzungen über einen Zeitraum von sechs Monaten zum Ausmaß ihres Grübelns an jenen Tagen befragt. Diese Daten wurden als Tendenz zum Grübeln gemittelt und mit der Hirnaktivierung der jeweiligen Probanden während einer kognitiven Aufgabe vor und nach den sechs Monaten in Verbindung gebracht.

Dr. Simone Kühn: „Es zeigte sich, dass Probanden mit einer ausgeprägten Tendenz zum Grübeln eine stärkere Aktivität in bestimmten Hirnregionen während der Pausen zwischen den kognitiven Aufgaben aufwiesen.“ Diese Hirnregionen, in denen Grübler stärkere Aktivität zeigten, der linke inferiore frontale Gyrus und der cinguläre Cortex, seien bisher vor allem mit gesprochener Sprache oder mit stiller innerer Rede und mit Konflikten in Verbindung gebracht worden, so Kühn weiter.

Aus diesen Befunden leiten die Wissenschaftlerin und ihr Team ab, dass Grübeleien oder sogenannte intrusive, also unerwünschte Gedanken, die sich nicht abstellen lassen, in einem sprachähnlichen Format ähnlich der inneren Rede Ausdruck finden.

Kontakt:
Max-Planck-Institut für Bildungsforschung
Presse- und Öffentlichkeitsarbeit
Dr. Britta Grigull
Telefon: 030-82406-211
E-Mail: grigull@mpib-berlin.mpg.de

Forschungsbereich Entwicklungspsychologie
Dr. Simone Kühn
E-Mail: kuehn@mpib-berlin.mpg.de

Weitere Informationen:
http://bit.ly/KlVFxv – Abstract der Studie
http://www.mpib-berlin.mpg.de
http://www.mpg.de

(zurück)


Demographischer und klimatischer Wandel erfordern Weiterentwicklung von Wasserinfrastruktursystemen

Anne-Catherine Jung
Pressestelle
Fraunhofer-Institut für System- und Innovationsforschung (ISI)

Wasserinfrastruktursysteme haben sehr hohe Kapital- und Fixkosten und sind auf jahrzehntelange Nutzung ausgelegt. Der Klimawandel, die demographischen Veränderungen, die Zunahme der Siedlungs- und Verkehrsflächen sowie neue ökologische Anforderungen verändern jedoch die Rahmenbedingungen schon jetzt.

Im Projekt NAUWA hat sich das Fraunhofer-Institut für System- und Innovationsforschung ISI in Zusammenarbeit mit der Kommunal- und Abwasserberatung NRW sowie der Emschergenossenschaft/Lippeverband mit der nachhaltigen Weiterentwicklung urbaner Wasserinfrastrukturen unter sich stark ändernden Randbedingungen beschäftigt.

Die Wissenschaftler untersuchten im Auftrag der WestLB-Stiftung Zukunft NRW die Einflussfaktoren in vier Kommunen mit sehr unterschiedlichen Randbedingungen in Nordrhein-Westfalen. Die Ergebnisse und Handlungsempfehlungen sind unter http://www.nauwa.de verfügbar.

In den Kommunen Gelsenkirchen, Lünen, Velbert und der Gemeinde Wachtberg wurde erprobt, wie die Entwicklung einer langfristigen Strategie zur zukunftsfähigen Gestaltung der Wasserinfrastruktursysteme praktisch angegangen werden kann. In der Untersuchung berücksichtigte das Fraunhofer ISI unsichere gesellschaftliche und klimatische Entwicklungen und Randbedingungen sowie relevante ortsspezifische Handlungsfelder. Dabei wurden Fragen beantwortet wie: Was bedeuten die demographischen und klimatischen Entwicklungen konkret? Welche Umfeldveränderungen sind zusätzlich zu erwarten und welche Anpassungserfordernisse ergeben sich daraus? Wie können Kommunen bei der nachhaltigen Weiterentwicklung ihrer Wasserinfrastruktursysteme unterstützt werden?

Aus den Antworten ergaben sich für jede Kommune spezifische strategische Zielsetzungen und konkrete Maßnahmen. Es zeigte sich aber auch, dass bestimmte Themen in allen vier Kommunen eine wichtige Rolle spielen: So ist beispielsweise trotz sinkender Bevölkerungszahlen nach wie vor ein Flächenzuwachs zu verzeichnen. Dies zieht unter anderem den Ausbau der langlebigen und kostenintensiven Wasserinfrastruktur nach sich, deren zukünftige Auslastung und Finanzierung unsicher ist. Zudem werden die Auswirkungen des Klimawandels durch länger anhaltende Trockenperioden und gleichzeitig außergewöhnliche Starkregenfälle immer deutlicher für die Bürger spürbar – sie führen zu erheblichen Schäden. Eine weitere Gemeinsamkeit ist der zum Teil deutliche Rückgang des Wasserbedarfs, der durch die höhere Effizienz beim Umgang mit Wasser in Industrie und Haushalten sowie durch die aufgrund des demographischen Wandels zurückgehenden Kundenzahlen verursacht wird. Wegen der hohen Fixkosten wird der Aufwand für die Abwasserbeseitigung aber nicht wesentlich verringert, so dass ohne ausgleichende strukturelle Maßnahmen künftig deutliche Erhöhungen der Entgelte für Wasserver- und Abwasserentsorgung notwendig werden.

„Vor diesem Hintergrund ist es unerlässlich, dass Kommunen und Betreiber von Wasserinfrastrukturen gemeinsam und frühzeitig einen langfristig orientierten, strategischen Planungsprozess durchführen, um sich auf die anstehenden Herausforderungen gezielt einzustellen. Notwendig ist eine gründliche Analyse der Ist-Situation, um darauf aufbauend mögliche Entwicklungsszenarien zu erarbeiten. Anschließend können strategische Ziele festgelegt und Maßnahmen abgeleitet werden“, so Dr.-Ing. Harald Hiessl, Projektleiter und stellvertretender Institutsleiter am Fraunhofer ISI.

Handlungsbedarf für die kommunale Wasserinfrastruktur sieht das Fraunhofer ISI vor allem beim Umgang mit der Starkregen-Problematik, bei Stadtplanung und Stadtentwicklung, der Berücksichtigung innovativer Techniken und Konzepte sowie bei notwendigen Maßnahmen zur Tarifanpassung. Demnach ist eine realistische Abschätzung des Flächenbedarfs vor dem Hintergrund der zu erwartenden demographischen Entwicklung ebenso notwendig wie die Sensibilisierung für die Bedeutung und entsprechende Steuerung der städtischen Siedlungsstruktur und -dichte für die Wasserinfrastruktur. Der Überflutungsschutz muss als kommunale Gemeinschaftsaufgabe gesehen werden, bei der alle Akteure einzubinden und sehr unterschiedliche, sich gegenseitig beeinflussende Maßnahmen sowohl im öffentlichen als auch privaten Bereich umzusetzen sind. Mit einer Kostenstruktur-Analyse für Teilgebiete und Tarifstruktur-Änderungen kann eine Anpassung an die sich verändernden Nutzerzahlen und Verbrauchsveränderungen erfolgen.

Die anhand der Beispielkommunen gewonnenen Erfahrungen können für andere Kommunen Hilfestellung für vergleichbare Prozesse bieten. Ein entsprechender Leitfaden ist unter http://www.nauwa.de verfügbar.

Das Fraunhofer-Institut für System- und Innovationsforschung ISI analysiert Entstehung und Auswirkungen von Innovationen. Wir erforschen die kurz- und langfristigen Entwicklungen von Innovationsprozessen und die gesellschaftlichen Auswirkungen neuer Technologien und Dienstleistungen. Auf dieser Grundlage stellen wir unseren Auftraggebern aus Wirtschaft, Politik und Wissenschaft Handlungsempfehlungen und Perspektiven für wichtige Entscheidungen zur Verfügung. Unsere Expertise liegt in der breiten wissenschaftlichen Kompetenz sowie einem interdisziplinären und systemischen Forschungsansatz.

Weitere Informationen:
http://www.isi.fraunhofer.de/isi-de/service/presseinfos/2012/pri12-08.php

(zurück)


Ein neuer Messpfahl in der Elbmündung ermittelt Umweltdaten für die Küstenforschung

Dr. Torsten Fischer
Pressestelle
Helmholtz-Zentrum Geesthacht – Zentrum für Material- und Küstenforschung

Das Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht hat im März 2012 gemeinsam mit der Hamburg Port Authority (HPA) einen Messpfahl in der Elbmündung installiert. Seit Mitte März liefert dieser Pfahl regelmäßig Daten, um die Gewässergüte und den Sedimenttransport zu untersuchen. Die Messungen sind Bestandteil des Küstenbeobachtungssystems COSYNA und können auch zur Verbesserung der Vorhersagen des Sturmflutwarndienstes genutzt werden.
Geprägt durch die Gezeiten verändert die Mündung der Elbe immer wieder ihre Form: Sandbänke werden verlagert und neue Priele entstehen. Auch der Mensch verändert den Fluss: Weite Teile der Elbmarschen sind eingedeicht. Darüber hinaus haben sich durch den Ausbau der Elbe zum Schifffahrtsweg auch Strömungen, Tidenhub und Gewässergüte verändert.

„Die vielen Nutzungsinteressen in der Tideelbe – von Schifffahrt bis Naturschutz – verlangen nach einem gut aufeinander abgestimmten Management. Mit dem neuen Messpfahl erweitern wir die Erfassung und Rekonstruktion aktueller Umweltzustände und die Untersuchungen der langfristigen Auswirkungen menschlicher Eingriffe auf die Elbe“, erläutert Dr. Rolf Riethmüller, Küstenforscher am Helmholtz-Zentrum Geesthacht.
Von der Elbmündung nach Hamburg und Geesthacht
Die Tideelbe ist nicht nur die seewärtige Zufahrt zum Hamburger Hafen, sondern ein wertvoller und einzigartiger Lebensraum. In dem Satellitenbild ist die Tideelbe von Geesthacht bis Cuxhaven zu sehen. Deutlich sichtbar sind die großen Wattflächen im Mündungsbereich (Bildbearbeitung: Brockmann Consult GmbH © 2003; Originaldaten Landsat 7ETM © Eurimage 2002). Die Tideelbe ist nicht nur die seewärtige Zufahrt zum Hamburger Hafen, sondern ein wertvoller und einzigartiger Lebensraum. In dem Satellitenbild ist die Tideelbe von Geesthacht bis Cuxhaven zu sehen. Deutlich sichtbar sind die großen Wattflächen im Mündungsbereich (Bildbearbeitung: Brockmann Consult GmbH © 2003; Originaldaten Landsat 7ETM © Eurimage 2002).

Der neue Messpfahl steht im Bereich der Elbmündung am Rand des Neufelder Watts. Auf ihm ist eine außergewöhnlich große Vielfalt an Sensoren installiert. Sie liefern Messungen von Wetterdaten über Wasserstand, Strömung und Seegang bis hin zu der Konzentration von Sediment, Phytoplankton und Sauerstoffgehalt.

Das Helmholtz-Zentrum Geesthacht hat den Messpfahl im Rahmen des Küstenbeobachtungssystems COSYNA (Coastal Observation System for Northern and Arctic Seas) errichtet. COSYNA ist ein vom Institut für Küstenforschung des Helmholtz-Zentrums Geesthacht entwickeltes Analysesystem zur Überwachung des küstennahen Bereichs der Nordsee.

Neben Messpfählen nutzen die Geesthachter Wissenschaftler unter anderem Radartechnik, Wellenmessbojen, FerryBoxen, Erdbeobachtungssatelliten und autonom arbeitende Unterwasserfahrzeuge. Die so gewonnenen Beobachtungen werden in Simulationsmodellen verarbeitet, mit deren Hilfe der physikalische, ökologische und biogeochemische Zustand der Nordsee in hoher zeitlicher und räumlicher Auflösung abgeleitet wird. Mit den entwickelten Werkzeugen können beispielsweise Behörden Entscheidungen über Umweltmaßnahmen auf einer verbesserten Datengrundlage treffen.

Die Hamburg Port Authority und das Helmholtz-Zentrum Geesthacht betreiben den 17 Meter hohen und zwei Tonnen schweren Messpfahl gemeinsam. Sämtliche Daten werden direkt auf die Server der Hamburg Port Authority und des Helmholtz-Zentrums Geesthacht übertragen und innerhalb einer Viertelstunde im Internet dargestellt und öffentlich zugänglich gemacht.

Zusammen mit dem bestehenden behördlichen Messnetz in der Tideelbe erlaubt die neue Beobachtungsplattform die Erforschung von Zusammenhängen und dynamischen Prozessen im System Tideelbe, vor allem im Hinblick auf Schwebstoff- und Sedimentfrachten. Dieses Wissen ist erforderlich zur Überwachung eben solcher Frachten und wird daher das Spektrum an Möglichkeiten von COSYNA erweitern. Daneben gehen die Daten auch ein in die Verbesserung des von der HPA betriebenen Sturmflutwarndienstes der Stadt Hamburg.

Weitere Informationen:
http://www.hzg.de/public_relations/press_releases/032031/index_0032031.html.de

(zurück)


E-Zigaretten können auch zu gesundheitlichen Gefahren für Passivraucher führen

Dr. Suzan Fiack
Presse- und Öffentlichkeitsarbeit
Bundesinstitut für Risikobewertung (BfR)

BfR empfiehlt, das Rauchen von E-Zigaretten in Nichtraucherzonen zu untersagen
Das Bundesinstitut für Risikobewertung (BfR) hat einige typische Inhaltsstoffe von E-Zigaretten-Liquids wie Nikotin, Vernebelungsmittel, Zusatz- und Aromastoffe bewertet: Die Dämpfe dieser Substanzen können die Gesundheit von E-Rauchern beeinträchtigen. Gefahren für Dritte sind nach derzeitigem Kenntnisstand nicht auszuschließen. Angesichts eines großen und wachsenden Produktspektrums an Liquids für E-Zigaretten ist nicht im Detail bekannt, was ein E-Raucher im konkreten Fall tatsächlich inhaliert bzw. ausatmet und mit welchen Schadstoffen die Atemluft belastet wird. Durch den Einsatz von nachfüllbaren Kartuschen haben die Konsumenten nahezu unbegrenzte Möglichkeiten zum Experimentieren und Zusammenstellen eigener Liquids, wobei auch Konzentrate und bedenkliche Substanzen verwendet werden können. Eine Bewertung der tatsächlichen Risiken für Unbeteiligte ist daher nicht möglich. Zum Schutz von Verbrauchern sollten E-Zigaretten deshalb in Nichtraucherbereichen herkömmlichen Tabakprodukten gleichgestellt sein „Das Rauchen von E-Zigaretten sollte nur in Raucherzonen erlaubt sein“, sagt BfR-Präsident Professor Dr. Dr. Andreas Hensel. „So können E-Zigaretten Passivraucher nicht gesundheitlich beeinträchtigen.“

Das BfR geht davon aus, dass von der E-Zigarette und ihren Liquids gesundheitliche Risiken ausgehen. Ursache dafür können neben Nikotin auch das Verneblungsmittel Propylenglycol, Chemikalienzusätze wie pharmakologische Wirkstoffe sowie verschiedene Duft- und Aromastoffe (z.B. Menthol, Linalool) und Verunreinigungen sein. Es gibt Hinweise aus der Fachliteratur, dass einige Fabrikate von E-Zigaretten auch krebserzeugende Aldehyde freisetzen. Die verschiedenen Substanzen werden in Form von Emissionen über die Dämpfe der E-Zigaretten und den Atem der E-Raucher in die Umgebungsluft abgegeben. Gefahren für Dritte können nach jetzigem Kenntnisstand deswegen nicht ausgeschlossen werden.

E-Raucher können auch eigene Liquids mischen und dabei auf Konzentrate und vielfältige Zusätze und Substanzen zurückgreifen. In diesen Fällen ist unklar, was genau ein- und ausgeatmet wird. Unbeteiligte können im konkreten Fall nicht einschätzen, ob von den freigesetzten Emissionen gesundheitliche Gefahren ausgehen.

Das BfR empfiehlt daher, das Rauchen von allen E-Zigaretten in Nichtraucherzonen zu untersagen und diese Produkte im Sinne des Nichtraucherschutzes wie herkömmliche Zigaretten zu behandeln. Auch im Privatbereich sollten E-Zigaretten wie herkömmliche Zigaretten gehandhabt werden: d.h. sie sollten nicht im Beisein von empfindlichen Personen wie Kindern, Schwangeren und Kranken geraucht werden.

Über das BfR

Das Bundesinstitut für Risikobewertung (BfR) ist eine wissenschaftliche Einrichtung im Geschäftsbereich des Bundesministeriums für Ernährung, Landwirtschaft und Verbraucherschutz (BMELV). Es berät die Bundesregierung und die Bundesländer zu Fragen der Lebensmittel-, Chemikalien und Produktsicherheit. Das BfR betreibt eigene Forschung zu Themen, die in engem Zusammenhang mit seinen Bewertungsaufgaben stehen.

Weitere Informationen:
http://www.bfr.bund.de/cm/343/liquids-von-e-zigaretten-koennen-die-gesundheit-be… Stellungnahme
http://www.bfr.bund.de/cm/343/fragen-und-antworten-zur-e-zigarette.pdf Fragen und Antworten

(zurück)


TU Berlin: 100 Liter Wasser für einen Liter Milch

Stefanie Terp
Presse- und Informationsreferat
Technische Universität Berlin

Forscher der TU Berlin berechnen den „Water Footprint“ des Getränkes
Wer morgens verschlafen die Milch in sein Müsli kippt, denkt wahrscheinlich nicht an drohende Umweltprobleme – daran zum Beispiel, dass 2025 laut Aussage der Vereinten Nationen zwei Drittel der Weltbevölkerung unter Wasserknappheit leiden werden. Der Müsliesser wird sich nicht bewusst sein, dass er mitten im Thema ist und gerade einen riesigen Wasserfußabdruck hinterlässt – einen sogenannten „Water Footprint“.

„Bis ein Liter Milch im Kühlschrank steht, sind mindestens 100 Liter Wasser geflossen“, sagt Vanessa Bach, wissenschaftliche Mitarbeiterin am Fachgebiet „Sustainable Engineering“ der TU Berlin. Sie hat gemeinsam mit ihrem Kollegen Markus Berger am Institut für Technischen Umweltschutz der TU Berlin den Wasserverbrauch für einen Liter Milch genauer untersucht. Seit drei Jahren forschen die beiden im Bereich „Water Footprint“, der nach dem „Carbon Footprint“ als das nächste große Umweltthema gilt.

In ihren theoretischen Berechnungen haben Vanessa Bach und Markus Berger das Wasser kalkuliert, das für Futter, Putzen des Stalles, das Tränken der Tiere und die Milchproduktion verbraucht wird. Den Mammutanteil des Wassers verschlingt die Beregnung der Futtermittel für die Kuh. Deshalb mache es einen großen Unterschied, ob das Tier auf der Weide grasen darf oder im Stall gehalten wird. Denn dort kommt in den Futtertrog Soja, das viel mehr Wasser verbraucht. „Es können leicht 400 Liter Wasser pro Liter Milch zusammenkommen, wenn der Bauer sein Vieh im Stall mit Mais, Luzernen, Sojabohnen und anderen Futtermitteln versorgt, die zum Großteil aus Nord- und Südamerika importiert werden“, so Bach.

Häufig bringen Kritiker von „Water Footprints“ an, dass der Wasserkreislauf geschlossen und das für Futtermittel verbrauchte Wasser deshalb nie verloren sei. Das stimme zwar in Bezug auf den globalen Kreislauf, dennoch komme es immer wieder zu lokalen Knappheiten, so Berger: „Es ist wie mit dem Geld: Auch wenn immer die gleiche Menge im Umlauf ist, dann bringt es mir nichts, wenn ein anderer das Geld hat“, so der Doktorand. „Es macht durchaus einen Unterschied, ob das Wasser in Deutschland, Spanien oder der Sahel-Zone verbraucht wird.“ Die Flüssigkeit, die in den Anbau des Futters fließt und als „virtuelles Wasser“ exportiert wird, fehlt dann vor Ort.

Da die pure Angabe des Wasserverbrauches in Volumen wenig aussagekräftig ist, entwickelt Berger in seiner Doktorarbeit Gewichtungsfaktoren, die den Verbrauch in unterschiedlichen Regionen der Welt vergleichbar machen. Dabei werden Parameter wie lokale Wasserknappheit und Sensitivität von Ökosystemen berücksichtigt, aber auch wie reich ein Land ist: „Wassermangel kann in reicheren Ländern mit Technologien wie Entsalzungsanlagen kompensiert werden. Die ärmeren Staaten können das nicht“, sagt Berger. Rechnet er diese Faktoren ein, kommt die Milch von Hochleistungskühen gar nicht gut weg: Für einen Liter ihrer Milch braucht man 16-mal mehr Wasser als für Weideviehmilch und 50-mal mehr als für die Milch von Almvieh. Auch wenn die exakten Wasserflüsse kaum gemessen werden können, um eine Milchmädchenrechnung handelt es sich ganz sicher nicht. Susanne Hörr

Weitere Informationen erteilen Ihnen gern: M.Sc. Markus Berger, TU Berlin, Institut für Technischen Umweltschutz, Fachgebiet „Sustainable Engineering“, E-Mail markus.berger@tu-berlin.de, Tel.: 030/314 25084

Vanessa Bach, TU Berlin, Institut für Technischen Umweltschutz, Fachgebiet „Sustainable Engineering“, E-Mail nessakb@cs.tu-berlin.de, Tel.: 030/314 21184

(zurück)


www.lohnspiegel.de jetzt mit Angaben zu mehr als 350 Berufen

Rainer Jung

Abt. Öffentlichkeitsarbeit
Hans-Böckler-Stiftung
Lohnspiegel mit aktualisiertem und erweitertem Angebot:

Gehaltscheck jetzt mit Angaben zu mehr als 350 Berufen

Das Gehaltsportal http://www.lohnspiegel.de, das vom WSI-Tarifarchiv der Hans-Böckler-Stiftung betreut wird, bietet in seinem jetzt aktualisierten und erweiterten Lohn- und Gehalts-Check Angaben zu tatsächlich gezahlten Löhnen und Gehältern in mehr als 350 verschiedenen Berufen und Tätigkeiten in folgenden Bereichen und Berufsgruppen:

– Architekturberufe, Raumplanung
– Bank- und Finanzberufe
– Bauberufe
– Büro- und Verwaltung
– Callcenter
– Chemieberufe
– Dienstleistungsberufe
– Druckberufe
– EDV / IT-Berufe
– Elektroberufe
– Gebäudereinigung
– Gesundheitsberufe
– Handel
– Handwerksberufe
– Hotel, Gaststätten, Tourismus
– Ingenieurberufe
– Journalistische Berufe
– Lehrerberufe(Schule/Hochschule)
– Logistik/Transport/Verkehr
– Medien/Gestaltung
– Metallberufe
– Nahrungsmittelverarbeitung
– Personalwesen
– Produktion und Fertigung
– Recht und Steuern
– Sicherheitsgewerbe
– Sozialberufe
– Techniker/innen
– Übersetzer/in, Dolmetscher/in
– Vertrieb, Marketing, Werbung, PR
– Weitere Wissenschaftsberufe
– Wirtschaftswissenschaftler/in

Die Gehalts-Angaben des LohnSpiegels berücksichtigen die bestehenden Unterschiede zwischen Männern und Frauen sowie nach Berufserfahrung, betrieblicher Position, nach Betriebsgröße und Region (Ost-/Westdeutschland).

Der nicht-kommerzielle und kostenlose Gehalts-Check basiert auf einer kontinuierlichen Online-Erhebung, an der sich die Besucherinnen und Besucher der Webseite „http://www.lohnspiegel.de“ freiwillig und anonym beteiligen können. Seit dem Start des Projekts im Jahre 2004 haben sich mehr als 210.000 Beschäftigte an der Umfrage beteiligt. Nach wie vor werden täglich im Schnitt zwischen 50 und 60 Online-Fragebögen ausgefüllt. Das Projekt „LohnSpiegel“ ist Bestandteil des internationalen Wage-Indicator-Netzwerks, das in 65 Ländern Lohn- und Gehaltsinformationen ermittelt und öffentlich zur Verfügung stellt.

Ansprechpartner in der Hans-Böckler-Stiftung

Dr. Heiner Dribbusch
WSI
Tel.: 0211/7778-217
E-Mail: Heiner-Dribbusch@boeckler.de

(zurück)


RUBIN: Batterie entsalzt Meerwasser

Dr. Josef König
Pressestelle
Ruhr-Universität Bochum

Hoffnung auf energieeffizientere Trinkwassergewinnung
Chemiker erproben neues Entsalzungskonzept

Schon heute ist Trinkwasser mancherorts Mangelware. Schätzungen zufolge werden Menschen im Jahr 2025 rund 90% des verfügbaren Trinkwassers verbrauchen – es müssen also neue Quellen aufgetan werden. Meerwasser steht in riesigen Mengen zur Verfügung. Seine Aufbereitung verschlingt allerdings sehr viel Energie. Wesentlich mehr als theoretisch nötig wäre. RUB-Chemiker entwickeln ein neues Verfahren, das mehr Energieeffizienz verspricht. Es funktioniert wie eine Batterie und wird von der Entwicklung neuer Materialien noch profitieren.
Über die Arbeit der Forscher berichtet RUBIN, das Wissenschaftsmagazin der Ruhr-Universität, in seiner aktuellen Ausgabe.

Den vollständigen Beitrag mit Bildern zum Herunterladen finden Sie online unter: http://www.rub.de/rubin

Elektroden fangen Ionen aus dem Wasser

„Um einen Kubikmeter Meerwasser zu entsalzen, braucht man in jedem Fall mindestens 0,6 bis 0,7 Kilowattstunden Energie“, erklärt Dr. Fabio La Mantia, Leiter der Nachwuchsgruppe „Semiconductor and Energy Conversion“ am Zentrum für Elektrochemie der RUB. „Aktuell werden aber mit dem gängigen Verfahren der Umkehrosmose rund vier Kilowattstunden verbraucht.“ La Mantia und seine Kollegen haben nun ein ganz neues Verfahren getestet: Das Salzwasser wird in einer Art Batteriezelle in Kontakt mit zwei Elektroden gebracht. Die eine enthält Silbermikropartikel, die andere Natrium-Mangan-Oxid-Nanostäbchen. Beim Anlegen einer Spannung zieht die Silberelektrode negativ geladene Chlorid-Ionen an und „fängt“ sie aus dem Wasser heraus, die andere Elektrode positiv geladene Natrium-Ionen. Das Salzwasser wird dadurch ärmer an Kochsalz (Natrium-Chlorid, NaCl).

Mini-Zelle im Labor funktioniert

Die Batteriezelle im Labor, die 0,2 Milliliter Salzwasser fasst und über zwei Quadratzentimeter Elektrodenfläche verfügt, konnte binnen einer Stunde den Salzgehalt des Wassers um etwa die Hälfte senken. „Hochgerechnet heißt das, dass wir einen Liter Wasser pro Quadratmeter und Stunde in diesem Maß entsalzen können“, rechnet Dr. La Mantia vor. Da das noch nicht genügt – um es trinken zu können, müsste man dem Wasser 98% des Salzes entziehen – suchen die Forscher nach neuen Materialien, die effizienter Ionen anziehen, dennoch nicht allzu früh zur Elektrolyse führen und natürlich nicht gesundheitsschädlich sein dürfen. Die Materialien sollen außerdem möglichst selektiv für Natrium- und Chlorid-Ionen sein und dem Wasser nicht noch viele weitere Stoffe entziehen, die im Trinkwasser nützlich sind, wie etwa Magnesium und Kalzium. „Verglichen mit der Umkehrosmose, die es schon seit rund 40 Jahren gibt, ist unser Verfahren noch sehr neu. Die Umkehrosmose ist wissenschaftlich ausgereizt, da wird es wahrscheinlich keine großen Verbesserungen mehr geben. Unser Verfahren wird noch sehr viel weiter entwickelt werden, so dass wir auf jeden Fall noch große Verbesserungen erreichen können“, ist Dr. La Mantia zuversichtlich.

Themen in RUBIN Frühjahr 2012

In RUBIN Frühjahr 2012 finden Sie außerdem folgende Themen: Leuchtende Nanopartikel aus der Mikrowelle; Griechische Wissenschaft in Arabischer Sprache; Was die Materie zusammenhält; Gen-Getümmel im Ozean – Forscher entschlüsseln die Funktion unbekannter Proteine; „Wat hasse gesacht?“ – Sprachwissenschaftler nehmen das Ruhrdeutsch von heute und damals unter die Lupe; Pantomime der Roboter; Ganz wie der eigene Knochen – Materialforscher entwickeln Herstellungsverfahren für poröse Implantate; Schüler testen – aber richtig; Mit dem Eiswürfel ins ferne Weltall schauen; Batterie entsalzt Meerwasser. RUBIN ist zum Preis von 4,- Euro in der Stabsstelle für Strategische PR und Markenbildung der RUB erhältlich und online unter http://www.rub.de/rubin.

Weitere Informationen

Dr. Fabio La Mantia, Leiter der Nachwuchsgruppe „Semiconductor and Energy Conversion“, Zentrum für Elektrochemie der Ruhr-Universität, 44780 Bochum, Tel. 0234/32-24196, E-Mail: Fabio.Lamantia@rub.de

Redaktion: Meike Drießen

Weitere Informationen:
http://www.rub.de/rubin – RUBIN mit Bildern im Internet

(zurück)


Abnehmen bremst krebsfördernde Entzündungen

Dr. Stefanie Seltmann
Presse- und Öffentlichkeitsarbeit
Deutsches Krebsforschungszentrum

Übergewicht begünstigt Entzündungen, die als krebsfördernd gelten. Gemeinsam mit amerikanischen Kollegen untersuchte Cornelia Ulrich aus dem Deutschen Krebsforschungszentrum und dem NCT Heidelberg an übergewichtigen Frauen, ob sich die Entzündungswerte durch Sport und/oder Kalorienreduktion reduzieren lassen. Beide Lebensstilveränderungen waren hochwirksam: Kalorienreduktion allein oder in Kombination mit Sport senkte die Entzündungsparameter um mehr als ein Drittel und damit in vergleichbarem Umfang wie entzündungshemmende Medikamente. Gewichtsabnahme kann daher als wirkungsvoller Beitrag zur Krebsprävention angesehen werden.
Etwa 25 Prozent aller Krebsfälle weltweit gehen nach Ansicht von Epidemiologen auf das Konto von Übergewicht und Bewegungsmangel. Zu den Krebserkrankungen, bei denen ein gesicherter Zusammenhang zu Übergewicht besteht, zählen Brustkrebs, Darmkrebs und Krebs der Speiseröhre. In über der Hälfte der Fälle von Krebs der Gebärmutterschleimhaut (Endometrium) gilt Übergewicht als Ursache, ebenso in mehr als 20 Prozent der Fälle von Brustkrebs nach den Wechseljahren.

Hinter diesem Zusammenhang stecken komplexe physiologische Ursachen. Neben hormonellen Veränderungen gilt vor allem der chronisch-entzündliche Zustand des Fettgewebes von Übergewichtigen als Risikofaktor: Die zahlreichen Entzündungszellen im Fettgewebe geben entzündungsfördernde Botenstoffe ab, die die Krebsentstehung begünstigen.

Viele der für Entzündungen charakteristischen Biomarker steigen mit dem Alter und mit dem Übergewicht stark an. Eine Gewichtsabnahme könnte also gerade für viele der Frauen, die nach den Wechseljahren mit ein paar Pfunden zuviel zu kämpfen haben, ein Beitrag zur Reduktion des Krebsrisikos sein. „Die Entzündungsmarker lassen sich zwar auch mit Medikamenten drosseln, aber das ist oft mit unerwünschten Nebenwirkungen verbunden“, sagt Professor Cornelia Ulrich, Leiterin der Abteilung Präventive Onkologie am Deutschen Krebsforschungszentrum und Direktorin des Nationalen Centrums für Tumorerkrankungen. Die Epidemiologin untersuchte daher gemeinsam mit Kollegen aus verschiedenen amerikanischen Forschungseinrichtungen, ob übergewichtige Frauen mit Diät, mit Diät und Sport oder mit Sport allein dem risikoreichen Entzündungszustand entgegenwirken können. „Damit wollen wir einen aktiven Beitrag zur Krebsprävention leisten“, so Cornelia Ulrich.

Ein ganzes Jahr lang untersuchten die Forscher 439 übergewichtige Frauen, die nach dem Zufallsprinzip in eine der drei Studiengruppen oder in die Kontrollgruppe eingeteilt worden waren. Gemessen wurden verschiedene Entzündungs-Biomarker, darunter die Bluteiweiße Interleukin-6 und C-reaktives Protein (CRP) als zentraler Entzündungsmarker sowie die Gesamtzahl der weißen Blutkörperchen und die Zahl der neutrophilen Leukozyten. Frauen in der Studie waren übergewichtig und hatten einen durchschnittlichen Körperfettanteil von beinahe 50 Prozent.

Für die Frauen, die auf schmale Kost gesetzt worden waren und für die Teilnehmerinnen der Diät- und Sport-Gruppe galt allgemein: je größer die Gewichtsabnahme, desto mehr sanken ihre CRP-Spiegel. Im Mittel konnten die Teilnehmerinnen ihr Körpergewicht um rund zehn Prozent reduzieren. Verglichen mit den Frauen der Kontrollgruppe sanken in den beiden Diät-Gruppen alle Entzündungsparameter. Teilnehmerinnen jedoch, die nur Sport getrieben hatten, erreichten eine Verbesserung dieser Laborwerte nur dann, wenn sie gleichzeitig ihr Gewicht reduzierten.

„Unsere Ergebnisse zeigen, dass Übergewichtige mit einer Lebensstilveränderung viel Gutes für sich tun und ihr Krebsrisiko senken können“, fasst Cornelia Ulrich zusammen. „Eine Reduktion der CRP-Werte um rund 40 Prozent oder bei den Frauen, die erheblich Gewicht abgenommen haben, sogar um die Hälfte, lässt sich sonst nur mit Medikamenten erreichen. Und diese Medikamente haben Nebenwirkungen, die eine gesunde, fettarme Ernährung und Sport nicht haben“, erklärt Cornelia Ulrich. „Unser Ergebnis beweist, dass sich bereits verhältnismäßig moderate Abnehmerfolge von 5 bis 10 Prozent des Körpergewichts drastisch auf krebsfördernde Faktoren im Körper auswirken.“

Ikuyo Imayama, Cornelia M. Ulrich, Catherine M. Alfano, Chiachi Wang, Liren Xiao, Mark H. Wener, Kristin L. Campbell, Catherine Duggan, Karen E. Foster-Schubert, Angela Kong, Caitlin E. Mason, Ching-Yun Wang, George L. Blackburn, Carolyn E. Bain, Henry J. Thompson und Anne McTiernan: Effects of a caloric restriction weight loss diet and exercise on inflammatory biomarkers in overweight/obese postmenopausal women: a randomized controlled trial. Cancer Research 2012, DOI:10.1158/0008-5472.CAN-11-3092

Das Deutsche Krebsforschungszentrum (DKFZ) ist mit mehr als 2.500 Mitarbeiterinnen und Mitarbeitern die größte biomedizinische Forschungseinrichtung in Deutschland. Über 1000 Wissenschaftlerinnen und Wissenschaftler erforschen im DKFZ, wie Krebs entsteht, erfassen Krebsrisikofaktoren und suchen nach neuen Strategien, die verhindern, dass Menschen an Krebs erkranken. Sie entwickeln neue Ansätze, mit denen Tumoren präziser diagnostiziert und Krebspatienten erfolgreicher behandelt werden können. Gemeinsam mit dem Universitätsklinikum Heidelberg hat das DKFZ das Nationale Centrum für Tumorerkrankungen (NCT) Heidelberg eingerichtet, in dem vielversprechende Ansätze aus der Krebsforschung in die Klinik übertragen werden. Die Mitarbeiterinnen und Mitarbeiter des Krebsinformationsdienstes (KID) klären Betroffene, Angehörige und interessierte Bürger über die Volkskrankheit Krebs auf. Das Zentrum wird zu 90 Prozent vom Bundesministerium für Bildung und Forschung und zu 10 Prozent vom Land Baden-Württemberg finanziert und ist Mitglied in der Helmholtz-Gemeinschaft deutscher Forschungszentren.

Weitere Informationen:
http://www.dkfz.de

(zurück)


Sensoren für mehr Sauberkeit: Nanotechnologien für die Trinkwasserreinheit sind Thema am IPHT Jena

Dipl. Biol. Susanne Hellwage
Presse- und Öffentlichkeitsarbeit
Institut für Photonische Technologien

Krankheitserreger im Trinkwasser sind in den Entwicklungsländern, aber auch in Deutschland, z. B. im Rahmen von Sanierungsvorhaben, oft ein großes Problem.
Zu Beginn des dreitägigen Expertentreffens stehen die Projekte „AquaTest“ und „RiMaTH“ im Mittelpunkt. „Ersteres dient dem Aufbau einer wissenschaftlichen Beziehung zwischen Europa und Indien mit dem Ziel, die kostbarste Ressource unserer Tage, sauberes Wasser, auch in Zeiten wachsender Bevölkerungen und globaler Erwärmung auf beiden Kontinenten zu sichern“, erläutert PD Dr. Wolfgang Fritzsche, Abteilungsleiter am IPHT und Verantwortlicher für beide Projekte. Bei „RiMaTH“ geht es darum, durch intelligente Verknüpfung verschiedener Untersuchungstechniken sowohl eine schnelle Aussage über mögliche Gesundheitsgefährdungen treffen zu können als auch Fragen zur Vermehrungsfähigkeit von nachgewiesenen Erregern sicher beantworten zu können. Die Untersuchungsmethodik soll dabei eingebettet sein in ein Gesamtkonzept zur Beurteilung der hygienischen Situation und zum Umgang mit Risiken während einer Sanierung von Gebäuden. Ein technisches Ziel des Projektes ist die Entwicklung von Schnellnachweismethoden zur Detektion, Klassifizierung und Aktivitätsanalyse hygienisch relevanter Mikroorganismen. Dabei erfolgt eine Evaluierung und Implementierung von miniaturisierten (chipbasierten) und damit parallelisierbaren molekularbiologischen Methoden zur Detektion in Ergänzung zu den Kultivierungsverfahren, sowie eine Proof-of-concept-Studie zum Einsatz der Raman-Spektroskopie. Auf beiden Gebieten – dem Chipbasierten als auch dem Raman-spektroskopischen Nachweis von Bakterien verfügt das IPHT über eine herausragende Kompetenz.
„Die Erbsubstanz der Erreger, die DNA, ist dabei für uns der entscheidende Ansatzpunkt für das Aufspüren und die Erkennung der Mikroorganismen“, betont Fritzsche. Deshalb stehen Sensoren, die die DNA schnell und gezielt nachweisen können, in diesem Jahr auf dem Programm seines schon traditionsreichen Symposiums, das jedes Jahr eine Vielzahl international ausgewiesener Experten nach Jena lockt.

Ihr Ansprechpartner:
PD. Dr. Wolfgang Fritzsche
Abteilungsleiter Nanobiophotonik
Telefon +49 (0) 3641/ 206-304
Telefax +49 (0) 3641/ 206-344
wolfgang.fritzsche@ipht-jena.de

Weitere Informationen:
http://www.ipht-jena.de

(zurück)


RWI: Staatliche Eingriffe bei Benzinpreis nicht gerechtfertigt

Joachim Schmidt
Presse und Information
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.

Das Rheinisch-Westfälische Institut für Wirtschaftsforschung (RWI) sieht in Deutschland wenig Anlass für ein staatliches Einschreiten zugunsten eines niedrigeren Öl- und Benzinpreises. Zum einen sind die Möglichkeiten der deutschen Politik ohnehin sehr begrenzt. Zum anderen sind die wirtschaftlichen Auswirkungen des hohen Ölpreises bisher vergleichsweise gering. Zudem setzt der hohe Ölpreis langfristig Anreize für effizientere Technologien und verbrauchsärmere Kraftfahrzeuge.
Das RWI rät davon ab, die derzeit hohen Benzinpreise durch staatliche Interventionen senken zu wollen. Weder eine Erhöhung der Pendlerpauschale noch eine Senkung der Mineralöl- bzw. der Ökosteuer sind aus ökonomischer Sicht vernünftig. Entsprechende Forderungen waren angesichts der aktuell hohen Benzinpreise laut geworden. Doch zum einen hat die nationale Politik nur sehr begrenzte Möglichkeiten, die Preisbildung auf den internationalen Energie- und Rohstoffmärkten zu beeinflussen. Zum anderen hat der hohe Ölpreis sich bisher vergleichsweise wenig dämpfend auf die deutsche Wirtschaft ausgewirkt.

Für die bisher eher geringen Konsequenzen gibt es drei wesentliche Gründe: Erstens ist der derzeitige Benzinpreis real betrachtet, also unter Berücksichtigung der Inflation, nicht wesentlich höher als zu Beginn der siebziger Jahre. Zweitens ist der hohe Ölpreis nicht – wie in den siebziger Jahren – vor allem Ausdruck eines verknappten Angebots. Zwar wurden die jüngsten Preisschübe bei Rohöl wohl auch durch die politischen Spannungen im Mittleren Osten ausgelöst. Der Anstieg in den vergangenen Jahren wurde jedoch insbesondere durch die gestiegene Nachfrage der expandierenden Weltwirtschaft verursacht. Somit war er weitgehend eine Reflektion des guten Zustands der Weltwirtschaft und kein exogener Angebotsschock.

Drittens ist die Produktion in den Industrieländern heutzutage deutlich weniger energieintensiv als noch in den siebziger und achtziger Jahren. So benötigte Deutschland 2010 mit einem Anteil des Wertes von Rohöl- und Produktimporten am Bruttoinlandsprodukt (BIP) von 2,44% nur etwa halb so viel Öl wie Anfang der achtziger Jahre, als dieser Anteil bei über 4% lag. Dementsprechend werden auch Produktpreise und Inflationsraten weniger durch den Ölpreis beeinflusst. Nicht zuletzt sind die Autofahrer weniger stark von den hohen Benzinpreisen betroffen, weil der Durchschnittsverbrauch der Kraftfahrzeuge gesunken ist.

Eingriffe des Staates wären politischer Aktionismus
Staatliche Interventionen zur Senkung des Öl- und vor allem Benzinpreises fallen aus Sicht des RWI in die Kategorie „politischer Aktionismus“. Es ist beispielsweise zweifelhaft, ob der hohe bürokratische und finanzielle Aufwand einer strengeren Aufsicht der Mineralölkonzerne durch das sog. „Markttransparenzgesetz“ in vernünftiger Relation zu dessen Nutzen steht. Ebenso erscheint eine Senkung der Ökosteuer nicht sinnvoll, schon deshalb, weil ein Großteil ihres Aufkommens für die Senkung der Rentenversicherungsbeiträge genutzt wird. Diese müsste dann anderweitig finanziert werden, beispielsweise durch eine höhere Mehrwertsteuer.

Auch die von US-Präsident Obama angedachte Freigabe von Teilen der nationalen Reserven an Rohöl und Mineralölprodukten, um die Preise zu dämpfen, ist nur eine vorübergehend wirksame Maßnahme, die wohl vor allem dem Wahlkampf in den USA geschuldet ist. Sie ändert jedoch nichts am Kern des Problems: den fehlenden Raffineriekapazitäten in den USA. Auch ist es wenig wirksam, Spekulationen an den Ölmärkten mit staatlichen Interventionen begegnen zu wollen, wie die Erfahrungen mit Devisenmarktinterventionen zeigen.

Hohe Ölpreise sind Anreize für Investitionen in die Zukunft
Langfristig geben die hohen Mineralölpreise sogar Anreize für Investitionen in die Zukunft. Sie sorgen für verstärkte Explorations- und Investitionstätigkeit der großen Mineralölkonzerne und damit für ein zukünftig höheres Angebot an Rohöl und somit tendenziell niedrigere Preise. Verbraucher und Produzenten sind zudem langfristig den Preisen keineswegs ausgeliefert: Sie können Öl einsparen oder durch andere Rohstoffe ersetzen. Dies könnte beispielsweise durch verbrauchsärmere Kraftfahrzeuge geschehen. Anzumahnen wäre auch eine Erhöhung der Mineralölsteuern in den USA, deren Anteil am weltweiten Tagesverbrauch von Rohöl 2010 bei rund 22% lag.

Ihre Ansprechpartner dazu:
Prof. Dr. Manuel Frondel Tel.: (0201) 81 49-204
Sabine Weiler (Pressestelle) Tel.: (0201) 81 49-213

Dieser Pressemitteilung liegt die RWI-Position #50 „Der Markt macht’s: Hohe Benzinpreise sind kein Grund für politischen Aktionismus“ zugrunde. Sie ist unter http://www.rwi-essen.de/positionen als pdf-Datei erhältlich.

Weitere Informationen:
http://www.rwi-essen.de/presse/– hier steht die Pressemitteilung auf der RWI-Homepage mit direktem Link zur zugrundeliegenden RWI-Position
http://www.rwi-essen.de/positionen – hier steht die RWI-Position zum Benzinpreis als pdf-Download bereit

(zurück)


Klimawissenschaftler entdecken neue Schwachstelle des antarktischen Eisschildes

Ralf Röchert
Communications Department
Alfred-Wegener-Institut für Polar- und Meeresforschung

Das Filchner-Ronne-Schelfeis im antarktischen Weddellmeer wird noch in diesem Jahrhundert rapide zu schmelzen beginnen und als Barriere für nachrutschendes Inlandeis wegfallen. Diese Vorhersagen treffen Klimaforscher des Alfred-Wegener-Institutes für Polar- und Meeresforschung in der Helmholtz-Gemeinschaft in der kommenden Ausgabe des britischen Wissenschaftsmagazins „Nature“. Sie widerlegen damit die weit verbreitete Annahme, das Schelfeis des Weddellmeeres bliebe aufgrund der Randlage des Meeres von den unmittelbaren Einflüssen der Erderwärmung verschont.
Die Forschungsergebnisse der Klima-Modellierer vom Alfred-Wegener-Institut dürften die Fachwelt überraschen. Gingen die meisten Experten doch bisher davon aus, dass die Folgen der Erderwärmung für die Antarktis vor allem im Amundsenmeer und damit in der Westantarktis zu spüren seien. „Das Weddellmeer hatte niemand so richtig auf der Rechnung, weil alle glaubten, seine Wassermassen seien im Gegensatz zum Amundsenmeer kalt genug, um dem Schelfeis nichts anhaben zu können. Wir aber zeigen, dass die warmen Wassermassen des Weddellmeeres in den kommenden Jahrzehnten dem Filchner-Ronne-Schelfeis mächtig zusetzen werden“, sagt Dr. Hartmut Hellmer, Ozeanograf am Alfred-Wegener-Institut und Erstautor der Studie.

Mit Hilfe verschiedener Modellberechnungen konnten er und seine Kollegen Dr. Frank Kauker, Dr. Ralph Timmermann und Dr. Jürgen Determann sowie Dr. Jamie Rae vom britischen Met Office Hadley Centre zeigen, dass es im Zuge des Temperaturanstieges über dem Weddellmeer innerhalb der nächsten sechs Jahrzehnte zu einer Kettenreaktion kommen kann, an deren Ende vermutlich große Inlandeis-Massen in den Ozean abrutschen können.

Ausgelöst wird diese Kettenreaktion von steigenden Lufttemperaturen über dem südöstlichen Weddellmeer. „Unsere Modelle zeigen, dass die wärmere Luft dazu führen wird, dass das heute noch solide Meereis im Weddellmeer in wenigen Jahrzehnten dünner und damit brüchiger und mobiler wird“, sagt Frank Kauker. Wenn dies geschehe, werden sich grundlegende Transportprozesse verändern. „Es führt dazu, dass eine hydrographische Front im Weddellmeer aufbricht, die bis jetzt verhindert, dass warmes Wasser unter das Schelfeis gelangt. Nach unseren Berechnungen aber wird sich diese schützende Barriere bis zum Ende dieses Jahrhunderts auflösen“, erklärt Hartmut Hellmer.

Der Einstrom wärmeren Wassers unter das Filchner-Ronne-Schelfeis lässt das Eis von unten schmelzen. „Die größten Schmelzraten erwarten wir nahe der sogenannten Aufsetzlinie. So nennt man jene Zone, in der das Schelfeis auf dem Meeresboden aufsetzt und in den Gletscher übergeht. An dieser Stelle schmilzt das Filchner-Ronne-Schelfeis heute um etwa 5 Meter pro Jahr. Zur nächsten Jahrhundertwende werden die Schmelzraten auf bis zu 50 Meter pro Jahr ansteigen“, sagt Jürgen Determann.

Wie im Falle einer solchen Megaschmelze des Schelfeises das dahinter gelagerte Inlandeis reagieren wird, untersucht Hellmers Kollege Jürgen Determann derzeit. Eine Vermutung liegt jedoch nahe: „Schelfeise sind für das nachgelagerte Inlandeis wie ein Korken in der Flasche. Sie bremsen die Eisströme, weil sie in den Buchten überall anecken und zum Beispiel auf Inseln aufliegen. Schmelzen jedoch die Schelfeise von unten, werden sie so dünn, dass die bremsenden Flächen immer geringer werden und sich das dahinterliegende Eis in Bewegung setzt“, sagte Hartmut Hellmer. „Sollten die erhöhten Schmelzraten komplett durch nachfließendes Inlandeis kompensiert werden, entspräche dieser Massenverlust einem zusätzlichen Meeresspiegelanstieg von 4,4 Millimeter pro Jahr“, ergänzt Jürgen Determann. Nach neuen, auf Satellitendaten basierenden Abschätzungen, die Anfang Februar 2012 ebenfalls in Nature veröffentlicht wurden, betrug der durch Gletscher- und Eisschelfschmelzen bedingte Meeresspiegelanstieg in den Jahren 2003 bis 2010 etwa 1,5 Millimeter pro Jahr. Dazu addiert werden zudem etwa 1,7 Millimeter, die der Meeresspiegel aufgrund der thermischen Ausdehnung der Ozeane pro Jahr ansteigt.

Die Vorhersagen der aktuellen Studie basieren auf unabhängigen Berechnungen der Klimamodelle BRIOS (Bremerhaven Ice – Ocean – Simulations) und FESOM (Finite Element Sea Ice-Ocean Model). Als Ausgangswerte hatten die Wissenschaftler atmosphärische Vorhersagen des britischen Met Office Hadley Centre in Exeter genutzt. Darunter waren zum Beispiel Angaben zur zukünftigen Entwicklung des Windes und der Temperatur in der Antarktis. Die Aussagekraft der Modelle haben Hartmut Hellmer und seine Kollegen gleich mehrfach überprüft: „Wir haben das BRIOS-Modell im Jahr 1860 gestartet, um zu sehen, ob seine Ergebnisse für die Jetztzeit die Realität auch richtig abbilden. Und es hat sich gezeigt, dass diese Bedingung sehr gut erfüllt wird. So liegen zum Beispiel die von BRIOS vorhergesagten Wassertemperaturen für das Weddellmeer dicht an dem, was wir heute tatsächlich messen“, sagt Ralph Timmermann und ergänzt: „Das BRIOS-Modell ist in den vergangenen Jahren mehrfach verifiziert worden. Es sagt Eisdickenkonzentrationen, Strömungen und Driftrichtungen von Eisbergen treffend voraus. Und FESOM ist auf dem besten Weg, es BRIOS gleich zu tun. Nur besitzt es eine viel höhere Auflösung, weshalb wir lange warten müssen, bis die Computer ein Jahrhundert berechnet haben. BRIOS braucht für ein Jahrhundert nur knapp eine Woche.“

Die Studie wurde im Rahmen des EU-finanzierten Forschungsprogramms „Ice2sea“ durchgeführt. Es vereint Wissenschaftler aus 24 führenden Forschungsinstitutionen der Europäischen Union sowie aus Chile, Norwegen und Island. Gemeinsam wollen die Wissenschaftler die Wechselwirkungen zwischen Eis und Klima entschlüsseln und auf diese Weise genauere Vorhersagen über die Auswirkungen der Eisschmelze auf den Meeresspiegel ermöglichen. Mehr Informationen zum Ice2sea-Projekt finden Sie unter: http://www.ice2sea.eu

(zurück)


Verhandlungsstrategien: Härte siegt – meistens

Henning Zuehlsdorff
Presse und Kommunikation
Leuphana Universität Lüneburg

Studie beleuchtet den Erfolg unterschiedlicher Herangehensweisen – für Koalitionsgespräche taugt Kompromisslosigkeit nicht
Wer sich in Verhandlungen kompromisslos zeigt, fährt damit in der Regel besser als Vertreter einer „weichen“ Linie. Das gilt aber nicht unbedingt, wenn der Verhandlungsgegner weiblichen Geschlechts ist – dann kann eine Strategie der gegenseitigen Zugeständnisse eventuell mehr Erfolg versprechen. Das zeigen Forscher der Leuphana Universität Lüneburg und der Westfälischen Wilhelms-Universität Münster in einer aktuellen Studie. Ein weiteres Ergebnis: Kompromisslose Härte kann zwar kurzfristig sinnvoll sein, die langfristige Zusammenarbeit aber gefährden. Für Koalitionsgespräche wie jetzt in Schleswig-Holstein taugt diese Strategie daher wohl weniger. Die Publikation wird in Kürze im renommierten Journal of Management veröffentlicht, ist aber bereits online verfügbar.

Wie muss ich verhandeln, wenn ich den für mich bestmöglichen Erfolg erzielen möchte? Grundsätzlich gibt es zwei Strategien: Ich trete hart und kompromisslos auf; Zugeständnisse mache ich – wenn überhaupt – nur nach langem, zähen Ringen. Oder aber ich versuche, durch bereitwillige Konzessionen (die zunächst durchaus einseitig sein können) die gegnerische Partei ebenfalls zu Kompromissen zu bewegen.

Welche Strategie im Einzelfall die bessere ist, lässt sich schlecht vorhersagen. Allerdings scheinen „harte Hunde“ in vielen Auseinandersetzungen erfolgreicher zu sein als „Softies“. Doch das stimmt eben nicht immer. Von welchen Faktoren der Erfolg der gewählten Verhandlungstaktik abhängt, haben die Wissenschaftler aus Münster und Lüneburg nun in einer breit angelegten Metastudie untersucht. Darin analysieren sie Publikationen aus den letzten Jahren, die sich experimentell mit dem Thema „Verhandlungsstrategien“ auseinandersetzen. Insgesamt nahmen mehr als 7.000 Personen an den jeweiligen Experimenten teil.

Know your opponent
Das Hauptergebnis: Harte Verhandlungsstrategien sind im Schnitt signifikant erfolgreicher als weiche. Das gilt insbesondere unter bestimmten Bedingungen: „Härte zu zeigen, funktioniert gerade dann ausgesprochen gut, wenn sich die Partner sehen können – wenn sie also tatsächlich an einem Tisch sitzen, statt beispielsweise per Telefon oder Internet zu kommunizieren“, sagt Dr. Joachim Hüffmeier von der Universität Münster. „In dieser Konstellation ist es wahrscheinlich leichter, Dominanz zu signalisieren und dem Gegenüber zu zeigen, dass nicht viel herauszuholen ist.“

Es ist außerdem enorm wichtig, den Verhandlungsspielraum des Kontrahenten möglichst genau zu kennen. „Je besser man in dieser Hinsicht vorbereitet ist, desto kompromissloser kann man versuchen, seine eigene Position durchzusetzen“, sagt Professor Dr. Alexander Freund von der Leuphana Universität Lüneburg. „Der Schlüssel zum Erfolg lautet: Know your opponent!“

Härte zu zeigen, ist aber nicht immer der richtige Weg. Frauen beispielsweise sind im Schnitt viel weniger darauf aus als Männer, ihre Machtposition zu demonstrieren. Stattdessen sind sie kooperativer und kompromissbereiter. Sobald der Verhandlungsgegner weiblichen Geschlechts ist, kann daher eine weiche Verhandlungsstrategie durchaus mehr Erfolg versprechen.

Grundsätzlich empfehlen die Wissenschaftler, die mittelfristigen Auswirkungen der gewählten Strategie nicht aus dem Auge zu verlieren. So zeigen die Studien auch, dass kompromisslose Härte bei den Kontrahenten zu Verstimmungen führen kann. Das kann die Beziehung zwischen den Parteien deutlich belasten – und damit auch die zukünftige Zusammenarbeit. Angehende Koalitionäre tun daher wahrscheinlich gut daran, sich kompromissfähig zu zeigen, wenn nicht schon der Beginn ihrer politischen Ehe unter einem schlechten Stern stehen soll.

(zurück)


Erdgeschichte und Evolution: Grüne Zeugen zum Sprechen bringen

Luise Dirscherl
Stabsstelle Kommunikation und Presse
Ludwig-Maximilians-Universität München

Die Zypressen gehören zu einer uralten Familie und standen schon in der antiken Mythologie für Langlebigkeit – was jetzt auch wissenschaftlich begründet werden kann. Denn diese Pflanzen bieten einen einmaligen Blick in die Erdgeschichte.
Im sogenannten Erdmittelalter gab es mit dem Superkontinent Pangäa nur eine riesige Landmasse, die vor etwa 150 Millionen Jahren zerfiel. Nach und nach entstanden so die heutigen Kontinente. Das Auseinanderdriften der Landmassen trennte oftmals auch Tier- und Pflanzenarten, die sich dann unterschiedlich entwickelten. Die Biodiversität nahm zu: Je größer die geografische Trennung, desto deutlicher unterschieden sich die entstehenden Artengruppen.

Die molekulare Uhr läuft rückwärts
„Zypressengewächse sind eine sehr alte Pflanzengruppe“, sagt Professor Susanne Renner, LMU-Biologin und Direktorin des Botanischen Gartens München. „Wir vermuteten also, dass sich ihre Familiengeschichte bis in die Zeit von Pangäa zurückverfolgen lassen sollte, wenn nicht die vielen Klimakatastrophen und die damit verbundenen Aussterbeereignisse uns einen Strich durch die Rechnung machen würden.“ Die Botanikerin und ihr Team erstellten deshalb einen Stammbaum der Zypressengewächse, indem sie die Gensequenzen von 122 weltweit vorkommenden Arten aus 32 Gattungen verglich – und mit einer „molekularen Uhr“ kombinierte.

Das Prinzip der molekularen Uhr ist einfach: Spalten sich zwei Stammeslinien von einem gemeinsamen Vorfahren ab, sammeln sie im Lauf der Zeit genetische Veränderungen an – jede Art für sich. Je länger die Trennung zurückliegt, desto größer und zahlreicher sind die Unterschiede. Der Vergleich der genetischen Veränderungen bietet so einen Blick in die Familiengeschichte und zeigt, wann und an welcher Stelle neue Arten abzweigten.

Evolutionäre Sackgassen enttarnt
„Diese molekularen Methoden haben in Kombination mit Fossilienfunden innerhalb der letzten 15 Jahre die sogenannte Biogeografie revolutioniert, also die Forschung zur Ausbreitungsgeschichte von Tieren und Pflanzen“, sagt Renner. Einige Tier- und Pflanzengruppen erwiesen sich etwa als unerwartet jung. Zur Fehleinschätzung kam es, wenn sehr alte Fossilien als direkte Vorfahren heutiger Arten interpretiert wurden, obwohl sie als „evolutionäre Sackgassen“ tatsächlich gar keine Nachkommen hinterlassen haben.

Anders aber bei den Zypressengewächsen, die sich in der neuen Studie tatsächlich als uralte Familie erwiesen. Ihr Stammbaum reicht bis Pangäa zurück, wobei die Abspaltung der nördlichen Zypressen-Unterfamilie von der südlichen vor etwa 153 Millionen Jahren den Zerfall des Superkontinents widerspiegelt. Zerbrachen weitere Landmassen, so bildeten sich neue Linien – die Zypressengewäche sind damit die erste Pflanzenfamilie, die die großen Veränderungen der Erdgeschichte en Detail nachvollziehen lässt. (PNAS online vom 01. Mai 2012) (göd)

Publikation:
Distribution of living Cupressaceae reflects the breakup of Pangea
K. Mao, R.I. Milne, L. Zhang, Y. Peng, J. Liu, P. Thomas, R.R. Mill, S. Renner
PNAS online vom 01. Mai 2012
doi: 10.1073/pnas.1114319109

(zurück)


Rückgang von Meereis in der Arktis ist kein Zufall

Dr. Annette Kirk
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für Meteorologie

Das unerwartet schnelle Schmelzen von Meereis in der Arktis wird häufig als Beleg für den menschengemachten Klimawandel angeführt. In einer jetzt erschienenen Studie haben Wissenschaftler des MPI für Meteorologie untersucht, ob diese Interpretation wissenschaftlich haltbar ist. Dabei zeigte sich, dass der beobachtete Rückgang von Meereis in der Arktis nicht durch natürliche Schwankungen erklärt werden kann. Bei der Suche nach einem äußeren Antrieb für den Meereisrückgang in der Arktis fanden die Forscher einen klaren Zusammenhang mit dem Anstieg der Treibhausgaskonzentrationen. Für das Meereis in der Antarktis konnten sie allerdings keinen solchen Zusammenhang feststellen – aus gutem Grund.
Normalerweise verwenden Forscher komplexe Klimamodelle, um die Ursache für eine beobachtete Veränderung im Klimasystem zu identifizieren. Die Wissenschaftler des Hamburger Max-Planck-Instituts für Meteorologie verfolgten jedoch eine andere Strategie, um herauszufinden, warum das Meereis in der Arktis in den letzten Jahren so schnell zurückgegangen ist. Dr. Dirk Notz, Leiter der Meereis-Forschungsgruppe und Hauptautor der jetzt in der Fachzeitschrift Geophysical Research Letters [1] erschienen Studie, erläutert warum: „Meereis ist so dünn, dass es äußerst sensibel auf die in der Arktis vorherrschenden starken natürlichen Wetter- und Klimaschwankungen reagiert. Da die zeitliche Abfolge dieser Schwankungen chaotisch ist, kann sie von normalen Klimamodellen nicht richtig simuliert werden. Solche Modelle sind daher nicht unbedingt das beste Werkzeug, um herauszufinden, ob natürliche Schwankungen den Rückgang des Meereises in den letzten Jahren verursacht haben.“

Die Forscher benutzten stattdessen einen historischen Datensatz, in dessen Rahmen die natürlichen Schwankungen des Arktischen Meereises vom Beginn der 1950er bis zum Ende der 1970er Jahre aufgezeichnet worden waren. Diese natürlichen Schwankungen des Meereises verglichen die Forscher mit der Entwicklung des Meereises in den letzten 30 Jahren. Dabei zeigte sich, dass der Meereisrückgang in den letzten Jahrzehnten nicht durch natürliche Schwankungen verursacht worden sein kann. Die Forscher konnten darüber hinaus nachweisen, dass sich der Rückgang von Meereis nicht selbst verstärkt. Es gibt also keinen Teufelskreis, der das Meereis immer weiter zurückgehen lässt: „Immer wenn es in den Datensätzen einmal einen starken Rückgang des Meereises von einem Jahr zum nächsten gab, wurde dieser Rückgang im Folgejahr wieder teilweise ausgeglichen“, erläutert Dirk Notz. Dies wäre nicht der Fall, wenn sich der Rückgang des Eises selbst verstärken würde.

Prof. Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie und Zweitautor der Studie, beschreibt die nächsten Schritte der Forscher: „Nachdem wir natürliche Schwankungen und eine Selbstverstärkung als Ursache für den Rückgang des Eises ausschließen konnten, war klar, dass irgendein äußerer Antrieb das Eis immer weiter zurückgehen lässt. Wir machten uns daher auf die Suche nach einem äußeren Antrieb, der einen physikalisch plausiblen Zusammenhang mit dem Meereisrückgang zeigt.“ Die Forscher untersuchten zum Beispiel die Stärke der Sonnenstrahlung. „Hier würde ein physikalisch plausibler Zusammenhang zum Meereisrückgang nur dann existieren können, wenn die Sonnenstrahlung in den letzten Jahren stärker geworden wäre.“ Jedoch ist das Gegenteil der Fall, die Sonnenstrahlung hat in den letzten Jahrzehnten leicht abgenommen. Es ist daher physikalisch äußerst unwahrscheinlich, dass Schwankungen in der Sonnenstrahlung der Hauptantrieb für den beobachteten Rückgang des Meereises waren. Ebenso konnten die Forscher keinen plausiblen Zusammenhang der beobachteten Meereisentwicklung mit Veränderungen der vorherrschenden Windmuster, Vulkanausbrüchen, kosmischer Strahlung oder ozeanischen Wärmetransporten finden.

„Am Ende blieb in unserer Liste möglicher Antriebe nur der Anstieg der Treibhausgaskonzentrationen übrig“, erklärt Notz. „Aufgrund fundamentaler physikalischer Gesetze würden wir erwarten, dass ein Anstieg der Treibhausgaskonzentrationen zu einer Erwärmung und damit einem Rückgang des Meereises führt. Und genau dies wird auch beobachtet“. Der physikalische Zusammenhang zwischen dem Anstieg der Treibhausgaskonzentration und dem Rückgang von Meereis ist dabei recht einfach zu verstehen, fügt er hinzu: „Treibhausgase erhöhen die einfallende Wärmestrahlung. Diese Wärmestrahlung wiederum ist der wichtigste Faktor im Wärmehaushalt von Arktischem Meereis.“

In der Antarktis ist die Lage hingegen völlig anders. Hier nimmt die Ausdehnung von Meereis sogar leicht zu, woraus sich schließen lässt, dass hier der Anstieg der Treibhausgase nicht der Antrieb für die beobachteten Veränderungen sein kann. Der Hauptgrund für diese Unterschiede zwischen den beiden Polargebieten liegt in der jeweiligen Landverteilung. In der Arktis ist das Eis auf dem Arktischen Ozean weitestgehend von Landmassen umschlossen, die Ausdehnung des Eises hängt daher vor allem vom jeweiligen Schmelzen und Gefrieren ab. Daher spielen Treibhausgase mit ihrem Einfluss auf die Wärmeflüsse in der Arktis eine dominierende Rolle für die Entwicklung des Meereises. In der Antarktis treibt das Meereis hingegen völlig frei im Südlichen Ozean. Die Meereisausdehnung dort hängt daher primär von den vorherrschenden Winden ab. „Unsere Ergebnisse zeigen, dass der Anstieg der Treibhausgaskonzentration bisher keinen starken, direkten Einfluss auf das Meereis in der Antarktis gehabt hat. Dort wird die Ausdehnung primär von der Entwicklung der Windsysteme und Meeresströmungen bestimmt.“, erklärt Marotzke. „In dem von Land umschlossenen Arktischen Ozean hingegen ist augenscheinlich die Zunahme der Treibhausgase hauptverantwortlich für die beobachtete Abnahme des Meereises.“

[1] Die Originalveröffentlichung ist frei zugänglich unter http://dx.doi.org/10.1029/2012GL051094

Notz, D. and J. Marotzke (2012), Observational record reveals external driver for Arctic sea-ice retreat, Geophys. Res. Lett., VOL. 39, L08502, 6 PP., 2012, doi:10.1029/2012GL051094.

(zurück)


Es geht los: Die Eier sind gelegt – Verfolgen Sie live das Brutgeschehen im Schreiadler-Horst!

Eva Goris
Kommunikation
Deutsche Wildtier Stiftung

Der 1. Schritt ist geschafft: Das Schreiadler-Paar hat seine Eier gelegt und beginnt jetzt mit dem Brüten. Über 10.000 Kilometer haben die in Deutschland extrem selten gewordenen Schreiadler in den letzten Wochen hinter sich gebracht, nun sind sie als einer der letzten Zugvögel in ihre Brutgebiete im Osten Deutschlands, nach Polen und das Baltikum zurückgekehrt.
Auch in Lettland, im Naturreservat Teici, hat ein Schreiadler-Paar mit der Brut begonnen. Das Besondere an diesem Paar: Es ist der Star einer Live-Übertragung. Eine versteckte Kamera filmt das Brutgeschehen im Horst und überträgt es live ins Internet (www.DeutscheWildtierStiftung.de). „Die Web-Kamera ist Teil eines lettischen Forschungsprojektes, bei dem die Nahrungszusammensetzung für Schreiadler-Küken untersucht wird“, sagt Dr. Andreas Kinser, Schreiadlerexperte der Deutschen Wildtier Stiftung. „Positiver Nebeneffekt der Forschungsarbeiten ist, dass Naturfreunde die Brut der Schreiadler hautnah beobachten können“, so Kinser weiter.

Während sich die Schreiadler im März auf ihrem Zugweg aus dem südlichen Afrika nach Europa machten, wurden zwei Kameras von Dr. Ugis Bergmanis, dem lettischen Schreiadlerexperten und Kooperationspartner der Deutschen Wildtier Stiftung, an den Schreiadler-Horsten angebracht und versteckt. „Bereits im Jahr 2011 wurden Live-Bilder aus dem Schreiadler-Horst direkt ins Internet übertragen“, so Kinser. „Damals kam es aber nicht zum Füttern des Jungvogels – ein Marder hat vor laufender Kamera vorher das Nest geplündert.“

In Deutschland sind die Schreiadler vom Aussterben bedroht. Ursache sind vor allem die Intensivierungen in der Land- und Forstwirtschaft. In einem Modellprojekt, das durch das Bundesamt für Naturschutz (BfN) mit Mitteln des Bundesumweltministeriums gefördert wird, erprobt die Deutsche Wildtier Stiftung derzeit, wie eine schreiadlerfreundliche Landbewirtschaftung aussehen könnte. „Auch den Landwirten und Förstern, mit denen wir in Mecklenburg-Vorpommern zusammen arbeiten, liegt der Erhalt der Schreiadler am Herzen“, so Dr. Andreas Kinser. „Aber unsere Schutzbemühungen werden großflächig erst dann greifen, wenn eine schreiadlerfreundliche Landbewirtschaftung nicht zu wirtschaftlichen Nachteilen führt.“

Weitere Informationen:
E.Goris@DeutscheWildtierStiftung.de,
www.DeutscheWildtierStiftung.de

(zurück)


Mit Climate Engineering das Klima retten?

Andreas Villwock
Kommunikation und Medien
GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel

– Kieler Meereswissenschaftler koordiniert Forschungsprogramm zur Bewertung großtechnischer Klimaregulierung –

Schwefelpartikel in die Atmosphäre sprühen oder den Ozean mit Eisen düngen – aktuell werden zahlreiche großtechnische Maßnahmen zur künstlichen Klimaregulierung diskutiert. Ein neues Schwerpunktprogramm der Deutschen Forschungsgemeinschaft soll jetzt Risiken und Nebenwirkungen des sogenannten „Climate Engineering“ untersuchen. Koordiniert wird das Programm von Professor Andreas Oschlies vom GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel.
Das Experiment hat längst begonnen. Als der Mensch vor rund 200 Jahren begann, mit Fabriken und Verkehrsmitteln auch große Mengen Kohlendioxid zu produzieren, startete er damit – unbewusst, unkontrolliert und lange unerkannt – einen gigantischen Versuch mit der Erdatmosphäre. Mittlerweile kennen wir das Ergebnis: Der natürliche Treibhauseffekt wird von dem zusätzlichen CO2 verstärkt, die durchschnittlichen Temperaturen auf der Erde steigen, das Klima ändert sich. Jetzt sind Möglichkeiten gefragt, die Folgen dieses ungewollten Experiments zu begrenzen.

Theoretisch ist der einfachste Weg, die Emissionen von Kohlendioxid schnell wieder zu verringern. Doch bei einer rasant wachsenden Weltbevölkerung und dem Industrialisierungsschub großer Schwellenländer erweist sich dieser Weg in der Praxis als schwierig. Deshalb werden vermehrt großtechnische Maßnahmen in die Diskussion eingebracht, die gezielt eingesetzt werden sollen, die atmosphärische CO2-Konzentration abzusenken oder die einfallende Sonnenstrahlung abzuschwächen. „Diese großtechnischen Maßnahmen fasst man unter dem Begriff Climate Engineering zusammen“, erklärt Professor Andreas Oschlies vom GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel. „Doch bislang gibt es weder verlässliche Informationen über die Potenziale dieser Maßnahmen, noch über Nebenwirkungen“, so Oschlies weiter.

Um in der Diskussion über das Climate Engineering eine wissenschaftlich belastbare Grundlage zu erhalten, hat die Deutsche Forschungsgemeinschaft (DFG) jetzt ein Schwerpunktprogramm mit dem Titel „Climate Engineering: Risks, Challenges, Opportunities?“ bewilligt. Professor Oschlies hatte es als Initiative des Kiel Earth Institute mit Unterstützung des Kieler Exzellenzclusters „Ozean der Zukunft“ und einer Kerngruppe von 18 Wissenschaftlern von Universitäten und Instituten aus ganz Deutschland beantragt. Das Schwerpunktprogramm soll in den kommenden sechs Jahren die erheblichen Unsicherheiten untersuchen, die mit den Ideen und Konzepten des Climate Engineering verbunden sind.

Die beteiligten Wissenschaftler beschäftigen sich dabei sowohl mit der naturwissenschaftlich-technischen Dimension der diskutierten Maßnahmen, als auch mit sozialen, politischen, rechtlichen und ethischen Aspekten. „Climate Engineering ist immer so angelegt, dass es zumindest überregionale, oft aber auch zeitlich verzögerte Folgen hat, was eine Bewertung so schwierig macht. Da stellen sich zum Beispiel die Fragen, wer über einen Einsatz von Climate Engineering überhaupt entscheiden dürfte und wer bei welchen Nebenwirkungen haften müsste. Gerade dieser Multidimensionalität wird in der internationalen Forschung derzeit nur sehr wenig Raum eingeräumt“, betont Professor Oschlies. Das nun bewilligte DFG-Schwerpunktprogramm wird das Thema deshalb in einer international einmaligen fachlichen Breite ergebnisoffen betrachten. Damit soll eine Basis für eine sorgfältige Abwägung von möglichen Vor- und Nachteilen geschaffen werden.

Dies kann wichtige Argumente sowohl für die internationale klimapolitische Diskussion als auch für gesellschaftliche Entscheidungen über einen möglichen Einsatz von Climate Engineering liefern.
Wichtig für die Wissenschaftler ist aber auch eine informierte Öffentlichkeit. Bereits im September 2011 wurde hierzu vom Kiel Earth Institute in Kooperation mit dem Marsilius Kolleg der Universität Heidelberg das Internetportal www.climate-engineering.eu aufgebaut. Nachrichten und Informationen zu Climate Engineering werden hier tagesaktuell zusammengeführt, um der Debatte mehr Transparenz zu verleihen. Hierzu wird das Portal auch während des Schwerpunktprogramms genutzt werden.

Hintergrundinformation: Das Kiel Earth Institute
Im Kiel Earth Institute (KEI) werden wichtige Themen des globalen Wandels und seiner gesellschaftlichen Folgen interdisziplinär erforscht und behandelt. Das KEI ist eine Initiative des Helmholtz-Zentrums für Ozeanforschung Kiel (GEOMAR) und des Instituts für Weltwirtschaft an der Universität Kiel (IfW), die auch im Kieler Exzellenzcluster „Ozean der Zukunft“ zusammenarbeiten.

Weitere Informationen:
http://www.geomar.de GEOMAR | Helmholtz-Zentrum für Ozeanforschung Kiel
http://www.kiel-earth-institute.de Das Kiel Earth Institute
http://www.ozean-der-zukunft.de Der Kieler Exzellenzcluster „Ozean der Zukunft“
http://www.climate-engineering.eu Informationsportal zum Climate Engineering

(zurück) 


Algenblüten in der Nordsee

Dr. Manfred Schloesser
Presse- und Öffentlichkeitsarbeit
Max-Planck-Institut für marine Mikrobiologie

Nährstoffangebot nach Algenblüte bestimmt die Abfolge der Bakterienpopulation
Algenblüten, damit verbinden die meisten Menschen eine Beeinträchtigung sommerlicher Badefreuden. In der Küstenzone gemäßigter Breiten wie der deutschen Bucht ist eine Frühjahrsalgenblüte jedoch kein Anzeichen übermäßigen Nährstoffeintrags, sondern vor allem Folge der intensiveren Sonneneinstrahlung im Frühjahr.

Frühjahrsalgenblüten sind in diesen Gewässern also ganz natürlich. Wenn Algenblüten enden, sterben die Algen ab, und ihre Überreste bilden eine wichtige Nährstoffzufuhr für das gesamte Ökosystem. Dieser Prozess ist z.B. maßgeblich für den Fischreichtum vor Küsten. Was aber geschieht genau, wenn eine Algenblüte endet? Eine überraschende und sehr detaillierte Antwort liefern jetzt Hanno Teeling und Bernhard Fuchs mit ihren Kollegen vom Max-Planck-Institut in Bremen sowie der Universität Greifswald, der Jacobs University und dem Alfred-Wegener-Institut für Polar- und Meeresforschung. Sie haben eine Frühjahrsblüte in der Nordsee genau untersucht, und konnten identifizieren, welche Mikroorganismen beim Abbau der Algenüberreste eine Rolle spielen. Dabei haben sie entdeckt, dass einige Abbauprozesse vermutlich anders ablaufen als bisher angenommen. Ihre Ergebnisse veröffentlichten sie jetzt im Wissenschaftsmagazin Science.
Für ihre Analysen filtrierten die Wissenschaftler über fast ein Jahr regelmäßig mehrere hundert Liter Wasser von der Station „Kabeltonne“, einer Langzeitstation der Biologischen Anstalt Helgoland, die zum Alfred-Wegener-Insitut gehört. Hanno Teeling vom Max-Planck-Institut sagt: „Freilebende Kleinstlebewesen, das sogenannte Bakterioplankton, sind entscheidend beim Abbau der abgestorbenen Algenbiomasse. Uns fiel besonders eine dynamische Folge in der Bakterioplankton-Population auf. Spezialisierten Bakterienpopulationen begleiten verschiedene Phasen der Algenblüte“. Wie die Forscher jetzt zeigen konnten, steuern Prozesse innerhalb der Bakterienpopulation den Abbau der Algen.

Sein Kollege Bernhard Fuchs, der am Max-Planck-Institut seit vielen Jahren die Diversität und die Zusammensetzung von Bakterioplankton erforscht, ergänzt: „Zum ersten Mal haben wir eine zeitlich hochauflösende Analyse der mikrobiellen Gemeinschaft auf Gattungsebene durchgeführt. Nicht nur die Bakteriengruppen, sondern auch deren Werkzeuge, die Enzyme, die am Abbau der Algenblüte beteiligt sind, konnten wir jetzt identifizieren“. Neu war auch die Kombination der Technologien, die die Forscher für ihre Analysen angewandt haben. Die Identität der Mikroorganismen haben sie mit CARD-FISH, einer in situ-Technologie, die direkt auf Umweltproben angewandt werden kann, festgestellt. Zusätzlich haben sie während und nach der Algenblüte die Zusammensetzung der Bakterienpopulation untersucht, indem sie kurze Abschnitte eines stammesgeschichtlichen Markergens verglichen (16S rRNA-Pyrotag-Analysen). „Durch eine Kombination von Metagenom- und Metaproteom-Analysen gelang es uns, aktive Schlüsselenzyme in den komplexen Umweltproben nachzuweisen. Damit können wir Rückschlüsse von der metabolischen Funktion auf die Aufgabe der einzelnen Bakteriengruppen ziehen“, erklärt Thomas Schweder von der Universität Greifswald. „Dies war nur über eine Integration aller Daten möglich. Das haben wir mit bioinformatischen Methoden gelöst“, so Frank Oliver Glöckner vom Max-Planck-Institut und von der Jacobs University. In der frühen Phase der Algenblüte fanden die Wissenschaftler vermehrt Enzyme zum Abbau komplexer Algen-Kohlenhydrate wie Laminarin. Später dominierten Transportproteine für Peptide, also kurze Proteinstücke, sowie Transporter für den wachstumsbegrenzenden Nährstoff Phosphat. Auffällig war der hohe Anteil bestimmter Transportproteine, der sogenannten TonB-abhängigen Transporter, die größere Moleküle direkt ins Zellinnere transportieren können. Diese Entdeckung könnte die herkömmliche Annahme widerlegen, dass längerkettige Moleküle vor der Aufnahme in die Zelle in Einzelbausteine zerlegt werden müssen. Die TonB-Transporter erlauben so möglicherweise den Flavobakterien, eine der dominierenden Bakteriengruppen, die Aufnahme und den Abbau von längeren Kohlenhydratketten zu koppeln und dadurch einen Wettbewerbsvorteil gegenüber anderen Bakteriengruppen zu erlangen. Am Ende der Blüte bildeten die Bakterien Sulfatasen, die Sulfatester aus schwer abbaubaren Algen-Kohlehydraten abspalten und so ihren kompletten Abbau ermöglichen. Die Wissenschaftler fanden in der Algenblüte also eine Bakterienpopulation vor, die sich nicht nur in der Zusammensetzung, sondern auch in der Funktion vollständig von der Bakteriengemeinschaft kristallklarer küstenferner Gewässer unterscheidet.
Die Ergebnisse der Studie weisen den Forschern den Weg, das sogenannte Plankton-Paradox zu erklären: Wie können so viele Plankton-Arten in einem scheinbar homogenen Umfeld leben, ohne dass diese so stark miteinander in Konkurrenz um die Nährstoffe treten, dass bestimmte Arten verdrängt werden? Rudolf Amann, Direktor des Max-Planck-Instituts in Bremen erklärt: „Auf der Ebene der Mikroorganismen ist das Geheimnis die Heterogenität der Mikronischen, die die unterschiedlichen Gruppen besiedeln. Dadurch ergänzen sich die spezialisierten Populationen optimal beim Abbau des organischen Materials.“

Rückfragen an

Dr. Hanno Teeling hteeling@mpi-bremen.de
Dr. Bernhard Fuchs bfuchs@mpi-bremen.de
Prof. Dr. Rudolf Amann ramann@mpi-bremen.de
Prof. Dr. Thomas Schweder schweder@uni-greifswald.de

Originalarbeit

Substrate-controlled succession of marine bacterioplankton populations induced by a phytoplankton blom, 2012. H. Teeling, B. M. Fuchs, D. Becher, C. Klockow, A. Gardebrecht, C. M. Bennke, M. Kassabgy, S. Huang, A. J. Mann, J. Waldmann, M. Weber, A. Klindworth, A. Otto, J. Lange, J. Bernhardt, C. Reinsch, M. Hecker, J. Peplies, F. D. Bockelmann, U. Callies, G. Gerdts, A. Wichels, K. H. Wiltshire, F. O. Glöckner, T. Schweder, and R. Amann.
Science 4 May 2012: Vol. 336 no. 6081 pp. 608-611 DOI: 10.1126/science.1218344

Beteiligte Institute

Max-Planck-Institut für Marine Mikrobiologie, Bremen
Institut für Marine Biotechnologie e.V., Greifswald
Jacobs University Bremen, Bremen
Alfred-Wegener-Institut für Polar- und Meeresforschung, Biologische Anstalt Helgoland, Helgoland
Institut für Mikrobiologie, Ernst-Moritz-Arndt Universität, Greifswald
Pharmazeutische Biotechnologie, Ernst-Moritz-Arndt Universität, Greifswald
DECODON GmbH, Greifswald
Ribocon GmbH, 28359 Bremen
Helmholtz-Zentrum Geesthacht, Zentrum für Materialforschung und Küstenforschung, Geesthacht

Weitere Informationen:
http://www.mpi-bremen.de Homepage des Max-Planck-Instituts für Marine Mikrobiologie

(zurück) 


Fliegende 3D-Augen

Britta Widmann
Presse und Öffentlichkeitsarbeit
Fraunhofer-Gesellschaft

Ob als Einsatzhelfer bei Großveranstaltungen oder als hochauflösende 3D-Vermesser von Straßenzügen: Intelligente Schwärme aus Flugrobotern eignen sich als universelles Werkzeug für Polizei, Krisenmanager oder Städteplaner. Für einwandfreie Flugmanöver ohne Kollisionen sorgt ein spezieller 3D-Sensor von Fraunhofer-Forschern.
Wie auf Kommando steigt das Team langsam laut surrend in die Luft. Gut zwei Dutzend Flugroboter fliegen über der Menschenmenge aus Tausenden von Fußballfans. Aufgebrachte Rowdys haben das Spielfeld gestürmt und bengalische Feuer gelegt. Es kommt zu Schlägereien, Rauch verhindert die Sicht, es herrscht Chaos. Nur der Flugroboter-Schwarm behält die Übersicht. Die unbemannten Flugroboter sind eine Art Mini-Hubschrauber mit einer Spannweite von etwa zwei Metern. Auf den beiden seitlichen Schwenkflügeln sitzt jeweils ein Propeller. Sie verleihen dem Fluggerät eine schnelle und präzise Manövrierbarkeit. Beim Flug über das Spielfeld fangen die Kameras und Sensoren die wichtigsten Bilder und Daten ein und funken sie zur Zentrale. Wo gibt es Schwerverletzte? Wo müssen Feuer gelöscht werden? Über welchen Weg lässt sich die rivalisierende Meute am besten auseinanderbringen? Dank der Informationen können die Einsatzleiter schneller wichtige Entscheidungen treffen, während die Roboter wie ein Vogelschwarm selbstständig über die Arena navigieren – ohne dabei miteinander oder mit anderen Hindernissen zu kollidieren.

Herzstück der Technologie, die Kollisionen verhindert, ist ein CMOS-Sensor von Fraunhofer-Forschern des Instituts für Mikroelektronische Schaltungen und Systeme IMS in Duisburg. »Der Sensor kann sehr effizient dreidimensionale Abstände vermessen«, sagt Werner Brockherde, Leiter der Entwicklungsabteilung. Wie bei einer Schwarz-Weiß-Kamera erfasst jeder Bildpunkt auf dem Sensor einen Grauwert. »Obendrein bekommt man zu jedem Pixel aber noch einen Abstandswert«, erklärt Brockherde. Auf diese Weise kann der Flugroboter die Position von anderen Objekten im Raum genau bestimmen.

Sensor löst höher auf als Radar
Gegenüber dem Radar, das mit Hilfe von reflektierten Echos Abstände von Objekten erfasst, bietet der IMS-Abstandssensor erhebliche Vorteile: »Die örtliche Auflösung ist sehr viel höher«, sagt Brockherde. »Ein Radar wäre bei dieser Nahfeldmanövrierung viel zu grob.« Auf eine Entfernung von bis zu 7,5 Metern erkennen die Flugroboter selbst kleinere Objekte von bis zu 20 mal 15 Zentimeter. Zudem werden die Abstandsinformationen mit einer sehr hohen Rate von 12 Bildern pro Sekunde übertragen.

Selbst bei starkem Störlicht, etwa wenn die Sonne direkt blendet, liefert der Sensor präzise Bilder. Dieser arbeitet nach dem Time-of-Flight-Verfahren (TOF). Dabei senden Lichtquellen kurze Impulse aus, die von den Objekten reflektiert und vom Sensor wieder eingefangen werden. Um zu verhindern, dass zu starkes Hintergrundlicht das eigentliche Signal überdeckt, öffnet sich der elektronische Verschluss nur für wenige Nanosekunden. Zudem erfolgt eine Differenzmessung, bei der jeweils eine Aufnahme nur mit Hintergrundlicht und eine zusammen mit dem eigentlichen Signal erfolgen. Die Differenz liefert die Informationen über das gewünschte Signal. »Das alles geschieht in Echtzeit«, sagt Brockherde.

Eingebaut sind die 3D-Abstandssensoren in Kameras der Firma TriDiCam, einer Ausgründung des Fraunhofer IMS. »Für uns bietet dieses Forschungsprojekt neue Herausforderungen in Bezug auf Umgebungsbedingungen und die Sicherheit dieser Sensortechnologie«, sagt Jochen Noell, Geschäftsführer von TriDiCam. Die Entwicklung ist Teil des Projekts AVIGLE, das zu den Gewinnern des Spitzentechnologie-Wettbewerbs »Hightech.NRW« gehört und vom Land Nordrhein-Westfalen und der EU gefördert wird. Am 12. und 13. Juni stellen die IMS-Ingenieure ihre Sensortechnologie beim Fraunhofer CMOS Imaging Workshop in Duisburg vor.

Die Flugroboter sollen nicht nur bei der intelligenten Luftüberwachung von Großereignissen zum Einsatz kommen. Katastrophenhelfer könnten von ihnen ebenso profitieren wie etwa Städteplaner, die mit ihnen detaillierte 3D-Modelle von Straßenzügen erstellen oder großflächig Dächer auf ihre Eignung für Solar-Anlagen prüfen könnten. Ob virtuelle Karten von schwer zugängigen Gebieten, Überwachung von Baustellen, Kontaminationsmessungen auf AKW-Anlagen – für viele Anwendungen wären teure Luft- oder Satellitenaufnahmen nicht mehr notwendig.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2012/mai/fliegende-3d-aug…

(zurück)


Schwerpunktheft zu Gewässer erheblich verändert

Franz August Emde
Presse- und Öffentlichkeitsarbeit
Bundesamt für Naturschutz

80 Prozent der Fließgewässer erheblich verändert
Wasser stellt eine unverzichtbare Lebensgrundlage für den Menschen und die Natur da, Flüsse werden oft auch als Lebensadern in der Landschaft bezeichnet. Mit ihrer intensiven Nutzung wurden in der Vergangenheit die meisten Gewässer und Auen stark verän-dert. Heute sind 80 % der Fließgewässer in ihrer Struktur erheblich verändert. Es sind nur noch ein Drittel der ehemaligen Flussauen vorhanden und nur etwa zehn Prozent der verbliebenen Flussauen befinden sich in einem naturnahen Zustand. Das Schwerpunktheft der Fachzeitschrift „Natur und Landschaft“ beschäftigt sich mit dem Schutz und Management von Gewässern sowie Auen als Lebensraum.
Große Erfolge wurden in den vergangenen Jahrzehnten bei der Verbesserung der Wasserquali-tät und der Rückkehr z.B. von Lachs und Biber in vielen deutschen Flüssen erreicht. Eindrucks-volle Verbesserungen sind in jüngster Zeit auch durch beispielhafte Maßnahmen wie Deichrück-verlegungen und den Bau von Fischwanderhilfen erreicht worden sowie durch Maßnahmen zur Renaturierung von Fließgewässern und Auen.
„Dennoch sind trotz der erreichten Erfolge im Gewässer- und Auenschutz naturnahe Flussland-schaften auch heute noch die Ausnahme. Es bleibt eine große Herausforderung, Gewässer und Auen im Einklang mit ihrer Nutzung mit dem notwendigen Schutz zu managen“, sagte Prof. Bea-te Jessel, Präsidentin des Bundesamtes für Naturschutz, anlässlich des Erscheinens des aktuel-len Schwerpunktheftes „Gewässer und Auen“. „Dringender Handlungsbedarf besteht weiterhin, den Flüssen und ihren Auen wieder mehr Raum zu geben und ihren ökologischen Zustand ins-gesamt zu verbessern“, so BfN-Präsidentin Jessel.
Das Schwerpunktheft gibt einen Überblick über die naturschutz- und gewässerschutzfachliche Bedeutung sowie den Zustand der Gewässer und Auen in Deutschland. Neben verschiedenen Möglichkeiten, Maßnahmen des Gewässer- und Auenschutzes umzusetzen, werden die Themen Durchgängigkeit an Fließgewässern und Gefährdung der dort heimischen Arten und Lebensräu-me behandelt. Die Beiträge des Schwerpunktheftes machen deutlich, dass dem Schutz unserer Gewässer und Auen noch mehr Aufmerksamkeit gewidmet werden muss, zumal sich hier wichti-ge Synergien zwischen Biodiversitäts-, Hochwasser- und Klimaschutz erreichen lassen.

Bezug:
Einzelexemplare der Ausgabe 4-2012 können beim Verlag W. Kohlhammer GmbH, Zeitschriftenausliefe-rung, 70549 Stuttgart telefonisch 0711/78 63 – 72 80, per Fax 0711/78 63 – 84 30 oder unter www.natur-und-landschaft.de (Einzelheft) zu einem Preis von 7,60 € zzgl. Versandkosten bestellt werden.
Einzelartikel aus diesem Heft können gegen eine geringe Gebühr (€ 2,95/Artikel) von der Natur-und-Landschaft-Hompage als Screen-PDF-Datei heruntergeladen werden.

(zurück)


Schwächerer Golfstrom verschiebt Sturmtiefs in Richtung Europa

Anneliese Odenthal
Presse und Kommunikation
Universität zu Köln

Aktuelle Klimamodelle liefern glaubwürdige Ergebnisse, offenbaren aber auch einige Schwachstellen

Die Intensität von Tiefdruckgebieten (Zyklonen) über dem östlichen Nordatlantik und Europa wird in diesem Jahrhundert zunehmen. Gleichzeitig schwächt sich der Golfstrom im Nordatlantik ab. Meteorologen der Universität zu Köln und der Universität Reading ist es gelungen, einen Zusammenhang zwischen beiden Phänomenen nachzuweisen. Sie verglichen 22 Klimamodelle des International Panel for Climate Change (IPCC). Der Vergleich zeigt: Je stärker die Abnahme der warmen Meeresströmungen in den einzelnen Modellen, desto mehr nimmt die Intensität der Zyklonen über dem östlichen Nordatlantik zu. Damit bestätigt sich die bereits von einigen Wissenschaftlern geäußerte Annahme: In Europa wird es voraussichtlich bis zum Ende des Jahrhunderts mehr extreme Stürme geben. Dr. Joaquim Pinto und Dr. Mark Reyers vom Institut für Geophysik und Meteorologie berichten zusammen mit ihren englischen Kollegen Dr. Tim Woollings, Dr. Jonathan Gregory und Dr. David Brayshaw in „Nature Geoscience“ über die neuen Erkenntnisse.

Dr. Joaquim Pinto ist erfreut über die Eindeutigkeit des Ergebnisses: „Wir haben bereits vermutet, dass es einen Zusammenhang geben müsste. Dass dieser aber so deutlich ist, hat uns sehr gefreut.“ Anlass der Untersuchung waren die Veränderungen in der Atmosphäre über dem Nordatlantik im globalen Klimawandel. Der Polarjet in der oberen Atmosphäre verschiebt sich nach Osten, die tiefer gelegenen Tiefdruck-Sturmgebiete folgen dieser Bewegung. Betroffen davon sind einige Gebiete in Europa, vor allem die britischen Inseln, sowie die Nord- und Ostsee.

Die 22 Klimamodelle des IPCC 2007 simulieren unter anderem die Zugbahnen von Tiefdruckgebieten. Pinto und seine Kollegen haben die Modelle ausgewertet und kommen zu folgendem Schluss: „Es gibt für die Verschiebung verschiedene Gründe. Einer davon hängt mit der thermohalinen Zirkulation im Ozean zusammen.“ Die thermohaline Zirkulation ist eine Kombination unterseeischer Strömungen, die die Ozeane der Erde miteinander verbindet. Eine der bekanntesten Strömungen ist der Golfstrom, der sehr wichtig für das Klima in Europa ist. Seit einigen Jahren ist den Wissenschaftlern bekannt, dass sich diese Zirkulation verlangsamt. Bisher gab es nur Vermutungen, dass es eine direkte kausale Verbindung zu den Stürmen gibt. „Wir haben diesen Zusammenhang nicht nur für ein Modell, sondern für das gesamte Ensemble der Modelle des IPCC nachgewiesen“, so der Meteorologe. Mit verblüffend eindeutigem Ergebnis: „Wir haben einen größtenteils linearen Zusammenhang gefunden, was so nicht zu erwarten war.“

Die Wissenschaftler schließen daraus, dass die Verlangsamung der maritimen Förderbänder das Aufkommen von sturmträchtigen Tiefdruckgebieten beeinflusst. Je schwächer die thermohaline Zirkulation ist, desto geringer wird die Zufuhr von warmem Oberflächenwasser in den nördlichen Teil des Nordatlantiks. Dadurch nimmt das Nord-Süd-Gefälle in der Wasseroberflächen-Temperatur zu und beeinflusst somit auch das Temperatur-Gefälle in der unteren Atmosphäre. Dieser so genannte Temperaturgradient ist sehr wichtig für die Entstehung von Tiefdruckgebieten. Je höher der Temperaturgradient, desto mehr potentielle Energie steht für die Entwicklung eines Sturms zur Verfügung. Die Stürme können dadurch extremer werden.

Meteorologen und Ozeanologen in aller Welt müssen sich nun Gedanken machen, wie sensitiv ihre Modelle sind. Denn trotz Übereinstimmungen im Verhältnis zwischen den Änderungen im Ozean und in der Atmosphäre weichen die einzelnen Modelle im Ergebnis teilweise stark voneinander ab. Die Autoren fordern deswegen, dass Klimamodelle zukünftig besser kalibriert werden müssen, um die Meeresströmungen in den Modellen realistischer wiedergeben zu können und somit eine höhere Zielgenauigkeit in den Ergebnissen zu erreichen.

Bei Rückfragen: Dr. Joaquim Pinto, 0221/470-3691,
jpinto@meteo.uni-koeln.de

Internet: http://www.nature.com/ngeo/journal/vaop/ncurrent/full/ngeo1438.html

(zurück)


Studie zeigt fehlendes Problembewusstsein bei Eltern übergewichtiger Kinder

Susann Huster
Pressestelle
Universität Leipzig

„Mein Kind ist doch nicht dick“ oder „Das ist doch nur Babyspeck“ sind Sätze, die häufig von Eltern mit übergewichtigen oder gar fettleibigen (adipösen) Kindern zu hören sind. Nach einer aktuellen Studie zur Teilnahme von Familien an einem Präventionsprogramm gegen Fettleibigkeit bei Kindern werden Eltern erst dann aktiv, wenn ihr Nachwuchs bereits adipös ist. Kindliches Übergewicht wird meist noch nicht als Problem erkannt. Die Studie ist ein Kooperationsprojekt des Integrierten Forschungs- und Behandlungszentrums (IFB) AdipositasErkrankungen, des Kinderärztenetzwerks CrescNet und der Kinder- und Jugendmedizin am Universitätsklinikum Leipzig.
Untersucht wurden das Familienumfeld und die Beweggründe der Eltern für oder gegen eine Teilnahme im Präventionsprogramm. Dies ist konzipiert für übergewichtige oder adipöse Kinder zwischen 4 und 17 Jahren. Darin beraten speziell geschulte Präventionsmanager (Psychologen und Ernährungswissenschaftler) die Familien telefonisch zu gesunder Ernährung und Bewegung und gehen auf individuelle Probleme ein.

Der Anteil „nur“ übergewichtiger Kinder mit einem Body-Mass-Index (BMI) zwischen der 90. und 97. Perzentile war mit 62 Prozent in der Gruppe der nicht teilnehmenden Familien deutlich höher als bei den teilnehmenden (41 Prozent). Die Zahl der bereits adipösen Kinder (BMI über 97. Perzentile) lag bei den Teilnehmerfamilien bei rund 59 und bei den Nicht-Teilnehmern bei 38 Prozent. Diese Zahlen zeigen, dass das Präventionsprogramm zu spät wahrgenommen wird. Die Leiterin der Untersuchungen, Dr. Susann Blüher, erläutert: „Familien, deren Kinder „nur“ übergewichtig sind, haben offenbar weniger Problembewusstsein als Eltern von bereits adipösen Kindern. Da das Programm aber als Adipositas-Präventionsprojekt gedacht war, wollten wir eigentlich gerade die Familien erreichen, deren Kinder übergewichtig sind, um einer übermäßigen Gewichtszunahme und somit einer Adipositas vorzubeugen.“ Auffällig war außerdem, dass Familien mit übergewichtigen Töchtern häufiger und früher am Programm teilnahmen als solche mit Söhnen. So waren die teilnehmenden Mädchen im Mittel 8,8 Jahre und die Jungen bereits 10,4 Jahre alt.

Die hauptsächlich angeführten Gründe, warum Familien nicht an dem Präventionsprogramm teilnehmen wollten, waren die Überzeugung, dass man bereits gesund genug lebe oder das eigene Kind nicht übergewichtig sei. Genannt wurden außerdem Zeitmangel, die Teilnahme an anderen Programmen und die zu hohen Kosten eines gesünderen Lebensstils. Die Vorstellung bereits gesund zu essen, stand häufig im Widerspruch zu den Angaben zur Ernährung. So fiel gerade bei diesen Familien häufiger das Frühstück aus und die Mahlzeiten waren unregelmäßig. Gründe für die Teilnahme waren eine bereits vorliegende Adipositas beim Kind und auch die Einsicht der Eltern, dass sie gegen ihr eigenes Übergewicht angehen müssen.

Die wichtigste Erkenntnis aus der Studie sei deshalb „Präventionsprogramme zu entwickeln, die die Betroffenen auch wirklich erreichen. In den Familien muss erst ein Bewusstsein für die negativen Folgen von Übergewicht geschaffen werden“, so die Leiterin der IFB-Nachwuchsforschungsgruppe „Prävention von Adipositas“, Dr. Blüher. Solche Programme sind wichtiger denn je, da rund 80 Prozent der übergewichtigen Kinder auch als Erwachsene dick bleiben. Immer häufiger treten außerdem schon bei Kindern und Jugendlichen Erkrankungen wie Diabetes, orthopädische und Herz-Kreislaufbeschwerden auf, die mit starkem Übergewicht zusammen hängen.

Die Beratung im Adipositas-Präventionsprogramm erfolgt telefonisch, sodass Familien unabhängig vom Wohnort dieses niedrigschwellige Angebot nutzen können (weitere Informationen unter: www.taff.crescnet.org).

CrescNet wurde 1998 von Professor Dr. Eberhard Keller an der Klinik für Kinder- und Jugendmedizin am Universitätsklinikum Leipzig gegründet und mittlerweile arbeiten 312 niedergelassene Kinderärzte sowie 23 Behandlungszentren in der CrescNet gGmbH zusammen. Die Daten von über 500.000 Kindern werden pseudonymisiert gesammelt und ständig auf Auffälligkeiten untersucht. Somit fördert CrescNet die Früherkennung von Störungen der
Wachstums- und Gewichtsentwicklung bei Kindern und Jugendlichen. Für die vorliegende Studie ermittelte CrescNet Familien mit übergewichtigen Kindern mit Hilfe der anonymisierten Untersuchungsdaten; die betreuenden Kinderärzte kontaktierten die Familien. Kontakt: Ruth Gausche, Tel. 0341 – 97 26 148
(www.crescnet.org)

Das IFB AdipositasErkrankungen ist eines von acht Integrierten Forschungs- und Behandlungszentren, die in Deutschland vom Bundesministerium für Bildung und Forschung gefördert werden. Es ist eine gemeinsame Einrichtung der Universität Leipzig und des Universitätsklinikums Leipzig (AöR). Ziel der Bundesförderung ist es, Forschung und Behandlung interdisziplinär so unter einem Dach zu vernetzen, dass Ergebnisse der Forschung schneller als bisher in die Behandlung adipöser Patienten integriert werden können. Zur Patientenbehandlung stehen eine IFB AdipositasAmbulanz für Erwachsene und eine für Kinder und Jugendliche zur Verfügung.

(zurück)


Unstatistik des Monats: „Schokolade macht dünn“

Joachim Schmidt
Presse und Information
Rheinisch-Westfälisches Institut für Wirtschaftsforschung e.V.

Die Unstatistik des Monats April ist die Meldung „Schokolade macht dünn“. So oder ähnlich überschrieben verschiedene deutsche Tageszeitungen und Wochenmagazine zur Monatswende Berichte über eine einschlägige Studie der Universität von Kalifornien in San Diego/USA. Darin hatten Forscher eine negative Korrelation zwischen der Häufigkeit des Schokoladenkonsums und dem sogenanten Body-Mass-Index (BMI) entdeckt.

Nun bedeutet aber Korrelation nicht das Gleiche wie Kausalität: Während eine Korrelation lediglich eine Beziehung zwischen Merkmalen beschreibt, handelt es sich bei der Kausalität um einen ursächlichen Zusammenhang, also Ursache und Wirkung. Zwei Merkmale heißen dabei „positiv korreliert“, wenn sie sich mehr oder weniger systematisch in die gleiche Richtung bewegen: Wenn die eine steigt, steigt in der Regel auch die andere, wenn die eine fällt, fällt auch die andere. Ein Beispiel ist das Verhältnis von Körpergröße und Gewicht. Große Menschen wiegen im Allgemeinen mehr als kleine; nicht unbedingt in jedem Einzelfall, aber im großen und ganzen schon. Von negativer Korrelation spricht man dagegen immer dann, wenn hohe Werte des einen Merkmals mit niedrigen des anderen zusammengehen und umgekehrt. So gibt es etwa bei Männern eine hohe negative Korrelation zwischen dem Einkommen und der Zahl der Haare auf dem Kopf: Je weniger Haare, desto mehr Geld.

Daraus folgt aber nicht, dass Männer durch Haarausfall ihr Einkommen erhöhen können, also ein kausaler Zusammenhang besteht. Diese negative Korrelation kommt dadurch zustande, dass bei Männern mit wachsendem Alter das Einkommen steigt und die Haare ausfallen. Mit anderen Worten, eine dritte Variable im Hintergrund, das Lebensalter, wirkt ursächlich auf Einkommen und Haare ein. Zwischen den beiden Ausgangsvariablen selbst dagegen ist keinerlei Kausalbezug vorhanden.

Ähnlich verhält es sich wohl auch mit Häufigkeit des Schokoladenkonsums und dem Gewicht. Vielleicht belohnen sich manche Menschen für einen Verzicht auf eine Currywurst oder fette Schweinesteaks mit einem kleinen Bissen Schokolade? Auf diese und ähnliche Hintergrundvariablen, die eine solche negative Korrelation erzeugen könnten, weisen die Autoren der Studie durchaus hin. Aber wie bei so vielen wissenschaftlichen Untersuchungen werden diese Zusatzinformationen in der medialen Aufarbeitung unterdrückt.

Sollte es tatsächlich eine Kausalbeziehung geben, wäre die eher in umgekehrter Richtung zu vermuten: dicke Menschen versuchen, Kalorien da zu sparen, wo es ihnen eher leicht fällt, und essen deshalb weniger Schokolade.

Ihre Ansprechpartner dazu:
Prof. Dr. Thomas Bauer Tel.: (0201) 81 49-264
Prof. Dr. Walter Krämer Tel.: (0231) 755-3125

Mit der „Unstatistik des Monats“ hinterfragen der Berliner Psychologe Gerd Gigerenzer, der Dortmunder Statistiker Walter Krämer und RWI-Vizepräsident Thomas Bauer jeden Monat sowohl jüngst publizierte Zahlen als auch deren Interpretationen. Alle „Unstatistiken“ finden Sie im Internet unter http://www.unstatistik.de.

Weitere Informationen:
http://www.unstatistik.de – hier geht es zur Homepage der „Unstatistik des Monats“ mit Zusatzinformationen zur Aktion.

(zurück)


Ernährung: Frauen schützen die Umwelt mehr

Dipl.-Journ. Carsten Heckmann
Pressestelle
Martin-Luther-Universität Halle-Wittenberg

In der Frage, welche Ernährungsstile sich günstiger auf die Umwelt auswirken, schneiden Frauen deutlich besser ab. Das ergaben Untersuchungen von Wissenschaftlern der Martin-Luther-Universität Halle-Wittenberg.
Basierend auf repräsentativen Verzehrs- und Produktionsdaten verglichen sie die Umwelteffekte verschiedener Ernährungsstile. Dabei werteten sie Ergebnisse aus der letzten Nationalen Verzehrsstudie, für die in den Jahren 2005 und 2006 rund 20.000 Menschen in Deutschland akribisch zu ihrem Ernährungsverhalten befragt wurden, ernährungsökologisch aus.

Bei den Auswirkungen auf den Treibhauseffekt, den Emissionen von Ammoniak (über Düngemittel) und dem notwendigen Flächenbedarf zeigte das durchschnittliche Ernährungsmuster der Frauen deutliche Vorteile, bedingt durch geringere Anteile umweltintensiv produzierter Nahrungsmittel. Dazu zählen eher tierische Produkte, allen voran Rind- und Kalbfleisch sowie Butter und Schweinefleisch.

„Übernähmen alle Männer in Deutschland das typische Verzehrsprofil von Frauen, mit einem um die Hälfte reduzierten Verbrauch von Fleisch- und Wurstprodukten und stattdessen einem höheren Anteil an Gemüse, Obst und Getreideprodukten, würde eine Fläche von rund 15.000 Quadratkilometern im In- und Ausland frei werden. Das entspricht ungefähr der Fläche Schleswig-Holsteins“, sagt Studienleiter Toni Meier vom Lehrstuhl für Allgemeinen Pflanzenbau/Ökologischen Landbau der Martin-Luther-Universität. „Zudem würden circa 15 Millionen Tonnen Treibhausgase und 60.000 Tonnen Ammoniak weniger emittiert werden.

Der Anteil der Ernährung am Treibhauseffekt wird in Deutschland auf rund 20 Prozent beziffert. „Bei Ammoniak ist der Nahrungsmittelverbrauch sogar für 95 Prozent aller Emissionen verantwortlich“, konstatiert Toni Meier. „Unsere Ergebnisse verdeutlichen, dass je nach Anteil am Gesamteffekt der Einfluss einer Ernährungsumstellung unterschiedlich groß sein kann. Die Ernährung der Frauen kann als Vorbild dienen.“

Ihre Ergebnisse haben die halleschen Forscher in der Zeitschrift „International Journal of Life Cycle Assessment“ veröffentlicht:
http://www.springerlink.com/content/l415530205u58376/
DOI: 10.1007/s11367-012-0387-x

(zurück)


Fliegende 3D-Augen

Britta Widmann
Presse und Öffentlichkeitsarbeit
Fraunhofer-Gesellschaft

Ob als Einsatzhelfer bei Großveranstaltungen oder als hochauflösende 3D-Vermesser von Straßenzügen: Intelligente Schwärme aus Flugrobotern eignen sich als universelles Werkzeug für Polizei, Krisenmanager oder Städteplaner. Für einwandfreie Flugmanöver ohne Kollisionen sorgt ein spezieller 3D-Sensor von Fraunhofer-Forschern.
Wie auf Kommando steigt das Team langsam laut surrend in die Luft. Gut zwei Dutzend Flugroboter fliegen über der Menschenmenge aus Tausenden von Fußballfans. Aufgebrachte Rowdys haben das Spielfeld gestürmt und bengalische Feuer gelegt. Es kommt zu Schlägereien, Rauch verhindert die Sicht, es herrscht Chaos. Nur der Flugroboter-Schwarm behält die Übersicht. Die unbemannten Flugroboter sind eine Art Mini-Hubschrauber mit einer Spannweite von etwa zwei Metern. Auf den beiden seitlichen Schwenkflügeln sitzt jeweils ein Propeller. Sie verleihen dem Fluggerät eine schnelle und präzise Manövrierbarkeit. Beim Flug über das Spielfeld fangen die Kameras und Sensoren die wichtigsten Bilder und Daten ein und funken sie zur Zentrale. Wo gibt es Schwerverletzte? Wo müssen Feuer gelöscht werden? Über welchen Weg lässt sich die rivalisierende Meute am besten auseinanderbringen? Dank der Informationen können die Einsatzleiter schneller wichtige Entscheidungen treffen, während die Roboter wie ein Vogelschwarm selbstständig über die Arena navigieren – ohne dabei miteinander oder mit anderen Hindernissen zu kollidieren.

Herzstück der Technologie, die Kollisionen verhindert, ist ein CMOS-Sensor von Fraunhofer-Forschern des Instituts für Mikroelektronische Schaltungen und Systeme IMS in Duisburg. »Der Sensor kann sehr effizient dreidimensionale Abstände vermessen«, sagt Werner Brockherde, Leiter der Entwicklungsabteilung. Wie bei einer Schwarz-Weiß-Kamera erfasst jeder Bildpunkt auf dem Sensor einen Grauwert. »Obendrein bekommt man zu jedem Pixel aber noch einen Abstandswert«, erklärt Brockherde. Auf diese Weise kann der Flugroboter die Position von anderen Objekten im Raum genau bestimmen.

Sensor löst höher auf als Radar
Gegenüber dem Radar, das mit Hilfe von reflektierten Echos Abstände von Objekten erfasst, bietet der IMS-Abstandssensor erhebliche Vorteile: »Die örtliche Auflösung ist sehr viel höher«, sagt Brockherde. »Ein Radar wäre bei dieser Nahfeldmanövrierung viel zu grob.« Auf eine Entfernung von bis zu 7,5 Metern erkennen die Flugroboter selbst kleinere Objekte von bis zu 20 mal 15 Zentimeter. Zudem werden die Abstandsinformationen mit einer sehr hohen Rate von 12 Bildern pro Sekunde übertragen.

Selbst bei starkem Störlicht, etwa wenn die Sonne direkt blendet, liefert der Sensor präzise Bilder. Dieser arbeitet nach dem Time-of-Flight-Verfahren (TOF). Dabei senden Lichtquellen kurze Impulse aus, die von den Objekten reflektiert und vom Sensor wieder eingefangen werden. Um zu verhindern, dass zu starkes Hintergrundlicht das eigentliche Signal überdeckt, öffnet sich der elektronische Verschluss nur für wenige Nanosekunden. Zudem erfolgt eine Differenzmessung, bei der jeweils eine Aufnahme nur mit Hintergrundlicht und eine zusammen mit dem eigentlichen Signal erfolgen. Die Differenz liefert die Informationen über das gewünschte Signal. »Das alles geschieht in Echtzeit«, sagt Brockherde.

Eingebaut sind die 3D-Abstandssensoren in Kameras der Firma TriDiCam, einer Ausgründung des Fraunhofer IMS. »Für uns bietet dieses Forschungsprojekt neue Herausforderungen in Bezug auf Umgebungsbedingungen und die Sicherheit dieser Sensortechnologie«, sagt Jochen Noell, Geschäftsführer von TriDiCam. Die Entwicklung ist Teil des Projekts AVIGLE, das zu den Gewinnern des Spitzentechnologie-Wettbewerbs »Hightech.NRW« gehört und vom Land Nordrhein-Westfalen und der EU gefördert wird. Am 12. und 13. Juni stellen die IMS-Ingenieure ihre Sensortechnologie beim Fraunhofer CMOS Imaging Workshop in Duisburg vor.

Die Flugroboter sollen nicht nur bei der intelligenten Luftüberwachung von Großereignissen zum Einsatz kommen. Katastrophenhelfer könnten von ihnen ebenso profitieren wie etwa Städteplaner, die mit ihnen detaillierte 3D-Modelle von Straßenzügen erstellen oder großflächig Dächer auf ihre Eignung für Solar-Anlagen prüfen könnten. Ob virtuelle Karten von schwer zugängigen Gebieten, Überwachung von Baustellen, Kontaminationsmessungen auf AKW-Anlagen – für viele Anwendungen wären teure Luft- oder Satellitenaufnahmen nicht mehr notwendig.

Weitere Informationen:
http://www.fraunhofer.de/de/presse/presseinformationen/2012/mai/fliegende-3d-aug…

(zurück)


Ingenieur in Sachen Umweltschutz – Neuer Studiengang an der HTWG

Anja Wischer
Referat für Presse- und Öffentlichkeitsarbeit
Hochschule Konstanz

Zum Wintersemester 2012/13 startet die Hochschule Konstanz Technik, Wirtschaft und Gestaltung (HTWG) mit 42 Studienplätzen den Bachelor-Studiengang Umwelttechnik und Ressourcenmanagement. Den Studierenden werden Kenntnisse und Fähigkeiten vermittelt, Rohstoffe, Flächen, Wasser und Energie im Sinne einer nachhaltigen Entwicklung zu nutzen. Der aus dem Bauingenieurwesen heraus entwickelte Studiengang ist in seiner Form einmalig in Baden-Württemberg.
Wie lassen sich Infrastrukturprojekte möglichst ressourcenschonend umsetzen? Wie ist mit Binnengewässern, Grundwasser und Seen umzugehen, wenn einerseits die Lebensqualität der Menschen nicht reduziert, das Gut Wasser aber geschützt werden soll? Wie ist der tagtäglichen Versiegelung und dem Verbrauch von Flächen in unserem dichtbesiedelten Land Herr zu werden? Dies sind Fragen, für die sich Anwärter für den neuen Studiengang an der HTWG Konstanz interessieren sollten. Der Studiengang wendet sich an junge Menschen, die ihre berufliche Zukunft im Bereich des Umweltschutzes sehen sowie Freude am Planen und Projektieren der bebauten und unbebauten Umwelt haben.
Die zukünftige Tätigkeit der Absolventen beispielsweise in Planungsbüros, Umweltämtern, Umweltschutzverbänden, Kommunen und NGOs im In- und Ausland erfordert interdisziplinäres und vernetztes Denken. Der Bachelor-Studiengang vermittelt deshalb ingenieurwissenschaftliche und naturwissenschaftliche Grundlagen, Kenntnisse in Wasser-, Siedlungs- und Abfallwirtschaft, in Ressourcenmanagement und Raumordnung, Verkehrswesen, Energiewirtschaft sowie Regenerativen Energien. Grundlage hierfür sind die planerischen Fachgebiete des klassischen Bauingenieurwesens mit einem besonderen Fokus auf den Umweltschutz. Da im Berufsalltag auch wirtschaftliches und politisches Verständnis gefordert sein wird, zählt auch die Vermittlung von Wirtschafts- und Managementkenntnissen sowie der rechtlichen Aspekte zu den Studieninhalten.
Das Studium umfasst sieben Semester, inklusive eines praktischen Studiensemesters. Für das sechste und siebte Semester kann zwischen den Schwerpunkten Ressourcenmanagement und Regenerative Energien bzw. Wasserressourcenmanagement und Umwelttechnik gewählt werden.
Voraussetzung für die Zulassung zum Studium ist Abitur bzw. Fachhochschulreife oder ein äquivalenter Abschluss. Außerdem wird ein zweimonatiges Vorpraktikum gefordert. Bewerbungsschluss für das Wintersemester 2012/13 ist der 15. Juli 2012.

Weitere Informationen:
http://www.htwg-konstanz.de/urb

(zurück)


Mammographie-Screening: Überdiagnosen sind keine „falschen“ Diagnosen

Corinna Heinrich
Presse- und Öffentlichkeitsarbeit

„Wir können einer Frau leider nicht vorhersagen, wie sich ihr Tumor verhalten wird. Und wir können ihr auch nicht sagen, ob und wann sie an anderen Ursachen verstirbt“, betont Dr. Wolfgang Aubke, stellvertretender Beiratsvorsitzender der Kooperationsgemeinschaft Mammographie. „Aber wir können Brustkrebs in einem sehr frühen Stadium entdecken, dadurch schonender behandeln und Leben retten.“
Bislang gibt es keine Möglichkeit, sicher zu bestimmen, wie aggressiv sich ein Tumor entwickeln wird. Daher wird bei der Diagnose Brustkrebs den Frauen in der Regel eine entsprechende Behandlung empfohlen.

„Überdiagnosen als falsche oder irrtümliche Diagnosen zu bezeichnen ist irreführend. Letztlich gibt es zu Überdiagnosen so lange keine Alternative, bis uns die Forschung zur Tumorbiologie Werkzeuge in die Hand gibt, mit denen wir von Anfang an das Verhalten eines Tumors bestimmen können“, sagt Dr. Aubke.

Zu „Überdiagnosen“ zählen diagnostizierte Tumore, die zu Lebzeiten nie auffällig geworden und daher auch nicht behandelt worden wären. Die betreffende Person verstirbt also an einer anderen Ursache. Auch bei anderen Früherkennungen für Gebärmutterhalskrebs oder Prostatakrebs treten Überdiagnosen als unerwünschter Nebeneffekt auf.

Welche Größenordnung die Überdiagnosen im Mammographie-Screening einnehmen, schätzen Wissenschaftler unterschiedlich ab. Beruhend auf verschiedenen Datengrundlagen und Modellen zur Berechnung reichen die Schätzungen von drei bis 33 Prozent („Phasenmodell zur Mortalitätsevaluation“ des wissenschaftlichen Gremiums, www.mammo-programm.de). Für das deutsche Mammographie-Screening existieren noch keine Auswertungen zu Überdiagnosen. Dafür ist das seit 2009 flächendeckend angebotene Programm noch zu jung.

Fakt bleibt: Jedes Jahr erkranken rund 71.700 Frauen neu an Brustkrebs, etwa 17.200 sterben in Folge der Erkrankung (Robert Koch-Institut 2012, Krebs in Deutschland 2007/2008). Um die Überlebenschancen der Frauen zu erhöhen, soll Brustkrebs schon in einem frühen Stadium gefunden werden. Deshalb wurde 2005 die regelmäßige Untersuchung der Brust im Mammographie-Screening-Programm auf Beschluss des Bundestages in Deutschland eingeführt.

Dr. Aubke: „Unsere besondere Verantwortung liegt darin, Brustkrebs rechtzeitig diagnostizieren zu können und gleichzeitig die Belastung für die Frau so gering wie möglich zu halten. Deshalb ist die Qualitätssicherung im Mammographie-Screening-Programm einzigartig.“ Dazu gehören die hohen Anforderungen an die fachliche Qualifikation der Ärztinnen und Ärzte sowie des medizin-technischen Personals, die täglichen Kontrollen der Geräte, verpflichtende Fortbildungen und Prüfungen, Doppelbefundung, interdisziplinäre Fallkonferenzen und die systematische Datenauswertung.

Die Kooperationsgemeinschaft Mammographie ist in gemeinsamer Trägerschaft von den gesetzlichen Krankenkassen und der Kassenärztlichen Bundesvereinigung (KBV) im August 2003 gegründet worden. Ihre Aufgabe ist die Koordination, Qualitätssicherung und Evaluation des Mammographie-Screening-Programms.

Weitere Informationen:
http://www.mammo-programm.de

(zurück)