2017

2017 Redaktion Wed, 20.03.2019 - 01:04

Artikel über den dramatischen Rückgang der Insekten erzielt 2017 Top-Reichweite in Fachwelt und Öffentlichkeit

Artikel über den dramatischen Rückgang der Insekten erzielt 2017 Top-Reichweite in Fachwelt und Öffentlichkeit

Do, 28.12.2017 - 10:48 — Redaktion

RedaktionIcon WissenschaftsgeschichteNeue Verfahren zur Abschätzung der Resonanz wissenschaftlicher Veröffentlichungen - sogenannte Altmetrics, spiegeln die online- Kommunikatiosmöglichkeiten wieder und zeigen auf, wie sich wissenschaftliche Informationen in der Fachwelt und ebenso in der Öffentlichkeit verbreiten. das britische Unternehmen Altmetrics.com hat so für 2017 eine Liste der 100 Publikationen mit der größten Reichweite erstellt [1]. Einen der vordersten Plätze nimmt eine Studie ein, die über den dramatischen Rückgang der fliegenden Insekten in deutschen Naturschutzgebieten berichtet [2].

Welche Resonanz haben Artikel mit wissenschaftlichem Inhalt?

In der Fachwelt wird üblicherweise die Häufigkeit angegeben, mit welcher ein Artikel in anderen Arbeiten zitiert wird. Dieser Wert lässt sich einfach feststellen (beispielsweise gibt es diese Information in Google Scholar und ISI-World of Science), wird vielfach mit der Qualität der Publikation gleichgesetzt und zur Beurteilung wissenschaftlicher Leistung herangezogen. Er sagt natürlich nur wenig darüber aus , wie viele Personen das Ganze tatsächlich gelesen (oder auch nur teilweise angesehen) haben und daraus für ihre eigenen Zwecke Gewinn gezogen haben. Insbesondere gibt er auch keinen Hinweis, ob und wieweit ein Wissenstransfer in die Öffentlichkeit erfolgt ist.

Im Zeitalter des Internets, das uns Publikationen online lesen, kommentieren und mit Anderen - auch auf sozialen Plattformen - teilen lässt, ist eine Bewertung auf der Ebene der Zeitschriften zweifellos nicht mehr zeitgemäß - eine Reihe prominenter Wissenschafter hat sich 2012 (San Francisco Declaration of Research Assessment) für eine neue Form ausgesprochen, mit der sich der Einfluss von Publikationen besser bestimmen lässt.

Altmetriken

Die sogenannten Altmetriken bieten derartige Möglichkeiten. Über das Zitate Zählen hinaus erfassen sie weltweit Nennungen, "Liken" und Teilen auf sozialen Netzwerken, Diskutieren und Verlinken auf Webseiten, Nachrichtenportalen und Blogs und Berichte in den Medien (online Zeitungen, TV). Damit geben Altmetrics die Kommunikationsmöglichkeiten wieder, zeigen, wie sich wissenschaftliche Informationen in der Fachwelt und ebenso in der Öffentlichkeit verbreiten.

Einer der wichtigsten Anbieter solcher Daten, das britische Unternehmen Altmetrics.com, scannt täglich über 2000 Massenmedien, die online über Science berichten (darunter auch Standard, Kurier, Presse, NZZ, ORF), Studienpläne ("Open Syllabus Project"), Zitationsplattformen, Wikipedia, an die 11 000 Blogs, Soziale Medien (Facebook, Twitter, etc.), u.a.

Auf dieser Datengrundlage rankt Altmetrics.com wissenschaftliche Arbeiten seit 2013 und erstellt eine Liste der Top 100 Artikel [1]. Die Liste 2017 basiert auf über 18,5 Millionen Nennungen von 2,2 Millionen unterschiedlichen Forschungsergebnissen aus allen Bereichen der Naturwissenschaften, aus Informations-/Computerwissenschaften, Medizin/Gesundheitswissenschaften, Geschichte/Archäologie und Sozialwissenschaften.

Die Top 10 Artikel im Jahr 2017

Auf der Basis der oben genannten Daten vergibt Altmetrics.com Punkte. Die 10 Artikel mit der höchsten Reichweite sind im folgenden mit Titel und Punktezahl aufgeführt:

  1. Associations of fats and carbohydrate intake with cardiovascular disease and mortality in 18 countries from five continents (PURE): a prospective cohort study (Lancet) Punkte: 5876 Forscher haben die Ernährung von mehr als 100 000 Menschen in 18 Ländern untersucht: niedriger Fettkonsum kann das Risiko eines vorzeitigen Todes erhöhen.
  2. Work organization and mental health problems in PhD students (Research Policy ). Punkte: 5060. Arbeitstress von Doktoranden kann deren geistige Gesundheit beeinträchtigen.
  3. Comparison of Hospital Mortality and Readmission Rates for Medicare Patients Treated by Male vs Female Physicians (JAMA Internal Medicine) Punkte: 4715. Patienten, die von Ärztinnen behandelt wurden haben niedrigere Sterblichkeit und Rückfallsraten
  4. Correction of a pathogenic gene mutation in human embryos (Nature). Punkte : 4510. Mit CRISPR wurde eine Genmutation im menschlichen Embryo repariert.
  5. Gender stereotypes about intellectual ability emerge early and influence childrens interests (Science). Punkte: 4410. Stereotypen in der Kindheit bedingen, dass Frauen sich nur widerwillig mit Glanzvollem beschäftigen.
  6. More than 75 percent decline over 27 years in total flying insect biomass in protected areas. (PLoS One). Punkte: 4281. Der Rückgang fliegender Insekten war viel stärker und schneller als angenommen.
  7. Worldwide trends in body-mass index, underweight, overweight, and obesity from 1975 to 2016: a pooled analysis of 2416 population-based measurement studies in 128á9 million children, adolescents, and adults. (The Lancet). Punkte: 4016 . Übergewicht bei Kindern und Erwachsenen ist global in den letzten 40 Jahren auf das Zehnfache gestiegen.
  8. A Feathered Dinosaur Tail with Primitive Plumage Trapped in Mid-Cretaceous Amber. (Current Biology). Punkte: 3985. Eine Dinosaurier-Spezies hatte Zähne, die es im Alter verlor.
  9. Efficacy and effectiveness of an rVSV-vectored vaccine in preventing Ebola virus disease: final results from the Guinea ring vaccination, open-label, cluster-randomised trial (Ebola ‚a Suffit!) (The Lancet). Punkte: 3920. Eine Ebola-Vakzine zeigte während des Ausbruchs in West-Afrika volle Wirksamkeit.
  10. An extra-uterine system to physiologically support the extreme premature lamb (Nature Commun.) Punkte: 3837. Eine künstliche Gebärmutter eröffnet neue Möglichkeiten für eine Anwendung am Menschen.

Die Top 10 Artikel sprechen vor allem Gesundheits- und soziale Themen an. Daneben hat auch ein Artikel über eine bestimmte Dinosaurierspezies großes Interesse erweckt. Besonders hervorzuheben ist aber die Untersuchung zum dramatischen Verschwinden der Insekten in Deutschland (Rang 6), die im Folgenden ausführlicher behandelt werden soll. (Eigentlich ist eine noch wesentlich höhere Reichweite anzunehmen: im Vergleich zu den Artikeln auf Platz 1 - 5, die bis zu einem Jahr vor dem Ranking im Internet zugänglich waren, wurde die Insektenstudie erst knapp 1 Monat davor veröffentlicht.) Abbildung 1.

Abbildung 1. Der Rückgang der fliegenden Insekten ist stärker als man angenommen hat. Der farbige „Altmetric Donut“ zeigt durch die unterschiedlichen Farben an und wo der Artikel erwähnt wird : 206 Mal in Nachrichten, 34 mal in Blog-postings, 3 Nennungen in Wikipedia, 123 Mal in Facebook, etc. (Bild: https://www.altmetric.com/top100/2017/#list&article=27610705; open access)

Das Verschwinden der fliegenden Insekten in Deutschland

Eine Gruppe von Naturwissenschaftern, darunter zahlreiche Entomologen, hat über 27 Jahre - von 1989 bis 2016 - an 63 Standorten Proben gesammelt. Die Standorte lagen in Naturschutzgebieten und wiesen unterschiedliche Habitatgruppen auf - mageres Grünland, nährstoffarmes Heideland und Dünen -, wie sie für das deutsche Tiefland charakteristisch sind. (Abbildung 2). Abbildung 2. Malaise-Falle (links) und die Standorte (rechts, gelb) in Naturschutzgebieten in Nordrhein-Westfalen (n = 57), Rheinland-Pfalz (n = 1) and Brandenburg (n = 5). 160 Wetterstationen sind als schwarze Kreuze eingezeichnet (https://doi.org/10.1371/journal.pone.0185809.s006)

Die fliegenden Insekten wurden dort über die gesamte Vegetationsperiode (März bis Oktober) in sogenannten Malaise-Fallen gefangen und ihre täglich anfallende, gesamte Biomasse an allen Standorten nach einem speziell entwickelten, standardisierten Verfahren bestimmt (Abbildung 2). Es wurde dabei untersucht, wie rasch der Rückgang der Insekten Biomasse erfolgte und welchen Einfluss darauf Faktoren wie

  • Wetter,
  • Habitate (Pflanzenzahl und Diversität; Stickstoff, pH, Feuchtigkeit, Licht) und
  • Landnutzung (Wald, Ackerland, Grasfläche, Oberflächenwasser) hatten, die im Umkreis von 200 m um die Fallen herum durch Flugaufnahmen dokumentiert wurden.

Die resultierende komplexe Datensammlung wurde mittels solider statistischer Methoden analysiert und Modelle für den Zeitverlauf entwickelt, in welche die einzelnen Faktoren und auch Wechselwirkungen zwischen diesen miteinbezogen wurden.

Das Ergebnis zeigte, dass in dem untersuchten Zeitraum von 27 Jahren die Menge an fliegenden Insekten über die gesamte Saison hin um rund 76 % zurückgegangen ist. Nur auf die Sommermonate bezogen, in denen jeweils das größte Insektenaufkommen verzeichnet wurde, fiel der Rückgang noch höher (82 %) aus. (Abbildung 3).

Unabhängig vom jeweiligen Habitat erfolgte der Rückgang an allen Standorten nach einem sehr ähnlichen Muster. Es kann also nicht von einem lokalen Phänomen gesprochen werden - wahrscheinlich dürfte ein vergleichbares Verschwinden von Insekten auch auf andere Gebiete in Europa zutreffen. Wenn es sich dabei um nicht-geschützte Flächen handelt, könnte es zu noch höheren Verlusten von Insekten kommen.

Abbildung 3. Rückgang der Biomasse fliegender Insekten von 1989 bis 2015 (A) und die Variation der Biomasse innerhalb der Saison von März bis Oktober (B). Die Boxen in A stellen die Biomassen der jährlich in allen Fallen, an allen Standorten (n = 1503) gefangenen Insekten (in g pro Tag) dar. Modelle, die den Verlauf des Rückgangs simulieren, sind als Linien eingezeichnet. In B ist ersichtlich, dass die höchste Menge im Sommer gefangen wurde und der Rückgang in dieser Jahreszeit besonders stark war. Die Farben verändern sich von blau (1989) nach gelb (2016).

Wodurch der Rückgang begründet ist, konnte aus den Untersuchungen nicht geklärt werden. Ein Einbeziehen der Klimadaten - aus den über die 160 Wetterstationen aufgenommenen täglichen Daten - und auch der - aus den Luftbildern hervorgehenden - Landnutzung und Vegetation im Umfeld der Standorte zeigte jedenfalls, dass Änderungen dieser Parameter praktisch keinen Einfluss auf das Verschwinden der Insekten hatten. Abbildung 4.

Ob möglicherweise eine Nutzung von Pestiziden in den an die Naturschutzgebiete angrenzenden, landwirtschaftlich genutzten Flächen für den Rückgang verantwortlich sein könnte, wurde in dieser Studie nicht erfasst.

Abbildung 4. Die untersuchten Klimafaktoren (Temperatur, Niederschlag, Frost), Vegetationsfaktoren (Gräser, Bäume) und auch Feuchtigkeit, Licht und Stickstoff wirken sich nur geringfügig auf den Insektenrückgang aus. Die Ursache ist zum größten Teil noch nicht geklärt. (https://doi.org/10.1371/journal.pone.0185809.g005. (Lizenz: cc-by)

Fazit

Insekten spielen eine zentrale Rolle im Gleichgewicht der Natur; sie sind essentiell für die Bestäubung von Pflanzen, fressen Pflanzen und Abfall und dienen als Nahrung für Vögel, Amphibien und Säuger. Der "flächendeckende" starke Rückgang nicht nur einiger Spezies sondern der gesamten Biomasse lässt die Alarmglocken schrillen - insbesondere, da die Untersuchungen ja in Naturschutzgebieten erfolgten, wo man erwartete, dass man die Funktionen des Ökosystems und die Artenvielfalt erhalten könne. Es ist dringend notwendig die Ursachen des Rückgangs der Insekten herauszufinden, um diesen weiterhin ihre Funktion für den Erhalt der Ökosysteme zu sichern.


[1] https://www.altmetric.com/top100/2017/
[2] CA Hallmann et al., (2017) More than 75 percent decline over 27 years in total flying insect biomass in protected areas. http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0185809 (Der Artikel ist unter cc-by lizensiert)


Weiterführende Links

Artikel zum Insektenrückgang

Der Standard: "Nach Kontroverse: Studie bestätigt dramatischen Insektenschwund"

SPIEGEL ONLINE, Hamburg, Germany: "Insektensterben: Zahl der Insekten in Deutschland sinkt deutlich"

Süddeutsche.de GmbH, Munich, Germany: "Insektensterben: Rückgang um 76 Prozent in Deutschland"

Spektrum der Wissenschaft: "Insektenzahl in Deutschland nimmt um 75 Prozent ab "

inge Thu, 28.12.2017 - 10:48

Personalisierte Medizin: Design klinischer Studien an Einzelpersonen (N=1 Studien)

Personalisierte Medizin: Design klinischer Studien an Einzelpersonen (N=1 Studien)

Do, 21.12.2017 - 06:21 — Francis Collins

Francis CollinsIcon MedizinArzneimittel, deren Wirksamkeit in klassischen randomisierten Placebo-kontrollierten klinischen Studien festgestellt wird, funktionieren nicht bei allen Patienten . Auf Grund unterschiedlicher genetischer Makeups und versc hiedener Lebensumstände profitiert nur ein Teil der Kranken (Abbildung), zudem können Patienten infolge von Nebenwirkungen Schaden erleiden. Ein neues Konzept - die Personalisierte Medizin - strebt an "den richtigen Patienten mit der richtigen Medizin in der richtigen Dosis" zu behandeln. Technologische Fortschritte in der Generierung und Verwertung enorm großer Mengen an Patientendaten lassen personalisierte Studien an Einzelpersonen - sogenannte "N =1"-Studien möglich erscheinen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über die Entwicklung digitaler Plattformen, die es Ärzten ermöglichen sollen derartige Untersuchungen an Einzelpersonen in ihren Ordinationen durchzuführen.*

Abbildung 1. Zur Wirksamkeit der 10 im Jahr 2013 umsatzstärksten Arzneimittelin in den USA (Gesamtvolumen rund 50 Mrd $). Um einen gewünschten Therapieeffekt bei einem Patienten zu erzielen (NNT: numbers necessary to treat), müssen bis zu 25 Patienten (bei Nexium) behandelt werden. Im Fall des Cholesterinsynthesehemmers Crestor (5,2 Mrd Umsatz) sind es 20 Patienten. (Abb. von Redaktion eingefügt. Die Daten stammen aus: N.J.Schork: Time for one-person trials.Nature 520 (2015): 609-11 und aus https://www.drugs.com/stats/top100/2013/sales ).

Es mögen bereits 25 Jahre her sein, doch Karina Davidson erinnert sich an den Tag, als ob es gestern gewesen wäre. Sie absolvierte damals das praktische Jahr in klinischer Psychologie, als ein besorgtes Elternpaar mit ihrem siebenjährigen Problemkind das Krankenhaus betrat. Der Bub war schwer untergewichtig - er wog nicht ganz 17 kg - und hatte aggressives Verhalten gegen sich selbst und andere an den Tag gelegt. Es schien möglich, dass Ritalin - ein üblicherweise gegen das Aufmerksamkeitsdefizit-Syndrom (ADHS) verschriebenes Arzneimittel, hier nützen könnte. Würde dies aber tatsächlich der Fall sein?

Design einer personalisierten Einzelperson-Studie

Um das herauszufinden, hat das Klinikerteam etwas völlig Unkonventionelles getan: sie haben eine klinische Prüfung für den Buben als Einzelperson entworfen, welche den Nutzen einer Behandlung mit Ritalin versus Placebo testen sollte . Nach dem Zufallsprinzip sollte der Bub so täglich vier Wochen lang mit dem Arzneimittel oder mit einem Placebo behandelt werden. Dem Charakter einer kontrollierten Doppelblindstudie entsprechend wussten weder das Team in der Klinik noch die Eltern zuhause, ob der Bub nun zu einer bestimmten Zeit Ritalin erhielt oder Placebo. In kurzer Zeit stand das Ergebnis fest: Ritalin führte nicht zum Erfolg. Dem Buben blieben so die Nebenwirkungen erspart, welche die Langzeitanwendung des für ihn wirkungslosen Medikaments mit sich gebracht hätten, und seine Ärzte konnten sich anderen, möglicherweise wirkungsvolleren Behandlungen zuwenden.

Das Projekt: Re-engineering Precision Therapeutics through N-of-1 Trials

Karina Davidson ist nun etablierte klinische Psychologin am Irving Medical Center der Columbia University; sie möchte die unkonventionelle, für den Buben damals hilfreiche Strategie aufgreifen und sie zu einer gebräuchlicheren Behandlungsform machen. Für ein Projekt, das sie zusammen mit Kollegen durchführen will, hat Davidson 2017 den NIH Director’s Transformative Research Award erhalten (es ist dies eine Unterstützung für ein außergewöhnlich innovatives, unkonventionelles Forschungsprojekt, das mit hohem Risiko behaftet ist und zu einem Paradigmenwechsel führen kann. Anm. Red.) Mit dieser Unterstützung will das Forscherteam drei digitale Plattformen entwickeln, die es Ärzten ermöglichen sollen in ihren Ordinationen Ein-Person Untersuchungen durchzuführen.

Große klinische Studien sind hervorragend geeignet, um herauszufinden, welche Behandlungen für den Durchschnittspatienten am besten wirken werden. Allerdings entsprechen nicht alle Patienten dem Durchschnitt. Das ist der Punkt, wo personalisierte Studien an Einzelpersonen - sogenannte "N = 1 (N-of-1)- Studien" - ins Spiel kommen können. Ärzte können sie anwenden, um zu vergleichen, wie ein Patient auf zwei oder auch mehrere Behandlungen anspricht, bevor sie die Entscheidung treffen, was sie verschreiben.

Derartige N=1 Untersuchungen sind derzeit zwar noch relativ ungebräuchlich, technologische Entwicklungen machen ihre Umsetzung aber zunehmend einfacher. Beispielsweise können tragbare "Gesundheits-Monitore" und Smartphones es erleichtern große Datenmengen einzelner Patienten zu digitalisieren und sammeln.

Test-Plattformen

Was gebraucht wird, ist eine richtige elektronische Plattform , die es Ärzten ermöglicht ihre N=1 Studien zusammen mit den einströmenden Daten zu gliedern und zu verwalten. Davidson und ihre Kollegen wollen ihre Plattformen einem Test unter realen Bedingungen unterziehen.

Dieser beginnt damit, dass 60 Patienten mit eben festgestelltem Bluthochdruck rekrutiert werden. die entweder einer N=1 Studie oder einer Standardtherapie zugeordnet werden. In der N=1-Gruppe wird jeder Teilnehmer zwei Wochen lang eine Primärtherapie mit einem Blutdruckmedikament erhalten, dann folgt ein anderes, über den gleichen Zeitraum verabreichtes Blutdruckmedikament. Die Daten zur Reaktion der Patienten auf die Medikamente wird Davidson mit ihrem Team sammeln. Dabei wird das Team versuchen die jeweils wirksamste Medikation mit den geringsten Nebenwirkungen festzustellen. Insbesondere möchte das Team herausfinden, ob Patienten in der N=1 Gruppe schlussendlich bessere Behandlungserfolge erzielen als solche unter dem randomisierten Standardverfahren.

Einen ähnlichen N=1 Studienplan wird das Team auch anwenden, um zu klären, welche an Depression leidenden Personen von einer Lichttherapie profitieren können - d.i. von einer Behandlung, die zur Stimmungsaufhellung natürliches Licht im Freien simuliert.

Eine weitere Studie soll prüfen, bei welchen an Schlaflosigkeit leidenden Patienten niedrigdosiertes natürliches Melatonin zu einer Besserung führt.

Zusätzlich werden Davidson und ihr Team untersuchen, wie gut Ärzte N=1 Studien in ihren regulären klinischen Arbeitsablauf einplanen können. Wenn sich herausstellt, dass die N=1 Strategie für Arzt und Patient von Nutzen ist, so wird man die Plattform künftig den Ärzten auch für eine Reihe anderer Indikationen anbieten können. Derartige Möglichkeiten würden u.a. in der Behandlung von Diabetes bestehen, in der Kontrolle von Schmerz , im Erstellen von Trainingsprogrammen und in der Entwicklung von personalisierten Strategien zum Gewichtsverlust.

Das Ziel

von Karina Davidson ist es schlussendlich, das Wesen der klinischen Konsultation zu ändern - es wird Wissenschaft herangezogen, um Entscheidungen zur Behandlung jeder einzelnen Person zu treffen. Da mit dem NIH-Forschungsprogramm All of Us nun mehr und mehr über individuelle Unterschiede in Gesundheitsrisiken und Ansprechen auf Behandlungen in Erfahrung gebracht wird, erscheint das Wachstumspotential einer N=1 Strategie in der Medizin zweifellos hoch. (Anm. Red.: Auf dem Weg zu einer personalisierten Medizin strebt das Programm All of Us an von 1 Million (oder mehr) US-Amerikanern Gesundheitsinformationen zu sammeln unter Berücksichtigung der individuellen genetischen/biologische n Gegebenheiten, des Lebensstils und der Umwelt einflüsse.)


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Creative Minds: Designing Personalized Clinical Trials" zuerst (am 14. Dezember 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/12/14/creative-minds-designing-person... . Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Kommentaren) für den Blog adaptiert. Eien Abbildung wurde von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

Karina W. Davidson, homepage: http://www.columbiacardiology.org/profile/kwdavidson

Karina W. Davidson (2017), Project: RE-ENGINEERING PRECISION THERAPEUTICS THROUGH N-OF-1 TRIALS: https://projectreporter.nih.gov/project_info_description.cfm?icde=0&aid=...

All of Us (NIH). https://allofus.nih.gov/ The All of Us Research Program is a historic effort to gather data from one million or more people living in the United States to accelerate research and improve health. By taking into account individual differences in lifestyle, environment, and biology, researchers will uncover paths toward delivering precision medicine.

Why All of Us. Why Now. (6.6.2017) Francis Collins et al. Video (englisch) 1:53 min. "The time is ripe for medical breakthroughs and advancements in health research. See how the All of Us Research Program is leading the way towards better health care for all of us." Standard YouTube Lizenz. https://www.youtube.com/watch?time_continue=2&v=B7m5rNkDjHE


 

inge Thu, 21.12.2017 - 06:21

Multiple Sklerose - Krankheit der tausend Gesichter

Multiple Sklerose - Krankheit der tausend Gesichter

Fr, 15.12.2017 - 07:43 — Nora Schultz

Nora SchultzIcon Gehirn

Multiple Sklerose (MS) ist eine entzündliche Erkrankung des zentralen Nervensystems. Aus bisher unbekannten Gründen greifen fehlprogrammierte Teile des Immunsystems Nervenzellen an. Es kommt es zu einem Verlust der schützenden Myelinschicht, die unsere Nervenfasern umgibt. Dadurch können Signale zwischen Nervenzellen nicht mehr korrekt weitergeleitet werden. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über Symptome, Krankheitsverlauf und Therapiemöglichkeiten .*

Über 200.000 Menschen leben in Deutschland mit der Nervenkrankheit Multiple Sklerose. (In Österreich sind es laut Österreichischer Multiple Sklerose Gesellschaft - ÖSMSG - rund 12 500 MS-Patienten; Anm. Red.) Fehlgeleitete Zellen des Immunsystems greifen das zentrale Nervensystem an und lösen so in Gehirn und Rückenmark Entzündungen aus, die zu einer Vielfalt von Symptomen und sehr unterschiedlichen Krankheitsverläufen führen können. Abbildung 1.Deshalb wird die Multiple Sklerose auch die “ Krankheit der 1000 Gesichter ” genannt.  

Abbildung 1. Multiple Sklerose - eine entmyeliniserende Erkrankung. Zellen des Immunsystems greifet die Myelinscheiden an, welche- von Oligodendrozyten, gebildet - als Isolierschichte die Axone der Nervenzellen umgeben.(Bild von Red. eingefügt; adaptiert nach dem Video: osmosis.org 2017; CC-BY-SA 4.0; in Wikipedia)

Symptome 

“Die typischen Erstsymptome sind Missempfindungen, Kribbeln und Taubheitsgefühle aber auch eine der Krankheit manchmal lange vorangehende Erschöpfbarkeit, die Betroffene sich nicht anders erklären können”, sagt Judith Haas, die Vorsitzende des Bundesverbandes der Deutschen Multiple Sklerose Gesellschaft (DMSG). Sehstörungen treten in 20 bis 30 Prozent der Fälle früh auf. Weitere schwerwiegendere Symptome, die im Zusammenhang mit einer Multiplen Sklerose auftreten können, sind Koordinationsprobleme und Lähmungen. Auch Blasen-, Potenz- und Konzentrationsstörungen können auftreten. Abbildung 2.

Abbildung 2. Hauptsächliche Symptome der Multiplen Sklerose, der - “ Krankheit der 1000 Gesichter ”. (Gemeinfreies Bild aus Wikipedia, von Red. eingefügt)

Die Symptome haben eine gemeinsame Ursache. Entzündungen im zentralen Nervensystem schädigen die Nervenzellen und die sie umgebende schützende Myelinschicht . Sie wird von den Fortsätzen anderer Zellen, den Oligodendrozyten, gebildet und sorgt dafür, dass elektrische Signale effizient übertragen werden. Je größer die Schäden sind, desto stärker wird die Weiterleitung von Signalen entlang von Nervenfasern beeinträchtigt.

Welche Störungen auftreten, hängt vom Ort der Entzündungsherde im Nervensystem ab

Längst nicht jeder Patient hat im Verlauf der Erkrankung mit allen Symptomen zu kämpfen. Viele Beschwerden treten zudem gerade anfangs nur vorübergehend oder unter körperlicher Belastung auf, und häufig erstmals im Alter zwischen 20 und 40 Jahren, wenn die meisten Patienten ansonsten noch körperlich fit sind. Bis zur Diagnose verstreichen daher im Schnitt derzeit drei Jahre, weil Ärzte und Patienten gerade bei wenig eindeutigen Frühsymptomen oft nicht an Multiple Sklerose denken.

Erhärtet sich der Verdacht dann doch, kann eine Kombination aus Untersuchungsverfahren gemeinsam mit der ausführlichen Erfassung der bisherigen Krankheitsgeschichte schnell Klarheit bringen. Dazu gehören neben neurologischen Tests unter anderem von Augen, Reflexen und Koordination sowie einer elektrophysiologischen Untersuchung der Leitfähigkeit von Nervenfasern vor allem eine Magnetresonanztomografie (MRT) des Gehirns und des Rückenmarks sowie die Entnahme von Nervenwasser (Lumbalpunktion). Das MRT macht die für eine Multiple Sklerose typischen Entzündungsherde und vernarbten Gewebebereiche sichtbar. In der bei der Lumbalpunktion entnommenen Gehirn-Rückenmarks-Flüssigkeit (Liquor) finden sich bei fast allen Betroffenen bestimmte Entzündungsmarker.

Drei Jahre bis zur Gewissheit sind eindeutig zu lang. Viele Patienten schöpfen nach Internetrecherchen selbst Verdacht und drängen auf eine frühe Diagnostik: “Es ist ganz wichtig, unmittelbar nach dem ersten Schub eine Therapie zu beginnen. Alle Studien zeigen, dass man einen verpassten frühen Therapiestart später nicht mehr einholt.” Multiple Sklerose gilt zwar bislang als nicht heilbar, doch mit der richtigen Therapiekombination lassen sich Krankheitsverlauf und Lebensqualität entscheidend beeinflussen.

Die Therapie

umfasst drei Säulen:

  • die Milderung akuter Entzündungsschübe (Schubtherapie),
  • Eingriffe in das Immunsystem um neuen Schüben vorzubeugen (verlaufsmodifizierende Therapie)
  • und die direkte Behandlung der jeweiligen Symptome (symptomatische Therapie).

Gerade in den ersten Jahren verläuft die Erkrankung bei den meisten Patienten schubförmig, bevor sie später in eine stetig fortschreitende Form übergeht. In einigen Fällen (10 bis 15 Prozent) verläuft die Erkrankung ohne Schübe chronisch fortschreitend. Abbildung 3.

Abbildung 3. Verschiedene Verlaufsformen der multiplen Sklerose (Gemeinfreies Bild aus Wikipedia, von Red. eingefügt.)

Bei einem Schub treten Symptome über wenige Tage oder Wochen hinweg auf und bilden sich dann für längere Zeit wieder ganz oder teilweise zurück. In so einer akuten Phase können entzündungshemmende Medikamente wie Kortikoide oder in schweren Fällen auch eine Plasmapherese, eine Art der „Blutwäsche“ , den Angriff der eigenen Immunzellen auf das Nervensystem bremsen.

Die langfristige Behandlung mit verlaufsmodifizierenden Wirkstoffen zielt hingegen darauf ab, die Häufigkeit und Schwere künftiger Schübe zu mindern oder bei der stetig fortschreitenden Krankheitsform die Verschlimmerung zu verlangsamen. Dazu wird die aus dem Gleichgewicht geratene Immunantwort der Patienten je nach Krankheitsbild und Medikament entweder umprogrammiert (Immunmodulation) oder unterdrückt (Immunsuppression).

Beeinflussung durch den Lebensstil

Auch der Lebensstil kann vermutlich den Krankheitsverlauf beeinflussen – und womöglich auch, ob die Krankheit überhaupt ausbricht.

Rauchen, Alkoholkonsum, viel Kochsalz in der Nahrung, übertriebene Keimfreiheit in der Kindheit und Vitamin-D-Mangel beispielsweise erhöhen manchen Studien zufolge das Erkrankungsrisiko. Letzteres könnte auch erklär en , warum Multiple Sklerose in Äquatornähe seltener auftritt . Abbildung 4.

Abbildung 4. Erhöht Vitamin D-Mangel in nördlicheren Breiten das Risiko an MS zu erkranken? (Bild aus Wikipedia,cc-by-sa; von Red. eingefügt)

Dort wird nämlich die körpereigene Vitamin-D-Produktion dank reichlich Sonnenschein erhöht . „Da das Erkrankungsrisiko außerdem genetisch beeinflusst wird, empfehlen wir den Kindern von Multiple-Sklerose-Patienten unbedingt eine Nahrungsergänzung mit Vitamin D“, sagt Haas. Wer bereits erkrankt ist, kann mit gesunder Ernährung, geeigneten Sport- und Rehamaßnahmen sowie Entspannungstechniken zumindest bestimmte Symptome lindern und die Lebensqualität verbessern.

Hormonelle Einflüsse

Hormone spielen ebenfalls eine wichtige Rolle. Weibliche Geschlechtshormone, insbesondere Östrogen, stärken das Immunsystem und erhöhen so einerseits das Risiko, eine Autoimmunerkrankung überhaupt zu entwickeln. Sie sorgen jedoch andererseits auch für bessere Reparaturprozesse im Körper. Das erklärt einerseits, warum etwa doppelt so viele Frauen wie Männer an Multipler Sklerose erkranken, andererseits aber auch, warum sie sich in der Regel auch besser von Schüben erholen. Dies gilt zumindest bis zur Menopause, wenn die Hormonproduktion abnimmt. In dieser Lebensphase geht die Krankheit daher auch häufig in eine stetig fortschreitende Form über.

Jungen Patientinnen empfiehlt Haas, die Pille zu nehmen, da diese für einen stabilen Östrogenspiegel sorgt – oder sich gleich einen eventuell vorhandenen Kinderwunsch zu erfüllen: „Schwangerschaft ist einer der besten Therapien gegen Multiple Sklerose überhaupt. Gerade im letzten Schwangerschaftsdrittel bleiben Schübe meist völlig aus.“, sagt sie. Allerdings muss in den ersten drei Monaten nach der Geburt wieder mit einem deutlichen Anstieg der Schubrate gerechnet werden.

Der Einfluss von Hormonen auf die Entstehung und den Verlauf von Multipler Sklerose ist auch ein aktueller Forschungsschwerpunkt, mit dem Ziel, begleitende Hormontherapien zu entwickeln. Andere Fragen, mit denen Wissenschaftler sich derzeit befassen, drehen sich um ein besseres Verständnis der Immunmechanismen und Entzündungsprozesse. Untersucht wird beispielsweise die Rolle der Darmflora oder wie aggressive Immunzellen sich im zentralen Nervensystem „verstecken“ können. Langfristig versprechen Wissenschaftler sich auch von Stammzelltherapieansätzen weitere Fortschritte – bis hin zu einer möglichen Heilung.

Bei aller Hoffnung auf künftige Durchbrüche gilt es zunächst , das aktuelle Therapiearsenal besser zu nutzen, findet Haas. „Wir haben in Deutschland das Problem, dass hochwirksame Therapien nicht in dem Maß eingesetzt werden, wie wir es aus anderen Ländern kennen.“ Verbesserungen erhofft sie sich von der jüngsten Änderung des Paragraphen 116b des Sozialgesetzbuches . Dies würde es ermöglichen, die in Kliniken verfügbare hochspezialisierte Versorgung , den Patienten auch außerhalb von Krankenhäusern zukommen zu lassen.

Mit dem Zugang zu einer Reihe verschiedener Therapieansätze haben Patienten heute zahlreiche Möglichkeiten, den vielfältigen Gesichtern ihrer Erkrankung zu begegnen und trotz Einschränkungen ein ausgefülltes Leben zu führen. Viele sind in ihrer Freiheit kaum eingeschränkt, die Krankheitsaktivität oft nicht messbar. Das betonte auch Ministerpräsidentin Malu Dreyer kürzlich in einem Interview mit der Rhein-Zeitung: „Ich habe gedacht, dass das Leben, das ich bis dahin geführt hatte, zu Ende geht. Doch irgendwann habe ich es geschafft, den Schalter umzulegen: Ich habe beschlossen, mich nicht durch die Krankheit behindern zu lassen, sondern meine Träume und Pläne beizubehalten.“


*Der Artikel erschien am 10.5.2017 unter dem Titel "Krankheit der tausend Gesichter" auf der Website von www.dasgehirn.info und steht unter einer cc-by-nc Lizenz.: https://www.dasgehirn.info/krankheiten/multiple-sklerose/krankheit-der-t...

www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden einige Abbildungen eingefügt.


Weiterführende Links

Internetpräsenz der Deutschen Multiple Sklerose Gesellschaft DMSG: https://www.dmsg.de/ [Stand 20.02.2017]  
Weißbuch Multiple Sklerose. Versorgungssituation in Deutschland, hg . von Miriam Kip , Tonio Schönfelder und Hans-Holger Bleß . Springer Verlag. Zum Buch   (open access)

Artikelserie (12 Artikel) in https://www.dasgehirn.info/krankheiten/multiple-sklerose :

  • SusanneDonner (28.4.2017): Viele Ursachen der multiplen Sklerose. https://www.dasgehirn.info/krankheiten/multiple-sklerose/viele-ursachen-der-multiplen-sklerose
  • Andrea Wille (30.5.2017): Multiple Sklerose - eine medizinische Herausforderung. https://www.dasgehirn.info/krankheiten/multiple-sklerose/multiple-sklerose-eine-medizinische-herausforderung
  • Ute Eppinger (1.12.2017) : MS unter der Lupe. https://www.dasgehirn.info/krankheiten/multiple-sklerose/ms-unter-der-lupe
  • Nicole Paschek (13.6.2017): Leben mit MS. https://www.dasgehirn.info/krankheiten/multiple-sklerose/leben-mit-ms

Videos

Wolfgang Brück: Inflammatorische Prozesse im Gehirn: Multiple Sklerose Video 7,2 min. https://www.dasgehirn.info/krankheiten/multiple-sklerose/neuroinflammati... (cc-by-nc)

Bernhard Hemmer: Multiple Sklerose Video 7,27 min. https://www.dasgehirn.info/krankheiten/multiple-sklerose/video-multiple-... (cc-by-nc)


 

inge Fri, 15.12.2017 - 07:43

Bioengineering – zukünftige Trends aus der Sicht eines transatlantischen Expertenteams

Bioengineering – zukünftige Trends aus der Sicht eines transatlantischen Expertenteams

Do, 07.12.2017 - 14:53 — Redaktion

RedaktionIcon Politik & GesellschaftBioengineering bietet vielversprechende Ansätze, um die großen Herausforderungen in Angriff zu nehmen, denen unsere Gesellschaften ausgesetzt sind. Welche Entwicklungen hier kurzfristig und auch längerfristig besonders wichtig werden und welche Möglichkeiten und Risiken damit verbunden sind, hat ein internationales Team aus vorwiegend englischen und amerikanischen Experten aus ihrer Sicht als Wissenschafter, Innovatoren, Industrieangehörige und Sicherheitsgemeinschaft untersucht und zwanzig Themen in den Sektoren Gesundheit, Energie, Landwirtschaft und Umwelt identifiziert.*

Was versteht man unter Bioengineering?

In der allgemeinsten Definition bedeutet Bioengineering die Anwendung natur- und ingenieurwissenschaftlicher Konzepte und Methoden auf biologische Systeme. Sehr häufig wird synonym der Begriff Synthetische Biologie verwendet - beispielsweise definiert der wissenschaftliche Rat der Europäischen Akademien EASAC Synthetische Biologie als "Anwendung von Prinzipien der Ingenieurwissenschaften auf die Biologie". Dies ist auch in dem folgenden Text der Fall.

Identifizierung neuer, relevanter Entwicklungen im Bioengineering

Die raschen Fortschritte in synthetisch biologischen Praktiken ermöglichen es Probleme der realen Welt anzugehen: die gezielte Änderung des Erbguts ("Genome editing"), die neuen Möglichkeiten zur Geweberegeneration und zum Ersatz von Organen (u.a. mittels 3D-Printer) versprechen bislang ungeahnte Chancen für neue effiziente Therapien. Ebenso wird Bioengineering in den Sektoren Energie und Transport, in Landwirtschaft und Nahrungsmittelproduktion , Wasser- und Abfallmanagement eine wesentliche Rolle spielen.

Dass solche Anwendungen massive Auswirkungen auf die menschliche Gesellschaft haben werden, ist nur zu wahrscheinlich. Welche Entwicklungen des Bioengineering werden in näherer aber auch weiterer Zukunft relevant, welche Vorteile, welche Risiken werden sie bringen?

Dies behandelt eine eben, im frei zugänglichen Journal e-Life erschienene Untersuchung eines internationalen Expertenteams unter Leitung von Bonnie Wintle und Christian Böhm (University Cambridge, Centre for the Study of Existential Risk) [1]. Teilnehmer waren insgesamt 28 Wissenschafter aus Großbritannien und den Vereinigten Staaten mit unterschiedlichem Background in den Naturwissenschaften, Ingenieurwissenschaften, Sozial- und Geisteswissenschaften. In einem mehrstufigen Prozess - einem sogenannten Horizon Scan Verfahren - identifizierte und beschrieb jeder Teilnehmer auf Basis seiner Expertise - seiner Tätigkeit in der Industrie, als akademischer Forscher, Innovator oder als Sicherheitsexperte - 2 bis 5 Themen, die er für die wesentlichsten neuen Anwendungsgebiete im Bioengineering hielt. So resultierte anfänglich eine lange Liste von 70 neuen Gebieten, die von den Teilnehmern einzeln nach Neuheit, Plausibilität und Auswirkungen beurteilt wurden. Aus den Top-rankenden Themen entstand eine neue, kürzere Liste, jedes Thema wurde dann separat in Gruppen diskutiert und auf dieser Basis eine Endbewertung von jedem Einzelnen vorgenommen.

Schlussendlich liegt nun eine Liste von 20 relevanten Entwicklungen im Bioengineering vor. Im Folgenden sind einige davon angeführt, grob eingeteilt nach dem Zeitpunkt, an dem sie relevant werden können (d.i. Auswirkungen auf die Gesellschaft haben): in früher Zukunft (d.i. in weniger als 5 Jahren), zu einem späteren Zeitpunkt (5 - 10 Jahren) oder erst nach mehr als 10 Jahren.

Die wichtigsten Themen innerhalb der nächsten fünf Jahre

Künstliche Photosynthese und Kohlenstoffdioxydabscheidung zur Produktion von Biotreibstoffen

Wenn man die technischen Schwierigkeiten in den Griff bekommt, können solche Entwicklungen die künftige Einführung von Systemen zur Kohlenstoffabscheidung ermöglichen und dabei nachhaltige Quellen für Rohchemikalien und Treibstoffe liefern. Abbildung 1.

Abbildung 1. Aus Biomasse wird über geeignete Mikroorganismenstämme Treibstoff erzeugt. (Bild von der Redaktion eingefügt; Quelle: Kang, A.; Lee, T.S. Converting Sugars to Biofuels: Ethanol and Beyond. Bioengineering 2015, 2, 184-203 Artikel steht unter cc-by 4.0 Lizenz).

Ankurbeln der Photosynthese zur Steigerung der Produktivität in der Landwirtschaft

Um die Ernteerträge auf derzeit bewirtschaftetem Land zu steigern und die Sicherheit der Nahrungsversorgung zu gewährleisten, kommt der synthetischen Biologie eine Schlüsselrolle zu: durch Steigerung der Photosynthese, Reduzieren der Verluste in der Vor-Erntezeit und ebenso der Abfälle nach der Ernte und durch den Verbraucher.

Neue Ansätze zur beschleunigten Ausbreitung von Genen (Gene drives)

Diese sollen die Vererbung wünschenswerter genetischer Merkmale in einer Spezies fördern, beispielsweise Malaria-übertragende Mücken davon abzuhalten sich zu vermehren. Bei dieser Technologie erhebt sich allerdings die Frage, ob damit nicht Ökosysteme verändert werden, möglicherweise Nischen geschaffen werden, in denen ein neuer Krankheitsüberträger oder sogar ein neuer Krankheitskeim Unterschlupf findet.

Gezielte Änderung des menschlichen Erbguts (Genome editing)

Technologien, wie beispielsweise das CRISPR/Cas9 System, bieten Möglichkeiten die Gesundheit des Menschen zu verbessern und seine Lebensdauer zu steigern. Allerdings schafft die Etablierung solcher Methoden größere ethische Probleme. Es ist ja machbar, dass dann Einzelpersonen aber auch Staaten mit den entsprechenden finanziellen und technologischen Mitteln strategische Vorteile an zukünftige Generationen weitergeben können.

Abwehrforschung

Behörden in den USA (US Defense Advanced Research Projects Agency DARPA ) und auch im UK (Defence Science and Technology Laboratory) investieren massiv in Forschungsgebiete der synthetischen Biologie, um bestimmte Bedrohungen abwehren oder darauf reagieren zu können. Investitionen im Bereich Landwirtschaft, "Gene drives" u.a. erhöhen das Risiko einer "doppelten Nutzung". Beispielsweise gibt es ein DARPA Programm (Insect Allies Program), das plant Insekten zu verwenden, um auf deren Futterpflanzen Merkmal verändernde Pflanzenviren zu verbreiten mit dem Ziel die Ernten vor möglichen Pflanzenpathogenen zu schützen. Allerdings können Andere derartige Technologien auch anwenden, um zielgerichtet Pflanzen zu schädigen.

Wichtigste Themen innerhalb der nächsten fünf bis zehn Jahre

Regenerative Medizin - 3D Drucken von Körperteilen und Gewebetechnik

Diese Technologien werden zweifellos Beschwerden als Folge schwerer Verletzungen und unzähliger Krankheiten erleichtern. Abbildung 2.

Abbildung 2. 3D Drucken von Geweben, Organen und Prothesen. (Bild von Redaktion eingefügt; Quelle:S Vijayavenkataraman et al., Bioengineering 2017, 4(3), 63; doi:10.3390/bioengineering4030063. Der Artikel steht unter einer cc-by 4.0 Lizenz)

Dagegen ist ein Umkehren des altersbedingten Verfalls mit ethischen, sozialen und ökonomischen Bedenken belastet. Gesundheitssysteme würden sehr schnell an ihre Belastungsgrenze stoßen, wenn sie allen alternden Bürgern Körperteile ersetzen wollten. Es würde auch zu neuen sozioökonomischen Klassen führen, da nur diejenigen, ihre Jahre in Gesundheit ausdehnen könnten, die es sich leisten könnten.

Mikrobiom-basierte Therapien

Das Mikrobiom des Menschen ist in zahlreiche Krankheiten involviert - von Parkinson bis hin zum Darmkrebs und ebenso in Stoffwechselerkrankungen wie Fettsucht und Diabetes Typ 2. Ansätze der synthetischen Biologie können hier die Entwicklung wirksamerer Mikrobiota-basierter Therapien beschleunigen. Es gibt hier allerdings das Risiko, dass sich DNA von genetisch modifizierten Mikroorganismen auf andere Keime im menschlichen Mikrobiom oder in der weiteren Umgebung ausbreiten kann.

Schnittstelle von Informationssicherheit und Bioautomation

Fortschritte in der Automatisierungstechnik verbunden mit schnelleren und verlässlicheren Verfahrenstechniken haben zur Entstehung von "Robotic Cloud Labs" geführt: in diesen wird digitale Information in DNA umgesetzt und diese dann in einigen Zielorganismen exprimiert. Dies erfolgt mit sehr hohem Durchsatz und sinkender Überwachung durch den Menschen. Das hohe Vertrauen in Bioautomatisierung und der Einsatz von digitaler Information aus vielen Quellen öffnen die Möglichkeit zu neuen Bedrohungen für die Informationssicherheit: ein Herumpfuschen an digitalen DNA-Sequenzen könnte die Produktion schädlicher Organismen nach sich ziehen, Angriffe auf kritische DNA Sequenz-Datenbanken und auf die Ausrüstung könnte die Herstellung von Vakzinen und Arzneimitteln sabotieren.

Wichtigste langfristigeThemen

Neue Hersteller stören die Pharma-Märkte

Gemeinschaftliche Bio-Laboratorien und unternehmerische Startups adaptieren und teilen Methoden und Geräte für biologische Experimente und Techniken. Verbunden mit Open-Business Modellen und Open Source Technologien kann dies Gelegenheiten bieten, um maßgeschneiderte Therapien für regionale Krankheiten zu produzieren, welche große multinationale Konzerne als nicht genug profitabel ansehen. Dies lässt aber wieder Bedenken aufkommen betreffend einer (Zer)störung existierender Herstellermärkte und der Versorgungsketten mit Rohmaterialien und ebenso Befürchtungen hinsichtlich unzulänglicher Regulierung, weniger strenger Kontrolle der Produkte und falscher Anwendung.

Plattform-Technologien um Ausbrüche von Pandemien anzugehen

Ausbrüche von Infektionskrankheiten - wie jüngst die Ausbrüche von Ebola und Zika Virusinfektionen - und mögliche Angriffe mit biologischen Waffen benötigen skalierbare, flexible Diagnostik und Behandlung. Neue Technologien können die rasche Identifizierung des Verursachers, die Entwicklung von Vakzinen(Kandidaten) und Pflanzen-basierte Produktionssysteme für Antikörper ermöglichen.

Veränderte Eigentümer-Modelle in der Biotechnologie

Der Anstieg von patentfreien, generischen Hilfsmitteln und das Absinken der technischen Barrieren in der Ingenieurbiologie kann Menschen in ressourcenarmen Gebieten helfen eine nachhaltige Bioökonomie zu entwickeln, die auf lokalen Bedürfnissen und Prioritäten basiert.

Fazit

Das Wachstum der bio-basierten Ökonomie verspricht Nachhaltigkeit und neue Methoden, um auf globale Herausforderungen durch Umweltprobleme und Gesellschaft zu reagieren. Wie die vorliegende Untersuchung zeigt, können aber daraus auch neue Herausforderungen und Risiken entstehen. Es muss also umsichtig vorgegangen werden, um die Vorteile sicher zu erhalten.


[1] Bonnie C Wintle, Christian R Boehm, Catherine Rhodes, Jennifer C Molloy, Piers Millett, Laura Adam, Rainer Breitling, Rob Carlson, Rocco Casagrande, Malcolm Dando, Robert Doubleday, Eric Drexler, Brett Edwards, Tom Ellis, Nicholas G Evans, Richard Hammond, Jim Haseloff, Linda Kahl, Todd Kuiken, Benjamin R Lichman, Colette A Matthewman, Johnathan A Napier, Seán S ÓhÉigeartaigh, Nicola J Patron, Edward Perello, Philip Shapira, Joyce Tait, Eriko Takano, William J Sutherland. A transatlantic perspective on 20 emerging issues in biological engineering. eLife, 2017; 6 DOI: 10.7554/eLife.30247


*Dem vorliegenden Artikel wurden im Wesentlichen der am 21. November 2017 in den News der University Cambridge erschienene Bericht: "Report highlights opportunities and risks associated with synthetic biology and bioengineering" und kurze Sequenzen aus dem Originalartikel [1] zugrunde gelegt . Beide Quellen sind unter cc-by 4.0 lizensiert. Die möglichst wortgetreue Übersetzung stammt von der Redaktion.


Weiterführende Links

  • The Future of Medicine Cambridge University. Video 11:41 min. Nanobots that patrol our bodies, killer immune cells hunting and destroying cancer cells, biological scissors that cut out defective genes: these are just some of the technologies that Cambridge University researchers are developing and which are set to revolutionise medicine in the future. To tie-in with the recent launch of the Cambridge Academy of Therapeutic Sciences, researchers discuss some of the most exciting developments in medical research and set out their vision for the next 50 years.

Artikel im ScienceBlog

 

inge Thu, 07.12.2017 - 14:53

Die Evolution der Darwinschen Evolution

Die Evolution der Darwinschen Evolution

Do, 30.11.2017 - 07:12 — Herbert Matis

Herbert MatisIcon Wissenschaftsgeschichte„Im neunzehnten Jahrhundert hat kein wissenschaftliches Werk ein so gewaltiges Aufsehen erregt, eine so nachhaltige Wirkung ausgeübt, und eine so gründliche Umwälzung althergebrachter Anschauungen bei Fachleuten wie bei Laien hervorgerufen (WT Preyer; 1841-1897)". Der Wirtschafts- und Sozialhistoriker Herbert Matis (emer. Prof. Wirtschaftsuniversität Wien) gibt einen Überblick zur Rezeption der Darwinschen Theorien, die weit über die naturwissenschaftliche Fachwelt hinausgingen und weitreichende Implikationen nicht nur für Philosophie und Theologie, sondern auch für den Bereich des Politischen und Sozialen verursachten und selbst am Beginn des 21. Jahrhunderts prominente Gegnerschaft finden..*

In der Geschichte der Naturwissenschaften und darüber hinaus nimmt Charles Robert Darwin (1809-1882) einen besonderen Platz ein, gilt er doch gemeinsam mit seinem Landsmann Alfred Russel Wallace (1823-1913) als Begründer der evolutionären Biologie. Den Grundstein seiner späteren naturwissenschaftlichen Karriere hat Darwin im Zuge seiner von Ende 1831 bis 1836 dauernden Expeditionsreise gelegt. Diese führte ihn auf der von der Royal Navy mit Vermessungsarbeiten, chronometrischen Bestimmungen und kartographischen Aufnahmen betrauten 242 Tonnen-Brigg HMS Beagle rund um die Welt. Die Publikation seines umfangreichen Reiseberichts (1839), die auf Auswertungen seiner Notizbücher und einer in zwölf Katalogen festgehaltenen systematischen Sammeltätigkeit von Fossilien, Gesteinen, Pflanzen und Tieren beruhte, sowie weitere wissenschaftliche Veröffentlichungen als Ergebnis dieser Reise sicherten ihm in Fachkreisen bereits ab den 1840er Jahren erste Anerkennung als Geologe, Zoologe und Botaniker.

"Stammbaums des Lebens"…

In einem seiner Notizbücher entwarf Darwin eine erste Skizze eines "Stammbaums des Lebens": unter der Überschrift "I think" stellte er die Entstehung der Arten durch eine differenzierte Aufspaltung in einzelne Äste und Zweige in Form von Bifurkationen dar. Abbildung 1.

Damit postulierte Darwin ‑ gestützt auf zahlreiche Fossilienfunde ‑ seine Theorie einer gemeinsamen Abstammung, wonach über Jahrmillionen zurückreichende Generationenketten letztlich alle Lebewesen miteinander verwandt sind. Auf Basis seiner auf induktivem Wege gewonnenen Erkenntnisse stellte Darwin erste theoretische Überlegungen im Hinblick auf die Wechselbeziehung zwischen Organismen und Umwelt an und erkannte, dass sich Organismen mittels Variation und natürlicher Selektion an ihr jeweiliges Habitat anpassen.

Abbildung 1. Der Stammbaum des Lebens (links). Erste Skizze, die Darwin auf der Beagle in seinem Notizbuch B, p. 36 erstellte (1836) und Darwin nach seiner Rückkehr (rechts) von der Reise auf der Beagle (Aquarell von George Richmond).

…und struggle for life

Die Frage, warum die Arten variieren, konnte Darwin aufgrund des genauen Studiums von Haustieren auf den umbildenden Einfluss der künstlichen Zuchtwahl durch den Menschen zurückführen; für die Veränderung der Arten durch natürliche Zuchtwahl fand er hingegen eine Entsprechung im Prinzip des struggle for life, wonach sich in der freien Natur jene Varietäten durchsetzen, die am besten an ihre Umwelt angepasst sind und damit die günstigsten Überlebenschancen vorfinden.

Im Jahr 1859 publizierte Darwin dann sein revolutionäres Werk, das ihn mit einem Schlag berühmt machte: On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life. Abbildung 2.

Abbildung 2. On the origin of species by means of natural selection, or the preservation of favoured races in the struggle for life [1859; Über die Entstehung der Arten im Thier- und Pflanzen-Reich durch natürliche Züchtung, oder Erhaltung der vervollkommneten Rassen im Kampfe ums Dasein]. (Abbildungen: links Wikipedia; rechts: http://www.gutenberg.org/cache/epub/1228/pg1228.txt)

Der große internationale Erfolg führte dazu, dass er nahezu ein Jahrzehnt später eine zweite Veröffentlichung folgen ließ: The Variation of Animals and Plants under Domestication [dt.: Die Variation von Tieren und Pflanzen unter Domestikation].

Evolution wird zum Leitmotiv der Wissenschaft

Entwicklung - Evolution (abgeleitet vom lateinischen Verbum evolvere, das ursprünglich vor allem das Ausrollen einer Schriftrolle bedeutete) wird im 19. Jahrhundert zum Paradigma in der Wissenschaft. Die Vorstellung der biologischen Evolution liefert eine naturwissenschaftlich fundierte Erklärung für die Entstehung und Veränderung der Arten im Verlauf der Erdgeschichte, wobei sich alle derartigen Prozesse in der Natur durch eine Irreversibilität auszeichnen. In der Folge findet der Begriff auch in den Sozialwissenschaften Eingang.

Wettbewerb um Ressourcen

Als wichtige Antriebsmomente der Evolution formulierte Darwin die Prinzipien der notwendigen Anpassung an Umweltbedingungen durch natürliche Selektion. Im Wettbewerb um Ressourcen setzen sich unter limitierenden Umweltbedingungen die vorteilhafteren Variationen durch, während hingegen unvorteilhafte Variationen aus der Population verschwinden werden. Angeregt zu diesen Überlegungen wurde Darwin durch die vieldiskutierte Bevölkerungstheorie des Ökonomen Thomas Robert Malthus (1766 - 1834). Dieser hatte festgestellt, dass ein unkontrolliertes exponentielles Bevölkerungswachstum zwangsläufig in einer Konkurrenz um immer knappere Ressourcen münden müsse, weil sich diese lediglich in einer arithmetischen Folge vermehren.

Im Sozialdarwinismus kommt es dann zur Übertragung der Darwinschen Prinzipien auf menschliche Gesellschaften, um etwa soziale Ungleichheit oder rassische Diskriminierung als Folge einer ‚natürlichen Auslese‘ zu rechtfertigen. Bereits Vertreter der Klassischen Nationalökonomie verwendeten zentrale Begriffe der Evolutionsbiologie wie ‚Evolution‘‚ Selektion‘ und ‚Kampf ums Überleben‘ in einem gesellschaftswissenschaftlichen Kontext.

In der zweiten Hälfte des 19. Jahrhunderts

messen viele Disziplinen der zeitlichen Dimension und damit auch dem Entwicklungsgedanken einen besonderen Stellenwert bei, und sehr bald wird Evolution auch ganz allgemein als maßgebliches Grundmuster für die Erklärung von Prozessen aller Art verstanden. Spätestens ab Ende der 1870er Jahre wird Darwins Lehre zum Gegenstand des öffentlichen Diskurses und dann in Form des ‚Darwinismus‘ auch als Weltanschauung vereinnahmt.

Für die Verbreitung der Darwinschen Lehre

im deutschen Sprachraum spielten die ersten Übersetzungen, vor allem von On the Origin of Species, eine wichtige Rolle, die bereits 1860 erfolgten. Die Universitäten Jena - vor allem mit dem Biologen und Mediziner Ernst Haeckel - und Leipzig wurden immer mehr zum Zentrum des Darwinismus in Deutschland. Haeckel und seine Schüler erblickten in Darwins Evolutionslehre eine Möglichkeit, alle ‚Welträtsel‘ ausschließlich mit wissenschaftlichen Methoden zu erklären und Haeckel veröffentlichte in diesem Sinn eine ganz Reihe von Büchern.

Darwin fand nicht nur in der Fachwelt große Resonanz, sondern auch in der breiteren naturwissenschaftlich interessierten Öffentlichkeit, wozu eine Vielzahl zeitgleich entstandener gelehrter Gesellschaften, aber auch die Gründung von einschlägigen Museen und Sammlungen sowie populärwissenschaftlichen Journalen und u.a. das in mehrere Sprachen übersetzte und in weiten Kreisen des Bildungsbürgertums gelesene Werk von Alfred Edmund Brehm Illustrirtes Thierleben beitrugen. (Zu Letzterem hatte u. a. auch der österreichische Kronprinz Rudolf einige ornithologische Studien beigesteuert.) Darwins Theorien lieferten daher auch in literarischen Zirkeln Diskussionsstoff. Abbildung 3.

Die Ausgangsbedingungen für eine Akzeptanz der Lehre Darwins in dem vom Katholizismus geprägten Milieu der einstigen Habsburgermonarchie waren ungleich schwieriger. Für die Verbreitung der Darwinschen Lehre über den engeren Kreis der Fachwissenschaft hinaus, sorgte allerdings bereits 1860 der aus Deutschland stammende Zoologe Gustav Jäger, der in Wien vor einem wissenschaftlich interessierten Laienpublikum für die Auffassungen Darwins eintrat. Abbildung 3.

Abbildung 3. Popularisierung der Evolutionstheorie. Links: Vortrag von Gustav Jäger 1860 in Wien (Text: http://www.zobodat.at/pdf/SVVNWK_1_0081-0110.pdf ), Rechts: aus dem Illustrirten Familienblatt "Die Gartenlaube" (1873) „Die vier Hauptvertreter des Darwinismus“: Darwin, Lamarck, Haeckel, St. Hilaire (Wikipedia, gemeinfrei)

Darwin fand in der deutschen Gelehrtenwelt nicht nur Anhänger, sondern auch einflussreiche Gegner. Dies betraf vor allem das von mancher Seite dem Darwinismus zugeschriebene pseudoreligiöse Deutungsmonopol. Einer der Hauptgegner der Evolutionstheorie und des Darwinismus im Besonderen war der Botaniker Albert Wigand (1821-1886), Direktor des Botanischen Gartens und Pharmazeutischen Instituts in Marburg an der Lahn, der die Lehre Darwins sogar als eine „naturwissenschaftliche und philosophische Verirrung“ abtat.

"Verweltanschaulichung" der Lehre Darwins…

Lange Zeit hatte es Darwin vermieden, wahrscheinlich unter dem Einfluss seiner sehr religiös geprägten Frau Emma, seine Erkenntnisse auch im Hinblick auf die menschliche Spezies anzuwenden und konsequent auch den Menschen in den von seiner Richtung her offenen Prozess der Evolution einzubinden. Erst 1871 erschien sein zweibändiges Werk The Descent of Man, and Selection in Relation to Sex [dt.: Die Abstammung des Menschen und die geschlechtliche Zuchtwahl], in dem er festhielt, was mittlerweile auch durch DNA-Vergleiche bestätigt wird, dass der Mensch und andere Primaten recht eng verwandt sind und offenbar einen gemeinsamen Vorfahren haben, der vor etwa fünf bis sieben Millionen Jahren lebte.

Mit The Descent of Man erfolgte eine wichtige Erweiterung seiner Konzeption, indem er nicht nur eine Sonderstellung des Menschen in der Natur verneinte und die Abstammung des Menschen in einen allgemeinen Zusammenhang mit der biologischen Evolution stellte: Der Mensch ist wie alle anderen Lebewesen ein Produkt der Evolution. Überdies definierte er mit der sexuellen Selektion einen zweiten Selektionsmechanismus, der sich etwa bei dem Mitbegründer der modernen Evolutionstheorie Wallace nicht findet.

Während Darwin ‚Evolution‘ als ein universelles Prinzip in der Natur verstand, versuchte schon Alfred Russel Wallace, seine wissenschaftlichen Erkenntnisse mit dem Glauben an ein höheres Wesen zu vereinen. Der Prozess der Evolution selbst, aber auch höhere Fähigkeiten wie Bewusstseinsbildung, intellektueller Fortschritt, Intelligenz oder die Ausbildung von Moral konnten aus seiner Sicht mit dem Selektionsprinzip nicht hinreichend erklärt werden, sondern setzten das Wirken einer übernatürlichen Macht voraus. Alle derartigen Versuche, den Evolutionsgedanken mit einem Schöpfungsplan zu vereinen und an Stelle des Zufallsprinzips und eines mechanistisch aufgefassten Wirkgefüges von Variabilität und Selektion das Wirken eines höheren Wesens zu setzen, mussten aus der Sicht der konsequenten Anhänger Darwins hingegen als Einfallstor für metaphysische Spekulationen aufgefasst werden.

…und ein "Kampf der Kulturen",

der in der Öffentlichkeit mit zum Teil auch recht unsachlichen Argumenten ausgetragen wurde (Abbildung 4) und u. a. zu einer legendären Kontroverse mit Vertretern des anglikanischen Episkopat führte. Verschiedene Theologen taten den Darwinismus in der Folge als „Theorie der Affenabstammung“ ab, auf der anderen Seite begegneten die Anhänger von Darwins Evolutionstheorie den in der tradierten biblischen Schöpfungsgeschichte verhafteten Theologen mit Hohn und Spott, weil diese einen ,Kreationismus‘ sowie die Vorstellung einer Entwicklung nach einem allem zugrundeliegenden teleologischen göttlichen Plan vertraten. Bereits Darwins erster deutscher Übersetzer, Heinrich Georg Bronn, hatte darauf hingewiesen, dass „mit weiterer Hilfe der Darwinschen Theorie eine Natur-Kraft denkbar (ist), welche Organismen-Arten hervorgebracht haben kann […] Wir sind dann nicht mehr genöthigt, zu persönlichen außerhalb der Natur-Gesetze begründeten Schöpfungs-Akten unsere Zuflucht zu nehmen".

Abbildung 4. Der Mensch ist nur ein Wurm:-Entwicklung über den Affen zum viktorianischen Gentleman (Punsch Almanach, 1882) und Darwin Karikatur im Magazin "The Hornet" (1871) (Bilder: Wikipedia, gemeinfrei)

Im Verein mit dem philosophischen Positivismus wurde der Darwinismus damit ein Schlüsselelement bei der Entstehung der modernen ‚wissenschaftlichen Weltanschauung‘.

Vor allem formierte sich der Widerstand kirchlich-dogmatischer Kreise, die sehr bald die von der modernen Evolutionstheorie ausgehende Gefahr für die kirchliche Lehre erkannten: Papst Pius IX. wandte sich bereits 1864 in dem seiner Enzyklika Quanta Cura beigefügten Syllabus errorum explizit gegen die als Irrtümer klassifizierten verschiedenen ‚-Ismen‘: Liberalismus, Sozialismus, Kommunismus, Pantheismus, Naturalismus, und selbstverständlich auch Darwinismus. Auch sein Nachfolger Pius X. verdammte 1907 in seiner Enzyklika Pascendi dominici gregis die „Irrtümer des Modernismus“, insbesondere aber jene katholischen Theologen, die versuchten, moderne wissenschaftliche Erkenntnisse - vor allem die historisch-kritische Methode in der Geschichtswissenschaft und die Evolutionstheorie - in ihre Lehre zu integrieren. Die katholische Kirche bezog damit eine eindeutige Opposition gegenüber allen materialistischen Auffassungen. Erst mit dem Zweiten Vatikanischen Konzil erfolgte hier 1962/64 – nicht zuletzt aufgrund der viel diskutierten Schriften des Anthropologen und Jesuiten Pierre Teilhard de Chardin (1881-1955) – eine geistige Öffnung.

Sozialdarwinismus und Eugenik

Mit der zunehmenden Vereinnahmung der Lehre Darwins als Weltanschauung wird diese auch ein Ausgangspunkt für biologistisch begründete medizinische Interventionen im Sinne der Erbgesundheit, Rassenhygiene und Eugenik. Der ‚Sozialdarwinismus‘ fand in der Folge viele Anhänger. Der aus Österreich stammende und mit Ernst Haeckel befreundete Redakteur der Zeitschrift Das Ausland Friedrich Heller von Hellwald (1842-1892),sah im ‚Kampf ums Dasein‘ – in Verbindung mit dem im 19. Jahrhundert stark ausgeprägten Fortschrittsglauben – den Antrieb für eine positive Weiterentwicklung des Menschengeschlechts. Er übertrug in recht radikaler Weise das natürliche Selektionsprinzip auf das Handeln von Individuen und ganzen Völkern. Der englische Philosoph und Soziologe Herbert Spencer (1820-1903) brachte 1864 survival oft the fittest als ein am meisten zum sozialen Fortschritt und zur Verbesserung der Lebensbedingungen beitragendes Prinzip in die Diskussion ein.

Eine drastische Zuspitzung erfuhr der Sozialdarwinismus dann in der Eugenik, ein 1883 von Darwins Vetter, dem Anthropologen Francis Galton (1822–1911) geprägter Begriff, die im Deutschen (und zwar lange vor dem Nationalsozialismus) auch als ‚Erbgesundheitslehre‘ und ‚Rassenhygiene‘ bezeichnet wurde. Sie geht davon aus, dass ganz im Sinne der ‚Zuchtwahl‘ gutes Erbmaterial gefördert werden soll, hingegen schlechte Erbanlagen ausgemerzt werden sollten. Die Vorstellungen der Eugenik fanden vor allem in den Vereinigten Staaten, Deutschland, England, Kanada, Skandinavien, Schweiz, Japan und Russland eine große Anhängerschaft.

Auseinandersetzung zwischen Lamarckisten und Darwinisten

Der Darwinismus erlebte um die Wende vom 19. zum 20. Jahrhundert unter den Naturwissenschaftlern eine kritische Phase. Während die Vorstellung der Evolution an sich und die gemeinsame Abstammung aller Lebewesen weitgehende Akzeptanz fanden, blieb die des Selektionsmechanismus lange umstritten. Vor allem wurden Zweifel an der ausschließlichen Rolle des geschlechtlichen Selektionsmechanismus für den Fortschritt der Evolution laut und die auf den französischen Biologen Jean Baptiste de Lamarque (1744 - 1829) zurückgehende Auffassung einer Vererbung von während des Lebens erworbenen Eigenschaften gegenüber gestellt. (Darwin selbst hatte ja in späteren Jahren zugestanden, dass gewisse Anpassungen an die Umweltbedingungen womöglich auch vererbt würden.) Es entbrannte in der Folge eine Auseinandersetzung zwischen Neo-Lamarckisten und Neo-Darwinisten.

Die Synthetische Evolutionstheorie

verhalf schließlich der Darwinschen Selektion zum Durchbruch. Einer der Hauptvertreter dieser Theorie, der deutsch-amerikanische Biologe Ernst Walter Mayr, hat 1951 die grundlegenden Ideen Darwins als Summe von fünf Theoremen folgendermaßen zusammengefasst:

  • Evolution als solche: Die Natur ist das Produkt langfristiger Veränderungen und ändert sich auch weiterhin; alle Organismen unterliegen einer Veränderung in der Zeit.
  • Gemeinsame Abstammung: Jede Gruppe von Lebewesen stammt von einem gemeinsamen Vorfahren ab. Alle Organismen gehen auf einen gemeinsamen Ursprung des Lebens zurück.
  • Vervielfachung der Arten: Die Arten vervielfachen sich, indem sie sich in Tochterspezies aufspalten oder indem sich durch räumliche Separation isolierte Gründerpopulationen zu neuen Arten entwickeln.
  • Gradualismus: Evolutionärer Wandel findet in Form kleinster Schritte (graduell) statt und nicht durch das plötzliche Entstehen neuer Individuen, die dann eine neue Art darstellen. Natura non facit saltus!
  • Natürliche Selektion: Evolutionärer Wandel vollzieht sich in jeder Generation durch eine überreiche Produktion an genetischen Variationen. Die relativ wenigen Individuen, die aufgrund ihrer besonders gut angepassten Kombination von vererbbaren Merkmalen überleben, bringen die nachfolgende Generation hervor.

Das Thema ‚Evolution‘ in der Gegenwart

Mittlerweile ist der Ansatz der ‚Synthetischen Evolutionstheorie‘ durch neue Erkenntnisse erweitert worden: Der molekularen Charakterisierung der Gesamtheit der vererbbaren Informationen einer Zelle im Genom wurde mit der Entdeckung der Funktionen, Strukturen und Wechselwirkungen von Chromosomen, Desoxyribonukleinsäuren (DNA) bzw. Ribonukleinsäuren (RNA) ein neuer Zugang eröffnet; neue Fachgebiete und Forschungszweige (wie Entwicklungs- und Systembiologie, Genomik und Epigenetik) sind seither entstanden, man beginnt nun erstmals Verhalten und Verhältnis aller Komponenten in ganzheitlich verstandenen lebendigen Systemen zu untersuchen.

Darwins Evolutionstheorie findet aber selbst am Beginn des 21. Jahrhunderts noch prominente Gegnerschaft. Nicht nur Islamisten, auch evangelikal-christliche Kreationisten berufen sich darauf, dass das ganze Universum, die Natur, das Leben und der Mensch nicht auf einen gemeinsamen Ursprung zurückgehen sondern durch den direkten Eingriff eines Schöpfergottes entstanden sein sollen. Als eine Alternative zu der auf dem Zufallsprinzip basierten Evolutionstheorie gilt für manche auch die Vorstellung eines intelligent design, wonach ein höheres Wesen das Leben erschaffen hat, das seitdem zwar einen langen Entwicklungsprozess durchlaufen hat, der aber von eben diesem höheren Wesen auch weiterhin gesteuert wird.

Dies mag damit zusammenhängen, dass es für viele Zeitgenossen eine zutiefst verstörende Erfahrung ist, dass der Mensch als erste Spezies mit den in der jüngsten Zeit entwickelten neuesten molekularbiologischen Methoden (Sequenzierung des Genoms, CRISPR und genome editing) in die Lage versetzt wurde, an der Basis seiner eigenen genetischen Ausstattung „gezielt“ zu manipulieren, wodurch wir uns gleichsam im neuen Zeitalter einer beschleunigten „akzelerierten Evolution“ befinden: Es ist nicht mehr alleine die gesamte Umwelt, die den Selektionsdruck (survival of the fittest) ausmacht, sondern der Mensch selbst tritt plötzlich in einer Art „Feedback-Schleife“ in den Mittelpunkt das Selektionsmechanismus. Er erhält erstmals die Möglichkeit in den Prozess der Evolution selbst aktiv einzugreifen, indem er mittels molekularbiologischer Methoden das Erbgut von Pflanzen, Tieren und Menschen verändert.

Es wird dabei nicht ausgeschlossen, dass auf diese Weise auch neue Arten entstehen könnten.


* Kurzfassung des Eröffnungsvortrags "Zur Darwin-Rezeption in Zentraleuropa 1860 – 1920", den Herbert Matis anlässlich des Ignaz-Lieben-Symposiums "Darwin in Zentraleuropa" (9. - 10. November 2017, Wien) gehalten hat. Die komplette Fassung (incl. Fußnoten) wird 2018 auf der homepage der Lieben-Gesellschaft http://www.i-l-g.at  erscheinen.


Weiterführende Links

Darwin Publications: Books (American Museum of History, Darwin Manuscripts Project). open access.

Darwin online. Reproducing images from Darwin Online.

Gustav Jäger (1862): Die Darwinsche Theorie über die Entstehung der Arten. (PDF-Download)

Artikel zur Evolution von Organismen im ScienceBlog:

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zu

inge Thu, 30.11.2017 - 07:12

EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)

EU-Bürger, Industrien, Regierungen und die Europäische Union in SachenUmweltschutz - Ergebnisse der Special Eurobarometer 468 Umfrage (Teil 2)

Do, 23.11.2017 - 08:36 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftÜber einen Teil der jüngst erschienenen Ergebnisse des Special Eurobarometer 486 - die Einstellung der EU-Bürger zu Umweltproblemen, ihr Wunsch die Umwelt zu schützen und dazu auch selbst beizutragen - wurde vergangene Woche berichtet. Weitere Aspekte der Umfrage, vor allem welche Rolle wer - Industrien, Regierungen und die EU selbst - im Umweltschutz spielen sollte, sind nun Gegenstand des gegenwärtigen Artikels. Dabei wird auch auf die Meinung der Österreicher Bezug genommen.

Die Generaldirektion Umwelt der Europäischen Kommission sieht ihr Ziel darin für gegenwärtige und künftige Generationen die Umwelt zu schützen, zu bewahren und zu verbessern. Um dies zu erreichen, schlägt sie Maßnahmen vor und führt solche ein, die ein hohes Maß an Umweltschutz und Sicherung der Lebensqualität von EU-Bürgern gewährleisten sollen; sie wacht auch darüber, dass die Umweltgesetze der EU von den Mitgliedstaaten eingehalten werden.

Wie sehen dies aber die EU-Bürger?

In regelmäßigen Abständen gibt die EU-Kommission dazu repräsentative Umfragen in Auftrag, wobei je Mitgliedsland persönliche (face to face) Interviews mit rund 1000 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen, in ihrem Heim und in ihrer Muttersprache geführt werden. Aus dem jüngsten, vor knapp 2 Wochen erschienenen Bericht "Special EU-Barometer 468" [1] geht hervor, dass der Wunsch die Umwelt zu schützen bei den EU-Bürgern sehr breite Unterstützung findet, sie Maßnahmen dazu bejahen und bereit sind auch persönlich beizutragen. Darüber wurde vergangene Woche im ScienceBlog berichtet [2]. Weitere Aspekte der Umfrage, vor allem welche Rolle wer - Industrien, Regierungen und die EU selbst - im Umweltschutz spielt/spielen sollte, ist Gegenstand des gegenwärtigen Artikels.

Wie sehen die EU-Bürger das Verhalten von Industrie und Institutionen in Sachen Umweltschutz?

Hohe Einigkeit zeigten die EU-Bürger bei der Frage, ob große Umweltverschmutzer primär für die Schäden aufkommen sollten, die sie verursachen. Ähnlich wie schon bei der Umfrage im Jahr 2014 stimmten dem im EU-28 Mittel insgesamt 94 % zu (65 % volkommen, 29 % eher) und nur 4 % sprachen sich dagegen aus. Unter den Ländern stach Rumänien mit 11 % Ablehnung heraus.

Auch auf die Frage ob Industrie, Institutionen oder die Bürger selbst genügend für den Umweltschutz machten, zeigte sich wenig Veränderung gegenüber früheren Umfragen. Abbildung 1.

Großunternehmen und Industrie wurden am schlechtesten beurteilt; im EU-28 Mittel gaben 4 von 5 Befragten an, dass dort zu wenig für die Umwelt getan würde. In einigen Ländern hatte sich die Einschätzung etwas gebessert - u.a. in Österreich um 8 Punkte auf insgesamt 24 % "zu viel/genug Umweltschutz" -, dafür in anderen Staaten wie UK, Holland oder Deutschland um mehrere Prozentpunkte verschlechtert. Am unteren Ende der Skala lag die Bewertung der Griechen, von denen nur 4 % meinten dass zu viel (1 %) oder ausreichend (3 %) getan würde.

Abbildung 1. Frage QD 7: Machen Ihrer Meinung nach die folgenden Akteure zu viel, genug oder zu wenig für den Umweltschutz[1].

Selbsteinschätzung der Bevölkerung: Auch hier fanden im EU-Mittel zwei Drittel der Befragten, dass nicht genügend für die Umwelt getan würde. Am Positivsten wurde die Situation in Deutschland, Tschechien und Österreich beurteilt (41 - 42 % gaben an "zu viel/genug Umweltschutz" zu betreiben), am Schlechtesten in Frankreich, Malta und Bulgarien (80 % urteilten "zu wenig Umweltschutz").

Institutionen. Rund zwei Drittel der EU-Bürger fanden, dass ihre jeweiligen Regierungen zu wenig für die Umwelt machten, ihre regionalen und lokalen Institutionen bewerteten sie dagegen besser. Dass die einzelnen Institutionen zu viel machten, fand nur ein kleiner Teil der Befragten. In den Bewertungen unterschieden sich die Länder stark.

  • Lokale Institutionen: während 74 % der Griechen und 72 % der Bulgaren angaben, dass ihr Dorf, ihre Stadt nicht genug für die Umwelt machen würde, waren nur 29 % der Dänen, 30 % der Luxemburger und 31 % der Tschechen dieser Ansicht; in Deutschland waren dies 33 % und in Österreich 36 %.
  • Regionaler Umweltschutz: diesen beurteilten Griechen (76 %) und Bulgaren (72 %) ähnlich schlecht wie den lokalen Umweltschutz. Dagegen fand zumindest die Hälfte der Befragten in Tschechien, Deutschland, Luxemburg, Dänemark und Österreich, dass zu viel/genug für die Umwelt geschehe.
  • Nationale Regierungen: Am unzufriedensten mit dem Umweltschutz ihrer Regierungen waren wiederum die Griechen (88 %), dann folgten die Spanier (78 %) und Bulgaren (75 %), am wenigsten unzufrieden waren die Luxemburger (42 %), Dänen und Finnen (je 52 %). In Österreich hatte seit 2014 die Zufriedenheit um 16 % zugenommen.
  • EU: Wie im Fall der nationalen Regierungen, zeigte sich im Schnitt nur etwa ein Viertel der EU-Bürger mit den Aktivitäten der EU zum Umweltschutz zufrieden, über 60 % fanden aber, dass die EU mehr tun sollte. Am wenigsten zufrieden waren die Schweden, Spanier und Franzosen (mit 79, 71 und 70 % Unzufriedenen); mehr als 40 % Zufriedene gab es in Zypern, Polen und Ungarn (Österreich:38 % Zufriedene).

Wenn nach der überwiegenden Meinung der Befragten die EU in Sachen Umweltschutz mehr tun sollte, welche Rolle kommt der EU dann zu?

Wer soll in Sachen Umweltschutz entscheiden?

Auf die Frage ob Entscheidungen in Sachen Umweltschutz auf nationaler Ebene oder gemeinsam innerhalb der EU getroffen werden sollten, gaben im EU-28 Mittel rund zwei Drittel der gemeinsamen Entscheidung den Vorzug. Abbildung 2.

Abbildung 2. Wie sollten Entscheidungen in Sachen Umweltschutz getroffen werden? (Bild modifiziert nach [2])

Breiteste Zustimmung zur gemeinsamen Entscheidung gab es in Holland, Deutschland, Spanien und Portugal; niedrigste Zustimmung bei den meisten ehemaligen Ostblockstaaten - Österreich zeigte sich nicht ganz so EU-skeptisch wie diese, immerhin zogen aber 41 % eine Entscheidung auf nationaler Ebene vor.

Welche Funktionen kommen dem Europäischen Umweltrecht zu?

In Sachen EU-Umweltrecht wurden 3 Fragen gestellt (Abbildung 3):

  • Soll die EU überprüfen können, ob EU-Umweltschutzgesetze in Ihrem Land ordnungsgemäß angewandt werden?
  • Soll die EU nicht-EU-Länder unterstützen, um deren Umwelt-Standards zu erhöhen?
  • Ist EU-Umweltrecht notwendig, um die Umwelt in Ihrem Land zu schützen?

Abbildung 3. Einstellung der EU-Bürger zur Rolle der EU in Sachen Umweltrecht. Die ausführliche Formulierung der Fragen findet sich im Text. Die Antworten "stimme voll zu" und "stimme eher zu" wurden zu "stimme zu" zusammengefasst, "stimme eher nicht zu" und "stimme überhaupt nicht zu" zu "stimme nicht zu". (Abbildung aus QD9 [1] zusammengestellt)

Im EU-28 Mittel stimmte die überwiegende Mehrheit (mindesten 80 %) der Befragten zu, dass europäisches Umweltrecht für den Umweltschutz in ihrem Land notwendig wäre und die EU auch überprüfen können sollte, ob die Umweltgesetze in dem jeweiligen Land korrekt umgesetzt würden. In Österreich war die Zustimmungsrate mit rund zwei Drittel unter allen Mitgliedsländern die niedrigste.

In Hinblick auf die Unterstützung von Nicht-Mitgliedstaaten zur Hebung von Umweltstandards tanzte Österreich aber nicht aus der Reihe: Ein praktisch gleich hoher Anteil der Befragten wie im EU-28 Mittel sprach sich dafür aus.

EU-Finanzmittel zur Förderung von Umweltschutz

Vergleichbar mit der Umfrage im Jahr 2014 meint auch jetzt die überwältigende Mehrheit der Befragten (im EU-Durchschnitt 85 %), dass die EU mehr Geld in die Hand nehmen sollte, um EU-weit Programme zu Umweltschutz, Erhaltung der Natur und Klimaschutz zu unterstützen. Im Schnitt sind es nur 7 %, die dies ablehnen (8 % äußern sich mit "weiß nicht"). Österreich liegt in der Zustimmung (86 %) im EU-Mittel, die Gruppe der Ablehnenden (11 %) ist allerdings nur in Rumänien (13%) noch höher.

Kennzeichnung umweltfreundlicher Produkte

Nationale Umweltzeichen und das EU-weite Umweltzeichen - sogenannte Ecolabels - wurden geschaffen, um leicht erkennbar und verlässlich anzuzeigen, dass ein Produkt oder eine Dienstleistung umweltfreundlich und von guter Qualität ist. Das EU-Ecolabel ist heuer bereits 25 Jahre alt geworden. Wie bekannt ist es geworden?

Dazu wurden die EU-Bürger befragt. Aus einer Liste von 13 Ecolabels sollten sie angeben, welche davon sie bereits gesehen oder von welchen sie gehört hatten. Abbildung 4.

Abbildung 4. Wie bekannt sind Ecolabels? (Bild QD10 [1])

Das EU-Ecolabel hat zwar den höchsten Bekanntheitsgrad, wurde in den 25 Jahren seines Bestehens EU-weit aber nur von 27 % der Bevölkerung wahrgenommen hat: am Populärsten (mehr als 60 %) ist es in Luxemburg und Frankreich, in Rumänien, Bulgarien, Tschechien, UK und Italien kennen es dagegen nur zwischen 13 und 17 %. Breitere Popularität haben auch das deutsche Label "Blauer Engel" und das französische "NF Environment" erreicht. Die meisten nationalen Labels sind im Wesentlichen aber nur in ihrem Herkunftsland und in geringerem Maße in angrenzenden Staaten bekannt - das Österreichische Umweltzeichen beispielsweise kennen 68 % der Österreicher, 9 % der Slowaken, 8 % der Slowenen und je 6 % der Deutschen, Ungarn und Kroaten. Für im Schnitt rund ein Drittel der Befragten - in Österreich sind es 43 % - spielen Ecolabels bereits eine wichtige Rolle in ihren Kaufentscheidungen. In Ländern wie Tschechien, Polen und Ungarn haben sie weniger Bedeutung und die Mehrheit der Portugiesen, Spanier und Bulgaren nimmt davon überhaupt (noch) keine Notiz.

Um das Bewusstsein für Ecolabels innerhalb der EU zu erhöhen, hat die EU-Kommission anlässlich des 25-Jahr Jubiläums eine Reihe von Veranstaltungen geplant und tritt über die sozialen Medien auch verstärkt mit Produzenten und Konsumenten in Kontakt (http://ec.europa.eu/environment/ecolabel/25_anniversary.html) .

Fazit

In überwältigender Mehrheit sind die EU-Bürger besorgt über die zunehmenden Umweltprobleme und deren Auswirkungen auf ihr tägliches Leben und ihre Gesundheit; sie wünschen Maßnahmen zum Schutz der Umwelt und möchten selbst auch dazu beitragen. Seit langem geben sie ihrer Meinung Ausdruck, dass in Sachen Umweltschutz noch viel zu wenig getan wird, dass Industrien, lokale, regionale und nationale Institutionen und auch die EU selbst sich dafür viel mehr engagieren müssen. Der Großteil der EU-Bürger wünscht, dass Entscheidungen zum Umweltschutz gemeinsam innerhalb der EU getroffen werden, dass von der EU kontrolliert werden kann, wieweit Umweltgesetze in einzelnen Ländern korrekt angewandt werden und vor allem, dass EU-weite Programme zum Schutz der Umwelt, zur Erhaltung der Natur und zum Klimaschutzbei finanzielle Förderung von der EU erhalten.

In ihrem Umweltaktionsprogramm (7. UAP) für die Zeit bis 2020 hat sich die EU ambitionierte Ziele gesetzt [4], die durchaus im Sinne der von der Mehrheit der EU-Bürger geäusserten Wünsche sind. Ob sie die 4 prioritären Ziele: bessere Umsetzung der Rechtsvorschriften, bessere Information durch Erweiterung der Wissensgrundlage, umfangreichere und intelligentere Investitionen zum Schutz der Umwelt sowie die umfassende Einbeziehung von Umweltbelangen in andere Politikbereiche erreichen kann, ist meiner Ansicht nach sehr fraglich. In einigen Ländern - darunter auch in Österreich - gibt es einen beträchtlichen Anteil durchaus umweltbewußter Bürger, die eine Lösung von Umweltproblemen auf nationaler Ebene vorziehen und die Bereitschaft effizient innerhalb der EU zuz kooperieren müsste stärker werden.


[1] Special Eurobarometer 468 (2017): Attitudes of European citizens towards the environment.

[2] Inge Schuster, 16.11.2017.: Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage.

[3] Spezial-Eurobarometer 468 (2017): Einstellung der europäischen Bürger gegenüber der Umwelt.

[4] 7. UAP – Allgemeines Umweltaktionsprogramm der Union für die Zeit bis 2020: http://ec.europa.eu/environment/pubs/pdf/factsheets/7eap/de.pdf


Weiterführende Links

Artikel im ScienceBlog:

 

inge Thu, 23.11.2017 - 08:36

Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage

Einstellung der EU-Bürger zur Umwelt (Teil 1) – Ergebnisse der ›Special Eurobarometer 468‹ Umfrage

Do, 16.11.2017 - 13:47 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftVor wenigen Tagen ist das Ergebnis einer neuen, von der Europäischen Kommission beauftragten Umfrage zur „Einstellung der EU-Bürger gegenüber der Umwelt“ erschienen (Special Eurobarometer 468 [1]). Daraus geht hervor, dass Umweltschutz in allen Schichten der Bevölkerung einen sehr hohen Stellenwert besitzt. Den Bürgern ist bewusst, dass Umweltprobleme direkte Auswirkungen auf das tägliche Leben und die Gesundheit haben, sie bejahen eine Reihe von Maßnahmen zum Umweltschutz und tragen als persönlich auch dazu bei. In diesem Überblick werden den Ergebnissen über die EU-Bürger (im EU-28 Mittel) die über die Österreicher erhobenen Daten gegenüber gestellt.

Um die Meinungen, Einstellungen und Verhaltensweisen der EU-Bürger im Zusammenhang mit der Umwelt zu erheben, gibt die EU-Kommission regelmäßig, im Abstand von drei Jahren, repräsentative Umfragen in Auftrag. So wurden in der jüngsten Umfrage, im Zeitraum 23. September bis 2. Oktober 2017, insgesamt 27 881 Personen aus allen 28 EU-Mitgliedstaaten - rund 1000 Personen je Mitgliedsland - befragt. Es waren dies persönliche (face to face) Interviews mit Personen ab 15 Jahren aus unterschiedlichen sozialen und demographischen Gruppen, in ihrem Heim und in ihrer Muttersprache. Die Themen waren folgende:

  • Allgemeine Einstellung zur Umwelt und Informationsquellen,
  • Auswirkungen von Umweltproblemen, Auswirkungen von Plastikprodukten und Chemikalien,
  • Maßnahmen um Umweltprobleme in Angriff zu nehmen
  • Rolle der EU im Umweltschutz,
  • Bekanntheit von EU-Gütezeichen (Eco-Labels) und Einstellung dazu,
  • Wahrnehmungen zur Luftqualität und Wege die Luftverschmutzung in den Griff zu bekommen

Die sehr umfangreichen Ergebnisse sind im Special Eurobarometer 468 auf 190 Seiten zusammengefasst [1].

Im Folgenden möchte ich einen Überblick über wesentliche Punkte dieser Umfrage geben. Um die übliche Blog-Länge nicht weit zu überschreiten, erscheint der Artikel in zwei Teilen. Im vorliegenden Teil 1 wird über die ersten drei oben angeführten Themen berichtet.

Eine überwältigende Mehrheit der EU-Bürger sagt Ja zum Umweltschutz

Im EU-28 Durchschnitt sagen 94 % der Befragten, dass ihnen Umweltschutz ein persönlich sehr wichtiges (56 %) oder ziemlich wichtiges (38 %) Anliegen ist.

Abbildung 1. Es ist dies eine Einstellung, die über die letzten 10 Jahre weitgehend unverändert geblieben ist und die man quer durch alle sozio-demographischen Bevölkerungsgruppen antrifft - von jung bis alt, vom Pensionisten bis zum Topmanager finden im EU-28 Durchschnitt 93 - 97 % der Befragten Umweltschutz wichtig.

Abbildung 1. Wie wichtig ist Umweltschutz für Sie persönlich? Daten von 27 881 Befragten (Bild adaptiert aus [1] QD1).

Österreich ist mit 85 % Befürwortern - wobei Umweltschutz nur für 41 % sehr wichtig ist - Schlusslicht unter den EU-Ländern, und der Anteil derer, die Umweltschutz für wenig oder überhaupt für völlig unwichtig erachten, liegt in Österreich bei rund 15 %. Dies ist kein einmaliger Befund: auch in den vergangenen 10 Jahren lag Österreich am Listenende. Bedenklich erscheint die drastische Zunahme der Desinteressierten seit der letzten Umfrage 2014.

Abbildung 2. Abbildung 2. Anteil der Befragten im EU-28 Mittel und in Österreich , für die Umweltschutz wenig oder überhaupt nicht wichtig ist. (Daten zusammengestellt aus [1 - 4]

Woher werden Informationen zur Umwelt bezogen?

Befragt nach den drei hauptsächlichen Informationsquellen (aus einer Liste von 11 Quellen) zu Umweltthemen, nannten die EU-Bürger nach wie vor zum überwiegenden Teil die Fernsehnachrichten; allerdings hat deren Bedeutung in den letzten Jahren stark abgenommen: im EU-28 Mittel von 73 % im Jahr 2011 auf derzeit 58 %. An zweiter Stelle stehen bereits Internet und soziale Netzwerke, die im EU-28 Mittel von 11 % im Jahr 2004 auf aktuell 42 % angestiegen sind. Informationen aus Fernsehdokumentationen (27 %) und aus Tageszeitungen (26 %) rangieren dahinter (Tageszeitungen als Quelle waren 2004 noch von 51 % der EU-Bürger genannt worden).

In Österreich geben nur mehr 49 % der Befragten die TV-Nachrichten als primäre Informationsquelle an (2014 waren es noch 55 %), an zweiter Stelle stehen hier die Tageszeitungen (38 %), die aber ebenso an Bedeutung eingebüßt haben (2014 waren es noch 49 %). Dies ist auch der Fall bei Fernsehdokumentationen (2014: 38 %) und bei Internet & Sozialen Netzwerken (2014: 41 %), die nun mit 34 % an dritter Stelle stehen. Die Informationsquelle "Familie, Freunde und Bekannte" hat in Österreich an Bedeutung gewonnen (2017: 21 %; 2014: 15 %), während sie im EU-Mittel gleich geblieben ist (2017: 14 %; 2014: 13 %); Information aus Zeitschriften (17 %) und Büchern (16 %) wird doppelt so häufig genutzt wie im EU-Mittel.

In der Wahl der Informationsquellen gibt es deutliche sozio-ökonomische Unterschiede: TV wird in wesentlich höherem Ausmaß von Personen mit niedrigem Bildungstand (71 %) als von solchen mit hohem Bildungstand (51 %) genannt, von der 55+ Generation häufiger (69 %) als von den 15 - 24 Jährigen (40 %), die wiederum Internet und soziale Netzwerke präferieren (70 % gegenüber 19 % der 55+ Personen).

Was sind die wichtigsten Umweltthemen?

Bei der Auswahl der 4 wichtigsten von insgesamt 13 Umweltthemen steht EU-weit der Klimawandel (51 %) an der Spitze, gefolgt von der Luftverschmutzung (46 %) und dem steigenden Abfallaufkommen (40 %). Die Verschmutzung der Gewässer wird von 36 % der Befragten genannt, die Verschmutzung der Landwirtschaft durch Pestizide, Düngemittel, etc. und die Bodenverschlechterung von 34 %.

Auch in Österreich ist sich mehr als die Hälfte (53 %) der Bürger des Problems Klimawandel bewusst. Von größerer Wichtigkeit erscheinen danach aber "Rückgang/Verlust von Arten, Habitaten und Ökosystemen" (42 %; EU-28: 33 %) und die Verschmutzung der Landwirtschaft durch Pestizide, Düngemittel, etc. und Bodenverschlechterung (41 %; EU-28: 34 %). Das steigende Abfallaufkommen (39 %) und die Verschmutzung der Gewässer (35 %) werden etwa gleich häufig genannt wie im EU-Mittel, die Verschmutzung von Luft (36 %) aber weniger häufig.

Auswirkungen von Umweltproblemen

Im Mittel geben 81 % der EU-Bürger an, dass sie mit Auswirkungen von Umweltproblemen auf das tägliche Leben und die Gesundheit rechnen – ähnliche Ergebnisse wurden auch in früheren Umfragen erhalten. Besonders ausgeprägt ist diese Ansicht in den Mittelmeerstaaten, weniger ausgeprägt in Skandinavien und Holland, wo bis zu ein Drittel der Befragten kaum oder gar keine Auswirkungen annehmen - in Österreich meinen Letzteres 22 %. Abbildung 3.

Abbildung 3. Der Großteil der EU-Bürger rechnet mit Umwelt-bedingten Auswirkungen auf das tägliche Leben und die Gesundheit (Bild adaptiert aus [1] QD5.3).

Ein besonderer Schwerpunkt der Erhebung wurde auf den Abfall von Gebrauchsgegenständen aus Kunststoff und auf Chemikalien in alltäglich angewandten Artikeln gesetzt.

Bezüglich der Auswirkungen von Kunststoffprodukten

waren im EU-28 Durchschnitt 74 % der Befragten sehr oder ziemlich besorgt über mögliche gesundheitliche Konsequenzen (in Österreich waren dies 76 %). Noch besorgter zeigten sich die Europäer, nämlich 87 % im EU-28 Mittel (und gleich viele in Österreich), über mögliche Konsequenzen von Kunststoffprodukten für die Umwelt.

Auswirkungen von Chemikalien

Mehr als von Plastikprodukten fühlen sich die EU-Bürger von Chemikalien in in alltäglich angewandten Produkten bedroht. Vor negativen gesundheitlichen Auswirkungen derartiger Stoffe fürchten sich im EU-28 Mittel 84 %, in Österreich 81 % der Befragten. Besonders ängstlich sind Bürger in einer Reihe von Mittelmeerländern (vor allem in Griechenland und Malta, wo 96 % besorgt sind), weniger ängstlich sind die Skandinavier und insbesondere die Holländer, von denen rund ein Drittel angibt unbesorgt zu sein.

Wie auch beim Plastikmüll sorgen sich noch mehr EU-Bürger - im EU-Mittel 90 %, in Österreich mit 87 % etwas weniger - um Auswirkungen von Chemikalien auf die Umwelt als um Auswirkungen auf die Gesundheit.

Was kann zum Umweltschutz getan werden?

Hier wurde eine Liste von 8 Maßnahmen vorgegeben. Aus diesen sollten bis zu 3 Maßnahmen ausgewählt werden, mit denen am wirksamsten Umweltprobleme in den Griff zu bekommen wären: das Ergebnis ist in Abbildung 4 aufgezeigt.

Dass Forschung und Entwicklung von technologischen Lösungen notwendig ist, sehen die EU-Bürger als wichtige Maßnahme. Wenig überraschend steht der Ruf nach mehr Geld für entsprechende Investitionen an der Spitze der Prioritäten von 9 Ländern (darunter auch von Österreich) und führt auch die EU-28 Liste an. Dahinter kommen dann Strafen für Umweltsünder, strengere Gesetze und bessere Einhaltung bestehender Gesetze. In Österreich kommt gleich nach den Investitionen für F&E ein weiterer Ruf nach Geld: der Wunsch nach finanziellen Anreizen für Unternehmer und Personen, die Maßnahmen für den Umweltschutz ergreifen.

Der Einführung von Steuern auf umweltschädigende Aktivitäten messen die meisten Staaten geringere Bedeutung bei.

Abbildung 4. Welche 3 Maßnahmen sind Ihrer Meinung nach die wirksamsten, um Umweltprobleme in den Griff zu bekommen? (maximal 3 Nennungen; Bild adaptiert aus QD 8[1])

Kann der Einzelne zum Umweltschutz beitragen?

Nahezu unverändert über die letzte Dekade stimmt der weitaus überwiegende Teil der EU-Bürger (87 %) dieser Frage voll (45 %) oder eher (42 %) zu. Nur 8 % im Mittel stimmen eher nicht zu und 2 % verneinen völlig. Die Zustimmung hängt dabei offensichtlich vom Bildungsgrad (Pflichtschulabschluß: 82 %, tertiäre Bildung: 91 %) und vom sozialen Status ab (Arbeitslose: 82 %, Arme 81 %, Führungskräfte: 92 -93 %).

In Österreich stimmen insgesamt 16 % eher nicht oder überhaupt nicht zu (ob dies die am Umweltschutz Desinteressierten 15 % in Abbildung 2 sind?).

Welche Beiträge dabei die Befragten im letzten Halbjahr leisteten, wurde an Hand einer Liste von 9 Handlungsarten abgefragt (Abbildung 5). Diese Tätigkeiten sind offensichtlich in der breiten Öffentlichkeit angekommen - jede davon wird in nahezu jedem Staat von einem beträchtlichen Anteil der Bürger ausgeübt. Insbesondere Schweden ist mit 55 - 87 % Beteiligung an 5 der 9 Aktivitäten ein positives Musterbeispiel.

Nur 8 % der EU-Bürger sagen, dass sie keine der gelisteten Aktivitäten ausgeführt hätten.

Abbildung 5. Welche der gelisteten Aktivitäten haben Sie im letzten Halbjahr ausgeübt? (Mehrfachnennungen möglich; Bild zusammengestellt aus QD 4 [1])

An der Spitze der angegebenen Aktivitäten steht im EU-28 Mittel mit 65 % die Mülltrennung, die ein Recyceln ermöglicht - in 23 Ländern der EU ist dies überhaupt die am häufigsten genannte Aktivität. In 5 Ländern hat der Kauf lokaler Produkte Vorrang - dazu gehört Österreich mit 64 % der Befragten. Auch in einigen anderen Punkten - Vermeidung von Plastik-Wegwerfprodukten und von Überverpackung ist Österreich aktiver als der EU-28 Durchschnitt.

Allerdings: die Vermeidung unnötiger Autofahrten wird in den meisten Ländern am wenigsten goutiert.

Fazit

Die Problematik von Klimawandel, Luft- und Wasserverschmutzung, steigendem Abfall, Bodenverschlechterung, Rückgang von Habitaten und Arten, etc. ist den EU-Bürgern bewusst und sie befürchten Konsequenzen für ihr tägliches Leben und ihre Gesundheit. Der Wunsch die Umwelt zu schützen findet daher breite Unterstützung, die EU-Bürger bejahen Maßnahmen und sind bereit dazu auch persönlich beizutragen.

Ein wichtiger Punkt ist allerdings die Frage wie mehr und vor allem relevante Information der Bevölkerung vermittelt werden kann, wie ein Bewusstwerden der komplexen Wechselbeziehungen im Ökosystem Umwelt und damit auch der Konsequenzen von Menschen-gemachten Eingriffen und Reparatur-Bemühungen erreicht werden kann. Die schwindende Bedeutung eines nur mehr auf Quote bedachten TV und von Printmedien, die zum Großteil auf Schlagzeilen abzielen, hat ein Informationsloch entstehen lassen, welches Internet und soziale Medien jedenfalls derzeit noch nicht seriös füllen können.


[1] Special Eurobarometer 468 (2017): Attitudes of European citizens towards the environment. http://bit.ly/2zHlpHR


Weiterführende Links

Eurobarometer

Artikel im ScienceBlog:

Schwerpunkt zum Thema Klimawandel und Einfluss auf Ökosysteme (dzt. 28 Artikel)

Schwerpunkt zum Thema Biokomplexität mit Fokus auf Ökosysteme

inge Thu, 16.11.2017 - 13:47

Der Ignaz-Lieben Preis - bedeutender Beitrag zur Förderung der Naturwissenschaften in Österreich

Der Ignaz-Lieben Preis - bedeutender Beitrag zur Förderung der Naturwissenschaften in Österreich

Do, 09.11.2017 - 06:12 — Robert Rosner

Robert RosnerIcon GebietDer Ignaz-Lieben Preis wurde im Jahr 1863 gestiftet, um im damaligen Kaiserreich die Naturwissenschaften zu fördern und Forscher für bahnbrechende Arbeiten auszuzeichnen. In den darauffolgende 72 Jahren gehörten viele der Laureaten der Weltspitze an, einige erhielten später auch den Nobelpreis. Auf Grund der Verfolgung der Stifterfamilie wurde der prestigeträchtige Preis im Jahr 1938 eingestellt und 66 Jahre später - dank der großzügigen Unterstützung von Alfred und Isabel Bader - im Jahr 2004 wieder ins Leben gerufen. Der Chemiker und Wissenschaftshistoriker Robert Rosner hat diese Reaktivierung initiiert; er gibt hier einen kurzen Überblick über Geschichte und Bedeutung des Lieben-Preises (ausführlich in [1]). An die Preisvergabe gekoppelt werden Veranstaltungen zu Themen der Wissenschaftsgeschichte abgehalten: das diesjährige Symposium über "Darwin in Zentraleuropa" findet eben (9. -10. November 2017) statt.

Eine Stiftung „für das allgemeine Beste“

Der Großhändler Ignaz L. Lieben hatte in seinem Testament verfügt, dass von seinem Vermögen 10.000 Gulden „für das allgemeine Beste“ verwendet werden sollten und überließ es seiner Frau und seinen Kindern, zu entscheiden, was mit diesem Geld geschehen werde (Abbildung 1).

Abbildung 1. Ignaz Lieben (1805 - 1862). Großhändler und Mäzen. Das "allgemeine Beste" war nach Meinung seines Sohnes Adolf die Naturwissenschaftenzu fördern.

Als er 1862 starb wurde von der Familie auf Vorschlag eines seiner Söhne, dem 1836 geborenen Adolf, entschieden, dass von dem Betrag 6000 Gulden verwendet werden sollten, um eine Stiftung zu schaffen, die dazu dienen sollte, hervorragende Arbeiten österreichischer Naturwissenschaftler mit einem Preis auszuzeichnen.

Wer war Adolf Lieben?

Adolf Lieben (Abbildung 2.), auf dessen Vorschlag die Stiftung geschaffen wurde, war selbst Chemiker.

Abbildung 2. Adolf Lieben (1836 - 1914). Der "Nestor" der Organischen Chemie in Wien. Er hat das bedeutendste Chemische Institut im Kaiserreich 31 Jahre lang geleitet.

Er hatte sein Studium in Wien bei den Liebig Schülern Josef Redtenbacher und Anton Schrötter begonnen und dann bei Robert Bunsen in Heidelberg abgeschlossen. Danach arbeitete Lieben zwei Jahre bei dem berühmten französischen Chemiker Charles Adolphe Wurtz in Paris. Nach seiner Rückkehr nach Österreich habilitierte er sich im Fach Organische Chemie im Jahre 1861.

Doch es gab zu dieser Zeit für Lieben keine Möglichkeiten in Österreich eine akademische Stellung zu erhalten: aufgrund des 1850 abgeschlossenen Konkordats waren nur Katholiken für einen akademischen Posten zugelassen und Lieben war Jude. Er war zwar dank des Vermögens der Familie weitgehend finanziell gesichert, aber es schien für ihn keine Möglichkeiten zu geben als Wissenschaftler in Österreich zu arbeiten. Auch eine Fürsprache des Dichters Franz Grillparzer, der ein Freund der Familie war, konnte daran nichts ändern.

Es ist umso bemerkenswerter, dass die Familie beschloss, einen großen Teil des Geldes, das Ignaz Lieben „für das allgemeine Beste“ hinterlassen hatte, der Akademie der Wissenschaften zur Verfügung zu stellen, um einen Preis zu stiften, mit dem die beste Arbeit eines österreichischen Naturwissenschaftlers ausgezeichnet werden sollte.

Um weiter wissenschaftlich arbeiten zu können, übersiedelte Lieben wenige Monate nach dem Tod seines Vaters wieder auf ein Semester nach Paris. Dort traf er den angesehenen italienischen Chemiker Stanislao Cannizzaro, der Lieben eine Stelle in Palermo anbot. Obwohl er anfangs zögerte dieses Angebot anzunehmen, entschloss sich Lieben im Herbst 1862 - in Anbetracht der Aussichtslosigkeit für eine akademische Laufbahn in Österreich - zu dem, wie er meinte, großen Abenteuer, die Stelle in Palermo anzunehmen.

1867 wurde Lieben an die Universität Turin berufen, nur ein Jahr nach dem österreichisch-italienischen Krieg von 1866. Als Österreicher stieß Lieben dort anfangs auf großen Widerstand bei Studenten und Kollegen.

Der Krieg von 1866, der mit einer österreichischen Niederlage gegen Preußen endete, führte in Österreich zu tief greifenden Veränderungen. Es kam zur Annahme der neuen Verfassung im Jahre 1867, durch die es auch Nichtkatholiken möglich wurde als Hochschulprofessoren berufen zu werden. Als 1871 die Lehrkanzel für Chemie in Prag frei wurde, erhielt Lieben eine Berufung dorthin. Obwohl sich Lieben inzwischen in Turin sehr wohl fühlte, und Prag ihn wegen der ständigen Reibungen zwischen Tschechen und Deutschen nicht anzog, glaubte er doch, dass er eine Berufung nach Österreich nicht ablehnen könne.

1875 wurde Adolf Lieben nach Wien berufen, um die Leitung des 2. Chemischen Instituts der Universität Wien, des wichtigsten Instituts für Organische Chemie im ganzen Reich, zu übernehmen. Die Berufung erfolgte 1875 am Höhepunkt der Liberalen Ära in Österreich. Es gab daher wenig Widerstand gegen seine Berufung trotz seiner jüdischen Herkunft. Lieben leitete dieses Institut 31 Jahre lang bis zu seiner Emeritierung im Jahre 1906 und er konnte ganze Generationen von Chemikern ausbilden, die später führende Positionen an anderen Hochschulen übernahmen.

Die Ignaz Lieben Stiftung - erste Stiftung zur Förderung der Naturwissenschaften in Österreich

Der Betrag von 6000 Gulden, mit dem auf Familienbeschluss die Stiftung geschaffen wurde, wurde in 5%ige Pfandbriefe der k. k. österreichischen Nationalbank angelegt. Diese wurden der kaiserlichen Akademie der Wissenschaften übergeben und sollten immerwährend der Förderung wissenschaftlicher Forschung auf den Gebieten der Physik und Chemie gewidmet sein. Mit den Zinsen sollte alle drei Jahre abwechselnd die Arbeit eines Chemikers oder eines Physikers ausgezeichnet werden. Die Zinsen betrugen also nach 3 Jahren 900 Gulden. Damit man sich ein Bild vom Stellenwert dieses Preises machen kann:

Ein Universitätsprofessor verdiente damals im Jahr etwa 2000 Gulden. Wenn also ein jüngerer Wissenschaftler als Anerkennung für seine Arbeit den Lieben Preis in der Höhe von 900 Gulden erhielt, war es für ihn nicht nur eine Ehre sondern auch materiell von großer Bedeutung.

Die Ignaz Lieben Stiftung war die erste Stiftung, die die noch junge Akademie der Wissenschaften in den 15 Jahren ihres Bestehens erhalten hatte. Es kam in dieser Zeit in Wien häufig vor, dass Angehörige des gehobenen Bürgertums einen Teil ihres Erbes für soziale oder kulturelle Zwecke widmeten. Zur Förderung der Naturwissenschaften gab es jedoch vor der Lieben Stiftung keinerlei Stiftungen. Angeregt durch das Beispiel der Familie Lieben wurden in den folgenden Jahren allmählich auch andere Stiftungen zur Förderung der Naturwissenschaften geschaffen. Aber erst ab 1890 kam es zu einer wesentlichen Erhöhung der Zahl derartiger Stiftungen, die von der Akademie der Wissenschaften verwaltet wurden. Erst dadurch wurde es für die Akademie möglich, eine größere Anzahl Preise für naturwissenschaftliche Arbeiten zu vergeben.

Aufstockungen des Lieben-Preises

Im Verlauf der Zeit wurde die Lieben Stiftung mehrmals aufgestockt: 1898 mit 36 000 Kronen und 1908 mit weiteren 18 000 Kronen.

Die Erweiterung der Ignaz Lieben Stiftung im Jahre 1898 durch die Brüder Lieben Stiftung mit 36 000 Kronen machte es möglich den Lieben Preis jährlich zu vergeben: neben der Physik und der Chemie wurde nun auch die Physiologie als Fachrichtung genannt. Damit erhielt die Lieben Stiftung eine wesentlich größere Bedeutung.

Ein eigenes Kapitel der Lieben Stiftungen war der 1908 gestiftete Richard Lieben Preis, der mit 18 000 Kronen dotiert war. Mit den Zinsen dieser Stiftung sollte alle 3 Jahre eine hervorragende Arbeit eines österreichischen Mathematikers ausgezeichnet werden.

Als durch die Inflation nach dem ersten Weltkrieg die Krone wertlos wurde, beschlossen Fritz und Heinrich Lieben, die Söhne Adolf Liebens, im Jahre 1924 jährlich einen Betrag zu spenden damit der Lieben Preis weiter vergeben werden konnte. Im Inflationsjahr 1924 waren es 10 Millionen Kronen und in den folgenden Jahren bis 1937 1000 Schilling.

Die Schrecken des Jahres 1938 bedeuteten auch das Ende der ursprünglichen Lieben Stiftung. Friedrich Lieben konnte noch flüchten. Sein Bruder Heinrich Lieben wurde kurz vor Kriegsende im Konzentrationslager Buchenwald ermordet.

Die Kriterien

Im Juli 1863 erhielt der Stiftbrief die endgültige Fassung. Darin wurde genau festgelegt, dass abwechselnd der Autor der besten Arbeit auf dem Gebiet der Physik, einschließlich der physiologischen Physik und der Autor einer Arbeit auf dem Gebiet der Chemie, einschließlich der physiologischen Chemie den Lieben Preis erhalten sollte. Weiters hieß es:

„Als preiswürdig sind im allgemeinen nur solche Arbeiten zu betrachten, welche durch neue Entdeckungen die Wissenschaft bereichern oder in einer Reihe bereits bekannter Tatsachen die gesetzmäßigen Beziehungen aufgeklärt haben.“

Preisträger konnten nur Österreicher werden, auch ausgewanderte oder naturalisierte Österreicher.

Die Auswahl sollte von einer Kommission getroffen werden, die von der mathematisch –naturwissenschaftlichen Klasse der Akademie gewählt wurde. Den Kommissionen gehörten führende Professoren des jeweiligen Fachgebietes an. Die Vorsitzenden waren gewöhnlich Wissenschaftler von großem Ansehen, die oft Kandidaten auswählten, die in ihrer eigenen Fachrichtung bedeutende Leistungen erbracht hatten.

Viele der Preisträger des Lieben Preises wurden später selbst Mitglieder der Akademie der Wissenschaften.

Die Preisträger

Von 1865 bis 1937 wurden insgesamt 55 Forscher ausgezeichnet. Eine Liste der Preisträger findet sich unter [2, 3]. Wenn man sich die Fachgebiete der Laureaten anschaut, so kann man die Forschungsschwerpunkte dieser Zeit unschwer erkennen.

Physik-Preise

Der erste Lieben Preis 1865 war für einen Physiker vorgesehen. Die Kommission beschloss den damals 30 Jahre jungen Josef Stefan mit dem Preis für eine Arbeit auf dem Gebiet der Optik (Doppelbrechung) auszuzeichnen. Auch 6 Jahre später wurde von einer Kommission, der nun auch Stefan angehörte, der Preis wieder für eine Arbeit auf dem Gebiet der Optik (optische Eigenschaften von Kristallen) vergeben, an Leander Dietscheiner.

Die folgenden drei Preise für Physik in den Jahren 1877, 1883 und 1889 bekamen nicht Physiker sondern Physiologen: Sigmund Exner erhielt den Preis zweimal (für das erste Modell eines neuronalen Netzwerkes . Erst 1895 wurde der Lieben Preis wieder an reine Physiker, an Josef Maria Eder für "Wissenschaftliche Photographie" und Eduard Valenta für das "Auffinden von Spektrallinien mit Hilfe der wissenschaftlichen Photographie" vergeben.

Die Kommissionen, die die Preise für physikalische Arbeiten in den Jahren 1901, 1904 und 1907 vergaben, waren offenbar durch Julius Hann, den Professor für Meteorologie und Geodynamik beeinflusst; sein Assistent Josef Liznar erhielt 1901 den Preis für Messungen der erdmagnetischen Kraft , 1904 wurde er an Franz Schwab für eine klimatologische Untersuchung vergeben und 1907 erhielt ihn Hans Benndorf für Untersuchungen der Erdbebenwellen.

Als Ergebnis des wachsenden Interesses für die Kernphysik wurden die Preise in den Jahren 1910, 1913, 1916 und 1919 an Experimentalphysiker vergeben, deren Arbeiten meistens in Zusammenhang mit dem neu gegründeten Radium Institut standen. 1910 an Felix Ehrenhaft ("Elementarladung"), 1913 an Stefan Meyer (Radioaktivitätsforschung"), 1916 an Fritz Paneth ("Radioaktive Tracermethoden") und 1919 an Victor Hess ("Kosmische Strahlung").

Als 1925 Lise Meitner mit einem einhelligen Beschluss den Preis erhielt, wurde diese Wahl mit einem fast prophetischen Satz begründet: Er lautete: „Die Ergebnisse der Untersuchungen bilden die Grundlage für ein tieferes Eindringen in die Erkenntnisse des Atomkernbaus der radioaktiven Substanzen und weitergehend der Konstitution der Grundstoffe“ . Abbildung 3.

Abbildung 3. Lise Meitner erhält den Liebenpreis (Bild: http://www.i-l-g.at/ignaz-lieben-preis/preistraeger/)

Die letzten Lieben Preise für Physik wurden an Wiener Forscher vergeben, 1929 an Karl Przibram (Radiophotolumineszenz), 1934 an Eduard Haschek (Farbenlehre) und 1937 an Marietta Blau und Hertha Wambacher (Kernzertrümmerung).

Chemie-Preise

Der erste Lieben Preis auf den Gebiet der Chemie ging 1868 an Chemiker, die versuchten durch Synthese einfacher Moleküle Strukturfragen zu klären. Der Preis wurde zwischen dem Ungarn Karl Than und dem Lemberger Eduard Linnemann geteilt. In den folgenden Jahrzehnten wurden meistens Arbeiten in Erwägung gezogen, die in Zusammenhang mit der Forschung auf dem Gebiet der Naturstoffchemie und besonders der Alkaloide standen - ab Mitte des 19. Jahrhunderts einem der wichtigsten chemischen Forschungsgebiete in Österreich. 1886 erhielt Zdenko Skraup den Preis für die Chinolin Synthese, die bei der Erforschung der Chinin Alkaloide von großer Bedeutung war, und im Jahre 1892 Guido Goldschmiedt, der Vorstand des chemischen Instituts in Prag, für seine Alkaloidforschung.

Erst zu Beginn des 20. Jahrhunderts wurden die Preise für Arbeiten auf dem Gebiet der Farbstoffchemie vergeben, einem Fachgebiet, das in Österreich lange vernachlässigt worden war, während es ja in Deutschland gewaltige Fortschritte gab. 1902 erhielt Josef Herzig den Preis für Naturfarbchemie und 1908 Paul Friedlaender für synthetische Farben.

Im Jahre 1905 wurde erstmals der Preis für eine physikalisch-chemische Arbeit - Reaktionskinetik - an Rudolf Wegscheider vergeben Als sich in Graz die mikrochemische Schule zu entwickeln begann, erhielt 1911 Friedrich Emich für anorganische Mikroanalyse den Lieben Preis und 1914 Fritz Pregl für organische Mikroanalyse. Doch in der Folge waren es aber immer wieder Organische Chemiker, wie Wilhelm Schlenk oder Ernst Späth, die den Lieben Preis für Chemie erhielten.

Bei der Preisvergabe für Chemie in den Zwanziger- und Dreißigerjahren gab es auch öfters längere Diskussion mit vielen Vorschlägen bevor sich die Kommission einigte. 1930 wurde der Preis für die Passivierung von Metallen an Wolf J. Müller vergeben und 1935 an Armin Dadieu für eine Arbeit über Raman Spektren.

Physiologie-Preise

Die Preisträger für Physiologie wurden aus den verschiedensten Fachgebieten ausgewählt So erhielt Karl v. Frisch die Auszeichnung für seine Arbeiten über die Bienen, Otto Loewi für die Untersuchungen der Nervenübertragung am Herzen oder der Hormonforscher Eugen Steinach für Forschungen über Pubertätsdrüsen bei Säugetieren.

Mathematik-Preise

Der erste Preis wurde 1912 an den slowenischen Mathematiker Josip Plemelj vergeben, der an der Universität Czernowitz unterrichtete und das letzte Mal 1928 an Karl Menger.

Spiegelbild der österreichischen Forschung

In den rund 70 Jahren ihrer Existenz bot die Lieben Stiftung ein wahres Spiegelbild der österreichischen Forschung auf dem Gebiet der Naturwissenschaften. Die meisten mit dem Lieben-Preis ausgezeichneten Forscher waren noch jünger [2] und hatten bereits hervorragende Beiträge in ihren Fachgebieten geliefert - Arbeiten, die sie weltberühmt machten, erschienen erst viele Jahre nachdem sie den Lieben Preis erhalten hatten. Dies war beispielsweise bei Liese Meitner der Fall. Oder auch bei den vier Lieben Preisträgern, die später den Nobelpreis erhalten sollten (Abbildung 4): Karl von Frisch bekam den Nobelpreis 52 Jahre nach dem Lieben-Preis, bei Otto Loewi waren es 12 Jahre danach, bei Victor F.Hess 17 Jahre und bei Fritz Pregl 9 Jahre später.

Abbildung 4. Lieben-Preisträger, die später den Nobelpreis erhielten. ( http://www.i-l-g.at/ignaz-lieben-preis/preistraeger/ )

Bei anderen stand der Lieben Preis am Beginn ihrer wissenschaftlichen Karriere. Sie übernahmen dann die Leitung der wichtigsten Institute wie etwa Siegmund Exner, Rudolf Wegscheider oder Ernst Späth, die sie dann Jahrzehnte lang führten und die wissenschaftliche Entwicklung in ihren Fachgebieten so prägten.

Eine Reihe von Preisträgern hatte Methoden entwickelt, die als Grundlage für die verschiedensten Wissenschaftszweige dienten wie die von Josef Eder entwickelte Wissenschaftsfotografie, die Mikrochemie von Friedrich Emich und Fritz Pregl, die Isotopentechnik von Friedrich Paneth oder die photographische Methode für die Kernphysik von Marietta Blau.

Über mehrere Generationen hinweg hat die Familie Lieben die naturwissenschaftliche Forschung in Österreich großzügig gefördert. Das Jahr 1938 bedeutete die Vertreibung der Familie Lieben und das Ende der Stiftung. Von den katastrophalen Ereignissen dieser Zeit waren auch etliche Lieben-Preisträger betroffen.

Die Lieben Stiftung geriet nach dem Krieg in Vergessenheit und wurde erst durch das Lieben Projekt wieder ins Leben gerufen [4], das 2004 durch die Unterstützung von Alfred und Isabel Bader zur Wiederherstellung des Lieben-Preises führte [5]. In Erinnerung an den ursprünglichen Lieben Preis, den Wissenschaftler aus dem österreichischen Kaiserreich erhielten, wird jetzt der neu geschaffene Lieben Preis an Wissenschaftler aus einem der Länder vergeben, die einst zur Österreich-Ungarn - gehörten. Abbildung 5 zeigt das Plakat, mit dem die Österreichische Akademie der Wissenschaften 2004 die erste Ausschreibung bekanntgab: sieben Farben und sieben Sprachen stehen für die Länder Bosnien-Herzegowina, Kroatien, Slowakei, Slowenien, Tschechien, Ungarn und Österreich.

Abbildung 5. Die erste Ausschreibung des neugeschaffenen Lieben-Preises auf dem Gebiet der Molekularbiologie, Chemie und Physik im Jahr 2004. (Bild: http://www.i-l-g.at/fileadmin/ILG/docs/lieben-plakat-oeaw-scan.jpg) 


[1] Robert Rosner (2004): Adolf Lieben und die Lieben Stiftung. http://www.i-l-g.at/fileadmin/ILG/symposium/2004/Rosner_2004.pdf

[2] Preisträger des Ignaz L. Lieben-Preises: http://www.i-l-g.at/fileadmin/ILG/symposium/2004/Preistraeger.pdf

[3] Lieben-Preis. https://de.wikipedia.org/wiki/Lieben-Preis

[4] Christian Noe (06.12.2013): Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

[5] Stiftungsurkunde 2003: http://www.i-l-g.at/fileadmin/ILG/docs/Stiftungsurkunde_1.pdf


Weiterführende Links

Artikel von/über Lieben-Preisträger(n) im ScienceBlog:

 

inge Thu, 09.11.2017 - 06:12

Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Ein modifiziertes Poliovirus im Kampf gegen bösartige Hirntumoren

Do, 02.11.2017 - 8:47 — Ricki Lewis

Ricki LewisIcon MedizinDer als Vater der Immuntherapie geltende amerikanische Chirurg William Coley hat bereits vor mehr als hundert Jahren Krebspatienten mit bestimmten Bakterien ("Coley-Toxins") infiziert, worauf die einsetzende Immunantwort Tumoren zum Verschwinden bringen konnte. Über lange Zeit wurde diese, über die Stimulierung des Immunsystems verlaufende Strategie ignoriert und erst jüngst von Forschern der Duke University wieder aufgegriffen: diese konnten einige an fortgeschrittenem Glioblastom erkrankte Patienten mittels eines modifizierten Poliovirus erfolgreich behandeln. Wie dabei das Immunsystem stimuliert und zum Kampf gegen Tumorzellen umdirigiert wird, ist Gegenstand neuester Studien, welche die Genetikerin Ricki Lewis hier zusammenfasst..*

Bestimmte Dinge haben eine natürliche Abfolge: so kommt das Frühstück vor dem Mittagessen, die Kindheit vor dem Erwachsenwerden, der Herbst vor dem Winter. Ich war deshalb überrascht als ich letzte Woche über Versuche an der Duke University gelesen habe, in denen man Krebs in menschlichen Zellen und in Mäusen mit einem manipulierten Poliovirus behandelt hat. Es hatte doch bereits im Jahr 2015 die TV News-Show "60 Minutes" über vier Patienten berichtet, deren Hirntumoren auf eben derartige Weise behandelt worden waren!

Finden denn präklinische Untersuchungen - an Zellkulturen und Tiermodellen - nicht vor den klinischen Untersuchungen am Menschen statt?

Ich begann zu recherchieren.

Der immunologische Background

Die Idee, eine gegen ein Pathogen gerichtete Immunantwort umzuleiten, um so Krebs zu bekämpfen, geht auf das späte 19. Jahrhundert zurück. Damals hatte William Coley, ein Arzt aus Manhattan, bemerkt, dass der Nackentumor eines Patienten geradezu dahin schmolz, als dieser sich eine schlimme Streptokokkeninfektion der Haut (ein Erysipel, Anm. Red.) zugezogen hatte. Nachdem Coley Beschreibungen mehrerer derartiger Fälle entdeckt hatte, begann er zu experimentieren indem er einigen Krebspatienten einen von Bakterien durchsetzten Schleim in Risse ihrer Haut rieb. Daraufhin schrumpften jedes Mal die Tumoren. Dieser Ansatz - unter Coley's Toxine bekannt - blieb aber viele Jahrzehnte lang unbeachtet.

Das Immunsystem hat zwei Verteidigungslinien

mit denen es Pathogene inklusive Viren und ebenso Krebszellen und transplantierte Zellen bekämpft:

  • eine unmittelbare Antwort, die allgemeiner Art und angeboren ist und
  • eine langsamere Antwort, die adaptiv und spezifischer ist.

Die Abwehr beginnt damit, dass ein Pathogen auf "Wächter"zellen (sogenannte Antigen-präsentierende Zellen) trifft, d.i. auf Makrophagen und dendritische Zellen. Diese Zellen sind an ihren Oberflächen mit Rezeptorproteinen (sogenannten Toll-like Rezeptoren) überzogen, die wie Klettverschlüsse an Moleküle unterschiedlicher Pathogene binden. Eine derartige Bindung löst nun Kaskaden von biochemischen Signalen aus, welche die angeborene Immunantwort starten: die Zellen schütten antivirale Moleküle aus (Komplement, Collectine, Interferone) und leiten die adaptive Immunantwort ein, welche T-Zellen triggert mehr Interferone auszuschütten und Antikörper produzierende B-Zellen zu aktivieren.

Gliazellen als Ausgangsort von Hirntumoren

Das Gewebe des Zentralnervensystems besteht aus den Nervenzellen (Neuronen) und den noch zahlreicheren Gliazellen. Abbildung 1. Eine Immuntherapie gegen Hirntumoren zielt auf die Gliazellen, speziell auf die sternförmigen Astrozyten, ab. Früher hatte man angenommen, dass Gliazellen nur dazu da sind um Lücken zu füllen und Neuronen zu unterstützen (etwa wie in den 50er Jahren die Rolle der Hausfrau wahrgenommen wurde), tatsächlich sind sie aber ein essentieller Teil des Signalsystems im Gehirn.

Abbildung 1. Ein sternförmiger Astrozyt (hellgrün gefärbt). Die blauen Signale (DNA-Färbung) stammen von Zellkernen benachbarter Zellen.

Neuronen teilen sich üblicherweise nicht mehr; deren DNA hat daher nicht mehr die Gelegenheit in eine Krebs -Form zu mutieren. Die Gliazellen proliferieren aber und Krebs-entartete Glias - Gliome - teilen sich explosionsartig.

Der Einsatz eines modifizierten Poliovirus

In der Mitte der 1990er Jahre hatte Matthias Gromeier (damals an der Stony Broke University, NY) die Idee mit Hilfe von Polioviren rezidivierenden Gliomen den Kampf anzusagen und im Jahr 2000 beschrieb er in einem Artikel das, was heute unter PVSRIPO (Polio Virus Sabin-Rhinovirus Poliovirus) bekannt ist.

PVSRIPO ist eine veränderte, abgeschwächte ("Sabin") Polio Lebendvakzine, die nicht in Nervenzellen hineingehen kann. (Zusätzlich trägt PVSRIPO ein Stück des Rhinovirus, das beim Menschen Schnupfen verursacht.) Im Gegensatz dazu infiziert der Polio-Wildtyp Motorneuronen in Hirnstamm und Rückenmark von Primaten und verursacht bei 1 - 2 % der Menschen "schlaffe Paralyse". Das Polio- Virus infiziert auch Gliazellen indem es sich an ein Protein (CD 155) heftet, das in besonders hoher Dichte in den Zellmembranen von Glioma-Zellen sitzt. Abbildung 2. (Normalerweise - wenn es nicht an Polioviren bindet - bewirkt CD155 interzelluläre Verbindungen zwischen Epithelzellen.)

Abbildung 2. Wie das Poliovirus an das Rezeptorprotein CD155 bindet. Links: Der extrazelluläre Teil des CD155 (lila) bindet an ein Protein der Virushülle (Kapsid). Diese setzt sich aus Kopien von 4 Proteinen zusammen. (Bild: Kristallstrukturanalyse des Poliovirus; gemeinfrei). Rechts: CD155 kann an verschiedenen Stellen des Virus andocken. (Bild: Kryoelektronenmikroskopie, rekonstruiert; Nuris, Wikimedia Commons CC BY-SA 4.0 )

In den ersten Experimenten zeigte sich nun, dass PVSRIPO in vitro von Gliomazellen aufgenommen wurde, die man Patienten operativ entfernt und in Zellkultur gebracht hatte und in vivo im Modell Maus Gehirntumoren besiegte.

Das modifizierte Poliovirus PVSRIPO ist also nicht Verursacher von Polio, sondern eine Vakzine. Es generiert ein Heer von weißen Blutkörperchen -von Neutrophilen, dendritischen Zellen und T-Zellen -, welche denTumor direkt angreifen oder die Immunabwehr auf die Tumorzellen richten.

Ein monströser Tumor

Glioblastoma multiforme geht von Astrozyten aus und ist das Schlimmste vom Schlimmen ("der Terminator", wie er in einem Editorial zu dem Gromeier-Artikel im Jahr 2000 bezeichnet wurde). Abbildung 3.

Abbildung 3. Glioblastoma multiforme. Koronare Schnittfläche. Der teilweise nekrotische Tumor links hat sich auch im Bereich des Balkens (Mitte) ausgebreitet. (Bild: Sbrandner, Wikimedia Commons, cc-by-sa 4.0)

"Multiforme" bezieht sich dabei auf die unzähligen Wege, mit denen der Tumor das Hirn einnimmt. Er produziert Gebiete des Zerfalls oder von Blutungen, während sich überall mikroskopisch kleine Tentakeln entrollen - möglicherweise eine Reminiszenz an das schnelle Wachstum des Gehirns im Embryo. Eine Operation kann die Tumormasse verringern, Bestrahlungen und Chemotherapie (mit dem oralen Wirkstoff Temozolomid) können helfen - immer werden jedoch einige Tentakeln übrigbleiben. Die Genome der Tumorzellen sind übersät mit Mutationen. Veränderte, zusätzliche und fehlende DNA-Basen sabotieren die Signale, welche den Zyklus der Zellteilung regulieren.

Die im Jahr 2000 von Gromeier und Kollegen aufgestellte Hypothese war es nun, dass das Poliovirus eine Immunantwort gegen Glioma-Zellen erzeugen könnte. Ihrer Überzeugung nach würde das zu einem Zerplatzen oder Lysieren der Zellen führen. So entstand das "Onkolytische Poliovirus gegen Tumoren des Menschen", dem schließlich am 3. August 2017 ein Patent zugeteilt wurde. Es sollte sich herausstellen, dass dieses PVSRIPO viel mehr konnte, als die Entdecker im Jahr 2000 angenommen hatten.

Klinische Studien

Der Weg, der von einer überzeugenden Idee zu präklinischen Untersuchungen an Zell(kultur)en und Versuchstieren zu klinischen Studien führt, dauert üblicherweise ein Jahrzehnt und länger. Die PVSRIPO–Saga bildet dabei keine Ausnahme.

Die Phase 1 Studie in der Klinik, von der die TV-News 2015 berichteten und ein Jahr später dies aktualisierten, war 2011 bei den Behörden eingereicht worden und der erste Patient wurde im Mai 2012 behandelt. Für diese Studie waren insgesamt 61 Patienten vorgesehen, die TV-Show verfolgte vier davon. Alle hatten maligne Gliome Grad IV (d.i. die höchste Stufe) und erhielten das Virus über Katheter, die - unter MRI-Kontrolle - direkt in die Tumormasse geleitet wurden.

Um die Untersuchung zu sponsern, gründete das Forscherteam die Firma Istari Oncology.

Der aktuelle Status: man ist nun bereits in der 2. klinischen Phase und hat das Chemotherapeutikum Lomustin zugefügt, das früheren Patienten geholfen hat. Eine unabhängige Studie wird die Sicherheit und Wirksamkeit auch in Kindern prüfen, bei denen Gliome aber selten auftreten.

FDA: PVSRIPO ein therapeutischer Durchbruch

Die Ergebnisse waren so überzeugend, dass die FDA im Mai 2016 dem PVSRIPO den Status "Therapie Durchbruch" verliehen hat; dies beschleunigt vermutlich die weitere Entwicklung.

Aus den entsprechenden Daten geht hervor, dass die mittlere Überlebenszeit behandelter Patienten auf 12,6 Monate gestiegen war (gegenüber 10,5 Monaten unbehandelter "historischer Kontrollen") und nach zwei Jahren noch 23,3 % der behandelten Patienten am Leben waren (gegenüber 13,7 % der Kontrollen) . Nach Meinung der Forscher sollten höhere Dosen PVSRIPO zu einer noch besseren Wirksamkeit führen. (Allerdings, als die Dosis dann erhöht wurde, verursachte dies bei einer Patientin eine extrem starke Entzündung mit letalen Folgen.)

Ein erwähnenswerter Erfolg zeigte sich bei einer jungen Schwesternschülerin, Stephanie Lipscomb, die 2012 behandelt worden war. Sie ist in Facebook und es geht ihr heute offensichtlich gut: sie wurde Mutter, ist nun Krankenschwester und gilt in den Medien als "tumorfrei". Dass Mikrometastasen bestehen können, dass einige übriggebliebene Gliomzellen, die den Poliorezeptor nicht tragen, zu einer Rekurrenz des Glioms führen, kann zweifellos nicht ausgeschlossen werden.

Wie funktioniert PVSRIPO?

Um zu verstehen, wie PVSRIPO die Gliom-Zellen für das Immunsystem markiert/sichtbar macht, führt Gromeier zusammen mit dem Immunologen Smita Nair und anderen Kollegen Untersuchungen fort, die - wie eingangs erwähnt - an humanen Krebszellen in Zellkultur erfolgen:

PVSRIPO lässt - wie erwartet -die Zellen platzen. Unerwartet ist aber, dass auch die angeborene Immunantwort aktiviert wird und eine Entzündung auslöst. Dafür könnte das - eingangs erwähnte - Stückchen Rhinovirus verantwortlich sein, das dem modifizierten Poliovirus angefügt wurde. Dieses kann den Ball zum Rollen bringen, indem es dendritische Zellen aktiviert, worauf diese Interferone ausschütten und T-Zellen aktivieren und diese schließlich an die Antigene an der Tumoroberfläche andocken. Abbildung 4 fasst diese Kaskade von Reaktionen zusammen.

Abbildung 4. Wie das modifizierte Poliovirus PVSRIPO Tumorzellen bekämpft: 1) Direkter Angriff des Poliovirus erfolgt durch Bindung an die zahlreich auf den Tumorzellen vorhandenen CD155 Rezeptoren (1 - 3). 2) Infektion von dendritischen Zellen führt zur Stimulation von T-Zellen, die den Tumor zerstören (4 - 6).

Das Poliovirus tötet also nicht nur die Tumorzellen auf direkte Weise, es infiziert auch die dendritischen (Antigen-präsentierenden) Zellen, die nun eine Antwort der T-Zellen auslösen, welche Tumorzellen erkennen und das Tumorgewebe infiltrieren können.

Die neuen präklinischen Befunde sind eine Basis für die nächste Runde an klinischen Untersuchungen. Eine erfolgversprechende Idee steht auf dem Prüfstand (wenngleich diese schon ein Jahrhundert auf dem Buckel hat): eine auf eine Infektion erfolgende Immunantwort umzuleiten, sodass sie nun Krebs bekämpft.


Literatur

Coley WB. Contribution to the knowledge of sar­coma. Ann Surg 1891;14:199-220. (open access).

Gromeier M et al., (2000). Intergeneric poliovirus recombinants for the treatment of malignant glioma. Proc Natl Acad Sci U S A. 2000 Jun 6;97(12):6803-8. (open access) Information zu Glioblastoma: http://www.abta.org/brain-tumor-information/types-of-tumors/glioblastoma...

Brown MC et al., (2017) Cancer immunotherapy with recombinant poliovirus induces IFN-dominant activation of dendritic cells and tumor antigen–specific CTLs . Science Translational Medicine 20 Sep 2017: Vol. 9, Issue 408, eaan4220 DOI: 10.1126/scitranslmed.aan4220


*Der Artikel ist erstmals am 28. September 2017 in PLOS Blogs - DNA Science Blog unter dem Titel "Poliovirus To Treat Brain Cancer: A Curious Chronology " erschienen ( (http://blogs.plos.org/dnascience/2017/09/28/poliovirus-to-treat-brain-ca... ) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Der Artikel wurde geringfügig gekürzt; die Übersetzung folgt jedoch so genau wie möglich der englischen Fassung. Von der Redaktion eingefügt: Beschriftung der Abbildungen, Untertitel.


Weiterführende Links

Coley's Toxins: The History Of The Worlds Most Powerful Cancer Treatment. (englisch; 9:22; Standard-YouTube-Lizenz)

Targeting Cancer with Genetically Engineered Poliovirus. (u.a. M. Gromeier) (Englisch – 10:47; Standard-YouTube-Lizenz).


 

inge Thu, 02.11.2017 - 08:47

Biologische Klebstoffe – Angriff und Verteidigung im Tierreich

Biologische Klebstoffe – Angriff und Verteidigung im Tierreich

Do, 26.10.2017 - 11:16 — Janek von Byern & Norbert Cyran

Janek von Byern Norbert CyranIcon BiologieZahlreiche Tierarten produzieren unterschiedlichst zusammengesetzte Klebstoffe, um einerseits Angreifer abzuwehren oder um selbst anzugreifen, Beute zu machen. Die Zoologen Janek von Byern (Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie, Wien) und Norbert Cyran (Universität Wien) untersuchen seit mehr als einem Jahrzehnt Organismen aus aller Welt, die Klebstoffe produzieren und charakterisieren deren Komponenten. Ihr Ziel ist es, die Klebewirkung derartiger Substanzen zu verstehen und diese für medizinische Anwendungen am Menschen - beispielsweise in der Chirurgie oder in der Wundheilung - nachzubauen und zu optimieren. Janek von Byern leitet darüber hinaus das EU-Netzwerkprojekt “European Network of BioAdhesives (ENBA)”..*

Organismen verwenden biologische Klebstoffe nicht nur, um sich am Untergrund festzukleben - wie dies im Pflanzenreich beispielsweise bei Orchideen oder Efeu, im Tierreich bei Muscheln und Seepocken der Fall ist - sondern nutzen ihre klebrigen Sekrete auch zu ihrer Verteidigung und/oder zum Angriff, um Beute zu fangen. Über Millionen von Jahren haben die jeweiligen Produzenten genutzt, um ihre Klebstoffe an die entsprechenden Verwendungszwecke und die Umweltbedingungen zu adaptieren. Dies hat zu einer enormen Vielfalt an Klebstoffsystemen geführt, die sich in der chemischen Zusammensetzung, physikalischen Haftkraft und Komplexizität deutlich voneinander unterscheiden. Je nach Lebensraum und Notwendigkeiten können die Tiere auf verschiedensten Oberflächen (hart, weich, biologisch, rauh, schmutzig, nass), unter Wasser und kalten Bedingungen (4°C) eine irreversible oder temporäre Klebeverbindung herstellen. Einige Klebstoffe wirken unmittelbar nach Sekretion in Sekundenschnelle, während andere den Umwelteinflüssen wochenlang ausgesetzt sind und dennoch im Moment eines Kontakts noch die Fähigkeit haben, zu kleben.

Aber nicht nur Tiere und Pflanzen nutzen Klebstoffe, auch wir Menschen verfügen über ein eigenes Klebstoffsystem, das Fibrin, das vor allem bei der Wundheilung zum Tragen kommt.

Kleben statt nähen

Biologische Klebstoffe sind nicht nur für die Wissenschaft ein spannendes Thema, die Systeme haben auch ein enormes Potential gegenüber bestehenden synthetischen Produkten aus der Kosmetik und Medizin, die vorwiegend gesundheitsschädliche Inhaltsstoffe aufweisen. Während marine Klebstoffe - wie die der Muschel oder Seepocke - vor allem für die Chirurgie und Geweberegeneration technische Alternativen bieten, sind Kleber von terrestrischen Tieren wie dem Salamander oder den Hundertfüssern für die äußere Wundheilung vorteilhaft. Anderes als die meisten derzeitigen medizinischen Dependants, sind biologische Klebstoffe biokompatibel und bauen sich von selbst über die Zeit ab. Wobei man erwähnen muss, dass in der Klinik nicht nur „giftige“ Klebstoffe zum Einsatz kommen. Eine Ausnahme ist hier das Fibrin, das auf Basis des menschlichen Blutplasmas gewonnen wird und als Gewebekleber eine Alternative zum Nähen oder Tackern von Wunden bietet. Dieser erste medizinische Biokleber wurde bereits in den 1970er Jahren in Wien am Ludwig Boltzmann Institut für Experimentelle und Klinische Traumatologie (LBI Trauma) entwickelt [1, 2].

Das Europäische Netzwerk für Bio-Adhäsion (ENBA)

Um biologische Klebstoffe kommerziell zu nutzen, ist es zuerst notwendig ihre biochemischen und mechanischen Eigenschaften zu verstehen, d.h. welche Bestandteile (z.B. Proteine, Zucker, Lipide) vorkommen, wie sie miteinander interagieren und wie sie bei Sekretion und mit Oberflächen reagieren. Die relevanten Komponenten, welche die Klebeeigenschaft hervorrufen, werden dann in Folge nachproduziert und optimiert, um das biologischen Vorbild so nah wie möglich nachzuahmen.

Grundlegende Kenntnisse zu biologischen Klebesystemen - von der Natur und den Eigenschaften der Bioklebstoffe über den zellulären Ablauf der Sekretion in den Organismen bis hin zur Imitation in Modellsystemen -sollen nun durch das Europäische Netzwerk für Bio-Adhäsion (ENBA, im Rahmen des transnationalen COST-Programms der EU) [3] erarbeitet werden (Abbildung 1). ENBA ist eine interdisziplinäre Kooperation von Forschern in Akademie und Industrie aus 33 Europäischen Ländern und mehreren internationalen Partnern und wird bis 2020 laufen [3].

Abbildung 1. Das Europäische Netzwerk für Bioadhäsion (ENBA) untersucht und charakterisiert eine breite Palette von Bioklebstoffen von der Nanoskala (Struktur und Eigenschaften der Klebstoff-Moleküle) über das zelluläre sekretorische System bis zum „übergeordneten“ Mechanismus der Drüsen im Tier. (Bild: http://www.enba4.eu/the-action/; © COST 2014-2020: material is allowed to be used for public use)

Im Folgenden sollen nun einige repräsentative Beispiele tierischer Klebstoffsysteme vorgestellt werden und wie diese zur Verteidigung oder zum Angriff eingesetzt werden.

Kleben zur Verteidigung

Um sich vor Räubern zu schützen, haben Tiere eine Vielfalt an Mechanismen entwickelt. Sie tarnen sich, nutzen Warnfärbung oder Mimikry, besitzen starre Abwehrstrukturen wie Stacheln, Haare oder Borsten, erweisen sich als ungenießbar, sekretieren schädliche oder übelschmeckende Substanzen ab und/oder zeigen verschiedenste Verhaltensmuster. Verglichen mit anderen Abwehrmechanismen werden Klebstoffe zwar selten angewandt, zeigen aber hohe Effektivität und dies auch gegen physisch überlegene Angreifer. Beispiel dafür sind etwa der Hautschleim der hellbraunen Wegschnecke (Arion subfuscus), die klebrigen Schleimfäden, die marine Seegurken auf Gegner spritzen oder die Hautabsonderungen des Australischen Frosches Notaden bennettii.

Hundertfüßer

sind eine Teilgruppe der bodenbewohnenden Tausendfüßer (Myriapoda) und - mit Ausnahme der Polgebiete und Grönland - weltweit verbreitet. Hundertfüßer sind Räuber, die eine große Vielfalt an Beutetieren fangen können: Insekten, Spinnen, Amphibien und sogar kleine Säugetiere. Dazu benutzen sie äußerst schmerzhafte und tödliche Gifte, die aus den Drüsen ihrer Giftklauen, den sogenannten Maxillipeden - dem umgewandelten Beinpaar im ersten Rumpfsegment - sezerniert werden (Abbildung 2). Diese Gifte werden aber nicht nur zum Angriff, sondern auch zur Verteidigung genutzt. Darüber hinaus verfügen manche Arten über Klebstoff sezernierende Wehrdrüsen im Körperbereich, um sich vor Räubern zu schützen.

Abbildung 2. Hunderfüßer (hier: Scolopendra; der Kopf trägt die (eingerollten) Antennen, das Hinterende imitiert einen Kopf. (Bild: Wikimedia by Buggenhout, België, ,cc-by). Unten: Blick auf Kopf und Giftklauen des Hundertfüßers Thereuopoda longicornis (Bild: BLGutierrez (Imperial College, London); Wikimedia commons, cc-by). Rechts: Eine Drüse: das von zwei ungleichen sekretorischen Zellen (sc1, sc2) produzierte Sekret (con) wird über einen Kanal in einen Hohlraum (Atrium) geleitet und von dort durch eine Pore an die Oberfläche der Hornhaut (Cuticula) sezerniert (Bild: copyright Carsten Müller, Universität Greifswald.)

Während die verschiedenen Gifte und Ihre Wirkung auf Wirbeltiere sehr gut untersucht sind, ist der Klebstoff bei Chilopoden bis dato nur ansatzweise charakterisiert. Im Rahmen Ihrer Forschung untersuchen Dr. von Byern und Dr. Cyran mit Kollegen von der Veterinärmedizinischen Universität Wien, dem Senckenberg Museum in Görlitz, Deutschland und der Universität in Belgrad, Serbien diese schnell aushärtenden Klebstoffe. Morphologisch weisen die Klebstoff sezernierenden Wehrdrüsen die gleiche modulare Organisation wie die Giftdrüsen auf (Abbildung 2). Beide bestehen aus je 4 - 5 Zelltypen, wobei zwei davon das klebrige Sekret produzieren. Es ist naheliegend, dass Giftdrüsen und Wehrdrüsen denselben evolutionären Ursprung haben, aber sich in der Zusammensetzung deutlich unterscheiden.

Woraus bestehen die Kleber der Hundertfüßer?

Eine der Unterarten aus der Gruppe der Lithobiomorpha stellt viskose, aus Proteinen und Lipiden bestehende Fäden in sogenannten telopodalen Drüsen her. Diese sitzen an der Innenseite des 14. Beinpaars und des (nicht mehr zum Laufen verwendeten) 15. Beinpaars. Wird das Tier angegriffen, hebt es die hintersten Beine und schleudert die aus den Drüsen austretenden Fäden gegen den Angreifer und „verkleistert“ ihn oder beeinträchtigt ihn zumindest massiv.

Die Gruppe der Geophilomorpha produzieren unterschiedlich zusammengesetzte Klebstoffe, die in den meisten Fällen nur Proteine enthalten. Die Drüsen (sogenannte Sternaldrüsen) sind strukturell vergleichbar mit denen der Lithobiomorpha, liegen aber auf der Bauchseite der Segmente. Der Klebstoff der Geophilomorpha Art Henia vesuviana besteht ausschließlich aus (relativ unpolaren) Proteinen, die sofort aushärten, wenn sie der Luft ausgesetzt sind. Auf diese Weise werden auch größere Räuber wie Spinnen und Käfer für mehr als 20 Minuten immobilisiert und der Hundertfüsser kann fliehen. Die Sekrete mehrerer anderer Geophilomorpha-Arten enthalten neben einer klebrigen Proteinlösung zusätzlich noch Blausäure (HCN) und andere Substanzen, die noch einen übel riechenden oder ungenießbaren Eindruck beim Räuber hinterlassen sollen. Die Klebstoffe der Chilopoda sind äußerlich verschieden, von wässrig klar bis milchig trüb, farblos bis gefärbt, einige leuchten bei Sekretion (sogenannte Biolumineszenz) um nachtaktive Räuber zu verwirren, abzulenken oder zu warnen.

Sekundenkleber der Salamander

Auch Schwanzlurche haben gegen Angreifer diverse Abwehrmechanismen entwickelt. Am bekanntesten sind die unbewegliche Haltung, das Abwerfen des Schwanzes, grelle Warnfarben, verschiedene Verhaltensmuster und Sekretion von giftigen oder übel schmeckenden Absonderungen der Haut. Einige nordamerikanische und eine japanische Art hingegen sondern Klebstoff aus Ihren Hautdrüsen ab, wobei insbesondere in der Schwanz und Kopfregion die meisten Drüsenzellen zu finden sind (Abbildung 3).

Abbildung 3. Der Salamander Ambystoma opacum. Weißer Klebstoff ist im Schwanzbereich sichtbar. (Bild: © Janek von Byern) Die Klebstoffanwendung zeigt sofort hohe Wirksamkeit. Wird beispielsweise der Salamander Batrachoseps attenuatus von einem Feind - etwa von einer Schlange - angegriffen, so schlingt er seinen Schwanz um den Kopf der Schlange und überzieht diesen mit einem viskosen, klebrigen Hautsekret. Der Kleber härtet an der Luft in Sekundenschnelle aus und sorgt dafür, dass die Schlange als Knäuel verklebt bleibt, während der Salamander entkommen kann. Selbst nach 48 Stunden ist die Schlange nicht in der Lage, sich zu befreien, so lange hält die Klebewirkung an.

Eine Analyse des Klebstoffes der Salamanderart Plethodon shermani weist einen hohen Anteil an Proteinen und wenigen Zuckern auf (Glykoproteine), in geringen Mengen sind auch Lipide enthalten, wobei deren Funktionen noch zu analysieren sind. Verglichen mit anderen Klebstoff-produzierenden Tieren ist der Wassergehalt des Salamander Klebstoffes mit rund 70 % relativ niedrig, wobei dieses Wasser unmittelbar bei Sekretion „verdunstet“ und auf diese Weise das rasche und irreversible Aushärten des Klebstoffes hervorruft.

Wie der Salamander (und auch die weiter oben beschriebenen Hundertfüßer es schaffen, sich davor zu schützen, selber Opfer Ihres eigenen Klebstoffes zu werden, ist Gegenstand weiterer Untersuchungen.

Kleben als Strategie zum Angriff

Das Erjagen von Beute mittels Absondern von Klebstoffen kann passiv durch ein Netz von Seidenfäden erfolgen, wie es Radnetzspinnen und Larven der Trauermücken Arachnocampa machen, oder mit Hilfe von Klebefallen auf den Tentakeln der Rippenqualle Pleurobrachia pileus (Seestachelbeere). Zusätzlich nutzen einige Tiere Klebstoffe auch aktiv, um ihn auf die Beute zu schießen, wie zum Beispiel die Speispinnen (Scytodes spp) und die Stummelfüßer (Onychophora).

Wenn man die Verwendung von Klebstoffen zum Fangen der Beute diskutiert, sind Radnetzspinnen vermutlich das Modellbeispiel. Mit ihren eindrucksvollen, großen und feinstrukturierten Netzen, den unterschiedlichen Seidentypen und klebrigen Fäden im Zentralbereich des Netzes sind die Tiere für den Beutefang hochspezialisiert. Nicht nur die Netze selber, sondern auch die Klebfallen darauf, trotzen eindrucksvoll extremen Umwelteinflüssen, sei es Regen, Wind, UV Licht, Trockenheit oder Hitze und bleiben funktionell aktiv. Wenig bekannt dagegen ist das Fangsystem des Neuseeländischen Glowworm, das wir im Rahmen eines FWF-Projektes [4] charakterisiert haben.

Der Neuseeländische Glowworm,

ist die Larvenform der in Neuseeland und Australien endemischen Mücke Arachnocampa luminosa. Die Larve lebt in windgeschützten Orten mit hoher Luftfeuchtigkeit (>90%) – in der Nähe von Bächen, feuchten Wänden im Regenwald und in Canyons und vor allem in Höhlen mit Flußverlauf. Zum Beutefang bauen die Tiere eine Art „Hängematte“ (engl. Hammock) an der Höhlendecke, an der sie bis zu 40 cm lange Seidenfäden nebeneinander befestigen (Abbildung 4), auf denen klebrige Tropfen aufgereiht sind. Insgesamt bilden sie ein breites Netz von bis zu 40 Fäden, ähnlich einem Perlenschnurvorhang, um darin fliegende Insekten zu fangen. Die Larven selber sitzen oben in der Hängematte und produzieren mit dem Leuchtorgan am Hinterende ein intensives blaues Licht (biolumineszierendes Licht, Wellenlänge 488 nm), mit dem Sie den Sternenhimmel imitieren und so Motten, Eintagsfliegen, Sandmücken und auch ausgewachsene Arachnocampa Mücken animieren, das Licht anzufliegen und dann im Vorhang gefangen zu werden. Gelegentlich werden sogar größere Insekten wie Bienen, Wespen und Käfer gefangen, die sich in die dunkle Höhle verirren. Unter geeigneten Bedingungen leben Tausende Glühwürmer in einer Höhle und auch einer kleinen Fläche und verwandeln diese in einen zauberhaft erleuchteten Raum, der dem realen Sternenhimmel sehr nah kommt.

Abbildung 4. Der Glowworm liegt in einer "Hängematte" und lauert auf Beute, die er mit seinem Lichtorgan anlockt und mit dem Vorhang aus klebrigen Angelschnüren fängt. Unten: Skizze der Larve in der Hängematte in Richtung vom Lichtorgan ("LO") zum Kopf ("H"), sowie die Angelschnüre ("S") mit den klebrigen Vesikeln ("V"). (Bield: oben: http://www.enba4.eu/the-action/ ; unten PLoS ONE 11 (12): e0162687. [3])

Die Seidenfäden, auch als „fishing lines“ (=Angelschnüre) bezeichnet, produzieren die Larven im Mundbereich, anders als die Seidenfäden bei Radnetzspinnen, die am Hinterende sezerniert werden. Der Klebstoff von Arachnocampa besteht zu 99 % aus Wasser und zu 1 % aus klebrigen, Komponenten, die bei sinkender Luftfeuchtigkeit austrocknen aber bei über 80% relativer Luftfeuchtigkeit wieder rehydrieren . Der Klebstoff ist schwach sauer (pH 3-4), enthält wenige freie Fettsäuren und einige wenige Proteine. Die ungewöhnliche hygroskopische Eigenschaft des Arachnocampa Klebstoffes könnte auf Harnstoff oder Harnsäure zurückzuführen sein, die natürliche Ausscheidungsprodukte der Insekten sind.

Arachnocampa“ leitet sich vom griechischen Wort für Spinne αραχνη ab. Die Frage ist, inwieweit ähneln diese Angelschnüre und der Klebstoff dem System der Radnetzspinnen?

Beide Fangvorrichtungen dienen demselben Zweck und bestehen aus Seidenfäden mit klebrigen Tropfen. Sie unterscheiden sich aber deutlich in Hinblick auf die molekulare Zusammensetzung, Struktur und Elastizität der Seidenfäden und hinsichtlich der Größe und Zusammensetzung der Klebstoffe. Diese Unterschiede bewirken, dass Spinnennetze wesentlich dehnbarer und reißfester sind und auch noch bei niedriger Luftfeuchtigkeit (< 20 %) kleben, während die Fangfäden des Glowworms mindestens eine 80 % Luftfeuchtigkeit benötigen. Dies korreliert mit der Anpassung der Fangsysteme an die unterschiedlichen Habitate: Spinnen leben im Freien und sind extrem wechselnden Umweltbedingungen, Wind, UV-Licht, Temperatur- und Luftfeuchtigkeitschwankungen ausgesetzt. Die Glowworms leben dagegen meist in sehr geschützten Habitaten, in denen über das Jahr sehr geringe Schwankungen und Veränderungen auftreten. Daher müssen sie Ihr Fangsystem nicht robust und stabil bauen, sondern haben sich voll auf diese Habitatbedingungen angepasst.

Fazit

Bioklebstoffe sind vielversprechende Alternativen zu den heute verwendeten, zum Teil giftigen synthetischen Produkten, die für einige Anwendungen (Geweberegeneration) gar nicht verwendet können oder bei anderen nur unbefriedigende Resultate liefern. Die Natur bietet dagegen im Wasser und an Land ein enorm großes Reservoir an Bio-Klebstoffen, die für die unterschiedlichsten Anwendungen nutzbar gemacht werden können. Untersuchungen zur Zusammensetzung derartiger Kleber, ihrer Eigenschaften und ihrer Anwendbarkeit für diverse Anforderungen aus Medizin und Industrie stehen erst am Anfang. Das transnationale Europäische Netzwerk für Bio-Adhäsion macht es sich zur Aufgabe, die biochemischen und mechanischen Prinzipien, die einer weiten Diversität von biologischen Klebern zugrunde liegen, zu erarbeiten und ihre Anwendbarkeit zu testen.


[1] H.Redl (2014) Kleben statt Nähen – Gewebekleber auf der Basis natürlichen Fibrins

[2] A.Petter, H. Redl (2014) Fibrinkleber in der operativen Behandlung von Leistenbrüchen — Fortschritte durch „Forschung made in Austria“. http://scienceblog.at/fibrinkleber-leistenbruch#

[3] “European Network of BioAdhesives”. http://www.enba4.eu/

[4] http://pf.fwf.ac.at/project_pdfs/pdf_abstracts/p24531d.pdf

[5] J. von Byern et al., (2016) Characterization of the Fishing Lines in Titiwai (=Arachnocampa luminosa Skuse, 1890) from New Zealand and Australia. PLoS ONE 11 (12): e0162687. doi:10.1371/journal. pone.0162687 (open access)


Weiterführende Links

Ludwig Boltzmann Institut für experimentelle und klinische Traumatologie (LBI Trauma)

MC Janek von Byern , SWR 18. March 2017 “Kleben wie ein Salamander” http://www.enba4.eu/wp-content/uploads/2017/05/SWR-2-Campus-18032017-Kle... 4,5 min

MC Janek von Byern, DRadio 07. March 2017 “Bioklebstoffe” http://www.enba4.eu/wp-content/uploads/2017/05/DRadio-Wissen-07032017-SK... 5,09 min


 

inge Thu, 26.10.2017 - 11:16

Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Ein neues Kapitel in der Hirnforschung: das menschliche Gehirn kann Abfallprodukte über ein Lymphsystem entsorgen

Do, 19.10.2017 - 11:54 — Redaktion

Icon Gehirn

Das Gehin besitzt keine Lymphbahnen - diese alte Lehrmeinung wurde nun eindeutig widerlegt. Neurophysiologen der US National Institutes of Health (NIH) haben Hirnscanstudien mittels Kernresonanztomografie (MRI) an lebenden Menschen durchgeführt und dabei Lymphgefäße in der Dura mater - der äußeren Hirnhhaut, die das ganze Hirn umhüllt,- entdeckt. Das Lymphsystem des Körpers erstreckt sich also bis in das Hirn, über dieses ist das Hirn mit dem Immunsystem verbunden, über dieses können Abfallprodukte des Gehirns entsorgt werden. Diese Entdeckung eröffnet neue Dimensionen in der Hirnforschung und kann das Verstehen vieler Erkrankungen des Gehirns, in denen das Immunsystem eine Rolle spielt - von Multipler Sklerose bis hin zu Alzheimer - und die Möglichkeiten zu deren Prävention und Behandlung revolutionieren.*

Die meisten Organe unseres Körpers entsorgen Abfallprodukte der Zellen mit Hilfe des sogenannten Lymphsystems. Dies ist ein verästeltes System von Lymphgefäßen, die entlang den Blutgefäßen verlaufen und als nicht zirkulierende Einbahnsystem unseren Körper durchziehen. Abbildung 1.

Abbildung 1. Das Lymphsystem des Menschen ist ein Einbahnsystem und dient der Drainage. Lymphgefäße beginnen in Organen/peripheren Geweben als blind-endende Kapillaren, die aus Endothelzellen mit relativ großen Zwischenräumen gebildet werden. Durch diese Lücken gelangen Proteine, Partikel und Zellen bis hin zu Lymphozyten in die Kapillaren und werden dort in der Lymphflüssigkeit weitertransportiert. (Im Gegensatz dazu weisen Blutkapillaren wesentlich kleinere Lücken auf -größere Proteine als Albumin können nicht in deren Lumen gelangen.) Die Lymphkapillaren vereinigen sich zu größeren Gefäßen und diese wieder zu noch größeren Gefäßen, die schliesslich in den Sammelkanal Ductus Thoracicus münden, der dann seinen Inhalt in das Blutgefäßsystem ergießt. (Bild: Blausen.com staff (2014). "Medical gallery of Blausen Medical 2014". WikiJournal of Medicine 1 (2). DOI:10.15347/wjm/2014.010 . Lizenz: cc-by 3.0 )

Das Lymphsystem ist ein Drainagesystem: Abfallprodukte und überschüssige Gewebsflüssigkeit aber ebenso auch Partikel, Bakterien und Viren werden aus den Geweben in die Lymphgefäße aufgenommen und in diesen - in der Lymph-Flüssigkeit - durch die Lymphknoten hindurch in den Blutkreislauf transportiert. Abfallprodukte gelangen über die Blutgefäße dann zu den Nieren - einem Filtersystem, das derartige Stoffe aus dem Blut heraus filtriert und (nach Möglichkeit) im Harn ausscheidet.

Neben der Funktion als Drainagesystem sind Lymphgefäße aber auch ein wesentlicher Teil des Immunsystems und der Hauptweg für die Zirkulation weißer Blutkörperchen: die Blutgefäße transportieren die Immunzellen zu den Organen, das Lymphsystem nimmt sie von dort auf und führt sie ins Blut zurück - Immunzellen können so im Organismus patrouillieren, Infektionen aufspüren und bekämpfen,

Wie das Gehirn seinen Abfall entsorgt, blieb lange ein Rätsel

Das Gehirn enthält Blutgefäße, im Gegensatz zu anderen Organen gab es aber über lange Zeit keine konkreten Anhaltspunkte, dass auch Lymphgefäße existieren könnten. Man dachte, dass - zum Unterschied zu anderen Organen - das Hirn eine spezielle Fähigkeit habe seine Abfallprodukte über die Zerebrospinalflüssigkeit (CSF, die Flüssigkeit, die das Hirn umspült und beschützt) zu entsorgen.Tatsächlich dürfte dies zum Teil auch der Fall sein.

Erst 2015 gelang es Forschern um Jonathan Kipnis von der University of Virginia in Untersuchungen an Mäusehirnen festzustellen, dass in deren äußerer Hirnhaut - der Dura Mater - Lymphgefäße vorhanden sind, die entlang der Blutgefäße verlaufen [1].

Dieser Befund veranlasste den Neurologen Daniel Reich (NIH’s National Institute of Neurological Disorders and Stroke (NINDS)) zu prüfen, ob derartige Lymphgefäße auch beim Menschen vorhanden wären, und er wandte dazu Magnetresonanztomographie (MRI) an. Es ist die Methode, die Reich primär einsetzt, um multiple Sklerose und andere neurologische Erkrankungen zu untersuchen, in die das Immunsystem involviert ist.

Die nicht-invasive Detektion von Lymphgefäßen mittels MRI

Die Gruppe um Reich konnte tatsächlich mittels MRI - d.h. nicht-invasiv - Lymphgefäße in der Dura mater des Menschen sichtbar machen. Die Forscher untersuchten dazu fünf gesunde Probanden, denen ein Gadoliniumkomplex - Gadubotrol - injiziert worden war. Es handelte sich dabei um einen Farbstoff, der in MRI-Scans üblicherweise verwendet wird, um Gefäßschäden bei Krankheiten wie Multipler Sklerose oder Krebs zu detektieren: die Farbstoffmoleküle sind klein genug, um aus den Blutgefäßen herauszulecken, jedoch zu groß , um die Blut-Hirn Schranke zu durchbrechen und in andere Teile des Gehirns zu gelangen.

Lymphgefäße ähneln Blutgefäßen, die aber in viel größerer Zahl vorhanden sind - daneben Lymphgefäße festzustellen, ist nicht einfach. Um neben den hell leuchtenden Blutgefäßen eine kleinere Zahl von Lymphgefäßen detektieren zu können, wandten die Forscher einen Trick an: die sogenannte Dark Blood MR Angiography, eine Strategie, in der das Signal von fließendem Blut unterdrückt wird (das Gefäß dann schwarz erscheint). In Anlehnung an den Mäusebefund untersuchten die Forscher den Bereich der Dura mater und konnten dort tatsächlich Lymphgefäße entdecken. Abbildung 2.

Abbildung 2. Sichtbarmachung von Lymphgefäßen in der äusseren harten Hirnhaut - der Dura mater- mittels MRI. Oben: die drei Hirnhautschichten Dura mater, Arachnoidea und Pia mater - schematische Darstellung. Venöses (sauerstoffarmes) Blut(blau) aus der grauen Hirnrinde entleert in die angrenzenden Sinuse der Dura mater und von dort in die Jugularvene im Nacken. Der Sinus sagittalis superior entleert die oberflächlichen Venen des Gehirns (Bild modifiziert nach: OpenStax Wikimedia Commons, Lizenz: cc-by 4.0.) Unten: MRI-Aufnahme des menschlichen Schädels nach Verabreichung des Farbstoffs Gadubotrol zur Sichtbarmachung der Gefäße. Der Ausschnitt (gelb umrandet) zeigt die hellen Lymphgefäße im Querschnitt (rote Pfeile), diese grenzen an den Sinus sagittalis superior an

Der Farbstoff war offensichtlich aus den Blutgefäßen in das Bindegewebe ausgetreten, wurde von den lymphatischen Kapillargefäßen aufgenommen und liess diese ebenso hell leuchten wie es zuvorbei den Blutgefäßen der Fall war (Abbildung 2, unten).

Wurde dagegen ein viel größerer Farbstoffkomplex (Gadofosvet) injiziert, der aus den Blutgefäßen kaum aussickern konnte, so sahen die Forscher nur hell leuchtende Blutgefäße, aber keine Aufnahme und daher kein Sichtbarwerden der Lymphgefäße.

Weitere Untersuchungen mittels MRI wurden an gesunden, erwachsenen Weißbüscheläffchen ausgeführt. Hier wurden - ebenso wie beim Menschen oder auch der oben erwähnten Maus [1] - Lymphgefäße mit gleicher Topographie in der äußeren Hirnhaut detektiert. Dies lässt darauf schliessen, dass das Lymphsystem der Hirnhaut über die Evolution in den Säugetieren konserviert wurdegemeinsam sein dürfte.

Dass es sich in der Dura mater tatsächlich um Lymphgefäße handelte, konnte schließlich an Autopsie-Proben bestätigt werden, in denen spezielle Methoden zur Anfärbung von Lymphgefäßen und Blutgefäßen verwendet wurden. Abbildung 3.

Abbildung 3. Lymphgefäß (LV) und Blutgefäße (BV) in einer Autopsieprobe. Histochemische Untersuchung mit spezifischen Anfärbungen für LV und BV. Die BV - aber nicht das LV - enthalten Erythocyten (Quelle: aus Fig. 3 in [2] https://doi.org/10.7554/eLife.29738.007; open access) Wie nun die Lymphgefäße in der Hirnhaut verlaufen, ist in Abbildung 4 dargestellt.

Abbildung 4. 3D-Darstellung des humanen Lymphsystems (dkl.blau) in der Dura mater. Erstellt aus MRI-Aufnahmen an einer gesunden, 47 Jahre alten Frau (Quelle: [2] aus Figure 1, https://doi.org/10.7554/eLife.29738.004)

Ausblick

Die Entdeckung, dass sich das Lymphsystem des Körpers bis in die Gehirnhaut erstreckt, die das gesamte Gehirn umgibt, eröffnet neue Dimensionen in Grundlagen- und angewandter Forschung. Zentrale Themen betreffen dabei:

  • die direkte Verbindung von Gehirn und Immunsystem
  • wie Abfallprodukte aber auch andere Stoffe unter physiologischen Bedingungen aus dem Zentralnervensystem über die Lymphbahnen drainiert werden,
  • ob und wie Störungen in der Lymphdrainage neurologische Krankheiten verursachen oder verstärken können.

Die Methode der Magnetresonanztomographie erlaubt es nicht-invasiv und relativ einfach an gesunden wie auch kranken Menschen Hirnscans auszuführen. Dies bedeutet nicht-invasiv Erkrankungen des Gehirns zu untersuchen, in denen das Immunsystem eine Rolle spielt, beispielsweise Multiple Sklerose, Alzheimerkrankheit und Amyotrophe laterale Sklerose, und Möglichkeiten zu deren Prävention und Behandlung zu finden.


[1] Structural and functional features of central nervous system lymphatic vessels. Louveau A, Smirnov I, Keyes TJ, Eccles JD, Rouhani SJ, Peske JD, Derecki NC, Castle D, Mandell JW, Lee KS, Harris TH, Kipnis J. Nature. 2015 Jul 16;523(7560):337-341.

[2] Human and nonhuman primate meninges harbor lymphatic vessels that can be visualized noninvasively by MRI. Absinta M, Ha SK, Nair G, Sati P, Luciano NJ, Palisoc M, Louveau A, Zaghloul KA, Pittaluga S, Kipnis J, Reich DS. Elife. 2017 Oct 3;6.


* Der Artikel basiert auf dem eben erschienen Artikel von Absinta et al., [2] und auf dem Blogartikel von Francis S. Collins vom 17.10.2017 "New Imaging Approach Reveals Lymph System in Brain" https://directorsblog.nih.gov/2017/10/17/new-imaging-approach-reveals-ly.... . Aus diesen Arbeiten wurden Sätze in den Blog übernommen (ins Deutsche übersetzt) und mit passenden Bildern u.a. aus [2] ergänzt.


Weiterführende Links

National Institute of Neurological Disorders and Stroke (NINDS) https://neuroscience.nih.gov/ninds/Home.aspx

Scientists Uncover Drain Pipes in Our Brains (03.10.2017), Video 3:25 min. https://www.youtube.com/watch?v=T9y_5vzJZtk. Daniel S. Reich, discusses how his team discovered that our brains may drain waste through lymphatic vessels, the body’s sewer system. (Standard-YouTube-Lizenz)

A Brain Drainage System (03.10.2017), Video 0:39 min. https://www.youtube.com/watch?v=d5YV-dCLvW8. NIH researchers provided the first evidence that our brains may drain waste through lymphatic vessels, the body’s sewer system.

Lymphatic system in the brain (02.07.2015), Video 11:13 min. https://www.youtube.com/watch?v=d5YV-dCLvW8. (Standard-YouTube-Lizenz) Jonathan Kipnis (University of Virginia) discusses a ground-breaking discovery: his team identified a lymphatic system in the brain of mice. This goes against decades of established knowledge and is a key step forward for the study of many neurological diseases, such as multiple sclerosis. (details: paper [1])

Dissecting Science: Your Amazing Brain "The Immune Dimension of Brain Function" Short lecture by Jonathan Kipnis (13.11.2015) Video 21:07 min. https://www.youtube.com/watch?v=F1GJXNlwGVM&t=56s (Standard-YouTube-Lizenz)

Meningeal lymphatic vessels Seite in Wikipedia. https://en.wikipedia.org/wiki/Meningeal_lymphatic_vessels.


 

inge Thu, 19.10.2017 - 11:54

Neue Nanomaterialien und ihre Kommunikation mit lebenden Zellen

Neue Nanomaterialien und ihre Kommunikation mit lebenden Zellen

Do, 12.10.2017 - 19:46 — Eva Sinner

Eva-Kathrin SinnerIcon BiologieSynthetisch hergestellte Nanomaterialien finden aufgrund ihrer einzigartigen physikalisch-chemischen Eigenschaften bereits in unterschiedlichsten industriellen Produkten Anwendung, allerdings lassen sich derzeit kaum allgemeingültige Aussagen über potentielle Auswirkungen auf Mensch und Umwelt treffen. Die Nanobiotechnologin Eva-Kathrin Sinner, Leiterin des Instituts für Synthetische Bioarchitekturen (Universität für Bodenkultur, Wien,) erzählt im Gespräch mit dem Chemiereport über dort betriebene Forschung zu Synthese, Eigenschaften und Weiterentwicklung von Nanomaterialien aber auch über ihre Aktivitäten zur Verbesserung der Interaktion zwischen Gesellschaft und Forschung..*

Womit befasst sich das Institut für Synthetische Bioarchitekturen konkret?

Wir forschen an neuen Biomaterialien und uns interessiert die Kommunikation zwischen Struktur und lebender Zelle. Wir möchten

  • auf der Ebene der Moleküle Zusammenhänge verstehen, die es uns erlauben, bestehende synthetische Materialien in unserer Umwelt zu messen und
  • mit Zellen „reden“ können, d.i. neue Wirkungsverfahren jenseits der Gentechnik zu erfinden.

Hier bahnt sich gerade eine neue Perspektive an: neue Materialkombinationen zu entdecken, die zum Beispiel Materialien aus fossilen Brennstoffen ersetzen können oder andere wichtige, zu optimierende Eigenschaften haben, wie Kompostierbarkeit, Gewicht, Brennbarkeit, mechanische Belastbarkeit.

Ist Nanobiotechnologie dabei immer ein Thema?

Das Wort „nanos“, aus dem Altgriechischen übersetzt, bedeutet der Zwerg. Der Begriff beschreibt also lediglich die Größenordnung, in der ich forsche - d.i. im Bereich zwischen einem und hundert Milliardstel Meter -und nicht die Materialien selber. Insofern ist der Begriff „nano“ sicherlich die reine Bezeichnung eines Themas, nämlich die Welt der Moleküle. Abbildung 1.

Abbildung 1. Forschungsschwerpunkt: Synthese und Anwendung von Membranproteinen. Die Einbettung von verschiedensten Membranproteinen in stabilisierende Membranumgebungen soll einerseits deren Struktur- und Funktionsanalyse ermöglichen, andererseits auf Anwendungsperspektiven wie Wirkstoff- und Impfstoffforschung abzielen. Links: Schematische Darstellung von Proteinen in einer Lipidmembran. Mitte: mikroskopische Aufnahme von Proteinen in einer Polymermembran (Maßstab 1 µm = 1 Millionstel Meter). Rechts: Lipidvesikel mit Proteinen, die In der Vesikelmembran eingebettet und im Inneren des Vesikel eingeschlossen sind;schematische Darstellung.

Die Kombination von Nano mit der Biotechnologie ist hier allerdings leicht irreführend. Ich sehe diese Forschungen vielmehr von meinem Background aus - als Biochemikerin mit stark biophysikalischer Ausrichtung.

Welche Rolle spielen hier Polymere, mit denen Sie sich am Max-Planck-Institut für Polymerforschung (Mainz) beschäftigt haben?

Der Begriff „Polymer“ setzt sich zusammen aus den griechischen Bezeichnungen für „viel“ (poly) und „Teil“ (meros). Viele Materialien aus der Natur sind genau so - aus vielen Teilen - aufgebaut. Die Industrie hat es der Natur nachgemacht und letztlich kann man auch Kunststoffe oft als Biomaterialien verstehen. Denn Kunststoffe wie Plastik haben ihren Ursprung in fossilen Materialien. Für viele synthetisch, also vom Menschen im Labor hergestellten Materialien gibt es in der Natur Beispiele, die aber eben nicht so sauber (homogen) und damit nicht so stabil sind. Gegenüber künstlichen, aus Phospholipiden bestehenden Vesikeln, weisen Polymervesikel eine Vielzahl an Vorteilen aus, vor allem, dass sie anwendungsbezogen speziell angepasst werden können.

In der Tat sind Biopolymere ausgesprochen interessante und vielseitige Materialien, bezüglich derer nach wie vor viel Erfahrung, aber noch wenig (molekulares) Detailwissen besteht. Genau an dem Punkt bin ich sehr an einer Weiterentwicklung und an Kooperationen interessiert, wie zum Beispiel mit der Firma MKM in Rheinland-Pfalz, wo es um Interaktionen von Zellen an Keramikwerkstoffen geht. Mit der Technischen Universität Wien beginnt ebenfalls eine Kooperation hinsichtlich organisch-anorganischer Grenzsysteme.

Elektroporation zum Transfer funktioneller Membranproteine in Säugerzellen - ohne gentechnische Manipulation

Das ist unser aktuellstes Forschungsthema, ein ausgesprochen spannender Ansatz, bei dem wir versuchen, mittels Membranfusion bereits hergestellte, klinisch relevante Proteine mit lebenden Zellen verschmelzen zu lassen. Das hätte den Vorteil, dass wir die Regulation immer unter Kontrolle behalten und nicht mittels Gentechnik die genetische Integrität einer Zelle modifizieren müssen. Hier laufen eine Reihe von konkreten Projekten, um mittels Elektroporation Membranproteine zu transferieren: beispielsweise den Dopaminrezeptor DRD2L (Abbildung 2) zu transferieren oder den für die Funktion der Mitochondrien essentiellen spannungsabhängigen Anionen Kanal (engl.: VDAC), oder CD4- und Chemokin-Rezeptoren, zur Beeinflussung der Immunantwort, u.v.a.m.

Abbildung 2. Transfer des Dopaminrezeptors DRD2L in Nervenzellen. Nach Synthese von DRD2L(gelb) in künstlichen Membranen (blaue Lipidvesikel) werden diese mittels modernster, im Nanosekundenbereich erfolgreich funktionierender Elektroporationsmethoden in Neuronen implementiert. Ziel ist die therapeutische Anwendung bei neuro-psychatrischen Störungen (z.B. bei Tourette Syndrom, schizoider Persönlichkeitsstörung oder hyperkinetischer Störung) Auch hier sind wir gerade auf der Suche nach neuen Kooperationspartnern aus der Zellbiologie, die sich für solche alternativen Strategien der Zellmanipulation interessieren könnten.

Wissensvermittlung

Als Vizepräsidentin der Erwin-Schrödinger-Gesellschaft für Nanowissenschaften…

Die Erwin-Schrödinger-Gesellschaft für Nanowissenschaften (ESG) ist ein etabliertes Werkzeug, um mit Mitteln aus dem Technologieministerium (BMVIT) gezielt wissenschaftlichen Austausch und Nachwuchsförderung zu betreiben. Regelmäßig werden Workshops und Reisestipendien vergeben, so auch der jährliche Posterpreis auf der BioNano-Med-Konferenz in Krems und der hauseigene Preis der ESG. Die ESG stellt insgesamt eine ausgesprochen lebendige Plattform dar, um nano-skalig-relevante Methoden und Materialien eben auch durch internationale Wissenschaftler vorzustellen.

Meine Hoffnung ist, dass die biologische Ausrichtung hier in Zukunft noch deutlicher zutage tritt - es haben ja viele Erkenntnisse und Methoden dazu geführt, dass völlig neue Ansätze in Medizin und Umweltforschung denkbar werden.

…und als Direktorin der Internationalen Graduiertenschule (IGS) mit der Nanyang Technical University in Singapur (2011 bis 2015)

Leider sind solche Konzepte immer sehr von einzelnen Personen geprägt. Das Projekt IGS war ausgesprochen erfolgreich. Viele österreichische und singapurische Doktoranden haben erfolgreich und in kurzer Zeit ihre Doktortitel erlangt. Zahlreiche Workshops und Publikationen in international anerkannten Journalen sind aus der IGS hervorgegangen.

Die organisatorische Belastung während der Laufzeit meiner Direktorenschaft der IGS war sehr hoch. Es war aber eine lehrreiche Erfahrung, wie solche Konstrukte aussehen müssten, um langfristig in das Lehrportfolio einer Universität integriert zu werden.

Warum halten Sie Ihre Vorlesungen auf Englisch?

Gerade bei der Einführung eines wissenschaftlich komplexen Themas bietet die Lehre in der Muttersprache für die Studenten den Vorteil der Unmissverständlichkeit und Direktheit. Allerdings ist es eine wesentliche Voraussetzung für die internationale Konkurrenzfähigkeit der Absolventen, dass sie in dem entsprechenden Gebiet in englischer Sprache sattelfest sind. Hier gibt es im Rahmen eines Coachings eine hervorragende, BOKU-interne Unterstützung für Lehrende wie mich, die in der englischen Sprache Vorlesungen halten. Die Studenten werden von mir ohnehin durch die begleitende Literatur und die Lehrmaterialien immer auch in Englisch als der international relevanten Forschungssprache vorbereitet. Genau diese Vorbereitung empfinde ich als ein wesentliches Element, das ich mir als Ziel gesetzt habe. Ich bevorzuge eine „smooth transition“ der Studenten in den englischen Sprachkontext im Laufe des Studiums und nicht den „kalten Start“, der die Gefahr beinhaltet, Lücken im Basiswissen zu hinterlassen.

Was wünschen Sie sich für die Zukunft?

Ich hoffe auf eine Erhaltung des bestehenden Wissens und eine wieder auflebende Kultur der Reproduzierbarkeit von Daten – kurzum: dass Forschung transparenter wird und die fördernden Institutionen auch Nischenprojekte zulassen. Die Publikationsflut selbst ist kein gutes Maß für gute Wissenschaft und nicht für deren Manifestierung als Text. Wer liest denn schon freiwillig naturwissenschaftliche Fachzeitschriften?

Ich hoffe, dass es wieder eine lebendigere Interaktion zwischen Gesellschaft und Forschung gibt. Dazu bräuchte es in diesen Zeiten keine Revolution, sondern bloß eine kleine Neuorientierung, gedankliche Offenheit und einen Raum in den Printmedien Österreichs.


*Das Gespräch wurde mit Dr.Karl Zojer vom Chemiereport geführt und kann im Original unter dem Titel „Wir wollen mit den Zellen reden können“ im Heft 6/2017 nachgelesen werden http://www.chemiereport.at/epaper/201706/ . Im Einverständnis mit der Autorin und dem Chemiereport erscheint das Interview hier in einer leicht modifizierten Form: Die Fragen von Karl Zojer wurden zu Untertiteln und 2 Abbildungen von der Homepage der Autorin eingefügt.


Weiterführende Links

Institut für Synthetische Bioarchitekturen https://www.nano.boku.ac.at/synthbio/

Eva Sinner: Forschungsprojekt: Schnüffeln für die Wissenschaft (Video, 7'30)

Artikel von Eva Sinner im ScienceBlog

inge Thu, 12.10.2017 - 19:46

Eine neue Ära der Biochemie – Die Entwicklung der Kryo-Elektronenmikroskopie wird mit dem Chemienobelpreis ausgezeichnet

Eine neue Ära der Biochemie – Die Entwicklung der Kryo-Elektronenmikroskopie wird mit dem Chemienobelpreis ausgezeichnet

Do, 05.10.2017 - 10:15 — Inge Schuster

Inge SchusterIcon ChemieDie Kryo-Elektronenmikroskopie (Kryo-EM) hat das Tor zu einer neuen Ära der Biochemie geöffnet. Es ist damit möglich geworden Biomoleküle und auch größere zelluläre Strukturen darzustellen, ohne diese kristallisieren zu müssen oder Struktur verändernde Fixative oder Farbstoffe anzuwenden. Dies ermöglicht nun Visualisierungen der Moleküle im nativen Zustand - aufgelöst bis hin zu atomaren Details - und lässt damit deren Funktion besser verstehen. Für die Entwicklung dieser revolutionären Methode wurden Jacques Dubochet, Joachim Frank und Richard Henderson mit dem Nobelpreis für Chemie 2017 ausgezeichnet.

Erst in der Mitte des vergangenen Jahrhunderts ist es möglich geworden Strukturen von Biomolekülen zu bestimmen, mit atomarer Auflösung in ihr Inneres zu schauen. Seitdem wurden in zunehmendem Maße immer größere und immer komplexere Strukturen aufgeklärt - von Proteinen, Nukleinsäuren über enorm große Proteinkomplexe bis hin zu Organellen, wie dem Ribosom und ganzen Viren. Zum überwiegenden Teil setzt man dazu die Röntgenstrukturanalyse ein - Voraussetzung dafür ist allerdings, dass das Biomolekül/der Komplex in kristallisierter Form vorliegt und nicht - wie unter physiologischen Bedingungen - in wässriger Lösung. Mittels kernmagnetischer Resonanz (NMR)- Spektroskopie können Strukturen von Biomolekülen auch in Lösung bestimmt werden. Derartige Studien sind häufig sehr aufwendig, benötigen u.a. die Einführung spezifischer Isotope in das Molekül und im allgemeinen auf eine Molekülgrösse unter 30 000 beschränkt.

In der öffentlich zugänglichen Datenbank PDB (www.rcsb.org/pdb) sind aktuell rund 134 000 Strukturen von Biomolekülen (> 90 % sind Proteine) hinterlegt und es kommen jährlich mehr als 10 000 neue Strukturen dazu. Auf NMR-Analysen fallen davon insgesamt rund 12 000 Strukturen und jährlich werden 400 – 500 neue Strukturen hinterlegt.

Es gibt aber viele Biomoleküle, deren Struktur sich weder durch Röntgenstrukturanalyse noch durch NMR-Messungen bestimmen lässt. Hier bietet die Kryo-Elektronenmikroskopie einen revolutionären, neuen Weg: Biomoleküle, Komplexe und auch molekulare Maschinen bleiben in wässriger Lösung, werden nicht durch Modifikationen/Kristallisierung beeinträchtigt und können ihre gewohnten Funktionen ausführen (beispielsweise kann der Translationsprozess am Ribosom ablaufen). Das ungeheure Potential einer Methode, die es erlaubt Biomoleküle unter nativen Bedingungen zu charakterisieren, wurde rasch erkannt und führte zu einem Boom an Untersuchungen: unter dem Stichwort "cryo electron microscopy" verzeichnet die Literaturdatenbank PubMed 8052 Publikationen, In der erwähnten Datenbank PDB sind bereits 859 mit cryo EM aufgeklärte Strukturen hinterlegt. Einige davon sind in Abbildung 1 gezeigt.

Abbildung 1. Mittels Cryo-EM aufgeklärte Strukturen. Oben links: Bacteriorhodopsin, eine in der (durch rote und blaue Linien gekennzeichneten) Membran von Halobakterien sitzende, Licht-getriebenen Protonenpumpe; es war die erste durch Cryo-EM aufgeklärte Struktur. Oben rechts: Der TRPV2 Ionenkanal des Kaninchens (der in der Zellmembran sitzende Teil ist durch rote und blaue Linien gekennzeichnet). Unten links: das aus 360 Untereinheiten(Heteromer) aufgebaute ZIKA-Virus wurde 2016 in der Gruppe von Michael Rossmann aufgeklärt, Unten rechts: das aus 180 Untereinheiten (Heteromer) bestehende Coxsacchi Virus vor wenigen Wochendurch eine chinesische Gruppe aufgeklärt. (Bilder: http://www.rcsb.org/pdb/results/results.do?tabtoshow=Current&qrid=E3CC1BD6 ; open access)

Für die Entwicklung dieser revolutionären Methode wurden der Schweizer Jacques Dubochet (Universität Lausanne), der Deutsch-Amerikaner Joachim Frank (Columbia University, NY) und der Schotte Richard Henderson (MRC Lab MolBiol, Cambridge, UK) mit dem Nobelpreis für Chemie 2017 ausgezeichnet.

Die Entwicklung der Kryo-Elektronenmikroskopie

Die zugrundeliegende Transmissions-Elektronenmikroskopie (EM) wurde bereits in den 1930er Jahren entwickelt. Da die durch die Probe gehenden schnellen Elektronen Materiewellen mit einer wesentlich kleinere Wellenlänge als sichtbares Licht sind, kann man damit Auflösungen im sub-Nanometer Bereich erzielen. Eine Anwendung bei Biomolekülen schien aber lang ausgeschlossen: unter den Vakuumbedingungen im Mikroskop wird Wasser entzogen, Biomoleküle trocknen aus und verändern ihre Struktur (denaturieren) und zusätzlich verschmoren die meisten Biomoleküle infolge der hohen Intensität des Elektronenstrahls.

Die erste Cryo-EM an einem Protein

Richard Henderson hatte seine Doktorarbeit in Cambridge, der Hochburg der Röntgenkristallographie gemacht. Als er sich 1975 an die Strukturaufklärung des Membranproteins Bacteriorhodopsin heranwagte, zeigte es sich, dass dieses sich nicht kristallisieren ließ. An eine Röntgenstruktur war also nicht zu denken. Henderson versuchte das Problem mit Hilfe der EM zu lösen. Er verwendete dazu das Protein in seiner nativen Umgebung, der Membran. Vor Austrocknung schützte eine Schicht Glukoselösung, vor dem Verschmoren ein Elektronenstrahl mit wesentlich gerigerer Intensität. Dies führte dennoch zu brauchbaren Beugungsbildern, da Bacteriorhodopsin in der Membran ja in sehr hoher Konzentration, regelmäßig gepackt und in die gleiche Richtung orientiert vorlag und alle diese Moleküle daher den Elektronenstrahl in praktisch derselben Weise streuten. So war es möglich ein Beugungsmuster zu erhalten, aus dem Henderson die Struktur mit einer (relativ niedrigen) Auflösung von 0,7 nm ermittelte.

Durch Verbesserungen in der Kryotechnologie und in den Linsen des Mikroskops konnte Henderson dann 1990 eine atomare Auflösung von 0,35 nm erzielen- dies war vergleichbar mit der Auflösung in Röntgenanalysen.

Algorithmen zur Bildanalyse

Eine essentielle Grundlage zur Bearbeitung der Beugungsaufnahmen kam von dem Biophysiker Joachim Frank. Dieser begann ebenfalls um 1975 ein Computer-gestütztes mathematisches Verfahren zu entwickeln mit dem wiederkehrende Muster in einer zufälligen Anordnung von Proteinmolekülen identifiziert werden, diese in die jeweiligen Gruppen sortiert und deren Informationen gemittelt werden. Dies führte zu zweidimensionalen Bildern, welche das Molekül mit hoher Auflösung unter verschiedenen Winkeln zeigten. Um dreidimensionale Bilder zu erhalten, erarbeitete Frank Algorithmen, welche die unterschiedlichen zweidimensionalen Bilder zueinander in Beziehung brachten.

Vitrifiziertes Wasser

Um wasserlösliche Biomoleküle im Vakuum des Elektronenmikroskops vor dem Austrocknen zu schützen, hatten Forscher versucht die Proben in gefrorenem Zustand zu untersuchen. Allerdings entstanden beim Einfrieren Eiskristalle, welche die Elektronen ablenkten und so die Messung scheitern liessen. Der Schweizer Biophysiker Jaques Dubochet fand dafür eine Lösung. Er kühlte die Proben sehr schnell in flüssigem Ethan, das seinerseits durch flüssigen Stickstoff bei -196oC gekühlt wurde, ab. Dabei entstand etwas Neues: glasartiges - "vitrifiziertes" Wasser. Dubochet beschreibt dies: "I am still unsure of what really happened with this specimen but, what is certain, is that frozen water was present and that the unstained biological material was more beautiful than anything I had seen before".

Dubochet wandte die Vitrifizerung an verschiedenen Viren an und zeigte wie scharf sich diese vom Untergrund des gläsernen Wasser abhoben.

Hohe Auflösung wird erreicht

Henderson, Frank und Dubochet hatten nun die wesentlichen Grundlagen für die Cryo-EM geschaffen. In den darauffolgenden Jahren verbesserte sich die Auflösung sukzessive. Ein enormer Fortschritt wurde 2013 mit einem neuen Typ eines Elektronendetektors (Direct Electron Detector DED) erreicht; ma erhielt damit die auch für Röntgenanalysen übliche Auflösung von 0,3 nm, d.i. im atomaren Bereich.

Die Methode erlebt seitdem einen "gold rush". Mit cryo-EM ist es vor allem einfach geworden Membranproteine zu charakterisieren. Dies hat eine besondere Bedeutung für die Entwicklung von neuen Arzneistoffen: der Großteil der heute gebräuchlichen und in Entwicklung befindlichen Pharmaka richtet sich gegen diverse Membranproteine, wie beispielsweise gegen Rezeptoren und Ionenkanäle.


Weiterführende Links

The Nobel Prize in Chemistry 2017 Announcement of the Nobel Prize in Chemistry 2017 .Video 42:34 min.

Artikel zu verwandten Themen im ScienceBlog:


 

inge Thu, 05.10.2017 - 10:15

Ein erweiterter Blick auf das Mikrobiom des Menschen

Ein erweiterter Blick auf das Mikrobiom des Menschen

Do, 28.09.2017 - 16:42 — Francis S. Collins

Francis S. CollinsIcon MedizinDas menschliche Mikrobiom - die Gesamtheit aller Mikroorganismen, die in unserem Körper existieren - hat wesentliche Auswirkungen auf unsere Gesundheit, Krankheit und unser Verhalten; diese Auswirkungen sind aber noch unzureichend bekannt. Um eine umfassende Charakterisierung des humanen Mikrobioms und seiner Funktionen zu ermöglichen, starteten die National Institues of Health (NIH) vor einem Jahrzehnt das "Human Microbiome Project", eine interdisziplinäre Initiative, deren Ergebnisse öffentlich zugänglich sind. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über die bis jetzt größte, eben erschienene Charakterisierung unseres Mikrobioms.*

Noch betrachten viele Menschen Bakterien und andere Mikroorganismen nur als Keime, die Krankheiten verursachen. Tatsächlich ist die Geschichte aber viel komplizierter. Mehr und mehr wird es klar, dass der gesunde menschliche Körper von Mikroorganismen nur so wimmelt, dass viele davon essentiell zu unserem Stoffwechsel, zu unserer Immunantwort, ja sogar zu unserer geistigen Gesundheit beitragen. Wir sind nicht bloß ein Organismus, wir sind ein "Superorganismus", der sich aus menschlichen und mikrobiellen Zellen zusammensetzt und in dem die Mikroben unsere Zellen an Zahl überbieten. Abbildung 1. Das Human Microbiome Project (HMP) der NIH, das vor einem Jahrzehnt begonnen hat das mikrobielle Makeup gesunder Amerikaner zu erforschen, fördert dieses neue Verständnis.

Abbildung 1. Wir sind ein Superorganismus, der sich aus menschlichen Zellen und Mikroorganismen zusammensetzt.

Vor rund fünf Jahren haben HMP-Forscher ihre erste Runde von Daten herausgegeben: diese boten einen ersten Einblick in Mikroorganismen, die in Mund, Darm, Nase und anderen Teilen des Körpers vorhanden sind [1]. Eine zweite Welle an Daten, die eben im wissenschaftlichen Journal Nature erschienen ist, bietet nun eine drei Mal so große Fundgrube an Information und verspricht unsere Kenntnisse über das menschliche Mikrobiom und seine Rolle in Gesundheit und Krankheit zu vertiefen [2]. Diese neuen Daten sind das Ergebnis einer breiten interdisziplinären Forschungskooperation, die von Curtis Huttenhower (Harvard School of Public Health,Boston, MA und Broad Institute MIT ) geleitet wurde. Insgesamt sind darin zusätzliche 1 631 neue Metagenome (siehe unten) enthalten und erhöhen damit die Datensammlung auf 2 355 Metagenome. Die neuen Metagenome stammen von 265 gesunden freiwilligen US-Bürgern und stellen vollständige Sets mikrobieller DNA-Sequenzen dar, die von jeweils sechs Körperregionen gesammelt wurden; diese schließen ein: Nasenraum, Innenseiten der Wangen, Zahn- und Zungenoberflächen, Regionen des Gastro-Intestinaltraktes und - bei Frauen - den Bereich der Vagina unterhalb des Gebärmutterhalses.

Das menschliche Mikrobiom…

besteht aus einer großen, noch immer nicht bestimmten Zahl an Mikroorganismen. Während Bakterien den Großteil der Keime ausmachen, die unsere Körper besiedeln, gibt es dann noch andere Bewohner wie einzellige Archaea und Pilze. Dazu kommen unterschiedliche Arten von Viren, die Nase und Darm auch vollkommen gesunder Menschen bevölkern.

…Metagenom…

Diese Keime exprimieren Millionen mikrobieller Gene, die in Summe als Metagenom bezeichnet werden. In den eben herausgegebenen Daten sind nun über eine Million mehr Gen-Familien enthalten als in den früher veröffentlichten - es wurde ein wesentlich breiteres Spektrum mikrobieller Diversität eingefangen.

Die DNA-Daten aus der Sequenzierung der Metagenome gestattete es den Forschern Überlegungen über die biochemischen Aktivtitäten und die möglichen Funktionen des menschlichen Mikrobioms anzustellen und wie diese über die Zeit hin in unterschiedlichen Teilen des Körpers und von Mensch zu Mensch variieren.

…und funktionelle Anpasssungen

Wenn auch viele Gene und Stoffwechselwege im Mikrobiom noch nicht biochemisch charakterisiert sind, so fanden sich 19 Wege, die in allen untersuchten Körperregionen verstärkt auftraten. Das bedeutet, dass diese Wege spezifisch in Gruppen von Mikroorganismen vorkommen, die für das Leben in und auf Menschen adaptiert sind.

Diese relativ Wirts-spezifischen Wege weisen wahrscheinlich auf funktionelle Anpassungen hin, die sich für die Mikroben als wichtig für ein harmonisches Zusammenleben mit Menschen erwiesen haben und darüber hinaus sogar Vorteile für den menschlichen Wirt boten.

  • Beispielsweise scheinen die in mehreren Körperregionen gefundenen, mikrobiellen Metagenome die spezielle Fähigkeit zur Synthese von Vitamin B12 zu besitzen, das für unsere Gesundheit ja essentiell ist.
  • Andere spezielle Merkmale waren für bestimmte Regionen des menschlichen Körpers spezifisch. En Beispiel dafür waren die im Mundbereich gefundenen Mikroben. Diese wiesen vermehrt Gene auf, die in die chemische Umwandlung von Nitraten in unserer Nahrung in Nitrite involviert sind . Es ist dies ein Prozess, der - neben anderen Gesundheitszuständen - mit der Regulation von Blutdruck und Vermeidung von Migräne verknüpft wird.
  • Mikroorganismen im Darm haben eine besondere Fähigkeit Mannan abzubauen, ein Kohlehydrat , das in vielen Gemüsesorten vorkommt.

Variable Keimbesiedelung

Es gab auch andere interessante Beobachtungen. Von Haemophilus parainfluenzae war schon lange bekannt, dass dieses Bakterium im oberen Atmungstrakt vorkommt und eine Rolle in der Bronchitis und Sinusitis spielt. Für die Forscher unerwartet war, dass dieser Keim auch mehrere Teile des Mundbereichs bewohnt. Der spezifische Haemophilus-Stamm variierte aber je nachdem, von wo der Abstrich genommen wurde - ob von der Wangeninnenseite, von der Zunge oder der Zahnoberfläche. Dies lässt darauf schließen, dass H. parainfluenzae an meiner Wange dem Keim auf Ihrer Wange ähnlicher sein könnte, als dem auf meiner Zunge.

Es erscheint interessant, dass man keine charakteristischen Unterschiede in den Metagenomen von Personen fand, die in Houston oder in St.Louis lebten. Ob dies auch landesweit für Städte zutrifft, ist eine spannende Frage.

Während einige der Mikroben im Darmbereich eines Individuums die Tendenz hatten über die Zeit hin stabil zu bleiben, zeigten sich andere wesentlich variabler. Erstaunlicherweise unterschieden sich diese" Kern-Mikroben" von Mensch zu Mensch häufig beträchtlich. Anders ausgedrückt: das Mikrobiom im Darm von Menschen - auch wenn diese in derselben Stadt leben - kann ein stark personalisiertes Set von Mikroben enthalten mit noch nicht erforschten Auswirkungen auf unsere Gesundheit.

Fazit

Zusätzlich zu unseren Genen, unserem Lebenstil und unseren Erfahrungen, sind unsere Mikrobiome Teil dessen, was jeden von uns einzigartig macht. Mikrobiome können uns auch erklären helfen, warum manche Menschen anfälliger für Krankheiten sind als andere. Wenn wir in den kommenden Jahren die mikrobiellen Unterschiede besser verstehen werden, die Individuen für Gesundheit oder Krankheit prädisponieren, so ist ein Faktum bereits heute weitestgehend klar:

Mikroben sind für uns ein essentieller Bestandteil.


[1] Structure, function and diversity of the healthy human microbiome. Human Microbiome Project Consortium. Nature. 2012 Jun 13;486(7402):207-14.(open access)

[2] Strains, functions, and dynamics in the expanded Human Microbiome Project. Nature. 2017 Sept 20.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Expanding our View of the Human Microbiome" zuerst (am 26. September 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/09/26/expanding-our-view-of-the-human-microbiome/. Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

NIH Human Microbiome Project. https://hmpdacc.org/
Human Microbiome Project Data Portal: https://portal.hmpdacc.org/

Huttenhower Lab (Harvard H.T. Chan School of Public Health, Boston, MA) https://huttenhower.sph.harvard.edu/

Rob Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind. TED-Talk (2014). Video 17:24 min.

Artikel zum Mikrobiom im ScienceBlog:

Redaktion 22.12.2016: Kenne Dich selbst - aus wie vielen und welchen Körperzellen und Mikroben besteht unser Organismus?


 

inge Thu, 28.09.2017 - 16:42

FotoQuest GO - Citizen Science Initiative sammelt umfassende Daten zur Landschaftsveränderung in Österreich

FotoQuest GO - Citizen Science Initiative sammelt umfassende Daten zur Landschaftsveränderung in Österreich

Do, 21.09.2017 - 05:42 — IIASA

IIASAIcon Politik & GesellschaftVorgestern war der Start der Citizen Science Initiative FotoQuest GO. Das Ziel dieses vom IIASA geleiteten Projekts ist es Beobachtungen über Landnutzung und Landbedeckung in ganz Österreich zu sammeln, um daraus eine detaillierte und aktuelle Datenbank zu erstellen. Solche Daten sind die Basis für nachhaltige Städteplanung, Klimawandelforschung, Naturschutz und Wassermanagement. Mit Hilfe des GPS des Smartphones navigiert die FotoQuest GO-App an den Ort, zu dem Landschaftsdaten fehlen, und hilft anschließend, die notwendigen Fotos und Informationen abzuspeichern und hochzuladen.*

Am 19. September 2017 startete die Fotoquest GO, eine Citizen Science-Initiative, deren Ziel es ist die Änderung der Landnutzung in ganz Österreich festzustellen und ein Community-basiertes Monitoring zu etablieren.

FotoQuest GO ist ein Projekt des Internationalen Instituts für Angewandte Systemanalyse (IIASA), wird durch das vom ERC geförderte CrowdLand Projekt (GA No. 617754) unterstützt und ist Teil der Geo-Wiki Plattform. Partner sind GLOBAL 2000 und das österreichische Umweltbundesamt. Die von den Wissenschaftlern des IIASA gereinigten und analysierten Datensätze können auf der Geo-Wiki Webseite zur freien Verwendung heruntergeladen werden.

Mit der für einen Zeitraum von drei Monaten anberaumten Initiative soll ein umfassender Datensatz über die Landnutzung und die Landbedeckung in Österreich gesammelt werden. Die Teilnehmer werden dazu gebeten spezielle Orte aufzusuchen, mittels der FotoQuest GO-App (die für Android und iPhone verfügbar ist) zu fotografieren und auch die Art der Landbedeckung zu identifizieren - Ackerland, Wiesen, Wälder, Straßen oder Gebäude. Abbildung1.

Abbildung 1.Beispiele für Landbedeckung (links) und Landnutzung (rechts). (Quelle: LUCAS-Studie. Defining land use, land cover and landscape. cc-by-nc)

Derartige Daten sind wichtig, da in Österreich täglich rund 150 000 m2 Boden in Flächen für Wirtschaft, Wohnen, Erholung oder Verkehr umgewandelt werden. Dabei müssen fruchtbare Böden, Artenvielfalt und natürliche CO2-Speicher Asphalt und Beton weichen - dies bedeutet, dass die ökologischen Funktionen des Bodens praktisch völlig verloren gehen.

Bodenversiegelung…

"Die Versiegelung des Bodens kann das Risiko für Überschwemmungen, für Wasserknappheit unfruchtbare Agrarflächen und Hitzewellen in den Städten erhöhen" sagt IIASA Forscher Steffen Fritz, der die Citizen Science Projekte des IIASA leitet. "Um die Auswirkungen derartiger Veränderungen in unserem Land verfolgen zu können und mitzuhelfen die Vielfalt der Natur für zukünftige Generationen zu erhalten, haben wir FotoQuest Go entwickelt: mittels der FotoQuest Go App können uns Bürger helfen wertvolle Daten über veränderte Landnutzung in Österreich zu sammeln."

…Auswirkungen des Klimawandels

sind in Österreich (dem Sitz von IIASA) und auch in der ganzen Welt bereits deutlich sichtbar. Einem langfristigen Trend folgend war dieser Sommer einer der heißesten in Österreichs Geschichte: in den seit 251 Jahren laufenden Wetteraufzeichnungen fanden die elf heißesten Sommer alle nach dem Jahr 2000 statt. In diesem Jahr begannen die Hitzewellen früher als im Durchschnitt und dauerten auch länger. Dazu kamen in Österreich Überschwemmungen, Murenabgänge und Starkregen. „Die Klimaveränderung ist bereits voll da em Gange und wir müssen entschlossene Maßnahmen treffen, um katastrophale Folgen in der Zukunft abzuwenden. Als Citizen Scientists können wir alle mithelfen bessere Daten über Landnutzung und Landbeschaffenheit zu erhalten, um den vor uns liegenden Herausforderungen gewachsen zu sein“, sagt Johannes Wahlmüller, Klima- und Energiesprecher bei GLOBAL 2000.

Die FotoQuest Go Studie

soll die Daten zu ergänzen, die im Rahmen der EU-Initiative Land Use and Coverage Area frame Survey (LUCAS) gesammelt werden. Die Erhebung der EU Daten ist kostspielig und da diese nur alle drei Jahre stattfindet, kann sich in der Zwischenzeit viel ändern. Die Orte der FotoQuest Go entsprechen den offiziellen Messpunkten der LUCAS -Studie - dies erlaubt eine direkten Vergleich von FotoQuest und LUCAS Daten und damit eine Beurteilung der Qualität der von den Bürgern gesammelten Daten. Abbildung 2.

Abbildung 2. FotoQuest GO: 9000 Lokationen sind auf ganz Österreich verteilt (Quelle; http://fotoquest-go.org/ )

FotoQuest Go ist ein Nachfolge-Projekt der FotoQuest Austria Initiative im Jahr 2015, in welcher 12 000 Bilder an 2000 Plätzen in ganz Österreich gesammelt worden waren. Die Ergebnisse wurden im wissenschaftlichen Journal Remote Sensing veröffentlicht [1] und zeigten deutlich, dass Citizen Science Initiativen Datensammlungen aufwerten und/oder die Kosten von Projekten wie LUCAS senken können. Allerdings zeigte es sich, dass die Citizen Scientists in derKlassifizierung einiger Arten von Landbedeckung unsicher waren, dagegen sehr erfolgreich Oberflächen wie bebaute Gebiete und Straßen einordneten. Ein großes Problem war auch mangelnde Motivation alle Messpunkte zu erreichen. Von den insgesamt 9000 Lokationen der LUCAS Studie hat die FotoQuest Austria Kampagne nur 2000 besucht und die meisten der entlegeneren Orte fehlten.

Mit der neuen Kampagne hoffen die IIASA Forscher bessere Ergebnisse als 2015 zu erhalten und auch die Motivation der teilnehmenden Hobby-Wissenschafter zu steigern. FotoQuest Go verspricht für jede an einer Lokation erfolgreich abgeschlossene Untersuchung einen Euro.

Wie die FotoQuest Go Untersuchung abläuft,

ist in Abbildung 3 dargestellt. Mit Hilfe des GPS des Smartphones navigiert die FotoQuest GO-App an den Ort, zu dem Landschaftsdaten fehlen, und hilft anschließend, die notwendigen Fotos und Informationen abzuspeichern und hochzuladen.

Abbildung 3. Mit der FotoQuest GO App Orte aussuchen, Bilder von der Landschaft machen und ein paar kurze Fragen beantworten. (Quelle: http://fotoquest-go.org/#go)

“Wenn ein Teilnehmer seine Eingaben dann hochlädt, folgt eine Empfangs-Bestätigung. Die Eingaben werden anschließend auf ihre Qualität geprüft und bei entsprechender Eignung wird dem Teilnehmer 1,-€ gutgeschrieben. Der Ort wird dann von der Karte der FotoQuest-App gelöscht”, erklärt Tobias Sturm von IIASA die Funktionsweise der von ihm entwickelten App.

Beim Wandern oder Sport in der Natur kann mit FotoQuest Go etwas für den Umwelt- und Klimaschutz getan werden!


Reference

[1] Laso Bayas JC, See L, Fritz S, Sturn T, Perger C, Dürauer M, Karner M, Moorthy I, et al. (2016). Crowdsourcing In-Situ Data on Land Cover and Land Use Using Gamification and Mobile Technology. Remote Sensing 8 (11): e905. DOI:10.3390/rs8110905.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der am 19. September2017 auf der Webseite des IIASA erschienenen Pressemitteilung “ Citizen science targets land-use change in Austria" http://www.iiasa.ac.at/web/home/about/news/170919-FotoQuestGo.html . Die Abbildungen wurden von der Redaktion beigefügt: 2 und 3 stammen von der Webseite des FotoQuest GO Projekts http://fotoquest-go.org/#go , Abbildung 1 von der Homepage des EU-LUCAS Projekts. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt.


Weiterführende Links

CrowdLand (Harnessing the power of crowdsourcing to improve land cover and land use information) European Research Council (ERC) ERC Consolidator Grant 617754

Homepage von FotoQuest GO

FotoQuest GO Video (Deutsch) 1:43 min.

FotoQuest GO App

Geo Wiki Website

inge Thu, 21.09.2017 - 05:42

Climate Engineering: Unsichere Option im Umgang mit dem Klimawandel

Climate Engineering: Unsichere Option im Umgang mit dem Klimawandel

Do, 14.09.2017 - 14:13 — Nils Matzner

Nils MatznerIcon GeowissenschaftenIm 5. Sachstandbericht des Weltklimarats, 2013–2014 (IPCC: Intergovernmental Panel on Climate Change) werden die Maßnahmen gegen den globalen Klimawandel als unzureichend bezeichnet. In den vergangenen Jahren wurden Ideen entwickelt, mittels sogenanntem Climate Engineering gezielt und in großem Rahmen in biochemische Kreisläufe der Erde einzugreifen und damit den Klimawandel zu verlangsamen oder zu stoppen. Im Rahmen eines Schwerpunktprogramms der Deutschen Forschungsgemeinschaft (SPP 1689, http://www.spp-climate-engineering.de) bearbeiten Nils Matzner und Kollegen (Institut für Technik- und Wissenschaftsforschung; Alpen-Adria-Universität Klagenfurt) ein Forschungsprojekt zu Climate Engineering

Seit jeher träumen Menschen davon, das regionale Wetter positiv beeinflussen zu können. Der voranschreitende Klimawandel hat in den vergangenen Jahren nun zur Entwicklung von Ideen geführt, wie in das globale Klimasystem mittels Climate Engineering (auch als Geoengineering bezeichnet) gezielt und im großen Rahmen eingegriffen werden könnte.

Was ist Climate Engineering?

Climate Engineering (CE) unterscheidet sich grundlegend von den Maßnahmen zur Beeinflussung von regionalem Wetter. Bedeutende Wissenschaftsorganisationen aus Deutschland, Großbritannien und den USA definieren CE übereinstimmend als intentionale, großskalige Beeinflussung des Klimasystems, um den globalen Klimawandel zu verlangsamen [1–5]. Drei Merkmale sind charakteristisch:

  • CE ist immer intentional. Emissionen von Treibhausgasen verändern das Klima zwar, jedoch ist die globale Erwärmung kein gewünschter Effekt. Intentionalität bedeutet auch, dass CE von bestimmten Akteuren absichtlich durchgesetzt werden kann, insofern diese dazu in der Lage sind. Einige, aber nicht alle CE-Technologien könnten von einzelnen Staaten oder reichen Individuen eingesetzt werden. Allerdings sind derzeit keine Anzeichen dafür verfügbar, dass irgendein Akteur konkrete Vorbereitungen zu einem Einsatz trifft, die über grundlegende Erforschung hinausgeht.
  • CE ist immer großskalig. Im Gegensatz dazu ist die Beeinflussung von lokalem Wetter – sei es als Versuch der Herstellung eines gewünschten Wetters oder als Verhinderung gefährlicher Wetterlagen (für die Landwirtschaft oder für öffentliche Veranstaltungen) – kleinskalig und daher kein CE. Auch wenn bei beiden Technologien Flugzeuge Material in Wolken versprühen, dann ist das schon die größte Ähnlichkeit: Einige Methoden von CE zielen auf die Stratosphäre (8 bis 50 km Höhe) in globaler Ausdehnung, während Wetterbeeinflussung in sehr geringer Höhe und über kleiner Fläche durchgeführt wird.
  • CE wirkt dem Klimawandel entgegen. Der Klimawandel und seine Folgen werden als eines der wichtigsten globalen Probleme gesehen. Mit dem Klimaabkommen von Paris 2015 wurde eine verbindliche Zielmarke von 2 °C Erwärmung, wenn möglich 1,5 °C, installiert. Aktuell ist höchst umstritten, ob CE als ein legitimes Mittel zur Begrenzung der globalen Erwärmung überhaupt anerkannt werden soll oder nicht. Dass aber CE auf den Klimawandel der Erde und nicht etwa auf lokales Wetter oder andere Planeten zielt, ist aus Sicht von Forschung und Politik weitgehend unumstritten.

Welche Technologien von Climate Engineering werden erforscht?

CE-Technologien werden in zwei grundlegende Typen unterteilt:

  • Technologien, die die Sonneneinstrahlung zur Erde reduzieren (auch Solar Radiation Management, SRM, genannt) und
  • Technologien, die Kohlendioxid (CO2) aus der Atmosphäre entfernen helfen (auch Carbon Dioxid Removal, CDR, genannt).

Als mögliche CE-Methoden im SRM werden beispielsweise die künstliche Wolkenerzeugung oder Spiegel im Weltraum zwischen Sonne und Erde genannt. Im Falle von CDR sind es u.a. die chemische Bindung von CO2 im Meer, die Stimulierung des Phytoplankton-Wuchses durch "Eisendüngung" der Meere, Artificial Upwelling, eine gesteigerte CO2-Aufnahme durch Aufforstung, das Herausfiltern von CO2 aus der Luft (Direct-Air-Capture; eine erste kommerzielle Anlage ist kürzlich in der Schweiz in Betrieb gegangen [6]) und Sequestrierung von CO2 direkt am Entstehungsort. Abbildung 1 fasst diese Technologien zusammen.

Jede Technologie besitzt ein individuelles Risikoprofil, Unsicherheiten, ökonomische Kosten und politische Regulierungsprobleme. Beispielsweise läge im Einbringen von Aerosolen in der oberen Atmosphäre das Risiko, die globalen Niederschlagsmuster zu verändern, sodass Dürren und Überschwemmungen möglich wären. Bei der Düngung der Meere wäre gänzlich unklar, wie dies langfristig auf die maritimen Ökosysteme wirkt. Neben bekannten Risiken und Unsicherheiten existiert ein großer Bereich von nicht einschätzbarem Nichtwissen („unknown unknowns“), da CE-Technologien sich in einem sehr frühen Forschungsstadium befinden.

Abbildung 1. Climate Engineering durch Technologien, die die Sonneneinstrahlung zur Erde reduzieren (Solar Radiation Management) und durch Entfernung von Kohlendioxid aus der Atmosphäre (Carbon Dioxide Removal). Bild: http://www.spp-climate-engineering.de; Lizenz:cc-by-nd4.0.

Wird Climate Engineering bereits eingesetzt?

Seit Ende der 1990er Jahre hat die ernsthafte wissenschaftliche Beschäftigung mit Climate Engineering zugenommen. Bis dahin war CE aus Sicht vieler Wissenschaftler eine akademische Übung, um überhaupt zu verstehen, wie Menschen auf das Klimasystem Einfluss nehmen könnten, ohne jedoch konkrete politische Ziele zu verfolgen. David Keith, zweifelsohne einer der am längsten aktiven CE-Forscher, hat mit seiner Zusammenfassung des Forschungsstandes im Jahr 2000 eine Grundlage nicht nur für naturwissenschaftliche, sondern auch für gesellschaftswissenschaftliche Forschung gelegt [7]. Schon damals prognostizierte Keith Schwierigkeiten in der politischen Regulierung von CE-Technologien und dass CE ein einfacher, aber problematischer Ausweg aus der schwierigen Politik der Emissionsreduktion sein könnte.

CE wird derzeit an Computern, in Laboren und in wenigen kleinen Feldanlagen erforscht – Wetterbeeinflussung wird offen eingesetzt. Tatsächlich betreiben einige Länder, darunter auch Österreich, Programme zur Herstellung gewünschter Wetterlagen oder zur Verhinderung von Unwetterschäden.

Während der Einsatz von Wetterbeeinflussung mittels versprühter Aerosole aus Flugzeugen zum Teil stattfindet, obwohl dessen Effektivität nach wie vor umstritten ist, ist weder ein Experiment, noch ein Einsatz von CE in der Atmosphäre bisher geschehen. Alle CE-Technologien befinden sich aktuell im Planungsstadium. Lediglich ein paar wenige, kleine Feldexperimente zu CE hat es gegeben, welche jedoch nicht atmosphärisch waren. Beispielsweise wurden vor der kanadischen Küste 100 Tonnen Eisen ausgebracht, um die Algenblüte anzuregen, die dann mehr CO2 bindet (Abbildung 1).

Sowohl diejenigen Forscher, die heute eine intensivere Erforschung befürworten, als auch diejenigen, die vor allem die Risiken betonen, lehnen einen baldigen Einsatz von CE ohne vorherige politische Klärung als nicht wünschenswert klar ab.

Welche Kosten sind mit Climate Engineering verbunden?

Die voraussichtlichen Kosten für Climate Engineering unterscheiden sich je nach konkreter Technologie. Um die globale Temperatur abzukühlen und mögliche Klimaschäden abwenden zu können, wären Methoden mit atmosphärischen Aerosolen verglichen mit dem direkten Entzug von CO2 aus der Atmosphäre günstig. Einige CE-Technologien könnten kostengünstiger sein, als eine vergleichbare aggressive Emissionsreduktion binnen wenigen Jahren. Jedoch ginge eine solche Rechnung nur auf, wenn CE risikoarm betrieben werden könnte. In jedem Fall müssten immer noch einige Prozent des globalen Sozialproduktes dafür aufgewendet werden. Wer diese Kosten trägt und ob überhaupt private Investitionen in CE zugelassen werden sollen, befindet sich derzeit in der Diskussion.

Was die Forschung zu Climate Engineering betrifft, so zeigt sich, dass Climate Engineering keine Grundlagenforschung ist, die vergleichbar mit Teilchenphysik wäre. CE-Forschung zeichnet sich durch Anwendungsorientierung aus, wird aber von einer teils proaktiven aber selbstkritischen, teils zurückhaltenden Forschungsgemeinschaft geleitet. Fragen von Governance und Verantwortung sind den Naturwissenschaftlern und Ingenieuren nicht fremd, müssen aber im transdisziplinären Dialog weiterentwickelt werden.

Hinsichtlich der Förderung der CE-Forschung erhält das deutsche Schwerpunktprogramm (SPP), in dessen Rahmen auch unser eigenes Projekt fällt [8], die aktuell höchste Fördersumme (insgesamt über 5 Mio. Euro) an öffentlichen Forschungsgeldern. Diese übersteigt US-amerikanische, britische und chinesische Investitionen. In Österreich findet dazu aktuell kaum Forschung statt, außer der Beteiligung einiger WissenschaftlerInnen am deutschen SPP. Da Österreich in der konventionellen Klimaforschung gut vertreten ist, könnte sich dies noch ändern.

Fazit

Die aktuellen Schwierigkeiten, das Pariser Klimaabkommen umzusetzen – bei stetig neuer Sicherheit aus der Wissenschaft, dass der Klimawandel gefährlich fortschreitet – bereiten weltweit vielen Akteuren große Sorgen. Ob und wie Climate Engineering eine Option gegen die globale Erwärmung sein kann, hängt von neuen Forschungsergebnissen, politischen Verhandlungen und der öffentlicheren Debatte zu diesem Thema ab. CE ist zweifelsohne eine bisher wenig erforschte und politisch kaum regulierte Risikotechnologie. CE als Ersatz für einen umweltfreundlicheren Lebensstil und damit die Einsparung von Treibhausgasemissionen zu verwenden, wäre fatal.


[1] Rickels W. et al., (2011): Large-Scale Intentional Interventions into the Climate System? Assessing the Climate Engineering Debate. Scoping report conducted on behalf of the German Federal Ministry of Education and Research (BMBF), Kiel Earth Institute, Kiel, Online verfügbar unter http://www.kiel-earth-institute.de/scoping-report-climate-engineering.html (open access, abgerufen am 11.9.2017)

[2] Royal Society (2009): Geoengineering the climate: science, governance and uncertainty. London. Online verfügbar unter http://royalsociety.org/policy/publications/2009/geoengineering-climate/. Open access

[3] Shearer, Christine; West, Mick; Caldeira, Ken; Davis, Steven J. (2016): Quantifying expert consensus against the existence of a secret, large-scale atmospheric spraying program. In: Environ. Res. Lett. 11, S 84011. open access: DOI: 10.1088/1748-9326/11/8/084011.

[4] National Acadamy of Sciences (2015a): Climate Intervention [a]. Carbon Dioxide Removal and Reliable Sequestration. Washington, D.C. Online verfügbar unter http://www.nap.edu/catalog/18805/climate-intervention-carbon-dioxide-rem....

[5] National Acadamy of Sciences (2015b): Climate Intervention [b]. Reflecting Sunlight to Cool Earth. Washington, D.C. Online verfügbar unter http://www.nap.edu/catalog/18988/climate-intervention-reflecting-sunligh....

[6] Climeworks, 06.06.2017 - NPO: Erste kommerzielle Anlage saugt CO2 aus der Luft. http://www.scinexx.de/wissen-aktuell-21524-2017-06-06.html

[7] Keith, David W. (2000): Geoengineering the Climate: History and Prospect. In: Annu. Rev. Energy Environ (Annual Review of Energy and the Environment) 25 (1), S. 245–284. Online verfügbar unter https://keith.seas.harvard.edu/files/tkg/files/26.keith_.2000.geoenginee...

[8] CE-SciPol2. Verantwortliche Erforschung und Governance an der Schnittstelle von Wissenschaft und Politik des Klimawandels,

http://www.spp-climate-engineering.de/sci-pol2.html


Weiterführende Links

Info-Portal Geo-Engineering

SPP1689 Schwerpunktprogramm

N. Janich, Ch Stumpf: Naturwissenschaftler antworten Journalisten, wie Ungewissheiten und Unsicherheiten in der Klimaforschung kommuniziert werden (sollten) (SPP 1689 der DFG).

Deutsche Meteorologische Gesellschaft (2017): Stellungnahme zum Climate Engineering.

Nils Matzner (2011): Die Politik des Geoengineering. (PDF-Download)

A. Mihm (FAZ, 15.08.2017): Klimaschutz braucht mehr Forscher und Erfinder.

Artikel im ScienceBlog:

Wir haben dem Komplex einen eigenen Schwerpunkt Klima & Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 14.09.2017 - 14:13

Fipronil in Eiern: unverhältnismäßige Panikmache?

Fipronil in Eiern: unverhältnismäßige Panikmache?

Do, 07.09.2017 - 15:55 — Inge Schuster

Inge SchusterIcon ChemieDer "Gifteier"-Skandal sorgt seit mehr als einem Monat für zum Teil äußerst reißerische Schlagzeilen in allen Medien und hat die Verunsicherung weitester Bevölkerungskreise zur Folge. Dass Fipronil unerlaubterweise nun in Hühnereiern (und auch in Hühnerfleisch) auftaucht, ist ein Fall für die Justiz und soll nicht kleingeredet werden. Auf einem anderen Blatt steht aber, dass die mit der bereits seit langem praktizierten Fipronil Verwendung an Haustieren und zur Schädlingsbekämpfung einhergehende Exposition, bei weitem die potentielle Gefährdung durch die "Gifteier" übersteigt. Die Panikmache wäre besser vermieden worden.

Über einen Mangel an Themen konnten die Medien im heurigen Sommer nicht klagen. Stoff bot nicht nur einer der - laut ZAMG - heißesten Sommer seit Beginn der Aufzeichnungen, auch das Säbelgerassel führender Politiker, die beginnenden Wahlkämpfe bei uns und in unserem Nachbarland und eine Reihe von Skandalen füllten ein ansonsten weit klaffendes Sommerloch. Insbesondere war und ist es aber der "Gifteier"-Skandal, der von Anfang August an bis jetzt zum Teil reißerische Schlagzeilen in allen Medien macht und die Beunruhigung weitester Bevölkerungskreise zur Folge hat. Abbildung 1. Man wurde ja im TV Zeuge, wie täglich Tausende und Abertausende Eier vernichtet wurden, weil sie möglicherweise Spuren des Insektizids Fipronil enthielten - eine Bestätigung dafür, dass hier offensichtlich eine schwerwiegende Gefährdung drohte.

Abbildung 1. Einige Schlagzeilen aus der Medien-Berichterstattung.

Die Angst vor giftigen Chemikalien im Essen im Allgemeinen und im speziellen Fall vor einer Fipronil "Vergiftung" wuchs, auch, wenn sich die Medien bemühten festzustellen: " die derzeit gemessenen Fipronil-Werte in Eiern sind nicht sehr hoch" und sich dabei auf die von offiziellen Stellen gemeldete Entwarnung beriefen. Beispielsweise konstatierte die Österreichische Agentur für Gesundheit und Ernährungssicherheit (AGES): "Bei den Mengen die bisher in den Eiern (Niederlande, Deutschland) gefunden wurden, ist von keiner gesundheitlichen Beeinträchtigung für Menschen auszugehen. Geht man von dem höchsten in einem Ei gemessenen Wert aus, so wäre eine tägliche Aufnahmemenge von 7 Eiern für Erwachsene bzw 1 Ei für ein Kind mit 10 kg Körpergewicht tolerierbar." Noch weniger Gefährdung wäre für verarbeitete Lebensmittel zu erwarten, da aufgrund des Verarbeitungsprozesses die Konzentration von Fipronil sehr gering wäre.

Aufklärung, wie das Insektizid Fipronil in die Eier gelangen konnte - immerhin sind bereits 45 Länder nicht nur in Europa von dem "Eierskandal" betroffen - und entsprechende Konsequenzen für die Verursacher, sind rasch erfolgt. Eben beschäftigen sich die EU-Agrarminister intensiv mit der Causa.

Die bis jetzt zu den Risiken und Auswirkungen von Fipronil -Anwendungen erfolgten Mitteilungen sind - um es positiv auszudrücken - ergänzungsbedürftig und machen nur für weitere Verunsicherung Platz. Einige der weggelassenen Punkte sollen im Folgenden nun behandelt werden.

Was ist Fipronil?

Fipronil ist ein Insektizid, das gegen ein sehr breites Spektrum von Insekten wirkt: gegen Schädlinge im Pflanzenbau und in Haus und Garten -wie Schaben und Ameisen -, sowie gegen sogenannte Ektoparasiten - das sind Gliederfüßer (Arthropoden), die auf der Oberfläche von Wirtsorganismen leben und sich von deren Blut, Hautschuppen, etc. ernähren. Zu den Ektoparasiten zählen etwa Milben (darunter die Zecken), Läuse und Stechmücken, die als Überträger von immer mehr unterschiedlichen Krankheitserregern fungieren - von Viren und Mikroorganismen, die Krankheiten wie beispielsweise Frühsommer-Meningits, Borreliose, Rickettsiose, Vogelgrippe oder auch Malaria auslösen.

Dass Fipronil auch für nützliche Insekten - Bestäuber wie etwa die Bienen - toxisch ist, hat zur Einschränkung seiner landwirtschaftlichen Nutzung geführt (s.u.).

Von der Struktur her ist Fipronil eine relativ kleine synthetische Verbindung aus der Gruppe der Phenylpyrazole (Abbildung 2). Es ist eine hoch lipophile Substanz: in organischen Lösungsmitteln (Oktanol) löst sich Fipronil rund 10 000 besser als in Wasser (Löslichkeit rund 2 mg/l). Dies hat zur Folge, dass sich Fipronil im Fettgewebe tierischer Organismen anreichert, dort lange verweilt und - bei chronischher Exposition - akkumulieren kann. Anreicherungen und langanhaltende Persistenz werden auch in den Böden detektiert. Die Hauptmetabolte des Fipronilin, die durch oxydative (Cytochrom P450 katalysierte) Prozesse in Organismen entstehen und durch photochemische Reaktionen in der Umwelt, haben ähnliche Eigenschaften (und insektizide Wirksamkeiten).

Abbildung 2. Das Insektizid Fipronil ist ein N-Phenylpyrazole mit einem Trifluoromethylsulfinyl-substituenten (rot eingeringelt). Als Hauptmetabolit In Organismen entsteht durch Oxidation das Sulfon, im Licht (ohne Stoffwechsel) das Desulfinyl-Produkt. Beide Metabolite haben vergleichbare insektizide Eigenschaften wie Fipronil.

Wie wirkt Fipronil?

Der Großteil der heute gebräuchlichen Insektizide richtet sich gegen vier unterschiedliche Zielstrukturen im Nervensystem: gegen Cholinesterasen, welche den Neurotransmitter Acetylcholin spalten und so seine Wirksamkeit kontrollieren,und gegen den Acetylcholinrezeptor, gegen einen spannungsabhängigen Natriumionenkanal, und gegen den GABAA -Rezeptor. (GABA steht für den Neurotransmitter γ-Aminobuttersäure). Fipronil fungiert als ein höchstwirksamer Antagonist von GABAA -Rezeptoren (und Glutamat-Rezeptoren, die nur in Insekten vorkommen). Es sind dies Ionenkanäle, die in der Membran der Nervenzellen sitzen und - durch ihre Neurotransmitter gesteuert - für Chloridionen durchlässig werden. Fipronil bindet nun an/in der zentralen Pore eines solchen Kanals und verhindert damit direkt den Einstrom von Chlorid. Dies führt nun zur Hyperpolarisierung (Übererregung) der Zellmembran, als Folge zur Blockierung der Erregungsüberleitung und schließlich zu Paralyse und Tod des Insekts.

Die kurze Erläuterung des Wirkmechanismus ist wichtig, weil GABAA -Rezeptoren sowohl in den Nervensystemen von Wirbellosen als auch von Wirbeltieren in hoher Zahl vorkommen. Eine niedrige Selektivität für den Rezeptor von Insekten über den von Wirbeltieren würde bei letzteren zu einer nicht tolerierbaren Toxizität führen. Tatsächlich zeigt Fipronil aber sehr hohe Selektivität: es bindet sehr fest an die Rezeptoren der Wirbellosen (d.i. Inhibierung tritt im Schnitt bei 3 Nanogramm/ml ein), im Gegensatz dazu ist die Bindung an die GABAA-Rezeptoren verschiedenster Vertebraten (Mensch, Säuger, Vögel, Fische) um mehr als das 100fache schwächer. Dieser Unterschied in der Blockierung der GABAA-Rezeptoren spiegelt sich auch in der Toxizität gegenüber Insekten und Wirbeltieren wider. Dosierungen, wie sie gegen Schädlinge aus dem Insektenreich wirksam sind, sollten daher auf den Anwender keine negativen Auswirkungen zeigen. Einige Fälle von versehentlicher Einnahme oder unsachgemäßer Anwendung hatten - nicht verwunderlich - neurotoxische Symptome zur Folge, die aber reversibel waren.

Wo wird Fipronil angewendet?

Die in den einzelnen Indikationen angewandten Dosierungen werden offensichtlich als nicht gefährdend eingestuft. Die Mittel sind in Lagerhäusern oder (zum Teil rezeptfrei) in Apotheken und Tierhandlungen erhältlich:

Zur Schädlingsbekämpfung

wird Fipronil vor allem gegen Ameisen, Schaben, Termiten in Form von Gießmitteln und Ködergranulaten eingesetzt:

  • Ameisenköder enthalten bis zu 500 mg/kg Fipronil (Celaflor). Die Anwendung sieht vor: "Köderdosen sollten bis zu 2 Monate stehen bleiben, auch wenn keine Ameisen mehr herumlaufen. Bei besonders starkem Befall Köderdosen nach 3 bis 4 Wochen erneuern."
  • Das Gießmittel "zur Bekämpfung lästiger Ameisen auf Terrassen und Wegen" wird durch Verdünnung hergestellt und findet als 2 mg/l Lösung Anwendung - auf ein großes Ameisennest werden 2 l von dieser Verdünnunggeleert.

Zum Pflanzenschutz

Da Fipronil für Bienen giftig ist, hat die EU 2013 beschlossen seine Verwendung zu beschränken. Der Einsatz erfolgt im Gewächshaus oder, wenn es sich um Produkte (Lauch-, Kohl pflanzen) handelt, die vor der Blüte geerntet werden. Die EU-Zulassung zur Saatgutbehandlung läuft 2018 aus.

In der Tiermedizin

Fipronil findet heute vor allem als schnell wirkendes und lang anhaltendes Mittel gegen Parasiten - Milben (Zecken), Flöhe, Läuse bei Hunden und Katzen Anwendung. Es kommt hier als Spot-on Mittel und in Form von Zeckenhalsbändern zum Einsatz. (Die Verbraucherschutz-Zeitschrift Konsument hat über einige dieser Mittel im Mai 2017 positiv berichtet.)

  • Spot-on Mittel als Medikament für Katzen und Hunde sind beispielsweise unter der Bezeichnung „Frontline“ in Apotheken erhältlich. Je nach Größe des Tiers liegt die Dosis zwischen 50,0 mg und 268,0 mg Fipronil. Diese Dosis wird auf einen für das Tier schlecht erreichbaren (ableckbaren) Fleck auf den Rücken gesprüht. "Nach Anwendung bildet sich auf dem Fell des Tieres ein Konzentrationsgradient von Fipronil, ausgehend von der Applikationsstelle in Richtung der peripheren Zonen (Lumbalzone, Flanken...). Mit der Zeit nehmen die Fipronilkonzentrationen im Fell ab und erreichen zwei Monate nach Behandlung eine durchschnittliche Konzentration von ungefähr 1 μg/g Fell." dazu wird konstatiert: "Behandelte Tiere sollten nicht berührt werden und Kinder nicht mit behandelten Tieren spielen, bevor die Applikationsstelle trocken ist." (Quelle: CliniPharm CliniTox https://www.vetpharm.uzh.ch/reloader.htm?tak/06000000/00062811.04?inhalt_c.htm)
  • Bei Tieren,die Lebensmittel liefern, ist die Anwendung von Fipronil in der EU verboten

Dass Fipronil unerlaubterweise nun in Hühnereiern (und auch in Hühnerfleisch) auftaucht, soll nicht kleingeredet werden. Es ist ein Fall für die Justiz und führte bereits zu Festnahmen der mutmaßlichen Verursacher dieses Skandals.

Wie das Insektizid Fipronil in die Eier gelangen konnte,

war bald klar. Hühner leiden unter der Roten Vogelmilbe, einem mobilen Parasiten, der tagsüber sich im Nest, in Ritzen auf Stangen und im Boden/auf Wänden versteckt und nachts die schlafenden Vögel befällt und ihr Blut saugt. Neben den direkten Folgen der "Blutabnahme" - von Juckreiz, Unruhe bis hin zu Blutarmut -, können die Milben auch Krankheitserreger -z.B. Borrelien - übertragen. Für die Bekämpfung sind Geflügelzüchter auf einige wenige, zum Teil wenig wirksame Mittel angewiesen.

Der Skandal nahm seinen Ausgang in Belgien. Dort hatte sich ein für die Nutztierhaltung zugelassenes, ungiftiges rein pflanzliches Desinfektionsmittel ("DEGA-16" aus Eukalyptusöl, Menthol und anderen ätherischen Ölen) als gegen die Vogelmilbe hochwirksam erwiesen. Der Wunsch auf die "chemische Keule" zu verzichten und ökologisch verträglich vorzugehen, führte dazu, dass das Wundermittel auch in Ställen in den Niederlanden und in einigen Fällen auch in Deutschland eingesetzt wurde. Dass die Wirkung auf die Zumischung mit dem für die Nutztierhaltung verbotenen Fipronil zurückzuführen war, wurde erst nach der chemischen Analyse von Proben später erkannt. Fipronil wurde von den Hühnern aufgenommen, auf Grund seines lipophilen Charakters reicherte es sich in Haut, Fettgewebe und in den Eiern (im Eidotter) an. Interessanterweise waren hier nicht nur Hühner in Massentierhaltung betroffen: die Verbraucherzentrale Hamburg listet unter den kontaminierten Proben auch viele auf, die von Tieren in Freilandhaltung stammten oder auch als Bio-Eier deklariert waren (https://www.vzhh.de/themen/lebensmittel-ernaehrung/schadstoffe-lebensmitteln/fipronil-eiern-was-kann-man-noch-essen

Als der Betrug ruchbar wurde, waren die Auswirkungen für die betroffenen Geflügelhalter verheerend. In den Niederlanden schlossen angeblich 180 Betriebe, der Umsatzverlust wurde mit täglich rund 4000 € pro Betrieb geschätzt.

Millionen Eier wurden vernichtet - war dies angemessen?

Eine Milchmädchenrechnung: Fipronil in "Gifteiern" versus Fipronil in erlaubten Anwendungen

In welcher Relation stehen aber nun die in Schädlingsbekämpfung und Tiermedizin angewandten Mengen von Fipronil zu den in den "Gifteiern" gefundenen?

Mit Ausnahme des höchsten in Belgien gefundenen Einzelwertes von 1,2 mg Fipronil pro kg Ei (der für die gesundheitliche Bewertung herangezogen wurde), liegen die Messwerte in allen Ländern bedeutend niedriger; die österreichische "Agentur für Ernährungssicherheit" (AGES) hat in den bis jetzt analysierten Proben Werte zwischen 0,003 und 0,1 Milligramm pro Kilo Ei gemessen. Vergleicht man nun, den Fipronil-Gehalt von Eiern mit den 50 mg Fipronil, die man einer kleinen Katze auf den Rücken sprüht, so entspricht diese Dosis einer Menge von 500 - 15 000 kg Eiern oder - bei einem mittleren Ei-Gewicht von 60 g - von 3000 - 90 000 Stück Eiern. (Das Einsprühen erfolgt dazu auch noch mehrmals im Jahr). Bei großen Hunden kann dies auch 5 x so viel sein.

Ähnliche Relationen erhält man auch für die Anwendung von Fipronil-Ameisenköder.

Natürlich muss man dabei berücksichtigen: wieweit kann Fipronil von Hund und Katze auf Mitbewohner übertragen werden, ist der Fipronil-Klecks für Mitbewohner verfügbar?

Dass dies der Fall ist, belegen einige Untersuchungen:

  • Forscher haben Hunde mit Spot-on Fipronil eingesprüht und sie täglich 5 Minuten lang mit Baumwollhandschuhen gestreichelt. Nach 24 Stunden waren auf den Handschuhen im Mittel 0,59 mg Fipronil/g haften geblieben, nach 8 Tagen waren es noch immer 0,45 mg/g, nach 29 Tagen 0,13 mg/g und erst nach 36 Tagen war Fipronil nicht mehr detektierbar (Jennings, K. A. et al.,Human Exposure to Fipronil from Dogs Treated with Frontline. Controv. Toxicol. 2002, 44 (5), 301-303).
  • In einem weiteren Beispiel wurden Hunde mit Spot-on Fipronil eingesprüht , nach bestimmten Zeitintervallen gewaschen und Fipronil im Waschwasser bestimmt; nach 2 Tagen enthielt das Wasser rund 21 (±22) % der Dosis, nach 7 Tagen 16 (±13) % und 28 Tagen noch immer 4 (±)5%. Neben der Tatsache, dass das Insektizid durchaus in nennenswerter Konzentration auch auf die Familie des Haustiers übertragen werden kann, erscheint hier vor allem von Bedeutung, dass derartige Pestizide in das Abwasser gelangen (Teerlink J et al., Sci Total Environ. 2017 Dec 1;599-600:960-966)

Bedenkt man, wie Haustiere mit uns spielen und kuscheln und dass auf Decken, Sofas und anderen bevorzugten Plätzen Fipronil auch Wochen nach der Anwendung noch abgerieben wird, so übersteigt diese Exposition bei weitem die aktuelle Gefährdung durch die "Gifteier". Dass Fipronil bereits seit den 1990er Jahren in der Tiermedizin an Haustieren Verwendung findet - an Millionen Tieren und jeweils mehrmals im Jahr - und bis jetzt offensichtlich nur sehr, sehr selten zu Nebenwirkungen geführt hat, wurde in den Medienberichten nicht thematisiert.

Die Panikmache wäre besser vermieden worden.

Fazit

Fälle, wie der gegenwärtige Fipronil-Skandal werden wohl auch in Zukunft nicht auszuschließen sein. Es werden ja heute über 800 Chemikalien - Insektizide, Herbizide und Fungizide - in der Produktion landwirtschaftlicher Produkte und zum Schutz unserer Gesundheit eingesetzt. Eine Prüfung auf deren (und ihrer Metabolite) Gehalte ist wohl nur in Stichproben möglich. Wichtig erscheint aber möglichst seriöse umfassende Information an die Bevölkerung weiterzugeben und Maßnahmen mit Augenmaß zu treffen.


Weiterführende Links

AGES: Aktuelles zu Fipronil-Eiern (4.9.2017)

Deutsches Bundesinstitut für Risikobewertung: Fragen und Antworten zu Fipronilgehalten in Lebensmitteln tierischen Ursprungs (15.8.2017 – PDF-Download).

Jackson, D.; Cornell, C. B.; Luukinen, B.; Buhl, K.; Stone, D. 2009. Fipronil Technical Fact Sheet; National Pesticide Information Center, Oregon State University Extension Services.

Casida J.E, Durkin K.A: Pesticide Chemical Research in Toxicology: Lessons from Nature. Chem. Res. Toxicol. 2017, 30, 94−104 Chem. Res. Toxicol. 2017, 30, 94−104

inge Thu, 07.09.2017 - 15:55

Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger

Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger

Do, 31.08.2017 - 10:03 — Marcel Keller & Johannes Krause

Marcel KellerJohannes KrauseIcon BiologieDas Max-Planck-Institut für Menschheitsgeschichte (Jena) betreibt Grundlagenforschung auf dem Gebiet moderner analytischer Methoden mit dem Ziel einer integrierten Wissenschaft der Menschheitsgeschichte ; es schlägt dabei eine Brücke zwischen den Geschichts- und Naturwissenschaften. Eines der Projekte widmet sich der genetischen Rekonstruktion verschiedener Krankheitserreger vergangener Epochen. Mit innovativen molekularbiologischen Methoden ist es gelungen, aus den sterblichen Überresten von Pestopfern zahlreiche Genome des Pest-Erregers zu entschlüsseln. Die Autoren dieses Essays zeigen auf, wie die Ergebnisse helfen, die Evolution des Pathogens besser zu verstehen und neue Einblicke in die (Vor-)Geschichte zu eröffnen. Weitere Studien untersuchen zum Beispiel den Ursprung der Tuberkulose in der Neuen Welt und die Evolution der Lepra-Erreger.*

Das menschliche Skelett steht in ständiger Wechselwirkung mit Weichgewebe und Blutkreislauf. Deshalb kann es noch lange nach dem Tod einiges über den Gesundheitszustand des Individuums zu Lebzeiten verraten: Stoffwechselstörungen und Mangelernährung können zu charakteristischen Veränderungen des Knochenaufbaus führen, zum Beispiel Osteoporose oder Rachitis, auch Knochentumore und Metastasen lassen sich gelegentlich identifizieren. Jedoch führen nur wenige Infektionskrankheiten wie etwa Lepra oder eine fortgeschrittene Tuberkulose zu sichtbaren Veränderungen am Skelett.

Für andere Seuchen standen den Anthropologen bis vor etwa 20 Jahren keine Nachweismethoden zur Verfügung. Die teilweise verheerenden Infektionskrankheiten, die der Menschheit vor dem Zeitalter von Antibiotika und Impfungen zusetzten, ließen sich damit nur indirekt fassen – etwa durch Symptombeschreibungen in historischen Quellen oder die Entdeckung von Massengräbern, die nur durch katastrophale Ereignisse erklärt werden können.

Abbildung 1. Mit Hilfe von DNA-Analysen konnte dieses Massengrab in Ellwangen (Marktplatz) der Pest zugeschrieben werden. © Regierungspräsidium Stuttgart, Abt. 8 Landesamt für Denkmalpflege

Paläogenetik: Neuer Blick in die Geschichte des Menschen

Dies änderte sich mit der Entdeckung, dass DNA – also jenes Biomolekül, das für alle Lebewesen den genetischen Bauplan bereitstellt – mitunter über Jahrtausende in Skeletten im Boden überdauern kann. Im Mittelpunkt des Interesses der neuen Disziplin Paläogenetik stand dabei zunächst das Erbgut des Menschen, das in Knochen und Zähnen konserviert bleibt. Der Wissenschaftszweig greift aber noch weiter: Auch Bakterien, die sich bei schweren Infektionen über den Blutkreislauf ausbreiten, lassen sich mit den Methoden der Paläogenetik an archäologischem Skelettmaterial nachweisen. Abbildung 1.

Die Analyse der DNA von Krankheitserregern erlaubt dadurch erstmals die zweifelsfreie Diagnose bakterieller Infektionen in vergangenen Zeiten. Mehr noch: So wie die DNA des Menschen etwas über seine Abstammung und Herkunft verrät, so trägt auch das Erbgut von Bakterien Informationen über deren Vergangenheit. Durch die Rekonstruktion kompletter Genome dieser Mikroorganismen (Abbildung 2) kann heute eine Geschichte der Krankheitserreger nachgezeichnet werden, die ihrerseits ganz eigene Fragen aufwirft, aber auch einen neuen Blick auf die menschliche Historie erlaubt.

Abbildung 2. Da die Proben nur geringe DNA-Mengen enthalten, ist die Gefahr einer Verunreinigung sehr hoch. Daher müssen alle Proben im Reinraum bearbeitet werden. © Wolfgang Haak, Max-Planck-Institut für Menschheitsgeschichte

Beispiel Pest

Rund 300 Jahre nach dem letzten großen Ausbruch gilt die Pest in Europa immer noch als Inbegriff einer Seuche. Beginnend mit dem „Schwarzen Tod“ in den Jahren 1348 bis 1352, der nach Schätzungen die europäische Bevölkerung um ein Drittel dezimierte, flammte die Pest in den folgenden Jahrhunderten immer wieder in einzelnen Regionen und Städten auf, bis sie nach dem letzten großen Ausbruch 1720 bis 1722 in Marseille nach und nach aus Europa verschwand.

Das für die Pest verantwortliche Bakterium Yersinia pestis zirkuliert auch heute noch in einigen Regionen der Welt in wild lebenden Nagetieren und infiziert sporadisch Rattenpopulationen. Durch den Rattenfloh kann es dann auch auf den Menschen übertragen werden. Im menschlichen Körper breitet sich das Bakterium über das Lymphsystem oder den Blutkreislauf aus und manifestiert sich als Beulenpest, septikämische Pest oder Lungenpest. Letztere ist über Tröpfcheninfektion auch direkt von Mensch zu Mensch übertragbar. Während sich die Beulenpest bei etwa 50 Prozent der Infizierten wieder zurückbilden kann, führen die anderen Formen unbehandelt fast immer zum Tod.

Perspektivwechsel: Geschichte aus der Sicht eines Krankheitserregers

Durch die molekularbiologischen Untersuchungen von Pestopfern aus ganz Europa können wir die Geschichte der Pest heute quasi aus der Perspektive des Erregers erzählen. Abbildung 3. So konnte der Vergleich mit den modernen Erregerstämmen aus Nagetierpopulationen in Zentralasien nicht nur die Historiker bestätigen, die den Ursprung des „Schwarzen Todes“ im 14. Jahrhundert in China vermutet haben.

Eine weitere Studie konnte darüber hinaus nachweisen, dass der für die Hong-Kong-Pest und die folgende Pandemie Anfang des 20. Jahrhunderts verantwortliche Erregerstamm von der europäischen Linie abstammt, also nach der Zeit des „Schwarzen Todes“ wieder zurück nach Asien gewandert sein muss.

Abbildung 3. Ausbreitungskarte und schematischer Stammbaum des Pest-Erregers. Eingezeichnet sind alle bronzezeitlichen Nachweise sowie die Fundorte der bisher rekonstruierten Genome. © Annette Günzel, Max-Planck-Institut für Menschheitsgeschichte

Die ganze Stärke der Paläogenetik von Krankheitserregern kommt aber erst in der Vor- und Frühgeschichte zum Tragen, wenn nämlich schriftliche Quellen rar sind oder gänzlich fehlen. Das ist beispielsweise für die „Justinianische Pest“ der Fall, die zur Zeit des spätantiken Kaisers Justinian im Jahr 541 n. Chr. wütete. Während aus dem zerfallenden weströmischen und dem byzantinischen Reich zahlreiche zeitgenössische Berichte überliefert sind, verstummen die Quellen jenseits der Grenzen des römischen Reiches. Umso überraschender war schließlich der Nachweis des Pest-Erregers in merowingischen Gräberfeldern aus dem 6. Jahrhundert im heutigen Bayern, der nicht nur die bereits vermutete Identität des Erregers bestätigte, sondern auch den Beweis lieferte, dass die Pest bereits damals die Alpen überquert hatte. Vergleichende Analysen zeigten außerdem, dass diese erste historisch bezeugte Pestpandemie – unabhängig von der zweiten im Spätmittelalter – bereits ihren Ursprung im Fernen Osten hatte.

Blick in die Vorgeschichte

Völlig unerwartet war schließlich auch der Nachweis der Pest in bronzezeitlichen Gräbern von Osteuropa bis ins Altaigebirge. Anders als bei den späteren Pandemien handelte es sich hier jedoch um eine bis dato unbekannte „Urform“ der Pest, die zwar schon eine tödliche Sepsis auslösen konnte, aber vermutlich weder die charakteristischen Lymphknotenschwellungen der Beulenpest verursachte, noch an die effiziente Übertragung durch den Rattenfloh angepasst war. Die Rekonstruktion dieser jahrtausendealten Genome liefert somit Momentaufnahmen aus der Evolution eines vergleichsweise harmlosen Darmkeims zu einem der gefürchtetsten Erreger der Menschheitsgeschichte.

Tuberkulose und Lepra

Auch chronisch verlaufende Infektionskrankheiten wie Tuberkulose, verursacht durch Mycobacterium tuberculosis, können ihren genetischen Fingerabdruck im menschlichen Skelett hinterlassen. So wiesen Analysen an Skelettresten aus der präkolumbischen Neuen Welt nach, dass dort, noch bevor die Europäer Amerika erreicht hatten, Tuberkulosestämme von infizierten Tieren auf den Menschen übergesprungen waren. Andere Studien beschäftigten sich mit den Erregern der Lepra, Mycobacterium leprae und Mycobacterium lepromatosis. Die Infektionskrankheit Lepra verschwand in der Frühen Neuzeit langsam aus Europa, fordert aber in Entwicklungsländern bis heute Opfer. Den modernen Methoden der Genomsequenzierung kommt hier besondere Bedeutung auch für die klinische Forschung zu, da sich die Erreger der Lepra nicht im Labor kultivieren lassen.

Die Ergebnisse dieser Arbeiten revidierten die bisherigen Annahmen zur Evolution dieser Erreger, indem sie zeigen konnten, dass sich beide Pathogene erst in den letzten Jahrtausenden in der menschlichen Population verbreitet haben.

Gletschermumie mit Magenkeim

Das Bakterium Helicobacter pylori ist an die Lebensbedingungen im Magen angepasst und findet sich heute bei der Hälfte aller Menschen. Unter ungünstigen Bedingungen kann es Magengeschwüre und Krebs hervorrufen. Die Archäogenetiker am Max-Planck-Institut für Menschheitsgeschichte waren maßgeblich an der Entschlüsselung des Gastritis-Erregers Helicobacter pylori aus der 5.300 Jahre alten Gletschermumie Ötzi beteiligt. Es handelt sich um den derzeit ältesten Beleg des Bakteriums und dieser unterstützt die Theorie, dass der Mensch schon früh in seiner Geschichte mit dem Bakterium infiziert war, das erst vor etwa 30 Jahren als Verursacher von Magengeschwüren entdeckt wurde. Überraschenderweise ergab der Vergleich mit heutigen Helicobacter-pylori-Bakterien, dass der Stamm aus der Gletschermumie fast vollständig mit asiatischen und nicht mit europäischen Stämmen übereinstimmt. Dieses Ergebnis wirft neue Fragen zu den frühen Wanderungsbewegungen der Menschen in Europa auf.


Literaturhinweise

(bis auf 4. frei zugänglich)

1. Spyrou, M. A.; Tukhbatova, R. I.; Feldman, M.; Drath, J.; Kacki, S.; Beltrán de Heredia, J.; […] Krause, J. Historical Y. pestis Genomes Reveal the European Black Death as the Source of Ancient and Modern Plague Pandemics. Cell Host & Microbe 19 (6), 874–881 (2016). https://doi.org/10.1016/j.chom.2016.05.012

2. Bos, K. I.; Herbig, A.; Sahl, J.; Waglechner, N.; Fourment, M.; Forrest, S. A.; […] Krause, J.; Poinar, H. N. Eighteenth century Yersinia pestis genomes reveal the long-term persistence of an historical plague focus. eLife 5 (11), 949–955 (2016, published online). https://doi.org/10.7554/eLife.12994.002

3. Feldman, M.; Harbeck, M.; Keller, M.; Spyrou, M. A.; Rott, A.; Trautmann, B.; […] Krause, J. A High-Coverage Yersinia pestis Genome from a Sixth-Century Justinianic Plague Victim. Molecular Biology and Evolution 33 (11), 2911–2923 (2016). https://doi.org/10.1093/molbev/msw170

4. Bos, K. I.; Harkins, K. M.; Herbig, A.; Coscolla, M.; Weber, N.; Comas, I.; […] Krause, J. Pre-Columbian mycobacterial genomes reveal seals as a source of New World human tuberculosis. Nature 514 (7523), 494–497 (2014)

5. Singh, P.; Benjak, A.; Schuenemann, V. J.; Herbig, A.; Avanzi, C.; Busso, P.; […] Cole, S. T. Insight into the evolution and origin of leprosy bacilli from the genome sequence of Mycobacterium lepromatosis. Proceedings of the National Academy of Sciences 112 (14), 4459–4464 (2015). http://www.pnas.org/content/112/14/4459

6. Mendum, T. A., Schuenemann, V. J.; Roffey, S.; Taylor, G.; Wu, H.; Singh, P.; […] Stewart, G. R. Mycobacterium leprae genomes from a British medieval leprosy hospital: Towards understanding an ancient epidemic.BMC Genomics 15 (1), 270 (2014). https://bmcgenomics.biomedcentral.com/articles/10.1186/1471-2164-15-270

7. Schuenemann, V. J.; Singh, P.; Mendum, T. A.; Krause-Kyora, B.; Jäger, G.; Bos, K. I.; […] Krause, J. Genome-Wide Comparison of Medieval and Modern Mycobacterium leprae. Science 341 (6142), 179–183 (2013). http://science.sciencemag.org/content/341/6142/179
8. Maixner, F.; Krause-Kyora, B.; Turaev, D.; Herbig, A.; Hoopmann, M. R.; Hallows, J. L.; […] Zink, A.The 5300-year-old Helicobacter pylori genome of the Iceman. Science 351 (6269), 162–165 (2016). http://science.sciencemag.org/content/351/6269/162


* Der Artikel ist unter demselben Titel: "Den Seuchen auf der Spur: Genetische Untersuchungen zur Geschichte der Krankheitserreger" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienen und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint ungekürzt.


Weiterführende Links

Das Max-Planck-Institut für Menschheitsgeschichte in Jena wurde 2014 gegründet, um grundlegende Fragen der menschlichen Evolution und Geschichte seit der Steinzeit zu erforschen. Mit seinen drei interdisziplinären Abteilungen – der Abteilung für Archäogenetik (Direktor Johannes Krause), der Abteilung für Archäologie (Direktorin Nicole Boivin) sowie der Abteilung für Sprach- und Kulturevolution (Direktor Russell Gray) – verfolgt das Institut eine dezidiert integrierende Wissenschaft der Menschheitsgeschichte, die den traditionellen Graben zwischen Natur- und Geisteswissenschaften überwindet.

Projekte der Abteilung für Archäogenetik: u..a..


Videos & Interviews Ancient DNA and Human Evolution – Johannes Krause: Ancient European Population History. Video 22:47 min.   Johannes Krause (Max Planck Institute for the Science of Human History) and his research team analyzed more than 200 ancient human genomes spanning the last 10,000 years of Western Eurasian pre-history. They found direct evidence for two major genetic turnover events at the beginning and at the end of the Neolithic time period in Europe, which they attribute to two major migrations (Standard Youtube license)

Das Geheimnis des Schwarzen Tods. Video 5:20 min. (Standard Youtube license)

Johannes Krause: Dunkle Haut - blaue Augen. dctp.tv - April 2017. Video 44 min.

Johannes Krause: Der Europäer ist auch genetisch ein Potpourri.

Johannes Krause im Gespräch mit Korbinian Frenzel (12.8.2016): "Zum Großteil stammen unsere Gene aus Afrika"

inge Thu, 31.08.2017 - 10:03

Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Do, 24.08.2017 - 14:05 — Robert W. Rosner

Robert W. RosnerIcon WissenschaftsgeschichteZum dreihundertsten Geburtstag Maria Theresias wird heuer viel über die Rolle dieser außergewöhnlichen Frau als Regentin eines Vielvölkerstaats, Strategin, Reformerin, die u.a. die Schulpflicht eingeführt hat und als Mutter gesprochen. Kaum erwähnt werden dabei aber ihre Verdienste bei der Umgestaltung des medizinischen Unterrichts an der Wiener Universität und ihre Verdienste im Kampf gegen die Pocken. Maria Theresia hat als Leibärzte den Holländer Gerhard van Swieten nach Wien geholt, der den medizinischen Unterricht an der Universität grundlegend umgestaltet hat und den Arzt und Naturforscher Ian Ingenhousz, ebenfalls einen Holländer, um vor vielen anderen Ländern Europas eine Impfung zum Schutz vor den lebensbedrohenden Pocken einzuführen. Mit Ingenhousz kam auch ein herausragenden Forscher nach Wien, dem wir u.a. fundamentale Entdeckungen zur Photosynthese verdanken. Der Chemiker und Wissenschaftshistoriker Robert Rosner stellt den hier wenig bekannten Wissenschafter Jan Ingenhousz vor..*

In den sechziger Jahren des 18. Jahrhunderts waren in Wien die Pocken sehr verbreitet, auch die kaiserliche Familie war davon betroffen. Maria Theresia selbst, ihr ältester Sohn Josef, der spätere Kaiser, und ihre besonders hübsche Tochter Maria Elisabeth erkrankten an den Pocken, gesundeten aber wieder. Dagegen starben andere Kinder Maria Theresias und Mitglieder des Kaiserhauses, wie die erste und zweite Frau Josephs II. und eine seiner Töchter, an dieser Krankheit. Aufgrund der Nachricht, dass sich die Pockenimpfung in England bewährt hatte, wurde das englische Königshaus ersucht, einen Fachmann nach Wien zu schicken. Auf Empfehlung des Leibarztes des englischen Königs, Sir John Pringle, kam Jan Ingenhousz (Abbildung 1) 1768 nach Wien.

Abbildung 1. Jan Ingenhousz (1730 - 1799). Die Inschrift besagt, dass die kaiserlichen Nachkommen durch die Inoculation mit Pocken gerettet wurden (das Bild stammt aus Wikipedia und ist gemeinfrei). Jan Ingenhousz war Holländer. 1730 in der Stadt Breda, die im Süden der Niederlande liegt, geboren, hatte er in Löwen Medizin studiert, in Leiden Physik und Chemie in Paris und Edinburgh. Nach seinem Studium hatte Ingenhousz als Arzt in Breda praktiziert und war dann nach England gegangen, wo er bei der Impfung gegen Pocken viel Erfahrung sammelte.

Die Pockenimpfung

Die Impfmethode, als Inoculation oder Variolation bezeichnet, bestand darin, dass Eiterflüssigkeit aus den Pusteln Erkrankter - also ein Lebendimpfstoff - eingeimpft wurde. Darauf setzte üblicherweise eine Immunreaktion ein, die zu einer weitgehenden Immunität gegenüber Infektionen mit Pockenviren führte. Diese Methode war schon lange in Asien angewandt worden und wurde im Verlauf des 18. Jahrhunderts in England und einigen anderen Staaten Europas eingeführt. (Abbildung 2)

Abbildung 2. Die Impfmethode (Variolation, Inoculation) kommt nach England Lady Mary Wortley Montagu lebte als Frau des englischen Botschafters in der Türkei, sah dort die Erfolge, welche die Impfung während Pockenepidemien erbrachte und überzeugte 1721 nach ihrer Rückkehr nach London u.a. Hans Sloane, den Leibarzt des britischen Königshauses, von der Wirksamkeit der "Orientalischen Methode". (Ausschnitt aus Philosophical Transactions, http://rstl.royalsocietypublishing.org/; der eigentlich bereits für 1736 vorgesehene Bericht wurde erst nach dem Tod von Hans Sloane (1753) veröffentlicht.)

Nachdem Ingenhousz eine größere Anzahl von Kindern aus armen Familien, die zu diesem Zweck nach Meidling bei Schönbrunn gebracht worden waren, geimpft hatte und zeigen konnte, wie erfolgreich die Impfung war, durfte er alle noch nicht infizierten Kinder und andere Mitglieder des Kaiserhauses impfen (Inschrift in Abbildung1). Danach reiste er nach Italien, um auch die Mitglieder der Familie des Herzogs von Toscana - des späteren Kaisers Leopold II - zu impfen.

In Wien war die Methode sehr umstritten, wobei der prominente Mediziner und Universitätslehrer Anton DeHaen massiv gegen die Impfung auftrat (er argumentierte, dass mit der Impfung die Pocken nur verbreitet würden und eine Reihe von Krankheitskeimen in den Körper gelangten).

Ingenhousz wurde als Leibarzt der kaiserlichen Familie angestellt, erhielt ein enorm hohes, lebenslanges Salär von jährlich 5000 Gulden und erfreute sich am Wiener Hof eines großen Ansehens. Er ließ sich in Wien nieder, heiratete die Schwester des berühmten Botanikers Nicolaus von Jacquin und war durch seinen Schwager und seine Freunde, den Mediziner Gerard Van Swieten und den Schriftsteller und Politiker Joseph von Sonnenfels, mit den naturwissenschaftlichen und freimaurerischen Kreisen in Wien eng verbunden. Für seine naturwissenschaftlichen Versuche richtete sich Ingenhousz in Wien ein Labor ein, das auch Joseph II besuchte, und erlangte für seine Leistungen internationales Ansehen.

Auch als Ingenhousz später seine Tätigkeit als Mediziner nicht mehr ausübte, wurde er dennoch zu den ersten Ärzten gezählt und hatte in der Medizin ein gewichtiges Wort mitzureden. Die von ihm in Österreich eingeführte Impfmethode wurde im ganzen Reich ausprobiert. Da es aber immer wieder zu echten Ansteckungen kam, die normalerweise zwar leichter verliefen, wurde die Methode gegen Ende des 18. Jahrhunderts wieder fallen gelassen. Erst als die von Edward Jenner eingeführte Kuhpockenimpfung populär wurde, ist diese allgemeine Impfung bereits 1799 als Schutzmethode vom Wiener Stadtphysikus Pascual Joseph Ferro durchgesetzt worden.

Der Naturforscher Ingenhousz...

Ingenhousz reiste öfters nach Italien , Frankreich und besonders nach England, wo er sich meistens längere Zeit aufhielt. Er hatte sich schon während seines Studiums und später in England mit Fragen der Physik und Chemie beschäftigt und benützte nun seine Reisen, um mit den führenden Naturforschern dieser Länder in Kontakt zu treten. So traf er in Paris Benjamin Franklin und plante mit diesem Versuche zur Wärmeleitfähigkeit von Metallen. Ingenhousz beschäftigte sich auch mit Fragen der Elektrizität und des Magnetismus. Auf Grund seiner eingehenden Beschäftigung mit dem damals neuen Thema "Blitzableiter" errichtete Ingenhousz im Auftrag von Kaiser Joseph II derartige Schutzmaßnahmen in den kaiserlichen Pulvermagazinen und der Hofburg.

Besonders eingehend studierte Ingenhousz die Arbeiten von Joseph Priestley, mit dem er sich anfangs anfreundete. Priestley (1733 - 1804), ein anglo-amerikanischer Chemiker, Physiker, Philosoph und Theologe, war Anhänger der damals generell akzeptierten Phlogistontheorie. Diese ging davon aus , dass brennbare Stoffe eine hypothetische Substanz, das Phlogiston, enthielten, das bei der Verbrennung entweichen würde. In einem berühmt gewordenen Versuch erhitzte Priestley Quecksilberoxid und beobachtete, dass daraus metallisches Quecksilber entstand und ein Gas, das er als Bestandteil der natürlichen Luft erkannte und als "dephlogistierte Luft" bezeichnete. Priestley hatte den Sauerstoff entdeckt, praktisch gleichzeitig mit dem französischen Chemiker Antoine Lavoisier und dem schwedischen Pharmazeuten Carl Wilhelm Scheele.

...entdeckt die Grundprinzipien der Photosynthese

Priestley hatte beobachtet, dass faulige Luft in Gegenwart von Pflanzen verbessert wurde. Im Gegensatz dazu hatte der schwedische Chemiker Scheele gefunden, dass sich die Luft in Gegenwart von Pflanzen sogar verschlechtern könne.

ngenhousz führte nun systematische Versuche durch, um den Widerspruch zu klären. Er stellte fest,

dass die grünen Blätter - und ausschließlich diese und kein anderer Pflanzenbestandteil - unter dem Einfluss des Sonnenlichts "dephlogistierte Luft", also Sauerstoff, abgaben und "fixe Luft" - d.i. CO2 - aufnahmen,

dass die Menge des entwickelten Sauerstoffs von der Intensität der Sonnenstrahlung abhing und

dass im Dunkeln hingegen die Pflanzen sogar "fixe Luft" abgaben.

Durch Vergleichsversuche konnte er beweisen, dass es bei Abwesenheit von Sonnenlicht, selbst in einem erwärmten System, zu keiner Sauerstoffentwicklung kam.

Ingenhousz veröffentlichte diese bahnbrechenden Untersuchungen 1779 in englischer Sprache, an wesentlichen Teilen davon hatte er bereits ab 1773 in Wien gearbeitet. Abbildung 3 gibt die in der Einleitung zusammengefassten Ergebnisse in der Originalsprache wieder.

Abbildung 3. Die Entdeckung der Grundprinzipien der Photosynthese: "Experimente an Pflanzen - Entdeckung, dass diese in hohem Maß die Eigenschaft haben unter Sonnenlicht die Luft zu reinigen und im Schatten und in der Nacht zu verunreinigen (1779)". Ingenhousz fasst die Ergebnisse im PREFACE zusammen. (Internet Archiv, das Buch ist frei zugänglich. https://archive.org/details/experimentsuponv00inge )

Die Messmethode

Den entwickelten Sauerstoff fing Ingenhousz in einer pneumatischen Wanne auf und bestimmte dessen Menge mittels dem von dem italienischen Naturforscher Fontana entwickelten Eudiometer (Abbildung 4). Dieses Gerät arbeitete nach dem Prinzip, dass nitrose Gase in die Probe eingeleitet wurden, die der Sauerstoff zu wasserlöslichem NO2 oxydierte. Aus der Abnahme des Gasvolumens ließ sich so der Sauerstoffgehalt bestimmen. (Es war dies eine ungemein genaue Bestimmung: Ingenhousz gab an, dass er bei 10 Proben einen Streuung von 0,2 % hatte.)

Abbildung 4.Die Bestimmung von Sauerstoff und CO2 mittels des Eudiometers. Das Eudiometer ist ein kalibrierter, einseitig verschlossener Glaszylinder, der vollständig mit Wasser gefüllt ist und mit dem offenen Ende in eine, mit derselben Flüssigkeit gefüllte Wanne eintaucht. Entstehendes, in den Zylinder eingeleitetes Gas verdrängt darin die Flüssigkeit, seine Menge wird an Hand des kalibrierten Maßstabs bestimmt. Links: Bestandteile des Eudiometers (links Messzylinder, ganz oben: die Wanne) Darstellung aus "Experiments upon Vegetables"(1779) p. 292; (Quelle: Internet Archiv, das Buch ist frei zugänglich. https://archive.org/details/experimentsuponv00inge.) Rechts: schematische Darstellung der Funktion des Eudiometers (Bild: Wikipedia).

Ingenhousz's Ideen blieben lange Zeit sehr umstritten.

Die gängige Lehrmeinung war ja, dass Pflanzen ihre Nahrung aus dem Boden aufnehmen. Als Ingenhousz seine Experimente im Jahr 1779 veröffentlichte, wusste er auch noch nicht, was die Natur der "fixen Luft" - des CO2 - war.

In einer späteren Arbeit, 1796 - nachdem er die antiphlogistischen Ideen Lavoisiers voll akzeptiert hatte -, schrieb Ingenhousz: "Von dieser (aus der umgebenden Luft aufgenommenen) Kohlensäure absorbiert die Pflanze im Sonnenlicht den Kohlenstoff, indem diese zur selben Zeit den Sauerstoff allein aushaucht und den Kohlenstoff sich allein aneignet". Und weiter, dass die Pflanzen aus dem Kohlenstoff und Sauerstoff des CO2 ihre essentiellen Inhaltsstoffe - Säuren, Fette, Kohlehydrate, etc. - produzieren (Abbildung 5, untere Box).

John Priestley hatte lange Zeit die Bedeutung des Sonnenlichts auf das Wachstum der Pflanzen nicht akzeptiert - dass die Sauerstoffentwicklung der Pflanzen mit ihrem Wachstum in Verbindung stehe. Sehr pointiert macht dies Ingenhousz in seinem 1796 Essay klar: die von ihm entdeckten fundamentalen Prinzipien (des später als Photosynthese bezeichneten Prozesses) wären von Priestley und auch Scheele nicht einmal vermutet worden und diese hätten ihren Irrtum auch nicht eingesehen (Abbildung 5, mitlere Box).

Erst nach Ingenhousz Ableben anerkannte Priestley (wenn auch etwas verärgert) die Priorität von Ingenhousz in diesem enorm wichtigen Thema.

Abbildung 5. In seinem 1796 erschienenen Essay macht Jan Ingenhousz klar, dass Pflanzen ihre Inhaltsstoffe aus dem CO2 der Luft (untere Box) herstellen. Die Ursachen, warum Pflanzen CO2 aufnehmen und Sauerstoff freisetzen, aber auch CO2 absondern, hat er entdeckt. Seine Kontrahenten Priestley und Scheele hätten Derartiges nicht einmal vermutet (mittlere Box). (Quelle: An Essay on the Food of Plants and the Renovation of Soils; in: Additional Appendix to the outlines of the 15th chapter of the proposed general report from the Board of Agriculture: on the subject of manures;1796, John, Adams Library (Boston Public Library); das Buch ist im Internet Archiv, frei zugänglich. https://archive.org/stream/additionalappend00john#page/n57/mode/2up )

Ausklang

1788 unternahm Ingenhousz eine lange Reise. Sie führte ihn zuerst nach Holland, dann nach Frankreich und schließlich nach England, wo er schwer erkrankte. Er bezog zwar noch bis zu seinem Tod sein Gehalt aus Österreich, aber die immer komplizierter werdende politische Lage (französische Revolution und ihre folgenden politischen Bewegungen) und sein schlechter Gesundheitszustand machten eine Rückkehr nach Wien unmöglich. Ingenhousz starb 1799 in England.

Nach wie vor für transdisziplinäre Forscher zutreffend ist die Beschreibung, welche der Ingenhousz Biograph Wiesner 1905 von Ingenhousz gegeben hat:

"Gerade an Ingenhousz sehen wir, wie Gebiete der Medizin die Grenzen von Theorie und Praxis, von Wissenschaft und Technik verschmelzen. ..Ingenhousz wirkte als forschender Arzt bestrebt, die modernen Errungenschaften der reinen Naturwissenschaft in der Heilkunde nutzbar zu machen und auch durch Erfindung oder Vervollkommnung von Methoden der Medizin in ihren verschiedenen Zweigen zu nutzen."


Robert Rosner, Autor des obigen Beitrags, hat Ingenhousz ein Kapitel in seinem Buch "Chemie in Österreich. 1740 - 1914" Lehre, Forschung, Industrie (2004) 359 S. Böhlau Verlag gewidmet.

Viele der Darstellungen in diesem Artikels stammen aus der 1905 veröffentlichten Ingenhousz-Biographie des Pflanzenphysiologen und Rektors der Universität Wien Julius Wiesner: "Jan Ingen-Housz. Sein Leben und sein Wirken als Naturforscher und Arzt". Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich: https://archive.org/details/janingenhouszsei00wiesuoft


Weiterführende Links

Medizinisches Archiv von W i e n und Österreich (1802) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Arnold C. Klebs (1914): Die Variolation im achtzehnten Jahrhundert. Ein historischer Beitrag zur Immunitätsforschung. Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

J. F. Draut (1829): Historia de Insitione variolarum genuiarum, Dissertation (deutsch) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Artikel zur Photosynthese in ScienceBlog.at

inge Thu, 24.08.2017 - 14:50

Pubertät - Baustelle im Kopf

Pubertät - Baustelle im Kopf

Sa, 19.08.2017 - 10:33 — Nora Schultz

Nora SchultzIcon Gehirn

Selten verändern sich neuronale Strukturen so sehr wie in der Pubertät. Die Generalüberholung gipfelt in einem hocheffizienten Denkorgan. Doch während der Umbauarbeiten herrscht vorübergehend Chaos. Die Entwicklungsbiologin Nora Schultz erzählt hier über massive Umbauten im jugendlichen Gehirn, in denen Graue Substanz verloren geht, weil überflüssige Synapsen ausgemerzt werden, weiße Substanz zunimmt, weil immer mehr Axone von effizienzsteigernden Myelinscheiden umhüllt werden*.

Wenn eine Raupe zum Schmetterling reift, löst sie sich im Puppenstadium dabei vorübergehend fast vollständig auf. Beim Menschen erscheint der Übergang vom Kinder- ins Erwachsenenleben auf den ersten Blick weniger dramatisch. Zwar sprießen plötzlich Körperhaare, Pickel oder auch Brüste, verrutscht die Stimme und fließen allerlei neue Säfte, doch der radikale Umbau, den das Insekt durchmachen muss, bleibt dem metamorphosierenden Menschenkind erspart – dachte man.

Bis in die 1970er Jahre hinein galt die Gehirnentwicklung mit Abschluss des starken Kopfwachstums in der früheren Kindheit als weitgehend beendet. Doch auch wenn das Gehirn nach dem sechsten Lebensjahr nicht mehr viel wächst, weiß man inzwischen, dass seine Struktur und Funktion sich auch danach noch massiv verändern – gerade in der Pubertät.

Der erste systematische Einblick

in diesen Prozess gelang dem US-amerikanischen Neurowissenschaftler Jay Giedd von der University of San Diego in Kalifornien, als er 1989 mit seinen damaligen Kollegen vom National Institute of Mental Health in Bethesda begann, die Gehirne hunderter Kinder alle zwei Jahre mit einer Magnetresonanztomorgrafie (MRT) zu untersuchen, um zu verfolgen, wie Hirnstrukturen sich im Laufe der Zeit verändern. Inzwischen können die Forscher auf 1171 Scans von 618 sich normal entwickelnden jungen Menschen im Alter von 5 bis 25 Jahren zurückblicken. Was sie dort während der Teenage-Jahre fanden, sind Umbauten, die der Verwandlung im Innern der Schmetterlingspuppe kaum nachstehen.

Das pubertierende Gehirn

löst sich zwar nicht auf, aber es kommt ihm zunehmend graue Substanz abhanden, also die Anteile im Gehirn, die vornehmlich aus Nervenzellkörpern bestehen. Vor allem der Cortex dünnt sich ab ungefähr dem 10. Lebensjahr stark aus. Das liegt weniger an absterbenden Zellen als daran, dass massenhaft Synapsen, die Kontaktstellen zwischen den Zellen, verloren gehen – und zwar vor allen solche, die wenig genutzt werden.

Gleichzeitig nimmt die weiße Substanz im Gehirn weiter zu: Oligodendrozyten, eine besondere Form von Gliazellen, umwickeln immer mehr Axone. Die so gebildete fettreiche Myelinscheide, die der weißen Substanz auch ihre Farbe verleiht, erlaubt es den Axonen, Signale bis zu dreitausend mal schneller zu übertragen.

Der Frühjahrsputz unter den während der Kindheit verschwenderisch gebildeten Synapsen und die aufgemotzten Axone sorgen für mehr Effizienz im jugendlichen Gehirn. Doch diese stellt sich keineswegs überall gleichzeitig ein. Stattdessen folgen die Umbauarbeiten einer komplexen Choreographie, die auch Erklärungen für absonderliches Gebaren von Teenagern anbieten. Die Generalüberholung arbeitet sich nämlich von schlichteren zu komplexeren kognitiven Funktionen vor. Sie beginnt mit acht oder neun Jahren im sensorischen und motorischen Cortex im Scheitellappen, die Sinne und motorischen Fähigkeiten zu schärfen und erfasst dann ab ungefähr dem 10. Geburtstag Bereiche im Stirnlappen, die für Koordinierungsaufgaben zuständig sind, zum Beispiel für sprachliche Ausdrucksfähigkeit und räumliche Orientierung.

Als letztes ziehen im Stirn- und Schläfenlappen diejenigen Regionen nach, die eine besonders wichtige Rolle bei höheren, integrativen kognitiven Funktionen wie z. B. der Willensbildung, Handlungsplanung und Impulskontrolle spielen. Besonders wichtig für solche Vernunft-Leistungen ist der präfrontale Cortex, und gerade dieser entwickelt sich besonders langsam, bis über den 20. Geburtstag hinaus. Jugendliche lassen sich zum Beispiel bei Denkaufgaben noch deutlich leichter ablenken als Erwachsene und zeigen dabei vor allem im präfrontalen Cortex andere Aktivitätsmuster.

Hormonelle Veränderungen

Die Spätzündung im präfrontalen Cortex bedeutet auch, dass sich früher entwickelnde, emotional betonte Gehirnregionen in der Pubertät vergleichsweise ungezügelt austoben können. Männliche und weibliche Geschlechtshormone leisten dazu einen direkten Beitrag, vor allem im limbischen System, das eine wichtige Rolle bei der Verarbeitung von Emotionen und der Steuerung von Impulsen spielt und viele Hormonrezeptoren vorweisen kann. Testosteron fördert das Wachstum der Amygdala (des Mandelkerns), Östrogen eher das des Hippocampus . Beide Regionen sind Teil des Belohnungssystems, und die Amygdala wirkt als emotionaler Verstärker, gerade wenn es um Angst oder Wut geht.

Wie genau hormonelle Veränderungen die Struktur und Funktion dieser Gehirnregionen beeinflussen, ist zwar noch längst nicht klar, aber gerade die Amygdala gilt als heißer Kandidat für einen Motor pubertären Verhaltens. Bestens vernetzt mit anderen Gehirnarealen mischt sie vermutlich bei vielen Jugendexzessen mit – seien es Stimmungsschwankungen, erhöhte Aggression, Furchtlosigkeit und Risikofreude oder die Suche nach aufregenden Kicks. In der Amygdala nimmt die graue Substanz bei Teenagern entgegen dem Trend sogar zu – insbesondere bei Jungs, die schließlich auch mehr Testosteron produzieren. Bessere kognitive Leistungen gehen mit einem massiven Mandelkern nicht unbedingt einher, mitunter sogar das Gegenteil. Jedenfalls die Erkennung von Gesichtern und Gefühlen anderer – eine weitere wichtige Funktion der Amygdala – klappt in der Pubertät zeitweise weniger gut als in der Kindheit oder im Erwachsenenalter.

Der Neurowissenschaftler Peter Uhlhaas von der Universität Glasgow in Schottland fand Hinweise darauf, dass so ein vorübergehendes Leistungstief bei 15- bis 17jährigen direkt mit den Umbauarbeiten im jugendlichen Kopf zusammenhängt. Ihre Gehirne schwingen im EEG (Elektroencephalogramm: Aufzeichnung der elektrischen Aktivität des Gehirns (Hirnströme)) anders als die jüngerer oder älterer Probanden. Gerade hochfrequente Schwingungsmuster, die ein Indiz dafür liefern, wie gut die Kommunikation zwischen unterschiedlichen Gehirnregionen läuft, wurden in dieser Altersgruppe schwächer und weniger synchron.

„Wir beobachten eine einzigartige chaotische Phase, einen richtigen Bruch in der Entwicklung“, sagt Uhlhaas. Kurze Zeit später ist der Spuk schon wieder vorbei und aus dem Chaos entpuppen sich die für das reife Gehirn typischen hocheffizienten funktionalen Netzwerke, in denen auch weit voneinander entfernte Areale in synchroner Harmonie schwingen. Die Verwandlung ist komplett.

Baustelle im Kopf

Wo so viel in Bewegung ist wie auf der Baustelle im Kopf, kann natürlich auch einiges verrutschen. (Abbildung 1)

Abbildung 1. Im jugendlichen Gehirn finden massive Umbauten statt. Am Ende des Umbaus steht ein deutlich leistungsfähigeres Gehirn mit effizienten neuronalen Netzwerken.Während der Umbauphasen herrschen allerdings mitunter chaotische Zustände.

Welche Synapsen ausgemistet werden und wie genau die Kabelisolierarbeiten bei der Myelinisierung ablaufen, hängt auch davon ab, was der metamorphosierende Mensch in dieser Zeit erlebt. Die erhöhte neuronale Plastizität während der Pubertät macht besonders sensibel für äußere Einflüsse – seien es spannende Erfahrungen, eine tolle Ausbildung, Videospiel- und Fernsehexzesse, Drogenmissbrauch oder Gewalt. Das erklärt nicht nur, warum Jugenderlebnisse oft lebenslang die Persönlichkeit prägen, sondern auch, warum viele psychische Erkrankungen erstmals im Jugendalter auftreten.

Mithilfe weiterer EEG-Studien an Jugendlichen, die erste psychiatrische Symptome zeigen, will Peter Uhlhaas daher ein Frühwarnsystem entwickeln, das gefährdete Teenager anhand typischer Schwingungsmuster erkennt und so ein rechtzeitiges Eingreifen ermöglicht.

Bei aller Sorge vor dauerhaften Entgleisungen bleiben extreme Emotionen, Anfälle von Wagemut und die Suche nach krassen Erfahrungen in der Pubertät normal. Sie haben auch einen evolutionären Sinn, ermöglichen sie doch der heranreifenden Generation die Abkopplung von den Eltern und den Aufbau des eigenen Erfahrungsschatzes, den es braucht, um ein unabhängiger Erwachsener zu werden. Initiationsriten, in denen Teenager sich Mutproben oder Gefahren stellen oder auf eigene Faust in der Wildnis klarkommen müssen, sind fester Bestandteil vieler Kulturen und erleben auch bei uns derzeit eine Renaissance. Zu Recht, finden viele Experten und fordern, Jugendliche stärker herauszufordern und ihre Grenzen austesten zu lassen.

In der Pubertät mögen Flegelmanieren, Stimmungsstürme und sprießende Gewebe und Sekrete gehörig nerven und ja, auch Chaos im Kopf herrschen. Ein bisschen mehr Vertrauen in die fast reifen Gehirne ist dennoch nicht fehl am Platz. Man braucht nur einen Blick in einschlägige Schülerwettbewerbe zu werfen, um sich davon beeindrucken zu lassen, zu welchen Höhenflügen die musizierenden, forschenden oder debattierenden Kontrahenten in der Lage sind. Und ausgerechnet beim Zocken um Geld wählen Jugendliche mitunter sogar rationalere Strategien als Erwachsene, fanden Forscher kürzlich heraus .


*Der Artikel wurde am 01.04.2017 auf der Webseite www.dasgehirn.info veröffentlicht: https://www.dasgehirn.info/grundlagen/pubertaet/baustelle-im-kopf und steht unter einer CC-BY-NC Lizenz. www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Giedd JN et al: Child Psychiatry Branch of the National Institute of Mental Health Longitudinal Structural Magnetic Resonance Imaging Study of Human Brain Development. Neuropsychopharmacology Reviews. 2015; 40: 43-49 ( zum Volltext )

Natalie Steinmann: Summer of 69 (19.04.2017). https://www.dasgehirn.info/grundlagen/pubertaet/summer-69

Helge Hasselmann: Pubertät: Wenn das Gehirn groß wird (29.05.2017) https://www.dasgehirn.info/grundlagen/pubertaet/pubertaet-wenn-das-gehir...


 

inge Sat, 19.08.2017 - 10:33

Migration und naturwissenschaftliche Bildung

Migration und naturwissenschaftliche Bildung

Do, 10.08.2017 - 14:21 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftMangelnde Kenntnisse in den Naturwissenschaften werden in unserem Land (und leider auch in vielen anderen Ländern) nicht als Bildungslücke angesehen. Regelmäßige Eurobarometer Umfragen zur Einstellung der erwachsenen Bevölkerung zu "Science & Technology" zeichnen ein von Unwissen und Desinteresse geprägtes Bild, PISA-Studien der heranwachsenden Jugend sind ernüchternd. Die letzte dieser Studien - PISA 2015 - mit dem Schwerpunkt auf Naturwissenschaften hat zudem aufgezeigt, dass Schüler mit Migrationshintergrund in diesen Fächern einen besonders großen Rückstand auf die einheimische Jugend haben. Der Einstrom von (niedrigqualifizierten) Migranten aus anderen Kulturkreisen hält an und wirkt sich zweifellos auch auf die naturwissenschaftliche Bildung unserer Gesellschaft aus.

Dass Grundkompetenzen in den Naturwissenschaften notwendig sind, um die Welt in der wir leben zu verstehen und in ihr bestehen zu können, ist wohl jedermann klar und dies umso mehr als viele zukünftige Berufe im Bereich von "Science & Technology" angesiedelt sein werden. Dennoch gehören naturwissenschaftliche Kenntnisse bei uns nicht zum Grundkanon der Allgemeinbildung. In vielen unserer Schulen wird das Verständnis für Naturwissenschaften offensichtlich nur unzureichend vermittelt: Schulabgänger - Berufsschüler und angesehene Meister, Studenten oder auch beispielsweise Politiker -, die nicht wissen, was ein Atom, ein Molekül ist, sind leider keine Ausnahmen.

Seit Jahren untersucht die OECD (Organisation for Economic Co-operation and Development) im sogenannten PISA-Test (PISA steht für: Programme for International Student Assessment) in regelmäßigen Intervallen, wieweit Schüler im Alter von 15 Jahren (am Ende ihrer Pflichtschulzeit) "Kenntnisse und Fähigkeiten erworben haben, die es ihnen ermöglichen, an der Wissensgesellschaft teilzuhaben". Im Jahr 2015 war die Testung in den Naturwissenschaften wieder an der Reihe und mehr als eine halbe Million Schüler in 72 Ländern und Regionen haben daran teilgenommen [1].

Unter den 38 OECD Ländern liegt Österreich mit im Mittel 495 Punkten in den Naturwissenschaften im OECD-Durchschnitt und erreichte gerade den 20. Platz. Besorgniserregender als das mittelmäßige Abschneiden war aber, dass rund 21 % der Schüler den Anforderungen naturwissenschaftlicher Grundkompetenz - Kompetenzstufe 2 (über 410 Punkte) - nicht gerecht wurden - ein Niveau über das - laut PISA - "alle jungen Erwachsenen verfügen sollten, um in der Lage zu sein, weitere Lernangebote wahrzunehmen und uneingeschränkt am sozialen, wirtschaftlichen und politischen Leben einer modernen Gesellschaft teilzunehmen". Dazu kommt, dass mehr als die Hälfte der Schüler der Ansicht waren, dass es sich einfach nicht lohne sich im Unterricht anzustrengen - die Jobaussichten würden damit nicht besser und für ihren künftigen Beruf würden sie Naturwissenschaften auch nicht brauchen.

Nun ist Österreich seit den 1960er Jahren zu einem Einwanderungsland geworden (Abbildung 1), und der anhaltende Zustrom von Menschen aus anderen Kulturkreisen mit anderen Einstellungen zur Bildung wirkt sich zweifellos auf unsere gesamte Gesellschaft aus.

Woher stammen Österreichs Migranten?

Ab der zweiten Hälfte der 1960er-Jahre wurde Österreich - wie auch Deutschland, Frankreich, die Niederlande und Belgien - Zielland für niedrigqualifizierte Einwanderer - die Wirtschaft benötigte Arbeitskräfte, sogenannte Gastarbeiter und diese wurden vorwiegend aus dem ehemaligen Jugoslawien und der Türkei angeworben. Es sollte dies eigentlich ein Rotationssystem temporärer Arbeitskräfte - überwiegend von Männern -werden, viele davon ließen sich aber dauerhaft in Österreich nieder, gründeten Familien oder holten diese nach. Eine zweite große Migrationswelle setzte ein, als der eiserne Vorhang fiel, als die erhöhte Nachfrage nach Arbeitskräften nun Menschen aus Mittel- und Osteuropa (aber auch aus anderen Teilen der Welt) nach Österreich brachte. Dazu kamen Flüchtlinge aus Kriegsgebieten, vor allem aus dem zerfallenden Jugoslawien, aus Afghanistan und Tschetschenien.

Abbildung 1.Die Migration nach Österreich verläuft in Wellen (oben). Rund 21 % der im Jahr 2015 in Österreich lebenden Menschen haben Migrationshintergrund (unten). Rund 30 % der aus Ex-Jugoslawien und 43 % der aus der Türkei stammenden Menschen leben bei uns bereits in zweiter Generation. (Quelle: Statistik Austria: Migration & Integration. Zahlen, Daten, Indikatoren 2016, p. 25 und 27; © STATISTIK AUSTRIA, cc-by-nc)

Eine wachsende Mobilität innerhalb der EU führte in den letzten beiden Jahrzehnten auch zu einer verstärkten Binnenmigration, wobei aus Deutschland stammende EU-Bürger die größte Gruppe darstellen, vor Rumänen und Ungarn. Migration aus Drittstaaten war vorwiegend auf Flüchtlingsmigration aus Asien, insbesondere aus Syrien, Afghanistan und dem Irak, zurückzuführen . An zweiter Stelle liegen afrikanische Länder (Nigeria, Somalia, Ägypten).

Insgesamt lebten im Jahr der PISA 2015 Erhebung in Österreich rund 8,491 Millionen Menschen, davon hatten 1,813 Millionen Migrationshintergrund (von diesen waren 40 % bereits österreichische Staatsbürger). 39 % stammten aus dem Raum EU/EWR/Schweiz, 28 % aus den Nachfolgestaaten Jugoslawiens (ohne die EU-Bürger aus Slowenien und Kroatien) und 15 % aus der Türkei (Abbildung 1).

Naturwissenschaftliche Kompetenzen von Schülern mit Migrationshintergrund

Im OECD-Durchschnitt erreichten Schüler der ersten Einwanderungsgeneration um rund 50 Punkte weniger als Schüler ohne Migrationshintergrund, in der zweiten Generation verringerte sich diese Differenz auf rund 30 Punkte. (30 PISA-Punkte werden in etwa einem Leistungsunterschied von einem Schuljahr gleichgesetzt). Abbildung 2.

Österreich gehört mit Luxemburg, der Schweiz, Irland und Estland zu den europäischen Ländern mit den höchsten Anteilen an Schülern mit Migrationshintergrund. Währen die beiden ersten Länder allerdings einen hohen Anteil hochqualifizierter Zuwanderer aufweisen, in Estland ein hoher Anteil aus den ehemaligen UDSSR-Staaten stammt und in Irland aus EU-Staaten, gehört Österreich - wie auch Deutschland, Frankreich, Belgien und die Niederlande zu den Staaten mit einem hohen Anteil sesshafter, niedrigqualifizierter Zuwanderer. Der Leistungsunterschied zwischen Schülern ohne und mit Migrationshintergrund liegt in der ersten Zuwanderungsgeneration bei 82 Punkten und bei den bereits in Österreich geborenen und aufgewachsenen Schülern immer noch bei 63 Punkten (Abbildung 2). Auch nach Berücksichtigung des sozioökonomischen Status bleibt ein Unterschied von 57 resp. 38 Punkten bestehen (Tabelle I.7a: http://dx.doi.org/10.1787/888933433226).

Tatsächlich dürfte der Leistungsunterschied aber noch negativer ausfallen: 14 % der 15 Jährigen mit Migrationshintergrund versus 6 % Einheimische stehen bereits nicht mehr in Ausbildung - ihre naturwissenschaftlichen Kenntnisse wurden daher nicht erfasst.

Mangelnde Sprachkenntnisse können in der ersten Generation, aber wohl nicht mehr in der zweiten Generation zum schlechten Abschneiden beitragen. Paradebeispiele für gutes Abschneiden von Migranten bieten Schüler aus Festlandchina, die nach Australien einwanderten: in der ersten Generation erzielten diese bereits 500 Punkte, in der zweiten Generation überflügelten sie mit über 580 Punkten die Schüler ohne Migrationhintergrund bei weitem. In Europa erreichten Schüler aus Polen, die nach Deutschland und auch nach Österreich kamen, in der ersten Generation rund 480 Punkte, in der zweiten dann 520, resp. 500 Punkte. Abbildung 2. PISA 2015: Naturwissenschaftliche Schülerleistungen und Migrationsstatus. Es sind nur Länder aufgeführt, in denen der Anteil der Schüler mit Migrationshintergrund über 6,25 % liegt. Die Höhe dieses Anteils wurde im unteren Teil der Abbildung eingefügt. 1. Zuwanderungsgeneration: Schüler und Eltern im Ausland geboren ; 2. Zuwanderungsgeneration: Schüler im Erhebungsland, Eltern im Ausland geboren. (Quelle: OECD, PISA-2015-Datenbank, Tabelle I.7.4a und Tabelle I.1.3; Lizenz: cc-by-nc-sa)

Woher resultieren die Leistungsunterschiede bei Migranten?

Wie aus Abbildung 1 ersichtlich stammten rund 39 % der 2015 in Österreich lebenden Personen mit Migrationshintergrund aus dem Raum EU/EWR/Schweiz, rund 1 Million aus dem Raum des ehemaligen Jugoslawien und der Türkei. Der stark ansteigende Strom von Flüchtlingen stammte vorwiegend aus islamischen Ländern.

Von wichtigen Herkunftsländern der zu uns gelangenden Migranten haben einige an der PISA 2015 Studie teilgenommen - sie geben ein Bild der naturwissenschaftlichen Kompetenzen der Schüler, wenn keine Sprachbarrieren, keine soziale Segregation im Gastland und ausgrenzende systemisch-strukturelle Aspekte des Schulwesens bestehen. Abbildung 3.

Die Herkunftsländer am Balkan

bieten ein erschreckendes Ergebnis. Mit Ausnahme von Kroatien, das aber auch unter dem OECD-Mittelwert abschneidet, weisen alle anderen Balkanstaaten, insbesondere der Kosovo und Mazedonien ein miserables Ergebnis auf. Bis zu zwei Drittel der Schüler erreichten dort die Grundkompetenz - Kompetenzstufe 2 - nicht. Leistungsstarke Schüler - d.i. Kompetenzstufen von 5 aufwärts - gibt es kaum. Besonders tragisch ist, dass die Leistungsschwächen nicht nur die Naturwissenschaften betreffen, sondern, dass bis zu 60 % der Schüler die Grundkompetenzen in allen drei Testfächern: Naturwissenschaften, Lesen und Mathematik nicht erreichten.

Abbildung 3. Ergebnisse von Balkanländern und islamischen Ländern, die an PISA 2015 Studie teilnahmen: In den Naturwissenschaften (N) erzielte Punkte, % der Schüler, welche in N die Grundkompetenz nicht erreichten (< Stufe 2), welche in N leistungsstark waren (>/5) und die in allen drei getesteten Disziplinen - N, Lesen und Mathematik - die Grundkompetenz nicht erreichten. (Quelle: Mittelwerte stammen aus den angegebenen Tabellen; OECD, PISA-2015-Datenbank; Lizenz: cc-by-nc-sa)

Aus den getesteten Ländern lebten 2015 laut Statistik Austria rund 83 000 Rumänen, 70 000 Kroaten, 24 000 Kosovaren, 22 000 Bulgaren und 22 000 Mazedonier in Österreich.

Länder mit überwiegend islamischer Bevölkerung

schnitten im PISA-Test ebenfalls sehr schlecht ab. 44,5 % der Schüler in der Türkei konnten die Grundkompetenzen in den Naturwissenschaften und 31 % nicht die Grundkompetenzen in allen drei Disziplinen erreichen. Die schlechtesten Werte wurden in den Nordafrikanischen Staaten Tunesien und Algerien und im Libanon erzielt. Bis über 70 % der Schüler konnten dort nicht die Grundkompetenz in den Naturwissenschaften, bis über 60 % nicht die in allen drei Fächern erreichen. Dass mangelnde Finanzkraft für die schlechten Bildung ausschlaggebend ist, wird durch die mageren PISA-Ergebnisse aus Katar und den Vereinigten Arabischen Emiraten widerlegt, die zu den reichsten Ländern der Welt gehören.

Eine vor kurzem veröffentlichte Studie de PEW Research Centers gibt an, dass im Durchschnitt 42 % der Muslime im Mittleren Osten und Nordafrika überhaupt keine Schulbildung aufweisen (verglichen mit 19 % Nicht-Muslimen) [2]. In Ländern der Sub-Sahara Zone in Afrika - diese haben an PISA 2015 nicht teilgenommen - liegt der Anteil der muslimischen Bevölkerung ohne Schulbildung bei 65 % (im Vergleich zu 30 % der ebendort lebenden Christen) und gerade einmal 9 % sind auf etwa Hauptschulniveau (verglichen mit 28 % Christen) [2].

Wie geht es weiter?

In der PISA 2015 Erhebung ist der in diesem Jahr einsetzende enorme Flüchtlingsstrom noch nicht berücksichtigt. Es sind vorwiegend muslimische Kriegsgebiete, aus denen Menschen flüchten, aber auch Länder, die für die sich stark vermehrende Populationen keine Zukunftsperspektiven bieten. Zweifellos haben viele der Menschen, die sich auf den gefährlichen und anstrengenden Weg begeben, ein höheres Bildungsniveau, als die in ihrem Land verbleibenden. Dennoch werden die meisten der in unserem Land Ankommenden - auch auf Grund ihrer religiösen Ansichten - sich nur schwer in eine Gesellschaft mit anderen Wertvorstellungen integrieren, zu denen auch Leistungswille und Streben nach Bildung gehören. Frustration über die geringen Chancen in Wunschberufen unterzukommen und mangelnde Akzeptanz in der Mehrheitsgesellschaft werden die Folge sein.

Die islamische Welt hat vor einem Jahrtausend eine dominierende Rolle in der Wissenschaft gespielt. Heute hat sie die damalige Weltoffenheit eingebüßt und weist in den Bereichen Bildung und Wissenschaft schwerste Defizite auf. Dies trifft nicht nur auf die Schulbildung zu. Auch in der für die Wirtschaft essentiellen Forschung und Entwicklung sind in muslimischen Ländern bedeutend weniger Wissenschafter tätig als in vergleichbaren nicht-muslimischen Ländern: Bei nsgesamt rund 1,8 Milliarden heute lebender Muslime steuern diese gerade einmal 1 % der naturwissenschaftlichen Literatur bei [3] und haben erst zwei Nobelpreisträger -den Pakistani Abdul Salaam in Physik und den Ägypter Ahmed Zewail in Chemie - hervorgebracht.

Sollte man den jungen Muslimen nicht aufzeigen, dass - wie vor 1000 Jahren - auch heute eine weltoffene Religion durchaus mit Bildung und Wissenschaft kompatibel sein kann?


[1] Ergebnisse der PISA 2015 Studie: OECD (2016), PISA 2015 Ergebnisse (Band I): Exzellenz und Chancengerechtigkeit in der Bildung, PISA, W. Bertelsmann Verlag, Germany. DOI 10.3278/6004573w

OECD (2016), PISA 2015 Results (Volume II): Policies and Practices for Successful Schools, PISA, http://dx.doi.org/10.1787/9789264267510-en 

[2] Pew Research Center, Dec. 13, 2016, “Religion and Education Around the World” [3] StatPlanet World Bank - Open Data https://www.statsilk.com/maps/statplanet-world-bank-app-open-data/?y=199...


Weiterführende Links

Statistiken zum Asylwesen in Österreich: http://www.bmi.gv.at/cms/BMI_Asylwesen/statistik/start.aspx

Statistik Austria: http://data.statistik.gv.at/web/catalog.jsp#collapse1

Artikel in ScienceBlog.at:

Inge Schuster, 22.6.2017: Der naturwissenschaftliche Unterricht an unseren Schulen


inge Thu, 10.08.2017 - 14:21

Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?

Do, 03.08.2017 - 08:29 — Redaktion

RedaktionIcon Gehirn

Seit vor vier Jahren eine Wiener Forschergruppe um Jürgen Knoblich (IMBA, ÖAW) aus sogenannten pluripotenten Stammzellen ein "Mini-Hirn" erzeugt hat, werden diese Methoden weltweit angewandt, um Entwicklungsprozesse im Gehirn zu untersuchen und Krankheiten zu erforschen. In einem am 1. August 2017 erschienenen Blog-Beitrag im open access Journal PLOS setzt sich der amerikanische Zell-und Entwicklungsbiologe Mike Klymkowsky (University Colorado) mit der Frage auseinander ob derartige Mini-Hirne bei steigender Komplexität Bewusstsein erlangen können [1].

Die Tatsache, dass Versuche am Menschen nur sehr eingeschränkt möglich sind, ist eines der hauptsächlichen Hindernisse die Entwicklung des Menschen und seine Krankheiten zu verstehen. Bei der deprimierenden Geschichte medizinischer Gräueltaten sind einige dieser Einschränkungen von ethischer Seite nur allzu nachvollziehbar, notwendig und gerechtfertigt. Andere Einschränkungen sind technischer Natur, hängen mit dem langsamen Tempo der menschlichen Entwicklung zusammen.

Modellsysteme

Die Kombination aus moralischen und technischen Faktoren hat experimentelle Biologen dazu gebracht, das Verhalten eines breiten Spektrums von Modellsystemen zu erforschen, die von Bakterien, Hefen, Fruchtfliegen , Würmern über Fische, Frösche, Vögel, Nagetieren bis hin zu Primaten reichen. Dies erscheint durch die evolutionäre Kontinuität zwischen den Organismen zweifellos gerechtfertigt - schließlich stammen alle Organismen von einem gemeinsamen Urahn ab und teilen viele molekulare Eigenschaften. Evolution-basierte Untersuchungen an Modellsystemen haben dementsprechend zu vielen, therapeutisch wertvollen Erkenntnissen über den Menschen geführt - für einen Anhänger des Intelligent Design Kreationismus zweifellos eine sehr schwer vorhersagbare/erklärliche Tatsache.

Menschen sind mit anderen Säugetieren zwar nahe verwandt, es ist aber auch klar, dass wesentliche Unterschiede bestehen - letztendlich sind Menschen ja sofort von nahe verwandten Spezies unterscheidbar und sicherlich sehen sie nicht wie Mäuse aus und verhalten sich auch nicht so. Beispielsweise weist die oberflächliche Rinde unseres Gehirns außerordentliche Faltungen auf, während das Gehirn der Maus glatt ist, wie ein Babypopo. Beim Menschen ist das Fehlen der Gehirnfaltung - die sogenannte Lissenzephalie - mit schweren neurologischen Defekten verbunden.

Mit dem Aufkommen von immer mehr Gensequenzierungsdaten lassen sich nun für den Menschen spezifische, molekulare Unterschiede erkennen. Viele dieser Unterschiede liegen in den Sequenzen unserer DNA, welche regulieren, wann und wo spezifische Gene exprimiert werden. Beispielsweise gibt es den HARS1 (human accelerated region S1) Lokus, einen Abschnitt von 81 Basenpaaren, die in verschiedenen Wirbeltieren - von Vögeln bis hin zu Schimpansen - streng konserviert sind. Diese Sequenz weist beim Mensch 13 spezifische Variationen auf, die deren Aktivität und die Expression benachbarter Gene zu verändern scheinen. Etwa 1000 genetische Elemente, in denen sich der Mensch von anderen Wirbeltieren unterscheidet, wurden bis jetzt identifiziert, eine Zahl, die wahrscheinlich noch steigen wird. Derartige human-spezifische Unterschiede erschweren das Modellieren von spezifisch menschlichem Verhalten in nicht-menschlichen Systemen auf der Ebene von Zellen, Geweben, Organen und Organismen. Aus diesem Grund haben Forscher versucht bessere humanspezifische Systeme zu generieren.

Stammzellen

Ein besonders vielversprechender Ansatz basiert auf den sogenannten embryonalen Stammzellen (ESCs) oder den pluripotenten Stammzellen (PSCs). Humane embryonale Stammzellen werden aus der inneren Zellmasse eines menschliche Embryos gewonnen und bedeuten so die Zerstörung des Embryos - dies lässt ethische und religiöse Bedenken bezüglich der Frage aufkommen:"wann beginnt das Leben".

Humane pluripotente Stammzellen werden dagegen aus den Geweben Erwachsener isoliert, benötigen zur Gewinnung aber meistens invasive Methoden, die ihre Verwendbarkeit limitieren. Beide, ESCs und PSCs, können im Labor vermehrt werden und zur Differenzierung in sogenannte Gastruloide induziert werden. Derartige Gastruloide entwickeln sich dreidimensional, können Achsen in Richtung anterior - posterior (Kopf -Rumpf), dorsal-ventral (Rücken- Bauchseite) und links-rechts ausbilden, in analoger Weise, wie man sie im Embryo und im ausgewachsenem Organismus findet. Abbildung 1. Abbildung 1.Die Entwicklung des Gastruloids aus ESCs oder PSCs erfolgt in Richtung von drei Achsen - in analoger Weise, wie man sie im Embryo und im ausgewachsenem Organismus findet.

Im Fall der PSCs ist das Gastruloid tatsächlich ein Zwilling des Organismus, von dem die Zellen stammen , ein Umstand, der zu schwierigen Fragen Anlass gibt:

  • Ist dies nun ein unterschiedliches Individuum? -
  • Ist es das Eigentum des Spenders?
  •  Ist es die Schöpfung des Labortechnikers?

Das Problem wird noch größer werden, wenn (oder eher wann) es möglich werden wird, lebensfähige Embryonen aus solchen IPCs zu züchten.

Induzierte pluripotente Stammzellen…

Für ihre Methoden, mit denen sie ausdifferenzierte humane Körperzellen in ESC/PSC-ähnliche Zellen umprogrammierten, wurden Kazutoshi Takahashi und Shinya Yamanaka im Jahr 2012 mit dem Nobelpreis ausgezeichnet. Diese sogenannten induzierten pluripotenten Zellen (iPSCs) stellten einen technischen Durchbruch dar, der ein neues Gebiet initiierte. Während die ursprünglichen Methoden Zellen aus Gewebeproben sammelten, können nun- in nicht -invasiver Weise - aus dem Urin isolierte Zellen des Nierenepithels umprogrammiert werden.

…....und zerebrale Organoide

In der Folge haben nun Madeline Lancaster, Jürgen Knoblich und Kollegen (Institut für molekulare Biotechnologie, Wien) einen Ansatz entwickelt, mit dem derartige Zellen induziert werden konnten, um etwas zu bilden, das sie als "zerebrale Organoide" bezeichneten. Die Forscher wandten diese Methode an, um die mit der Mikroenzephalie verbundenen Entwicklungsstörungen zu untersuchen.

Die Bedeutung dieses Verfahrens wurde rasch erkannt, man begann die Methoden zur Untersuchung von humanen Erkrankungen - u.a. Lissenzephalie, durch Infektion mit Zika-Virus verursachte Mikroenzephalie und Down's Syndrom - zu nutzen.

Zerebrale Organoide - Mini-Hirn - Gehirn

Die Erzeugung zerebraler Organoide aus umprogrammierten Körperzellen des Menschen hat die Aufmerksamkeit der Medien erregt. Mit der Bezeichnung Mini-Hirn wurde zwar ein zweifellos griffigerer Begriff geprägt, aber eine weniger genaue Beschreibung - ein wenig Übertreibung - eines zerebralen Organoids, - es ist ja nicht klar, wie weit solche Organoide "zerebral" sind.

Beispielsweise bilden embryonale Signale im sich entwickelnden Gehirn Muster, welche seine Asymmetrien erzeugen; es entsteht am vorderen Ende des Neuralrohrs (daraus entstehen Gehirn und Rückenmark) mit typischen anterior-posterior, dorsal-ventral und links-rechts Asymmetrien. Derartiges ist bei den einfachen zerebralen Organoiden nicht der Fall.

Weiters: um zerebrale Organoide herzustellen, benutzt man gegenwärtig hauptsächlich sogenannte neuroektodermale Zellen. Unser Gehirn (wie auch das anderer Wirbeltiere) geht aus der spezialisierten Zellschicht an der Oberfläche des Embryos hervor, die sich während der Entwicklung nach innen einstülpt. Im Embryo interagiert das sich entwickelnde Neuroektoderm mit dem Kreislaufsystems (Kapillaren, Venen, Arterien) , das von Endothelzellen gebildet wird und sogenannten Perizyten , die diese umschließen. Diese Zellen bilden zusammen mit Gliazellen (Astrozyten - ein nicht-neuronaler Zelltyp) die Blut-Hirn-Schranke. Auch andere Gliazellen (Oligodendrozyten) sind vorhanden. Abbildung 2.

Beide Arten von Gliazellen sind in der derzeitigen Generation von zerebralen Organoiden kaum vorhanden. Es gibt auch keine Gefäße.

Schließlich gibt es im Gehirn auch noch Mikrogliazellen, Immunzellen, die von außerhalb des Neuroektoderms stammen; diese wandern ein, interagieren mit Nerven- und Gliazellen und sind Bestandteil des dynamischen zentralen Nervensystems. Abbildung 2. In den Organoiden fehlen Mikrogliazellen.

Abbildung 2. Schematische Darstellung wie die unterschiedlichen Zellen - Neuronen, Gliazellen, Endothelzellen, Pericyten und Mikrogliazellen - interagieren (links). Die von den Zellen gebildete Blut-Hirn-Schranke ist eine hochselektive Barriere, welche das Gehirn vor den im Blut zirkulierenden Mikroorganismen, Toxinen, Proteinen, etc. schützt. Rechts: Nervengewebe, das (auf Grund der Färbemethode) nur die Neuronen zeigt. Es sind mindestens ebenso viele Gliazellen und Mikrogliazellen anwesend.

Im Verlauf von 6 - 9 Monaten wachsen zerebrale Organoide bis zu einer Größe von 1 - 3 mm Durchmesser an - das ist ganz wesentlich kleiner als das fötale Hirn oder das Hirn eine Neugeborenen.

Zerebrale Organoide können Strukturen ausbilden, die charakteristisch für das Pigmentepithel der Netzhaut (Retina) sind, und lichtempfindliche Neuronen, wie sie mit der Retina assoziiert sind. Es ist dabei aber nicht klar, ob ein nennenswertes Signal in das neuronale Netzwerk im Organoid hinein- oder herausgelangt.

Eine berechtigte Frage

Kann ein zerebrales Organoid - also ein recht einfaches Zellsystem (wenngleich es selbst komplex ist) Bewusstsein haben?

Die Frage wird umso berechtigter, als Systeme mit immer höherer Komplexität entwickelt werden und derartige Arbeiten rasch voranschreiten. Forscher manipulieren bereits das Nährmedium des sich entwickelnden Organoids, um die Ausbildung der Achsen zu fördern. Man kann auch voraussehen, dass Blutgefäße eingebracht werden. Tatsächlich wurde bereits über die Erzeugung von Mikroglia-artigen Zellen aus induzierten pluripotenten Stammzellen berichtet. Derartige Zellen können in zerebrale Organoide eingebaut werden , wo sie auf Schäden an Neuronen in der gleichen Weise reagieren, wie Mikroglia in intaktem Nervengewebe.

Wir können uns nun die Frage stellen, was uns davon überzeugen würde, dass ein, innerhalb eines Inkubators im Labor lebendes, zerebrales Organoid, Bewusstsein hat.

Wie würde sich dieses Bewusstsein manifestieren? Vielleicht durch ein spezifisches Muster neuronaler Aktivität?

Dazu meint der Autor des vorliegenden Artikels, Mike Klymkowsky, der ein hauptsächlich an molekularen und zellulären Systemen interessierter Biologe ist: Bewusstsein ist eine emergente Eigenschaft komplexer Nervensysteme ist, erzeugt durch evolutionäre Mechanismen, aufgebaut während der embryonalen Phase und der darauffolgenden Entwicklung und beeinflusst durch soziale Kontakte.

Es wird spannend werden den Diskussionen auf akademischem, gesellschaftlichem und politischem Niveau zu lauschen, wenn es darum geht, was man mit den Mini-Hirnen anfangen soll, wenn diese an Komplexität zunehmen und vielleicht unvermeidbar zu Bewusstsein gelangen.


[1] Der Artikel "Is it time to start worrying about conscious human “mini-brains”?"von Mike Klymkowsky ist am 1. August 2017 in PLOSBLOGS Sci-Ed erschienen. Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Die Literaturzitate und zwei Abbildungen wurden allerdings weggelassen und können im Originaltext nachgesehen werden: http://blogs.plos.org/scied/2017/08/01/is-it-time-to-start-worrying-abou... 

Zum Autor: Der Biophysiker Mike Klymkowsky ist Professor für Molekulare, Zelluläre und Entwicklungsbiologie an der Universität Colorado Boulder. Er verwendet sich entwickelnde Systeme, um zelluläres Verhalten zu untersuchen; seit kurzem arbeitet er auch mit zerebralen Organoiden. Mehr als ein Jahrzehnt beschäftigt er sich mit der Frage, wie man die Ausbildung von Undergraduate-Studenten (d.i. in Postsekundärer Ausbildung) in biologischen Wissenschaften verbessern kann. Für seine wissenschaftlichen Arbeiten und die Entwicklung von Bildungskonzepten erhielt er zahlreiche Auszeichnungen. Klymkowsky war seit 2010 academic editor von PLOS ONE; er leitet das SciEd Blog Team: http://blogs.plos.org/scied/about/

Homepage: http://klymkowskylab.colorado.edu/


Weiterführende Links

Synthetisches Mini-Hirn. Interviews mit Jürgen Knoblich, Madeline Lancaster. Video 13:34 min. mce mediacomeurope GmbH, Grünwald, im Auftrag von HYPERRAUM.TV - © 2014. https://www.youtube.com/watch?v=Lks3QAkRkv8 . Standard-YouTube-Lizenz

Madeline Lancaster: Growing mini brains to discover what makes us human TEDxCERN (2015) Video 14:24 min. https://www.youtube.com/watch?v=EjiWRINEatQ Standard YouTube Lizenz

Ernst Wolvetang: Growing Mini-Brains To Solve Big Problems TEDxUQ. Video 13:17 min. https://www.youtube.com/watch?v=ulvvjafx8Rc.  Standard YouTube Lizenz

Typ(isch) Stammzelle: Embryonale Stammzellen. Video 8:22 min. https://vimeo.com/19517196

Artikel zu verwandten Themen im ScienceBlog

inge Thu, 03.08.2017 - 08:29

Ein weiterer Meilenstein in der Therapie der Cystischen Fibrose

Ein weiterer Meilenstein in der Therapie der Cystischen Fibrose

Do, 27.07.2017 - 08:35 — Francis S. Collins

Vorname ZunameIcon MedizinCystische Fibrose (CF) ist in unserer Bevölkerung die häufigste angeborene Stoffwechselerkrankung. Auf Grund einer Genmutation kommt es zum Funktionsverlust des Kanalproteins CFTR, welches in den Zellmembranen von Lunge und anderen Teilen des Körpers das Salz- und Wassergleichgewicht reguliert. In der Folge sammelt sich bereits im frühen Alter dicker, klebriger Schleim an und führt zu schwersten Krankheitserscheinungen und vorzeitigem Tod. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project", hat 1989 das CF verursachende Gen identifiziert. Er beschreibt hier, wie akribische Forschung die Funktionsweise des Proteins CFTR aufklärte und es zur Zielstruktur für das Design von Wirkstoffen machte, die als Kombinationstherapie eben aufsehenerregende klinische Erfolge erzielten.*

Als NIH-Direktor höre ich häufig Erzählungen, wie Menschen mit schweren Erkrankungen - von Arthritis bis hin zu Zika-Infektionen - davon profitieren, dass NIH-Investitionen in die Grundlagenforschung fließen. Heute möchte ich eines der Beispiele bringen, das ich für besonders aufregend halte: es ist die Nachricht, dass eine Kombination von drei, für Zielmoleküle designte Arzneimittel es möglich machen könnte den Großteil aller an cystischer Fibrose (Mukoviszidose) erkrankten Patienten zu therapieren; es ist dies die in unserer Bevölkerung häufigste genetische Erkrankung. Abbildung 1.

Abbildung 1. Cystische Fibrose ist eine Erbkrankheit der sekretorischen Drüsen verursacht durch Mutationen am CTRF-Gen. Hauptsächlich sind Lunge und Pankreas aber auch Leber, Darm und Geschlechtsorgane betroffen. Dünnflüssiger Mukus, der sezerniert wird, um einige Organe und Körperhöhlen feucht zu halten und zu schützen, wird zu klebrigem Schleim eingedickt, der Luftwege und Sekretionsgänge blockiert. (Bild und Beschriftung von der Redaktion eingefügt; Quelle: https://www.nhlbi.nih.gov/health/health-topics/topics/cf)

Von der Entdeckung der kausalen Ursache zu molekular gezieltem Design von Wirkstoffen

Vorweg etwas zur Geschichte der cystischen Fibrose.

Die erste genetische Mutation, die cystische Fibrose (CF) hervorruft, wurde vor fast 30 Jahren entdeckt - es war eine Zusammenarbeit meines eigenen Forschungslabors in Ann Arbor (Universität Michigan) mit Kollegen vom Kinderkrankenhaus in Toronto [1]. Unterstützt von den NIH und der Cystischen Fibrose-Stiftung, konnte in jahrelanger, akribischer harter Arbeit die Funktion des Proteins aufgeklärt werden, das in der CF verändert ist und als cystic fibrosis transmembrane conductance regulator (CFTR) bezeichnet wird. Das CFTR-Protein ist ein Kanal in der Zellmembran, der das Salz- und Wassergleichgewicht in Lunge und anderen Teilen des Körpers reguliert. Abbildung 2.

Abbildung 2. Das CFTR-Protein. Kryoelektronenmikroskopie. Das aus 1480 Aminosäuren bestehende Protein fungiert als Kanal für Chloridionen in den Membranen von Zellen, die Mukus, Schweiß , Speichel, Tränen und Verdauungsenzyme produzieren. Die Pore des trichterförmigen Kanals wird durch das graue Gitter angezeigt. (Beschriftung von der Redaktion eingefügt; Bild: Credit: Zhang & Chen, 2016, Cell 167, 1586–1597.)

Neue Technologien wie die Kryo-Elektronenmikroskopie (das Journal Nature hat diese zur Methode des Jahres 2015 gekürt) gaben Forschern erst in jüngster Zeit die Möglichkeit die genaue Struktur des Proteins mit den Mutationen zu kartieren, die zu CF führen.

An cystischer Fibrose erkrankte Menschen tragen eine Mutation in beiden Kopien des CFTR-Gen - d.i. sowohl in der vom Vater als auch in der von der Mutter vererbten Kopie. Abbildung 3.

Abbildung 3. Cystische Fibrose ist bei uns die häufigste Erbkrankheit, jeder 20. Mensch trägt ein mutiertes CFTR-Gen. An CF-Erkrankte tragen Mutationen in beiden Kopien des Gens. (Bild von der Redaktion eingefügt; Quelle Armin Kübelbeck / Wikimedia.org. Lizenz: cc-by-sa)

Bis jetzt sind mehr als 1700 derartige Mutationen bekannt, die CF auslösen können. Die häufigste Mutation - die sogenannte F508del Variante (in Position 508 des 1480 Aminosäuren langen Proteins fehlt die Aminosäure Phenylalanin - davon sind rund 2/3 der CF-Patienten betroffen; Anm. Red.) - resultiert in einem falsch gefalteten Protein, das abgebaut wird, bevor es noch seine richtige Position in der Zellmembran erreicht hat. Auf Grund des fehlenden Kanals wird nun der abgesonderte, die Zellen überlagernde dünnflüssige Mukus zu dickem, klebrigem Schleim verdichtet und kann u.a. zu lebensbedrohenden Infektionen und Lungenversagen führen.

Es war ein langer, beschwerlicher Weg Arzneimittel zu entwickeln, welche die Funktion von mutiertem CFTR restaurieren können.

Anfangs haben viele von uns gedacht, dass Gentherapie für die Behandlung dieser Erkrankung die Methode der Wahl wäre. Allerdings waren die Schwierigkeiten durch Gen-Transfer eine langanhaltende Korrektur des CF-Defekts in den Luftwegen zu erreichen ungemein entmutigend.

Aufbauend auf dem, aus NIH-unterstützter akademischer Forschung zunehmend vertieften Verständnis der CFTR-Funktion, entstand vor rund 20 Jahren eine Partnerschaft der Cystischen Fibrose-Stiftung und einer kleinen Firma, die sich Aurora nannte (und später zu Vertex Pharmaceuticals Inc., Boston wurde). Diese begann nach kleinen Molekülen zu suchen, welche einem anormalen CFTR-Protein zur korrekten Faltung verhelfen könnten - derartige Substanzen werden als Korrektoren bezeichnet - und solchen, welche die richtige Funktion ermöglichten, wenn das Protein dann die Zellmembran erreichte - derartige Substanzen werden als "Potentiatoren" (Verstärker) bezeichnet.

Rund 30 000 Amerikaner leiden an CF. Der erste größere Fortschritt in der Behandlung mit auf Zielmoleküle zugeschnittenen Arzneistoffen kam 2012, als die Food and Drug Administration (FDA) Ivacaftor (Kalydeco) zugelassen hat. So aufregend dies auch war, so wussten wir, dass es nur den ersten Schritt auf einem schwierigen Weg allen CF-Patienten zu helfen bedeutete. Dies ist der Fall, weil Kalydeco nur bei rund 4 % der Patienten wirkt, welche eine G551D Mutation tragen (an der Position 551 wurde ein Glycin durch eine Asparaginsäure ersetzt) zusammen mit anderen, die eine von 23 relativ seltenen Mutationen haben, die zu einem teilweise funktionsfähigen CFTR führen.

Der nächste bedeutende Meilenstein in der CF Behandlung wurde dann 2015 mit der Zulassung von Orkambi durch die FDA erreicht. Orkambi, eine Kombination von Ivacaftor mit Lumacaftor, dem ersten "Korrektor", wurde für Patienten bestimmt, die zwei Kopien der F508del Mutante besitzen. Für diese Patientengruppe liegt eine weitere Kombinationstherapie (Ivacaftor plus Tezacaftor) zur Prüfung bei der FDA.

Anlass zum Optimismus

bieten vorläufige Ergebnisse aus klinischen Studien, die vergangene Woche veröffentlicht wurden [2].

Es wurden hier in der Klinik (in Phase I und II) drei "Next-Generation" Dreifachkombinationstherapien untersucht, welche die Funktion des CFTR modulieren. Diese Strategie geht tatsächlich bei 90 % der Patienten, die zumindest eine Kopie von F508del tragen, auf. Vertex berichtete am Dienstag der letzten Woche:

  • mit allen drei "Next-Generation" Dreifachkombinationstherapien konnten markante Verbesserungen der Lungenfunktion bei Patienten erzielt werden, die eine F508del Mutation und eine Minimal-Funktions-Mutante trugen - dies war bis dahin eine Form der CF, die besonders schwierig zu behandeln war. Konkret bedeutete dies: auf eine zwei- bis vierwöchige Behandlung mit der Kombination aus zwei Korrektoren und einem Verstärker sprachen die Patienten mit 10 Prozent Verbesserung des forcierten expiratorischen Volumens pro Sekunde (FEV1) an, welches die zentrale Größe für die Lungenkapazität darstellt. Obwohl die Untersuchungen als Doppel-Blind-Studien ausgeführt wurden, fanden viele von den Patienten, welche die aktive Dreierkombination erhielten, schnell heraus, dass etwas neues, wundervolles mit ihnen passierte.
  • Darüber hinaus: Die "Next-Generation" Dreifachkombinationstherapien waren generell gut verträglich und verringerten die Konzentrationen von Chlorid im Schweiß. Erhöhtes Chlorid im Schweiß ist über Jahrzehnte als diagnostischer Test für CF benutzt worden, der Nachweis einer Senkung ist ein starker Indikator dafür, dass die Arzneistoffe im gesamten Körper wirksam wurden.

Diese Ergebnisse werden - zusammen mit Daten aus einer weiteren klinischen Studie, die heuer beginnen soll, - für Vertex die Grundlage bilden, um die Substanz oder die Kombination von Substanzen auszuwählen, die in der ausgedehnteren Phase 3 Studie eingesetzt werden soll.

Alles in allem

ist nun für rund 40 % der an CF leidenden Menschen eine zielgerichtete Behandlung zugelassen. Wenn allerdings die neuen Dreifach-Kombinationen halten, was sie in den ersten Studien versprechen, so könnte nach Meinung von Michael Boyle, dem Alt-Vizepräsidenten der Cystic Fibrosis Foundation, Bethesda, es möglich werden, bis zu 90 % der an CF Erkrankten zu behandeln.

Unter den Zehntausenden CF-Patienten, denen die nächste Generation zielgerichteter Medikamente nützen sollte, ist auch die kleine Avalyn Mahoney aus Cardiff, CA, die eben zwei Jahre alt wurde. Noch vor wenigen Jahrzehnten hätten Kinder wie Avalyn das Teenageralter nicht überlebt. Dank der Fortschritte, die auf NIH-unterstützter Grundlagenforschung aufbauen, sind die Aussichten für sie und so viele andere wesentlich günstiger.

Das ist eine grandiose Nachricht. Dazu möchte ich anfügen, dass weder die Cystische-Fibrose-Stiftung noch die NIH ruhen werden, bis es effektive und leistbare Behandlungen - oder noch besser Heilungen - für jeden CF-Patienten in den US und auf dem gesamten Erdball geben wird.


[1] Identification of the cystic fibrosis gene: chromosome walking and jumping. Rommens JM1, Iannuzzi MC, Kerem B, Drumm ML, Melmer G, Dean M, Rozmahel R, Cole JL, Kennedy D, Hidaka N, et al. Science. 1989 Sep 8;245(4922):1059-1065.

[2] Positive Early Study Results for Next-Generation CFTR Modulators. Cystic Fibrosis Foundation News Release, July 18, 2017. https://www.cff.org/News/News-Archive/2017/Positive-Early-Study-Results-...


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Another Milestone in the Cystic Fibrosis Journey" zuerst (am 20. Juli 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/07/20/another-milestone-in-the-cystic...   Der Artikel wurde geringfügig für den Blog adaptiert und einige Abbildungen wurden von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH)..


Weiterführende Links

What is Cystic Fibrosis (National Heart, Lung, and Blood Institute/NIH).

Genetics Home Reference: Cystic Fibrosis (National Library of Medicine/NIH).

Krankheitsbild Mukoviszidose. Beschreibung und Video 2:32 min (deutsch)

Cystic fibrosis. Video (englisch) 8:28 min. Author: Osmosis(31 August 2016). License: cc-by-sa.

inge Thu, 27.07.2017 - 08:35

Beobachtung der Entstehung der massereichsten Galaxien im Universum

Beobachtung der Entstehung der massereichsten Galaxien im Universum

Do, 20.07.2017 - 09:44 — Alessandra Beifiori & Trevor Mendel

Alessandra BeifioriTrevor MendelIcon PhysikDie vielfältigen Formen von Galaxien ergeben sich aus komplexen physikalischen Prozessen, die die Sternentstehung und das zeitliche Anwachsen der stellaren Massen steuern. Neue Nahinfrarot-Messungen ermöglichten es die Verteilung der Sterntypen und die chemischen Eigenschaften von fernen massereichen Galaxien zu untersuchen. Die Astrophysiker Allessandra Beifiori und Trevor Mendel (Max-Planck-Institut für extraterrestrische Physik, Garching) zeigen hier auf, wie die gemessenen Absorptionsmerkmale in den Galaxienspektren es erlaubten die Entstehungszeiten einzuschränken, eine verbesserte Verteilung der Sternmassen zu erzeugen und ihren dynamischen Zustand zu bestimmen, als das Universum weniger als 4 Milliarden Jahre alt war.*

Reiche Vielfalt bei nahe gelegenen Galaxien

Bis Anfang des 20. Jahrhunderts war unser Verständnis des Universums von unserer eigenen Galaxie, der Milchstraße, dominiert. Die Entdeckung, dass die Milchstraße nur ein kleiner Teil eines viel größeren Universums ist, führte dazu, dass sich hunderte schwache, unscharfe „Nebel“, die von Astronomen wie Charles Messier und Edwin Hubble untersucht wurden, plötzlich zu riesigen, viele Millionen Lichtjahre weit entfernten Sterninseln wandelten.

Ursprünglich wurde die Mehrheit der Galaxien aufgrund ihrer visuellen Erscheinung in eine von zwei Klassen eingeteilt: Spiralgalaxien oder elliptische Galaxien. Während Spiralgalaxien typischerweise eine dominierende, abgeflachte Scheibe und deutliche Spiralarme aufweisen, zeigen elliptische Galaxien stattdessen eine eher diffuse und runde Form mit nur geringen Variationen in ihrer Helligkeit. Im Laufe der Zeit wurde diese „Hubble-Sequenz“ erweitert, um die gesamte Vielfalt der beobachteten Galaxienformen zu beschreiben (Abbildung 1). Diese reichen von massereichen elliptischen Galaxien, über „linsenförmige“ Galaxien, die als Spiralgalaxien sowohl runde als auch Scheibenkomponenten enthalten, bis hin zu Galaxien, die sich jeglicher Klassifizierung entziehen, den sogenannten „Irregulären Galaxien“.

Abbildung 1. Beispiel der Hubble-Sequenz, die alle möglichen, beobachteten Galaxienmorphologien zeigt: Ellipsen linsenförmige, Spiral- und Irreguläre Galaxien. © R. Shelton (University of Georgia)

Diese reiche Vielfalt von Galaxienmorphologien entsteht durch die komplexen physikalischen Prozesse, die die Entstehung von neuen Sternen bedingen und das Wachstum der stellaren Massen im Laufe der Zeit beeinflussen. Im frühen Universum werden Galaxien durch Gasfilamente und -strömungen aus dem Kosmos gespeist (Abbildung 2). Im Laufe der Zeit kühlt dieses Gas ab und es entstehen Sterne. Während sich das Universum weiter ausdehnt, werden die Galaxien immer massereicher bis ihre Gasversorgung schließlich versiegt und die Sternentstehung zum Erliegen kommt. Die neuesten Himmelsdurchmusterungen vom Boden und aus dem All zeigen, dass diese passiven Galaxien bereits 2–3 Milliarden Jahre nach dem Urknall auftauchen. Die massereichsten Galaxien, die Vorläufer der heutigen Ellipsen, sind dabei diejenigen, in denen die Sternentstehung zuerst versiegte.

Abbildung 2. Dieses Bild zeigt das „kosmische Netz“, einen Schnitt mit einer Dicke von 15 Mpc/h durch das Dichtefeld der Millennium-Simulation. Sichtbar ist die großflächige Verteilung der Materie, die sich in Filamenten und Regionen mit hoher Dichte sammelt. © V. Springel & the Virgo Consortium.

Aktuelle Modelle der Galaxienentstehung sagen voraus, dass Galaxien in Ansammlungen Dunkler Materie, den sogenannten „Dunkle-Materie-Halos“, eingebettet sind. Die Entwicklung jeder einzelnen Galaxie wird sowohl durch ihre innere Struktur als auch durch die Eigenschaften dieses Halos aus Dunkler Materie beeinflusst. Man erwartet, dass die massereichsten Halos aus Dunkler Materie zuerst Galaxien bilden, während in weniger massereichen Halos die Galaxienentstehung später einsetzt. Diese Modelle können zwar noch nicht die genauen Eigenschaften von massereichen Galaxien vorhersagen, wenn deren Sternentstehung abgeschlossen ist, dennoch legen sie nahe, dass sich das Erscheinungsbild dieser Galaxien im Laufe der Zeit wesentlich verändern sollte, da sie mit benachbarten Galaxien in Wechselwirkung treten und mit diesen verschmelzen können. Diese Entwicklung sollte umso schneller ablaufen, je mehr Nachbargalaxien vorhanden sind. Ein vollständiges Modell des Galaxienwachstums erfordert daher die sorgfältige Betrachtung mehrerer Evolutionswege; diese wiederum sollten idealerweise durch Daten aus verschiedenen evolutionären Phasen der Galaxien eingeschränkt werden.

Sternpopulationen in massereichen Galaxien

Um die Details der Entstehung massereicher Galaxien verstehen zu können, müssen die urzeitlichen Informationen, die in ihren Sternen gespeichert sind, entschlüsselt werden. Sterne sind langlebig und enthalten somit die vollständige Entwicklungsgeschichte der Galaxie. Die Eigenschaften des von einer Galaxie emittierten Lichts (Helligkeit, Farbe), aufgespalten in das elektromagnetische Spektrum, stehen in direktem Zusammenhang mit den Eigenschaften der zugrunde liegenden Sternpopulation. Wenn wir diese Daten mit verschiedenen Spektralmodellen vergleichen, so können ihr Alter, ihr Staubgehalt und die Häufigkeit verschiedener chemischer Elemente abgeschätzt werden. Mit diesem Ansatz wurden bereits die Eigenschaften von nahen elliptischen Galaxien untersucht und es zeigte sich, dass diese typischerweise sehr alt sind. Allerdings ist es unmöglich, die Entstehungsgeschichte der Galaxien allein mit Daten aus dem nahen Universum zu rekonstruieren.

Die endliche Lichtlaufzeit kommt uns hier zu Hilfe: Die größten Teleskope der Welt können genutzt werden, um „in die Vergangenheit zu blicken“ und die Entstehung der massereichen Galaxien zu frühen kosmischen Zeiten „vor Ort“ zu beobachten. Wenn wir nun aber Objekte betrachten, die immer weiter entfernt liegen, so wird die von ihnen emittierte Strahlung aufgrund der Ausdehnung des Universums „gestreckt“, d. h. die Strahlung wird zu niedrigeren Energien und längeren Wellenlängen verschoben, ähnlich dem bekannten Dopplereffekt. So sind solche Untersuchungen erst mit der Entwicklung effizienter Nahinfrarot-Instrumente möglich geworden, die an die weltweit größten Teleskope gekoppelt sind, wie zum Beispiel der K-Band Multi-Objekt-Spektrograph (KMOS) am „Very Large Telescope“ (VLT) der Europäischen Südsternwarte (ESO), der im nahinfraroten Band messen kann.

Spektroskopische Daten sind unbedingt notwendig, um die Eigenschaften der Sterne in einer Galaxie zu bestimmen. Die relativen Stärken der unterschiedlichen Absorptionsmerkmale zeigen sowohl die Verteilung der Sterntypen als auch ihre chemischen Eigenschaften. Mit KMOS haben wir die einzigartige Möglichkeit, das Licht von 24 unterschiedlichen Galaxien gleichzeitig zu untersuchen. Wenn diese Daten mit Bildern des Hubble-Weltraumteleskops (HST) kombiniert werden, die bei verschiedenen Wellenlängen aufgenommen wurden, können wir eine Vielzahl von Galaxieneigenschaften einschränken. Aus der Breite der Absorptionslinien kann die Relativbewegung der Sterne bestimmt werden und daraus, in Kombination mit den HST-Daten, das Gravitationspotenzial einer Galaxie insgesamt. Aus den Linienstärken können die Eigenschaften der Sternpopulation abgeleitet werden, wie Alter oder die Häufigkeit von chemischen Elementen (mit Ausnahme von Wasserstoff und Helium).

Abbildung 3 zeigt eine Vergrößerung des sogenannten „Hubble Ultra Deep Field“. Dieser kleine Himmelsausschnitt (etwa 1/10 vom Durchmesser des Vollmonds) wurde mit mehreren Instrumenten an Bord des HST abgebildet. Wir konnten eine ferne massereiche elliptische Galaxie identifizieren (im gelben Quadrat in Abbildung 3) und zeigen das Modell für die spektrale Energieverteilung einer derartigen Galaxie im frühen Universum. Beachten Sie die roten Farben der Galaxie.

Abbildung 3. Das Bild zeigt ein viel beobachtetes Himmelsgebiet, das sogenannte „Hubble Ultra Deep Field“. Das Gebiet enthält viele Galaxien unterschiedlichen Alters, unterschiedlicher Größen, Formen und Farben. Die kleinsten und rötesten Galaxien sind wahrscheinlich bei den entferntesten, die derzeit bekannt sind. Eine elliptische Galaxie, vom Typ wie wir sie mit KMOS untersuchten, ist markiert. Dem Bild überlagert ist – in orange – das Modellspektrum eines möglichen Vorläufers für diese Galaxie bei hoher Rotverschiebung (MILES library). © NASA; ESA; N. Pirzkal (ESA/STScI); HUDF Team (STScI)

Wann hörte die Sternentstehung in fernen massereichen Galaxien auf?

Die Nahinfrarotspektroskopie von KMOS ermöglichte es in den letzten Jahren nicht nur, die Anzahl der Messungen von Linienbreiten in fernen, massereichen Galaxien zu verdoppeln, sondern zudem die Entstehungsgeschichte von passiven Galaxien über mehr als 10 Milliarden Jahre hinweg einzuschränken.

Indem wir die Spektren selektierter, isolierter massereicher Galaxien zusammen genommen und die Stärke ihrer Absorptionslinien gemessen haben, konnten wir das Alter dieser Galaxien abschätzen. Die Kombination der KMOS-Daten mit Daten aus der Literatur zeigte, dass die Entstehung passiver Galaxien in zwei Phasen eingeteilt werden kann. Eine frühe, aktive Phase, in der die Galaxien immer noch wachsen, indem sie Gas aus dem Kosmos schnell ansammeln, sowie nach einem raschen Abschalten der Sternentstehung die späte Phase, in der Galaxien sich durch die weitere Entwicklung ihrer Sternpopulationen verändern und somit die Eigenschaften erhalten, die wir heute beobachten.

Elliptische Galaxien im lokalen Universum sind bekannt dafür, dass sie strengen, grundlegenden Regeln folgen. So können Eigenschaften wie die Größe der Galaxie, die Lichtverteilung, die Geschwindigkeitsdispersion der Sterne, die Masse, die Farbe und die Eigenschaften der Sternpopulation miteinander in Beziehung gesetzt werden. Diese Korrelationen dienen als Werkzeuge, um die Modelle zur Galaxienentstehung einzuschränken. So bietet insbesondere die „Fundamentalebene“ die Möglichkeit, die Sternpopulationen von massereichen Galaxien in unterschiedlichen Epochen zueinander in Beziehung zu setzen und damit ihre Entstehungszeiten einzuschränken. Mit spektroskopischen Daten von KMOS konnten wir die Fundamentalebene dazu einsetzen, die Entstehung von Galaxiengruppen und -haufen – einige der massereichsten Strukturen im Universum – zu untersuchen. Wir konnten zeigen, dass die Daten mit theoretischen Modellen konsistent sind, nach denen sich Galaxien zuerst in den massereichsten Strukturen bilden.

Ein genaueres Bild der Sternmasse in entfernten Galaxien

Wir verwendeten außerdem sehr tiefe HST-Photometrie um die Größe und Morphologie von weit entfernten Galaxien in Haufen zu messen. Zusammen mit Modellen für die Sternpopulationen der Galaxien konnten wir daraus Karten ihrer Sternmasse erstellen (Abbildung 4). Die Massenverteilung in fernen Galaxien scheint viel kompakter zu sein als ihr Licht, ein Effekt der von älteren Sternpopulationen im Zentrum im Vergleich zu den Außenbezirken erzeugt wird. Im Vergleich zu nahen Galaxien zeigen die fernen Objekte viel größere Unterschiede zwischen ihrer Massen- und ihrer Lichtgröße – ein Hinweis darauf, dass sich über die Lebensdauer massereicher Galaxien hinweg etwas verändert.

Abbildung 4. Von tiefen Bildern des Hubble-Weltraumteleskops (links) kann die Massenverteilung innerhalb von Galaxien abgeleitet werden (rechts). © Max-Planck-Institut für extraterrestrische Physik / A. Beifiori

Die Änderung der Farben innerhalb der Galaxien lassen sich mit der Annahme erklären, dass es Unterschiede gibt im Alter der Sterne und der Menge der chemischen Elemente zwischen ihrem Zentrum und ihrem Außenbereich. Dies ist das Ergebnis eines Entwicklungsprozesses, in dem allmählich Satellitengalaxien in den Außenbereichen akkretiert (= Materie wird aufgrund der Gravitation aufgesammelt; Anm. Red.) werden. Diese Unterschiede in Alter und Häufigkeit sollten im Laufe der Milliarden Jahre andauernden Galaxienentwicklung abnehmen bis sie die Werte erreichen, die im lokalen Universum zu sehen sind.

In welchem dynamischen Zustand befinden sich massereiche Galaxien?

In den letzten Jahren hat sich die Zahl von fernen massereichen Galaxien mehr als verdoppelt, bei denen sowohl Linienbreitenmessungen mittels Spektroskopie als auch tiefe Bilder in mehreren Wellenlängenbändern vorliegen. Damit können ihre Eigenschaften weit besser charakterisiert werden – zu einer Zeit, wenn die Vielfalt der Hubble-Sequenz ausgebaut wird. Die Kopplung der neuen Daten mit dynamischen Modellen erlaubte es, die gesamte dynamische Masse dieser Objekte einzuschränken und zu zeigen, dass in ihren Kernen nur ein relativ geringer Anteil Dunkler Materie vorhanden ist, verglichen zu den Galaxien in unserer kosmischen Nachbarschaft. Die Änderung scheint mit der Veränderung der äußeren Form der Galaxien einherzugehen, die die Galaxien aufgrund der Wechselwirkungen mit anderen Galaxien über ihre Lebensdauer hinweg erfahren. Außerdem zeigen ferne Galaxien eine größere Rotationsgeschwindigkeit im Vergleich zu nahe gelegenen Galaxien; dies passt zu einem Szenario, bei dem frühe Galaxien eher Scheiben ähneln und noch nicht die heutige elliptische Struktur aufweisen.


* Der Artikel ist unter demselben Titel " Beobachtung der Entstehung der massereichsten Galaxien im Universum" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienen ( https://www.mpg.de/10989921/mpe_jb_2017 ; DOI 10.17617/1.4M) und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt.Der Artikel erscheint ungekürzt, allerdings ohne Literaturangaben, da diese großteils nicht frei zugänglich sind. Diese Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für extraterrestrische Physik

Andere Institutionen

MIAPP: Münchner Institut für Astro- und Teilchen Physik, http://www.universe-cluster.de/?L=1

European Southern Observatory (ESO): http://www.eso.org/public/

Videos

Artikel zu verwandten Themen in ScienceBlog.at

inge Thu, 20.07.2017 - 09:44

Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Marietta Blau: Entwicklung bahnbrechender Methoden auf dem Gebiet der Teilchenphysik

Do, 13.07.2017 - 11:17 — Robert W. Rosner

Robert W. RosnerIcon PhysikDie Wiener Physikerin Marietta Blau hat in den 1920er- und 30er-Jahren eine photographische Methode entwickelt, welche die Sichtbarmachung energiereicher Teilchen ermöglichte und Grundlage für die Teilchenphysik wurde. Mit dieser Methode hat Blau zusammen mit ihrer Schülerin und Mitarbeiterin Hertha Wambacher 1937 erstmals die Zertrümmerung eines Atomkerns durch kosmische Strahlen festgehalten. 1938 musste Blau Österreich verlassen, während der Nazi-Zeit wurden ihre bahnbrechenden Ergebnisse ihrer Mitarbeiterin zugeschrieben. Der britische Kernforscher Cecil Powell , der auf den Ergebnissen Blaus aufbaute und das Pion entdeckte, erhielt den Nobelpreis, nicht aber die dafür mehrfach vorgeschlagene Marietta Blau. In Österreich geriet Marietta Blau in Vergessenheit, erst 2003 wurde sie wiederentdeckt..

Marietta Blau (1894 - 1970),

als Tochter eines k.k. Hof-und Gerichtsadvokaten in Wien geboren, stammte aus einer Familie des gehobenen jüdischen Mittelstands. Sie besuchte die Übungsschule der k.k. Lehrerbildungsanstalt in der Hegelgasse, danach die Vorbereitungsklasse und drei Klassen des privaten Mädchen-Obergymnasiums, nahm Privatunterricht und kam schließlich an das Mädchengymnasium in der Rahlgasse (1040 Wien), wo sie 1914 mit Auszeichnung maturierte.

Ab November 1914 war Marietta Blau an der Wiener Universität inskribiert. Sie studierte Physik und Mathematik. Eine TBC-Erkrankung erzwang 1916 eine Unterbrechung des Studiums. Blau dissertierte 1918 an dem von Franz Serafin geleiteten II. Physikalische Institut mit einer Arbeit über die Absorption von γ-Strahlen und wurde im März 1919 zum Dr. phil. promoviert.

Danach hospitierte sie bei Guido Holzknecht am Allgemeinen Krankenhaus, arbeitete 1921 als Physikerin an der Röntgenröhrenfabrik Fürstenau, Eppens & Co in Berlin und nahm schließlich 1922 eine Assistentenstelle am Institut für Physikalische Grundlagen der Medizin in Frankfurt/Main an. Im Herbst 1923 kehrte sie aber nach Wien zurück, da ihre Mutter erkrankt war.

Hertha Wambacher (1903 - 1950)

wurde als Tochter eines Fabrikanten geboren und besuchte - ähnlich wie Marietta Blau - zunächst eine Übungsschule der k.k. Lehrerbildungsanstalt in der Hegelgasse und trat dann in das Mädchengymnasium in der Rahlgasse über, wo sie 1922 mit Auszeichnung maturierte. Sie studierte dann zwei Jahre lang Chemie, gab dieses Studium aus Gesundheitsgründen auf und wandte sich dem Studium der Physik zu. Von 1928 an führte Wambacher ihre Dissertation unter Anleitung der um neun Jahre älteren Marietta Blau am II. Physikalischen Institut der Universitär Wien durch. Nach mäßigen Erfolgen bei den Rigorosen wurde sie im Mai 1932 promoviert.

Marietta Blau und ihre Schülerin und Mitarbeiterin Hertha Wambacher

Nach ihrer Rückkehr nach Wien arbeitete Marietta Blau ohne Bezahlung am Institut für Radiumforschung der Österreichischen Akademie der Wissenschaften - auch Hertha Wambacher, die ab 1928 bei Blau dissertierte, konnte keine Anstellung finden. Beide Frauen waren darauf angewiesen von ihren Eltern erhalten zu werden. Wambacher hatte dasselbe Mädchengymnasium in Wien besucht wie Blau und das mag dazu beigetragen haben, dass die beiden Wissenschaftlerinnen auch nach Abschluss der Dissertation Wambachers über viele Jahre zusammenarbeiteten. Obwohl Wambacher seit 1924 unterstützendes Mitglied der österreichischen Heimwehren war und bereits 1934 der NSDAP beitrat, scheint sich ihre politische Gesinnung lange Zeit nur geringfügig auf die Zusammenarbeit mit Blau ausgewirkt haben. Zwischen 1932 und 1938 veröffentlichten Blau und Wambacher gemeinsam zwanzig Arbeiten. In dieser Zeit gab es keine einzige Veröffentlichung Blaus mit einem anderen Mitarbeiter, und auch Wambacher schrieb nur einen einzigen Aufsatz zusammen mit Gerhard Kirsch , einem ihr politisch nahestehenden Physiker. Gegen Ende der Zusammenarbeit, noch vor dem "Anschluss", scheint es zu schweren Spannungen gekommen zu sein.

Die photographische Methode

Marietta Blau hatte bereits seit 1924 systematisch an der Entwicklung einer photographischen Methode zur Erfassung von energiereichen Teilchen, die bei Kernreaktionen emittiert werden, gearbeitet. Vorher war zum Nachweis derartiger Teilchen hauptsächlich die Szintillationsmethode eingesetzt worden, bei der man die schwachen Lichtblitze beobachtete, die beim Aufprall der Teilchen auf einem Zinksulfidschirm entstehen. Diese sehr fehleranfällige Methode musste in völlig verdunkelten Räumen durchgeführt werden.

Die ersten Untersuchungen Blaus hatten den Zweck schnelle Protonen photographisch zu erfassen, welche beim Aufprall von α-Strahlen auf Wasserstoff (H)-enthaltende Substanzen durch Kernstöße herausgeschleudert werden. Da nicht nur Protonenstrahlen, sondern auch andere energiereiche Strahlen (α-, β-, γ-Strahlen) eine photographische Schicht schwärzen, musste Blau geeignete Methoden entwickeln, um sicher zu stellen, dass die Schwärzung der Emulsion ausschließlich auf die Protonenstrahlen zurückzuführen war. Durch Einbringung von Materialien zur Absorption der α-Strahlen und Verwendung entsprechender Emulsionen gelang es Blau, Fotoplatten herzustellen, bei denen die darauf sichtbaren Bahnen ausschließlich von Protonen stammten. Diese Bahnen bestanden aus einer Reihe von Punkten: die Protonen hatten stellenweise Silberbromidkriställchen zu elementarem Silber reduziert. Abbildung 1. Marietta Blau (links; um 1927) und Hertha Wambacher (rechts, nach 1928) im Labor am Wiener Radiuminstitut (Bilder: Privatbesitz Agnes Rodhe und Archiv Roman und Lore Sexl)

In den folgenden Jahren verfeinerte Blau die photographische Methode. Sie konnte zeigen, wie sich auf der Fotoplatte Bahnen von α-Strahlen von Bahnen von Protonenstrahlen unterscheiden. Aus der Länge der Bahnen konnte sie deren Energie ermitteln. Dank der Mitarbeit von Hertha Wambacher gelang es ihr die Empfindlichkeit der Emulsion durch geeignete Zusätzen zu reduzieren, sodass durch weniger energiereiche Strahlung (wie durch β- und γ- Strahlen) überhaupt keine störende Schwärzung auf der Platte auftrat. Nach der Entdeckung des Neutrons durch Chadwick untersuchten Blau und Wambacher 1932 Protonen, die bei Kernprozessen durch Einwirkung von Neutronen entstanden. Es gelang ihnen Rückschlüsse auf die Energie der im Spiel gewesenen Neutronen zu ziehen. Für ihre Untersuchungen "der photographischen Wirkungen der Alphastahlen, der Protonen und Neutronen" wurden Blau und Wambacher 1937 mit dem Lieben Preis der Österreichischen Akademie der Wissenschaften ausgezeichnet.

Zertrümmerungssterne

Danach untersuchten Blau und Wambacher die Anwendbarkeit ihrer Methode in Hinblick auf die 1912 von Victor Hess entdeckte kosmische Strahlung. In der von Hess eingerichteten Versuchsstation auf dem Hafelekar in 2300 m Höhe wurden Fotoplatten der aus dem Weltraum kommenden Strahlung ausgesetzt. Nach ersten wenig erfolgreichen Versuchen gelang es im Sommer 1937 mit speziellen Fotoemulsionen der englischen Firma Ilford auf Platten, die fünf Monate lang den kosmischen Strahlen exponiert waren, lange Bahnspuren zu erkennen. Diese gingen strahlenförmig von einem zentralen Punkt aus und wiesen auf eine hohe Energie der primären Strahlung hin. Blau und Wambacher nahmen an, dass diese Sterne durch die von der kosmischen Strahlung ausgelösten Zertrümmerung von Brom- und Silberatomen entstanden waren. (Abbildung 2)

Abbildung 2. Zertrümmerungssterne mit von einem zentralen Punkt ausgehenden Spuren auf einer Fotoplatte, die 5 Monate auf 2300 m Höhe der kosmischen Strahlung ausgesetzt war. (Quelle: M. Blau & H. Wambacher. Linkes Photo: Mitteilungen des Instituts für Radiumforschung, Dezember 1937. Rechtes Bild und Text: Disintegration processes by cosmic rays with the simultaneous emission of several heavy particles, Nature (London) 140, (1937), 585)

Die Veröffentlichungen über die Zertrümmerungssterne fanden großes Interesse: sie bestätigten theoretische Annahmen über die Energie der kosmischen Strahlen und zeigten, welche Möglichkeit die photographische Methode für die Kernforschung bot. Cecil Powell, der 1950 den Nobelpreis für die Entdeckung des Pions (π-Meson) erhielt, war von den Möglichkeiten dieser Methode so beeindruckt, dass er ihre Weiterentwicklung zu einem zentralen Punkt seiner Forschungen machte.

Zu Beginn des Jahres 1938 wollte Marietta Blau die Versuche mit kosmischen Strahlen in weit größerer Höhe fortsetzen. Sie bat den renommierten Radiochemiker Fritz Paneth, der bereits 1933 nach England emigriert war und im Zuge seiner wissenschaftlichen Arbeiten Forschungsballone in die Stratosphäre aufsteigen ließ, bei Ballonaufstiegen Fotoplatten mitzunehmen. Da der Ballonaufstieg erst nach dem Einmarsch deutscher Truppen in Österreich erfolgte, schickte Paneth die exponierten Platten nicht nach Wien. Er hoffte, Marietta Blau würde Gelegenheit finden, die Platten auszuwerten - er irrte.

Marietta Blau im Exil

Am Tag des Einmarsches der deutschen Armee (12. März 1938) befand sich Marietta Blau auf dem Weg nach Oslo, wohin sie die norwegische Chemikerin Ellen Gleditsch auf ein Forschungssemester eingeladen hatte. An eine Rückkehr nach Wien war nicht zu denken. Hertha Wambacher, die ja NSDAP-Mitglied war, wurde kurz nach dem Anschluss als Assistentin angestellt, nachdem durch die Entfernung eines jüdischen Assistenten ein Stelle frei wurde.

Glücklicherweise hatte Albert Einstein, der die mangelnden Aufstiegsmöglichkeiten für Jüdinnen in Österreich kannte, noch vor dem 12. März empfohlen, Blau nach Mexiko einzuladen. In seinem Empfehlungschreiben an einen Mitarbeiter des Polytechnischen Instituts in Mexiko wies er auf Blaus Methode zur Erforschung der kosmischen Strahlen hin und bezeichnet sie als Physikerin von hervorragender Begabung. Blau erhielt im Juni 1938 eine Einladung am Technischen Institut in Mexiko zu arbeiten und trat mit 1. Januar 1939 ihre Professur in Mexiko-Stadt an . Leider war der wissenschaftliche Standard am Institut auf einem relativ niedrigen Niveau und Möglichkeiten für Forschungsarbeiten so gut wie nicht vorhanden. Allerdings bedeutete das mexikanische Exil für Marietta Blau und die von ihr mitgenommene Mutter die Rettung vor dem Holokaust.

Die physikalischen Institute nach dem "Anschluss"

In Wien waren bereits kurz nach dem" Anschluss" an den physikalischen Instituten und am Radiuminstitut alle jüdischen und als Antifaschisten bekannten Lehrkräfte entfernt worden. Die Leitung des Instituts wurde von Georg Stetter übernommen, der Mitglied des NS-Lehrerbundes, einer Teilorganisation der NSDAP, war. Hertha Wambacher schloss sich eng an Stetter an.

In den Veröffentlichungen, die nun aus dem Institut kamen, konnte die Pionierleistung Blaus bezüglich der photographischen Methode nicht verschwiegen werden, die Entdeckung der Zertrümmerungssterne wurde aber einzig und allein Wambacher zugeschrieben. Im September 1938 berichtete Wambacher bei einer Physiker-und Mathematikertagung in Baden-Baden über die Mehrfachzertrümmerung von Atomkernen durch kosmische Strahlen. Bei der Erörterung der photographischen Methode erwähnte sie zwar, dass "die diesbezüglichen Arbeiten, auf die hier nicht näher eingegangen werden soll, von Blau in Wien gemacht wurden", bei den Untersuchungen über die Zertrümmerungssterne wurde Blau nicht mehr erwähnt.

Mit diesen Arbeiten suchte Hertha Wambacher im Studienjahr 1939/40 um Habilitation an und es wurde ihr die Lehrbefugnis für Physik erteilt. In den folgenden Jahren erschienen von ihr weitere Arbeiten zu dem Thema, zum Teil in Zusammenarbeit mit Georg Stetter. In dem 1940 erschienenen, sehr ausführlichen Artikel "Höhenstrahlung und Atombau" werden neben den Grundlagen auch verschiedene Methoden zur Messung behandelt. Bei den Abbildungen der Messungen in der Nebelkammer werden stets die Autoren des Experiments angegeben. Bei der Abbildung der Zertrümmerungssterne jedoch scheint der Name Blau nicht auf.

Nach der Befreiung Österreichs

wurden alle Hochschullehrer, die der NSDAP angehört hatten, entlassen, darunter auch Wambacher. Für Wambacher bedeutete dies den endgültigen Abschied von der akademischen Laufbahn, während es anderen (z.B. Georg Stetter und Gustav Ortner) gelang, nach einigen Jahren wieder eine akademische Stellung zu erhalten, oft mit Hilfe von Kollegen, denen sie in der NS-Zeit in der einen oder anderen Weise behilflich waren. 1946 wurde Hertha Wambacher die Diagnose Krebs gestellt. Etliche Mitarbeiter am Radiuminstitut - auch Marietta Blau - erkrankten an Krebs. Dies ist wohl darauf zurückzuführen, dass lange Zeit hindurch praktisch ohne Schutzmaßnahmen mit hoch radioaktiven Präparaten hantiert wurde. Wambacher arbeitete noch einige Jahre an einem Forschungslabor in Wien und starb 1950. Nach ihrem Tod erschienen von Stetter verfasste oder inspirierte Nachrufe, in denen Wambacher als die Entdeckerin der Zertrümmerungssterne dargestellt und Blau kaum erwähnt wurde.

Marietta Blau in den USA

Nach dem Tod der Mutter übersiedelte Blau von Mexiko nach New York. Sie erhielt 1944 eine Anstellung an der "Canadian Radium and Uranium Corporation" und wechselte Anfang 1948 an die Columbia University (N.Y.). Ihre Forschungen - Kernspurplatten für Teilchenbeschleuniger zu adaptieren - führte sie am Brookhaven National Laboratory aus, an dem sie ab 1950 beschäftigt war. Dank ihrer großen Fachkenntnisse konnte Blau bald die Mitarbeiter in die Verwendung der photographischen Methode einschulen und semiautomatische Verfahren entwickeln, um die großen Datenmengen, die in Zyklotronen anfielen, zu erfassen. Die photographische Methode erwies sich auf dem Gebiet der Teilchenphysik als sehr leistungsfähig. Gemeinsam mit ihren Mitarbeitern veröffentlichte Marietta Blau in dieser Zeit sechzehn Arbeiten.

Im Jahr 1956 übersiedelte Marietta Blau - inzwischen 62 Jahre alt - nach Miami, wo sie unterrichtete und mit einer Gruppe junger Physiker ein Labor einrichtete, um wieder an Themen der Teilchenphysik (Antiprotonen, π-Mesonen und K-Mesonen) zu arbeiten.

Rückkehr nach Wien

Marietta Blau hatte sich bald nach Kriegsende bemüht mit ihren ehemaligen Kollegen aus dem Radiuminstitut und den physikalischen Instituten in Wien - Berta Karlik, Stefan Meyer, Hans Przibram, Hans Thirring, nicht aber mit Hertha Wambacher - wieder in Kontakt zu treten.

1960 kehrte sie schließlich nach Wien zurück. Sie betreute noch einige Dissertantinnen im Radiuminstitut und hielt Vorträge bei Seminaren, nahm aber nur in beschränktem Maß am Wissenschaftsleben teil. Schuld daran waren nicht nur gesundheitliche Gründe. Sie war enttäuscht, dass Personen wie der frühere Nationalsozialist Georg Stetter wieder als Professoren am Physikalischen Institut tätig waren.

Mehrmals - von Thirring und Schrödinger - für den Nobelpreis vorgeschlagen, erhielt sie diese höchste Auszeichnung nicht. Sie bekam allerdings den Schrödingerpreis (1962), den Preis für Naturwissenschaften der Stadt Wien (1967) und das Goldene Doktordiplom (1969). Eine Aufnahme als Mitglied der Akademie der Wissenschaften fand nicht die erforderliche Mehrheit.

Wie viele andere Wissenschaftler, die in der Frühzeit der Forschung auf dem Gebiet der Kernphysik die notwendigen Schutzmaßnahmen nicht getroffen hatten, erkrankte Marietta Blau 1969 an Krebs und starb 1970 nach vier Monaten Krankenhausaufenthalt. Ein Nachruf in einer wissenschaftlichen Zeitschrift blieb aus.


Weiterführende Links

R. Rosner , B.Strohmaier (Hrsg.) Marietta Blau - Sterne der Zertrümmerung. Biographie einer Wegbereiterin der modernen Teilchenphysik, Böhlau Verl., Wien 2003

Universität Wien (2003): Gedenkveranstaltung Marietta Blau http://www.zbp.univie.ac.at/webausstellung/blau/rueckblick_blau1.pdf 

Ruth Lewin Sime, Marietta Blau: Pioneer of Photographic Nuclear Emulsions and Particle Physics. Phys. Perspect. 15 (2013) 3–32 (open access)

P. Galison Marietta Blau: Between Nazis and Nuclei Physics Today 50, Nov. 1997 pp 42-48 (Text kann auf Wunsch zugesandt werden)

Artikel zu verwandten Themen in ScienceBlog.at:

R. Rosner (1.6.2017): Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919). http://scienceblog.at/frauen-den-naturwissenschaften-die-ersten-absolven....

R. Rosner 27.04.2017: Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium http://scienceblog.at/frauen-den-naturwissenschaften-erst-um-1900-entsta....

Lore Sexl 20.09.2012: Lise Meitner – Weltberühmte Kernphysikerin aus Wien

Siegfried J. Bauer 28.06.2012: Entdeckungen vor 100 Jahren: Kosmische Strahlung durch Viktor Franz Hess, Kontinentalverschiebung durch Alfred Wegener http://scienceblog.at/entdeckungen-vor-100-jahren-kosmische-strahlung-du....


 

inge Thu, 13.07.2017 - 11:17

Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Grenzenlos scharf — Lichtmikroskopie im 21. Jahrhundert

Do, 07.07.2017 - 10:23 — Stefan W. Hell

Stefan W. HellIcon PhysikFeinere Details als die halbe Lichtwellenlänge, so war eigentlich seit dem 19. Jahrhundert bekannt, lassen sich im Mikroskop wegen der Lichtbeugung nicht auflösen. Heute steht jedoch fest, dass man mit herkömmlicher Optik fluoreszierende Proben mit einer Detailschärfe weit unterhalb dieser sogenannten Beugungsgrenze abbilden kann. Die Stimulated Emission Depletion-Mikroskopie (STED) und weitere, jüngere fernfeldoptische Verfahren können Auflösungen von besser als 20 Nanometern erreichen und sind prinzipiell sogar in der Lage, molekular auflösen. Der Physiker Stefan Hell (Direktor am Max-Planck-Institut für biophysikalische Chemie/ Göttingen) hat mit der von ihm entwickelten STED-Mikroskopie den minimal-invasiven Zugang zur Nanoskala der Zelle eröffnet. Für die Entwicklung der Fluoreszenz-Nanoskopie wurde 2014 der Nobelpreis für Chemie an Stefan Hell Eric Betzig und William Moerner verliehen.*

Sehen ist die für uns wahrscheinlich wichtigste Sinneswahrnehmung. Nicht nur im täglichen Leben "glaubt man nur dem, was man sieht" und "weiß, dass Bilder mehr sagen als 1000 Worte", dies trifft auch auf die modernen Naturwissenschaften zu. Es ist sicherlich kein Zufall, dass deren Beginn mit der Erfindung der Lichtmikroskopie einhergeht. Damit war der Mensch erstmals in der Lage zu sehen, dass jedes lebende System aus Zellen, den Grundeinheiten von Struktur und Funktion, besteht. Jeder von uns hat in der Schule auch sicherlich gelernt, dass die Auflösung des Lichtmikroskops grundsätzlich durch die Wellenlänge des verwendeten Lichts begrenzt ist und bei rund 200 – 350 Nanometern liegt. Will man kleinere Strukturen sehen - beispielsweise Viren -, so benötigt man dazu das Elektronenmikroskop (Abbildung 1).

Abbildung 1. Größenskalen und Auflösungsgrenzen für das menschliche Auge, das Lichtmikroskop und das Elektronenmikroskop. Die Auflösungsgrenze des Lichtmikroskops liegt bei rund 200 nm, der halben Wellenlänge des eingestrahlten Lichts (nm: Nanometer = Millionstel Millimeter, µm: Mikrometer = Tausendstel mm).

Das Elektronenmikroskop wurde in der Mitte des 20. Jahrhunderts erfunden. Es ermöglicht eine um Größenordnungen höhere räumliche Auflösung - in manchen Fällen bis hinab zur Größe eines Atoms - und hat zu zahllosen grundlegenden Entdeckungen geführt.

Wenn wir also mit dem Elektronenmikroskop eine derart hohe Auflösung erzielen…

…warum ist dann die Lichtmikroskopie so wichtig?

Nimmt man erfolgreiche Top-Journale in den Lebenswissenschaften zur Hand und zählt die Untersuchungen, in welchen Mikroskopie angewandt wurde, so findet man, dass im überwiegenden Teil der Fälle die Lichtmikroskopie genutzt wurde, da diese die bei weitem populärste Methode ist. Dafür gibt es zwei wesentliche Gründe:

  • Lichtmikroskopie ist die einzige Form der Mikroskopie, mit der man lebende Zellen in allen Raumrichtungen beobachten kann, und sie ist minimal invasiv. Beispielsweise kann man verfolgen, wie Biomoleküle in den Zellen interagieren oder ihre Position verändern - dies ist mit Elektronenmikroskopie nicht möglich.
  • Üblicherweise wollen wir wissen, wo sich ein bestimmtes Biomolekül, ein Protein, zu einem bestimmten Zeitpunkt aufhält und ob es mit irgendetwas Anderem interagiert. Weil die vielen Tausende Proteine einer Zelle unter Lichteinfall alle gleich aussehen, muss man das zu untersuchende Protein spezifisch markieren. Dies funktioniert in der Lichtmikroskopie viel einfacher als in der Elektronenmikroskopie: man hängt ein fluoreszierendes Molekül an das Protein und - bei Bestrahlung mit Licht passender Wellenlänge - kann man das Protein anhand seiner Fluoreszenz verfolgen.

Fluoreszierende Moleküle als Marker

existieren u.a. in zwei Zuständen: einem Grundzustand (So) und einem angeregten Zustand (S1) mit höherer Energie. Bei Bestrahlung mit Licht passender Wellenlänge (hier: grünes Licht), nimmt das Molekül ein (grünes) Photon auf und geht vom Grundzustand in den angeregten Zustand S1 über. Etwas von dieser Energie geht durch Schwingungen der Atome verloren - das Molekül fällt auf ein tieferes S1-Niveau und kehrt von dort unter Aussenden eines Photons innerhalb von Nanosekunden in seinen Grundzustand So zurück. Infolge des Energieverlusts ist die Wellenlänge des emittierten Photons in den längerwelligen Bereich verschoben (Abbildung 2).

Abbildung 2. Energieschema eines Fluoreszenzmarkers (hier ein Cumarinfarbstoff). Der Marker wird durch Licht (grün) in einen Zustand S1 angeregt, verliert etwas an Energie und relaxiert (geht über) von einem niedrigeren S1-Niveau unter Emission von längerwelligem Fluoreszenzlicht (orange) in den Grundzustand. Aufgrund der unterschiedlichen Wellenlängen kann das Fluoreszenzlicht separiert vom Anregungslicht betrachtet werden. Dies macht Fluoreszenzmessungen enorm sensitiv, man kann auch noch ein einzelnes, mit einem Fluoreszenzmarker versehenes Biomolekül in der Zelle detektieren.

Sensitivität darf aber nicht mit Auflösung verwechselt werden!

Auflösung ist etwas Anderes, es bedeutet, dass man individuelle Strukturen voneinander getrennt wahrnimmt. Dies ist in der Lichtmikroskopie nicht mehr der Fall, wenn der Abstand der einzelnen Strukturen/Moleküle weniger als 200 nm beträgt. Dann erscheinen diese als ein einziger verschwimmender Lichtfleck.

Ein Fluoreszenzmikroskop mit einer wesentlich höheren räumlichen Auflösung, die bis in den Bereich der Biomoleküle reicht, sollte daher einen ungeheuren Einfluss auf die Naturwissenschaften und darüber hinaus haben.

Wodurch wird die Auflösung in der Lichtmikroskopie begrenzt?

Das wichtigste Element in der Lichtmikroskopie ist die Linse des Objektivs. Diese hat die Aufgabe, das Licht in einem Punkt zu bündeln. Da Licht sich aber in Form einer Welle fortpflanzt, kann die Linse dieses nicht an einem einzelnen geometrischen Punkt scharf bündeln - das Licht wird gebeugt und es entsteht ein Lichtfleck, der mindestens 200 nm breit und (entlang der optischen Achse) 500 nm lang ist. Dies hat zur Folge, dass alle Strukturen, die sich innerhalb dieses Flecks befinden, gleichzeitig bestrahlt werden und gleichzeitig Fluoreszenzlicht emittieren. Kein wie auch immer gearteter Detektor kann aufgrund der Beugungsgrenze diese überlappenden Signale voneinander trennen (Abbildung 3).

Dass Lichtbeugung eine fundamentale Grenze für die optische Auflösung setzt, wurde von Ernst Abbe (1840 -1905) erkannt. Abbe hat die nach ihm benannte Formel aufgestellt, die in allen Lehrbüchern der Physik, Optik und Lebenswissenschaften zu finden ist. Diese besagt: um zwei ähnliche Strukturen getrennt beobachten zu können, müssen diese voneinander weiter getrennt liegen als die Wellenlänge des Lichts λ geteilt durch die zweifache numerische Apertur (diese beinhaltet den halben Öffnungswinkel λ und den Brechungsindex n) des Objektivs (Abbildung 3).

Abbildung 3. Zur Beugungsgrenze: Die Linse eines Objektivs kann Licht nicht in einem Punkt fokussieren. Um zwei ähnliche Strukturen getrennt wahrnehmen zu können, müssen diese mindestens um die Hälfte der eingestrahlten Wellenlänge λ voneinander entfernt sein. Ernst Abbe (links oben) hat dies in der nach ihm benannten Formel für die Beugungsgrenze (d, rechts oben) festgelegt. (n: Brechungsindex).

An die Gültigkeit dieser Formel haben auch alle Physiker und Lebenswissenschafter des 20. Jahrhunderts geglaubt. Vielleicht, so dachte man, ließe sich diese Auflösung noch um einen Faktor 2 verbessern, damit wäre dann aber Schluss.

Als Student in Heidelberg war für Stefan Hell in den späten 1980er Jahren die Grenze der optischen Auflösung noch ein Faktum.

Kann die Beugungsgrenze durchbrochen werden?

Viele, wenn nicht die meisten Entdeckungen sind mit den Lebensumständen ihrer Entdecker verknüpft. Hell war mit seinen Eltern von Osteuropa - dem Banat in Rumänien - nach Westeuropa - Ludwigshafen - gezogen und hatte in Heidelberg Physik studiert. Seine Doktorarbeit hatte er bei einem Physiker begonnen, der zusammen mit einem Kollegen am Institut eine Start-up Firma gründete, welche Beziehungen zu IBM und Siemens hatte. Ziel war die Entwicklung von lichtmikroskopischen Methoden - genauer gesagt von konfokaler Mikroskopie - zur Prüfung von Computer-Chips.

Nach einem Jahr Arbeit an dem Thema wuchs Hells Frustration. Für jemanden, der an Grundlagenforschung interessiert war, gab es in der Lichtmikroskopie nichts Neues mehr, nur Linsen und Fokussieren von Licht - es war die Physik des 19. Jahrhunderts. Das einzig Interessante und Wichtige – so dachte er – würde wohl sein, die Beugungsgrenze zu durchbrechen. Er war überzeugt, dass es dafür einen Weg geben müsse. Die Beugungsgrenze war 1873 definiert worden, seitdem war in mehr als 100 Jahren so viel Neues in der Physik dazu gekommen - Quantenmechanik, Quantenoptik, Moleküle und ihre Zustände - es musste zumindest ein physikalisches Phänomen existieren, mit dem sich die Beugungsgrenze austricksen ließe.

In der Hoffnung derartige Phänomene zu entdecken, wälzte Hell Lehrbücher und versuchte Kollegen zu überzeugen, dass es wert wäre dieses Problem anzugehen, möglicherweise von den Eigenschaften der Fluorophore aus. Es bestand in Heidelberg aber kein Interesse, und für Hell bestand die Aussicht ohne Job da zu stehen.

Ein finnischer Kollege schlug ihm schließlich vor zu einem ihm bekannten Professor nach Finnland zu gehen. Dieser würde ihm den Freiraum bieten an seinen Ideen zur Auflösungsgrenze zu arbeiten; falls dies glücken sollte, würden ihn die Deutschen schon bitten zurückzukommen. Hell landete dann mit einem Stipendium der Finnischen Akademie in Turku als ein unabhängiger Postdoc. Als er eines Morgens im Jahr 1993 über Quantenphänomene des Lichts las, blieb er an einer Seite hängen, die von stimulierter Emission handelte. Mit diesem Phänomen, das jeder Physiker in seinem ersten Studienjahr kennenlernt, sollte es möglich sein die Auflösungsgrenze zu umgehen - zumindest was Fluoreszenzmessungen betrifft.

Das Problem der optischen Auflösung war ja, dass eine Linse keinen Lichtfleck produzieren kann, der schärfer als 200 nm ist und alle Moleküle, die in diesem Fleck durch Licht angeregt werden, dann zusammen Fluoreszenzlicht emittieren. Sollte es allerdings gelingen einen Teil der Moleküle in einen Zustand zu bringen, in dem sie kein Licht emittieren können, dann würde die Fluoreszenz von einem engeren räumlichen Bereich als dem Anregungsspot kommen und damit eine höhere Auflösung erbringen.

Die Schlüsselidee war also nicht an der Linse herum zu probieren, sondern mit dem Energiezustand der Moleküle zu spielen.

Das Konzept: ein physikalischer Trick mittels "Stimulierter Emissionsauslöschung (STED)"

In einem Fluorophor gibt es einen Grundzustand und einen angeregten Zustand (s. Abbildung 2). Der letztere ist ein heller Zustand, das Molekül emittiert ein Photon. Im Grundzustand kann das Molekül kein Photon erzeugen, es ist ein dunkler Zustand. Licht kann nun nicht nur ein Molekül anregen, sondern auch ein angeregtes Molekül schlagartig abregen und zwar durch 'stimulierte Emission', einen Prozess, der bereits von Einstein vorhergesagt worden war (Abbildung 4a).

Werden (mit z.B grünem Licht) die Fluorophore angeregt, so emittieren diese normalerweise längerwelliges – hier orange dargestelltes – Fluoreszenzlicht, aus dem grünen Lichtfleck, dessen Auflösung durch die Lichtbeugung limitiert ist. Wird nun aber gleichzeitig längerwelliges (rot dargestelltes) Licht eingestrahlt, so werden die Moleküle in den dunklen Zustand überführt. Ab einem Schwellwert der Intensität (Is) des stimulierenden roten Lichtes wird die Fluoreszenz praktisch vollkommen abgeschaltet.

Abbildung 4. Prinzip des STED-Mikroskops (STimulated Emission Depletion - Stimulierte Emissionsauslöschung). a) Anregung der Fluoreszenzemission durch einen grünen Lichtpuls, und Abregung durch einen roten Lichtpuls. (Die Fluoreszenzemission erfolgt im Bereich von Nanosekunden, die Molekülschwingungen in Pikosekunden) b) Schema des STED-Mikroskops: in der Brennebene des Objektivs überlappen synchron Anregungslichtpuls und doughnut-förmiger Abregungslichtpuls. c) Die Wahrscheinlichkeit für ein Molekül, sich im angeregten hellen Zustand (S1) zu befinden. Oberhalb eines Schwellwertes seiner Intensität Is schaltet der doughnut-förmige Abregungslichtpuls die Fluoreszenzemission de facto ab - nur in seinem Zentrum bleibt der S1-Zustand erlaubt, Moleküle können dort fluoreszieren, und dies führt damit zu Bildern weit unterhalb der Beugungsgrenze. (Hell & Wichmann, 1994 Opt. Letters)

Nun kann man sich bereits vorstellen, wie ein mit stimulierter Emissionsauslöschung arbeitendes Mikroskop funktioniert: Es wird nur ein Teil der Fluoreszenzemission abgeschaltet. Am besten gelingt dies, wenn der rote Lichtstrahl einen doughnut-förmigen Ring im Außenbereich des grünen Anregungsspots bildet - die Emissions-Signale kommen dann nur mehr von den Molekülen im Zentrum. Mit diesem verkleinerten Bereich, für den Moleküle fluoreszieren können, kann man nun über das Probenfeld rastern lassen und das Fluoreszenzlicht mit einer wesentlich höheren Auflösung registrieren als ein normales durch die Lichtbeugung limitiertes Mikroskop (Abbildung 4b, c).

Dieses Konzept hatte Stefan Hell bereits 1994 veröffentlicht - nicht gerade in einem Journal, wie man es von der großen Bedeutung dieser Idee in der Folge erwarten würde - und dann in den USA und in Europa publik zu machen versucht. Er hoffte einen Job, ein Labor angeboten zu bekommen. Man hielt aber die Auflösung im Nanoskalenbereich nicht für möglich. Erst 1997 boten ihm die damaligen Direktoren am Max-Planck-Institut für biophysikalische Chemie in Göttingen (insbesondere auch Tom Jovin, Anm. Red.) die Möglichkeit, als Leiter einer selbstständigen Nachwuchsgruppe dieses Konzept weiter zu erkunden, seine Richtigkeit zu bestätigen.

Die STED-Mikroskopie funktioniert

Es stellte sich heraus, dass das Konzept hervorragend funktionierte. In der Folge erzielten Hell und seine Kollegen Aufnahmen, deren Auflösung weit jenseits der Beugungsgrenze lag. Dies sollen einige Beispiele in Abbildung 5 verdeutlichen.

Abbildung 5. Beispiele für die mit dem STED-Mikroskop erhaltene Auflösung. Oben: Architektur der Kernporen in der Membran eines intakten Zellkerns im Vergleich mit konventioneller konfokaler Mikroskopie. Insert: der Ring mit achtfach-symmetrischer Anordnung eines Proteins hat einen Durchmesser von rund 160 nm, ca. 20 nm Auflösung ermöglichen die getrennte Darstellung der Untereinheiten mit STED-Nanoskopie. Mitte: Das Hüllprotein Env (rot) sammelt sich mit zunehmender Reifung des HIV-Virus (grün) auf dessen Oberfläche an einer Stelle. (Reifes Partikel: oben). Unten: Dendriten in der visuellen Hirnrinde einer lebenden Maus mit den synaptischen Enden. Mittels Zeitrafferaufnahmen wurde deren Plastizität gezeigt.

Beispiel aus der Zellbiologie:

Das STED-Bild des Kernporenkomplexes in der Membran des Zellkerns zeigt eine rund zehnmal höhere Auflösung als es mit konventioneller Mikroskopie (links) möglich ist. Die Architektur der Pore mit einer achtfachen Symmetrie der Protein-Untereinheiten (jeweils Durchmesser 20 - 40 nm) wird deutlich.

Beispiel aus der Virologie:

Viren sind für die konventionelle Lichtmikroskopie zu klein (Durchmesser 30 -150 nm). Will man dann noch die Proteine auf der Virushülle sehen, so ist das auch mit der Elektronenmikroskopie sehr schwierig. Beispielsweise sitzen 15 - 40 Kopien des Env(elope) Proteins auf der Oberfläche eines HIV-Virus. Mit Hilfe der STED-Mikroskopie konnten die Forscher zeigen, dass diese Proteine bei Reifung des Virus sich zu einem einzigen Env-Cluster zusammenfinden - offensichtlich eine Voraussetzung für die Infektiösität.

Beispiel aus der Neurophysiologie:

Ein Blick in das Hirngewebe einer lebenden, Gen-manipulierten Maus, deren Neuronen das fluoreszierendes Protein YFP ("yellow fluorescent protein") exprimieren. In 20 µm Tiefe, in der oberen Schichte der visuellen Hirnrinde sieht man einen Teil eines Dendriten mit den sogenannten" Dornenfortsätzen" - den becherförmigen signal-empfangenden Teilen der Synapsen. Zeitrafferaufnahmen in 5-Minuten-Intervallen zeigen, dass sich diese Dornfortsätze offensichtlich verändern, leicht bewegen, dass eine gewisse Plastizität im Gehirn besteht. Diese Ergebnisse geben zum Optimismus Anlass, dass man mittels STED auch die Vorgänge der Signalübertragung direkt an den Synapsen verfolgen wird können.

Das STED-Mikroskop

Nach anfänglichem Herumprobieren und Optimieren der Parameter, mit denen die Beugungsgrenze umgangen wird, ist das STED-Mikroskop nun am Markt erhältlich und wird von drei Firmen angeboten (Abbildung 6). Die Intensität des STED-Strahls kann so eingestellt werden, dass die Ausdehnung des Bereichs, in dem die Moleküle fluoreszieren können, beliebig verringert werden kann. Mit Lichtstrahlen für einen so verengten fluoreszenzfähigen Bereich wird die Probe abgerastert und somit ein Bild erstellt.

Abbildung 6. Das STED-Mikroskop im Laboraufbau und kommerziell angeboten (u.a. von Abberior Instruments, einer Firma, die Postdocs aus Hells Gruppe in Göttingen gegründet haben).

Die STED-Mikroskopie lässt sich mit dynamischen Methoden wie der Fluoreszenz-Korrelations-Spektroskopie und Techniken der schnellen Lichtstrahl-Rasterung kombinieren. Auch die Einzelmolekül-Methoden PALM/STORM basieren (wie das STED-Mikroskop) auf dem An- und Ausschalten der Fluoreszenzfähigkeit von Molekülen. Der wesentliche Unterschied in diesem Konzept besteht darin, dass dort nur wenige Moleküle angeregt werden, die jeweils weiter entfernt sind als die Beugungsgrenze von 200 nm und daher getrennt wahrgenommen werden können.

Für die Entwicklung der ultra-hochauflösenden Fluoreszenz-Mikroskopie wurde 2014 der Nobelpreis für Chemie verliehen. Gemeinsam mit Stefan Hell erhielten ihn Eric Betzig und William Moerner.

Wo liegt nun die Grenze der Auflösung?

Um Strukturen voneinander getrennt wahrnehmen zu können, hat man im 20. Jahrhundert versucht Licht so scharf wie möglich zu fokussieren. Auch die besten Linsen waren natürlich durch die Lichtbeugung begrenzt.

Heute wird die erzielte Auflösung durch das An- und Abschalten der fluoreszierenden Moleküle bestimmt, durch Schalten zwischen zwei Zuständen des Moleküls. Der Übergang zwischen zwei Zuständen gilt nicht unbedingt nur für fluoreszierende Moleküle. Es können beispielsweise auch Änderungen der Konformation (z.B. cis-trans-Übergänge, die dann auch fluoreszierend/dunkel sind), oder, denkbarerweise, der Absorption, der Streuung oder auch des Spinzustands als Zustandspaar herangezogen werden (Abbildung 7).

Abbildung 7. Ultra-Hochauflösung wird nicht mehr durch die Qualität der Linse sondern durch die Chemie des Moleküls bestimmt. Eine adaptierte Form von Abbes Formel zur Beugungsgrenze wurde aus dem STED-Konzept hergeleitet (I und Is: siehe Abbildung 4).

Heute hängt die Auflösung nicht mehr von der Qualität der Linse sondern von der Chemie des Moleküls ab. Dabei kann prinzipiell eine Auflösung bis in den Größenbereich des Moleküls selbst erzielt werden. Dies geht aus der adaptierten Abbe-Formel hervor, die aus STED-Studien hergeleitet wurde (Die Auflösung wird sehr hoch, wenn der Quotient aus Intensität des STED-Lichtstrahls und Schwellwert-Intensität sehr groß wird; Abbildung 7).

Der Weg zu Mikroskopen, die eine Auflösung bis hinab zur Molekülgröße - und damit ungeahnte Einblicke in die Mechanismen zellulärer Vorgänge - ermöglichen, ist klar. Es ist nur eine Frage der technischen Umsetzung.


*Der vorliegende Artikel ist eine verkürzte, deutsche Fassung des Vortrags "Unlimited sharp: light microscopy in the 21st century", den Stefan Hell am 9. November 2016 anlässlich der Verleihung des Wilhelm-Exner Preises in Wien gehalten hat. Video 45:50 min:  https://slideslive.com/38899163/unlimited-sharp-light-microscopy-in-the-...


Weiterführende Links

Artikel in ScienceBlog.at:

Redaktion 04.09.2015: Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

inge Fri, 07.07.2017 - 10:23

Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Mütterliches Verhalten: Oxytocin schaltet von Selbstverteidigung auf Schutz der Nachkommen

Do, 29.06.2017 - 09:36 — Redaktion

RedaktionIcon Gehirn

 

Werden Muttertiere zusammen mit ihren Jungen einer Bedrohung ausgesetzt, so unterdrücken die Mütter ihren Trieb zur Selbstverteidigung und schalten auf Schutz ihrer Nachkommen. Wie eine eben im Journal eLife erschienene Untersuchung an Ratten zeigt , fungiert das "Kuschelhormon" Oxytocin in diesem Prozess als Schalter [1, 2]. Auf einen bestimmten Geruch als Gefahr konditionierte Rattenmütter geben die Information über die vermeintliche Gefahr an die Jungen weiter. Wird das Hormon durch einen Antagonisten blockiert, so hören Rattenmütter auf ihre Jungen zu schützen und die Jungen lernen auch nicht den Geruch als Gefahr zu sehen. *

Wenn ein Tier einer Bedrohung ausgesetzt ist, so muss es zwei Probleme abklären: zuerst die Bedrohung selbst -Welche Art von Bedrohung ist es? Wie nahe ist sie? - aber ebenso auch das nähere Umfeld - Kann ich entkommen? Gibt es einen Platz, wo ich mich verstecken kann? Aus einer Reihe möglicher Reaktionen muss das Tier muss dann seine Auswahl treffen: beispielsweise kann es versuchen die Bedrohung abzuwehren oder die Flucht zu ergreifen. Wenn kein sicherer Fluchtweg existiert, besteht eine andere Möglichkeit darin in Starre zu verfallen und zu hoffen, vom Feind nicht bemerkt zu werden. Die Starre kann eine durchaus gangbare Möglichkeit für ein einzelnes, auf sich gestelltes Tier bedeuten, es ist aber keine Alternative für ein Muttertier, das seinen jungen Nachwuchs beschützt. Solange diese Tiere noch sehr jung sind und noch nicht laufen können, gibt es als einzige Möglichkeit sich der Bedrohung entgegen zu stellen. Ist die Nachkommenschaft bereits etwas älter, kann es möglich sein diese in Sicherheit zu bringen. Abbildung 1.

Abbildung 1. Wie eine Rattenmutter auf eine Bedrohung reagiert, hängt vom Alter ihrer Jungen ab. Illustration: Karolina Rokosz. (Quelle: KZ Meyza & E Knapska [1]; der Artikel steht unter einer cc-by Lizenz)

Die neuronalen Mechanismen, die zu verschiedenen defensiven Reaktionen führen sind ganz gut verstanden, der bei weitem überwiegende Teil der heute vorliegenden Studien stützt sich allerdings ausschließlich auf Untersuchungen an männlichen Tieren. Darüber hinaus blieb häufig auch der elterliche Status unberücksichtigt. Im allgemeinen werden weibliche Ratten als weniger territorial als männliche Ratten betrachtet. Das Verhalten ändert sich aber, sobald sie Muttertiere werden: sie können sich gegenüber möglicherweise gefährlichen Eindringlingen aggressiv verhalten , sogar, wenn sie dabei selbst in Gefahr geraten.

Wie schaltet das Hirn zwischen Selbstverteidigung und Verteidigung des Nachwuchses?

Und wird das Repertoire der Verteidigungsmaßnahmen durch das Alter der Jungen beeinflusst?

Im Journal eLife berichtet nun ein Forscherteam (E Rickenbacher, RE Perry, RM Sullivan, M Moita vom Champalimaud Neuroscience Programme in Portugal und der New York University School of Medicine), dass in Gegenwart der Jungtiere die Reaktionen der Selbstverteidigung durch ein Hormon - das sogenannte Oxytocin - in dem als zentrale Amygdala ("Mandelkern") bezeichneten Bereich des Gehirns unterdrückt werden [1,2].

Oxytocin, ein aus 9 Aminosäuren bestehendes zyklisches Peptid, ist ein gut erforschtes Hormon. Es fördert soziale Bindungen, verursacht Kontraktionen von Uterus und Cervix während des Geschlechtsverkehrs und beim Geburtsvorgang und ebenso das Einschießen der Milch beim Säugen. Neulich wurde nun entdeckt, dass Oxytocin auch den Vorgang des Erstarrens reguliert.

Im allgemeinen wird Oxytocin in die Blutbahn ausgeschüttet. Bei der Angstreaktion erfolgt die Sekretion von Oxytocin aber direkt in die zentrale Amygdala - eine der Strukturen des Gehirns, die das Starrwerden kontrolliert.

In einer Reihe eleganter Untersuchungen zeigt nun das Forscherteam, dass Muttertiere in Gegenwart ihrer Jungen nicht in Erstarrung verfallen, wenn sie mit einer Bedrohung konfrontiert werden (in diesem Fall ist es ein schädlicher, mit Geruch verbundener Reiz). Wie sie nun reagieren, hängt vom Alter der Jungen ab. Solange diese noch sehr klein sind - d.i. zwischen 4 und 6 Tage alt - stellen sich die Mütter der Bedrohung. Sind die Jungtiere aber bereits älter - zwischen 19 und 21 Tage alt - so wendet sich das Muttertier ihnen zu und drängt sich mit diesen zusammen - vielleicht, weil die älteren Jungtiere im Notfall bereits weglaufen können. Abbildung 2.

Abbildung 2. Design des Experiments: Rattenmütter wurden mit Pfefferminzgeruch und einem gleichzeitigen elektrischen Schock konditioniert den Geruch als Gefahr zu sehen (oben): Das Verhalten der Muttertiere während einer weiteren Exposition mit Pfefferminze wurde in Gegenwart (A) und Abwesenheit (B) ihrer Jungen getestet. Unten: in Abwesenheit ihrer Jungen verfallen Muttertiere in Starre (Immobilität). Wie sie sich in Anwesenheit ihrer Jungen verhalten, hängt von deren Alter ab. Sind diese noch sehr klein (4 - 6 Tage nach der Geburt), wendet sich die Mutter dem Feind zu (ganz unten), sind diese bereits älter (19 - 21 Tage alt), so wenden sich die Mütter den Jungen zu und drängen sich mit diesen zusammen (nicht gezeigt). (Bild adaptiert nach Figure 1 in [2]. Der Artikel steht unter einer cc-by Lizenz.)

Dieses Verhaltensmuster ändert sich aber dramatisch, wenn ein Antagonist des Oxytocin genau in den zentralen Kern der Amygdala injiziert wird. Wenn die Oxytocin Wirkung durch den Antagonisten blockiert wird, so beginnen die Muttertiere sich so zu verhalten als ob keine Jungen vorhanden wären und auf bedrohliche Situationen mit einem Starrwerden zu reagieren.

Lernen von der Mutter

Diese Veränderung im Verhalten der Mütter hat erhebliche Auswirkungen auf die Kleinen. Unter normalen Umständen wird eine Rattenmutter in Gegenwart ihrer Jungen nicht starr werden, sondern eine Reihe aktiver Abwehrmaßnahmen zeigen. Während dieses Vorgangs lernen die Jungen den schädlichen Stimulus und den Geruch - beides für die Mutter bestimmte Reize - mit etwas Unangenehmen zu verbinden. Wenn die Mutter dagegen erstarrt, wird diese emotionale Information nicht von der Mutter auf die Kinder übertragen. Abbildung 3.

Abbildung 3. Von der Mutter erlerntes Angstverhalten. Nach der Konditionierung der Muttertiere wurde diesen 24 h später ein Oxytocin Antagonist/eine Kontrolle in die Amygdala injiziert und das Verhalten der Tiere gegenüber Pfefferminzgeruch getestet (nicht gezeigt). 2 - 3d später wurden dann Jungratten im Alter von 19 - 21 d ohne Muttertier dem Geruch ausgesetzt.. Von den mit Oxytocin Antagonisten behandelten Müttern stammende Junge haben nicht gelernt auf die Gefahr zu reagieren. (Bild adaptiert nach Figure 5 in [2]. Der Artikel steht unter einer cc-by Lizenz.)

Die Arbeit des Forscherteams beantwortet einige wichtige Fragen an und wirft auch neue Fragen auf. Ist es nur das Oxytocin im zentralen Kern der Amygdala, welches das Erstarren der Muttertiere unterdrückt? Auf welche Wiese lernen Jungtiere über Gefahren?

Die Beantwortung dieser Fragen wird die Neurowissenschafter noch Jahre beschäftigen.


[1] KZ Meyza & E Knapska: Maternal Behavior: Why mother rats protect their children. Insight Jun 13, 2017. eLife 2017;6:e28514 doi: 10.7554/eLife.28514 [2] E Rickenbacher, RE Perry, RM Sullivan, M Moita, Freezing suppression by oxytocin in central amygdala allows alternate defensive behaviours and mother-pup interactions. eLife 2017;6:e24080. DOI: 10.7554/eLife.24080


*Der vorliegende Artikel basiert auf dem unter [1] zitierten Insight Bericht des eLife Journals vom 13.Juni 2017: Maternal Behavior: Why mother rats protect their children. Dieser Bericht wurde weitestgehend wörtlich übersetzt und durch adaptierte Abbildungen aus der zugrundeliegenden Publikation [2] ergänzt: Die Inhalte der eLife Website stehen unter einer cc-by 3.0 Lizenz.


Weiterführende Links

zu Oxytocin

Benjamin Clanner-Engelshofen (2017): Oxytocin. http://www.netdoktor.de/medikamente/oxytocin/

Sue Carter (2017): Oxytocin and the Biology of Love: Too Much of a Good Thing? Video 4:39 min. http://www.medscape.com/viewarticle/879325

Paul Zak: Das Moralmolekül. TEDGlobal 2011 Video 16:34 min. (deutsches Transkript) https://www.ted.com/talks/paul_zak_trust_morality_and_oxytocin/transcrip...

Oxytocin - Video Learning - WizScience.com (englisch, Transkript) 2:22 min. https://www.youtube.com/watch?v=htdRq7BoUPM

Tobias Deschner, 15.08.2014: Konkurrenz, Kooperation und Hormone bei Schimpansen und Bonobos, http://scienceblog.at/konkurrenz-kooperation-und-hormone-bei-schimpansen....

Zum Journal eLife:
Homepage eLife: https://elifesciences.org/

Publishing important work in the life sciences: Randy Schekman at TEDxBerkeley (2014). 10:10 min. https://www.youtube.com/watch?v=-N4Mb8tsyT8

Redaktion,20.04.2017: Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen. http://scienceblog.at/wissenschaftskommunikation-open-access-journal-elife


inge Thu, 29.06.2017 - 09:36

Der naturwissenschaftliche Unterricht an unseren Schulen

Der naturwissenschaftliche Unterricht an unseren Schulen

Do, 22.06.2017 - 07:52 — Inge Schuster

Inge SchusterIcon Politik & GesellschaftDie ungemein stürmische Entwicklung der Naturwissenschaften und ihrer Anwendungen im letzten Jahrhundert prägt unsere Lebenswelt, spiegelt sich aber nicht in den Lehrplänen unserer Schulen wider. Der Fächerkanon und was wann und in welchem Ausmaß unterrichtet wird, hat sich kaum verändert, Chemie, Physik und Biologie sind unterrepräsentiert geblieben. Wie der jüngste PISA-Test zeigt, schneiden unsere Schüler in diesen Fächern nur mittelmäßig ab, haben zu wenig Interesse sich mit Naturwissenschaften zu beschäftigen und halten diese für ihr zukünftiges Berufsleben entbehrlich. Eine Bildungsreform, die ihren Namen verdient, sollte darauf hinarbeiten dem Naturwissenschaftsunterricht zu einem positiverem Image zu verhelfen und unserer Jugend Wissen und Können in diesen Fächern zu vermitteln, um sie auf eine naturwissenschaftlich orientierte Welt von Morgen vorzubereiten.

Eine Diskussion zur Reform des naturwissenschaftlichen Unterrichts

"Das ist wohl uns allen klar, dass bei jeder Mittelschulreform der nächsten Zeit die Naturwissenschaften eine stärkere Berücksichtigung finden müssen als bisher. Nicht umsonst liegt doch ein ganzes Jahrhundert, das man mit Vorliebe das Jahrhundert der Naturwissenschaften nennt, hinter uns, nicht umsonst ist doch der formale, der sachliche und ethische Bildungswert der Naturwissenschaften so oft betont und erwiesen worden."

Dies ist keine längst überfällige Einsicht der letzten Wochen: vielmehr stammt diese Erkenntnis aus einer breiten Reformdiskussion, die im Jahr 1908 über den naturwissenschaftlichen Unterricht an den österreichischen Mittelschulen stattfand [1]. In der Tat war die naturwissenschaftlich-technische und wirtschaftliche Entwicklung der zweiten Hälfte des 19. Jahrhunderts an den Lehrplänen der Schulen vorbeigegangen. Besonders stiefmütterlich war die Chemie im Unterricht behandelt worden - sie fristete als Anhängsel einerseits der Physik und andererseits der Mineralogie ein Schattendasein. Und dies obwohl man die Chemie als eine Grundwissenschaft t erkannt hatte "welche uns erst mit der Zusammensetzung und inneren Beschaffenheit der Körper bekannt macht, die für das Verständnis der Lebensvorgänge des Menschen, der Tiere und der Pflanzen ebenso notwendig wie für das Verständnis der Bildungsweise der Mineralien. Von ihrer großen praktischen Bedeutung hier ganz zu schweigen"[1]. In letzterer Hinsicht hatte die Chemie ja damals völlig neue, praktisch verwertbare Möglichkeiten geschaffen: von der Herstellung reiner Metalle mit Hilfe elektrochemischer Verfahren über die Erzeugung von Düngemitteln bis hin zur Synthese von Farbstoffen und Derivierung von Naturstoffen, die zur Produktion von Arzneimitteln führte. Eine neue Industrie , die chemische Industrie war entstanden. Konzerne wie BASF, Bayer, Hoechst in Deutschland oder in Österreich beispielsweise die Treibacher Werke waren gegründet worden.

In der Reformdiskussion vom Jahr 1908 stellte Rudolf Wegscheider, damals Professor für Chemie an der Universität Wien, aber auch klar:

"Der Chemieunterricht am Gymnasium ist nicht zu fordern vom Standpunkt der Heranbildung von Chemikern, sondern weil heute chemische (wie überhaupt naturwissenschaftliche) Kenntnisse ein notwendiger Bestandteil der allgemeinen Bildung sind und zahlreiche Hörer der Universität chemische Kenntnisse brauchen."[1]

Als wären seit damals nicht mehr als 100 Jahre vergangen

klingt es sehr ähnlich im Vorwort der vor einigen Monaten veröffentlichten Ergebnisse der PISA 2015 Studie (PISA bedeutet: OECD Programme for International Student Assessment ):

"Kenntnisse und Kompetenzen im Bereich Naturwissenschaften sind nicht nur für die berufliche Tätigkeit von Naturwissenschaftlern von Nutzen, sondern sie sind in einer durch naturwissenschaftliche Technologien geprägten Zeit auch Voraussetzung für eine volle gesellschaftliche Teilhabe. Deshalb sollte darauf hingearbeitet werden, dass der Naturwissenschaftsunterricht ein positiveres Image erhält, indem er als Wissensbereiche präsentiert wird, die interessant sind und Spaß machen." Um an anderer Stelle zu konstatieren: "Besorgniserregend ist, wie vielen jungen Menschen es nicht einmal gelingt, ein Grundniveau an Kompetenzen zu erreichen"[2].

Im 20. Jahrhundert kam es zur Wissensexplosion in den Naturwissenschaften

Basierend auf den Erkenntnissen des 19. Jahrhunderts haben sich die Naturwissenschaften in einem rasanten, sich selbst beschleunigendem Tempo weiterentwickelt. Es sind völlig neue Konzepte entstanden: von Raum und Zeit, vom Aufbau der Materie aus Elementarteilchen, von Aufbau und Evolution des Universums, von Struktur und Funktion einfacher Moleküle bis hin zu den molekularen Eigenschaften der Grundbausteine lebender Materie. Daraus resultierten technologische Entwicklungen - Basisinnovationen u.a. in Elektrotechnik, Petrochemie, Hightech-Materialien - , die unsere heutigen Lebenswelten prägen. Molekulare Biowissenschaften sind entstanden und haben uns fundamentale Erkenntnisse über physiologische Prozesse in Organismen und deren pathologische Entgleisungen gebracht: es sind dies die Grundlagen, die uns erstmals in die Lage versetzen kausal Krankheiten zu verhindern oder zu behandeln, Landwirtschaft bei sinkender Nutzfläche an die Erfordernisse einer wachsenden Weltbevölkerung nachhaltig anzupassen, Ursachen von Umweltproblemen gezielt abzuwehren und - mittels biotechnologischer Verfahren - Nutzorganismen für uns arbeiten lassen. Möglich wird dies alles erst durch eine Informationstechnologie, die uns weltweit vernetzt, die globales Wissen speichert und auf Basis des ungeheuren Datenmaterials uns zu einem mehr und mehr präzisen Modellieren/Vorhersagen komplexer Systeme und darin ablaufender Vorgänge befähigt.

Wie steht es um die naturwissenschaftliche Bildung an unseren Schulen?

Unter "§ 2. Aufgabe der österreichischen Schule" heißt es:

"Die Schule hat die Jugend mit dem für das Leben und den künftigen Beruf erforderlichen Wissen und Können auszustatten und zum selbsttätigen Bildungserwerb zu erziehen" (Schulorganisationsgesetz, Fassung vom 20.06.2017).

Man sollte also annehmen, dass die stürmische Entwicklung der Naturwissenschaften und ihrer Anwendungen im letzten Jahrhundert sich auch in den Lehrplänen unserer Schulen widerspiegelt, in denen nach wie vor gültige Grundlagen und darauf aufbauend ein Überblick über die relevantesten Erkenntnisse ihren Platz finden sollten. Zwangsläufig bedeutet dies eine Ausweitung des naturwissenschaftlichen Unterrichts

Ein Blick auf das Ausmaß naturwissenschaftlichen Unterrichts

während des letzten Jahrhunderts bietet ernüchternde Zahlen (Abbildung 1). Betrachten wir vorerst die allgemeinbildenden höheren Schulen (AHS), an denen während einer achtjährigen Schulzeit zweifellos ein Maximum an naturwissenschaftlicher Bildung vermittelt werden kann, so wurden im Jahr 1908 im Gymnasium für Physik, Chemie und Biologie (PCB) zusammengenommen rund 10 % der Unterrichtsszeit aufgewandt. Mehr als ein Jahrhundert später sind es nun gerade einmal 12,7 %. Nimmt man die Mathematik dazu (MPCB) so ist der Anteil an der Unterrichtsszeit von 20 auf 23,3 % gestiegen.

An Realgymnasien wird - wie der Name sagt - mehr Gewicht auf die realistischen Fächer gelegt. Hier war der Anteil von PCB am Unterricht von Anfang an etwas höher: er lag 1918 bei 11,6 % und ist in rund 100 Jahren nur schwach auf 14,8 % gestiegen; inklusive Mathematik betrug 1918 der Anteil am Unterricht 22 % und heute 25,4 %.

Abbildung 1.In den Gymnasien (G) und Realgymnasien(RG) ist im letzten Jahrhundert der Anteil der Unterrichtstunden in Naturwissenschaften (Physik (P), Chemie (C), Biologie (B)) und Mathematik am Gesamtunterricht nur schwach gestiegen. Es wurden die vollen 8 Jahre Ausbildung berücksichtigt. (1908/9: Zehn Jahre Welser Gymnasium, http://digi.landesbibliothek.at/viewer/image/AC08808691/19/#topDocAnchor, * bedeutet: der Anteil von PCB dürfte etwas höher sein, da auch in Geographie darüber gesprochen wurde ; 1918/19: XXX. Jahresbericht des öffentlichen Mädchen-Lyzeums und Reformgymnasiums in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151117_30191819/42/#topDocAnchor; 1933/34: G: LXIII Jahresbericht des Bundesgymnasiums in Freistadt, OÖ, http://digi.landesbibliothek.at/viewer/image/AC11418645_1933/1/LOG_0003 / und RG: 45. Jahresbericht der städtischen Mädchenmittelschulen in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151241_45193334/15/ ; 2004: Österreichischer AHS-Lehrplan im Bundesgesetzblatt kundgemacht (BGBl. II Nr. 133/2000), https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_unterstufe.html, https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_oberstufe.html).

Nun gibt es heute im Rahmen der schulautonomen Lehrplanbestimmungen die Möglichkeit Schwerpunkte zu setzen, u.a. einen naturwissenschaftlich-technischen/mathematischen Schwerpunkt und in der Oberstufe der AHS im schülerautonomen Bereich Wahlpflichtgegenstände. ( https://www.ris.bka.gv.at/GeltendeFassung.wxe?Abfrage=Bundesnormen&Geset... ). Sind hier adäquate Einrichtungen und Mittel vorhanden und vor allem Lehrer, die für Naturwissenschaften faszinieren können, so bietet dies einem Teil unserer Schüler die Möglichkeit eine vertiefte up-to-date Bildung in diesen Fächern zu erhalten. Für die Mehrheit der Schüler, deren Schwerpunkte in anderen Fachrichtungen liegen, wird dies vermutlich kaum der Fall sein.

Stundenpläne einst und jetzt

Abbildung 2 zeigt als repräsentative Beispiele die Stundenpläne des Realgymnasiums von heute (Klassen 1 - 4: Unterstufe, Sekundarstufe 1;Klassen 5 - 8: Oberstufe, Sekundarstufe 2) und im Schuljahr 1933/34. Der aktuelle Stundenplan der Unterstufe gleicht dem der Hauptschulen und Neuen Mittelschulen (NMS).

Was besonders ins Auge fällt: in über 80 Jahren, in denen sich die Welt komplett veränderte, hatte dies auf den Kanon der Fächer und die diesen zugeteilten Unterrichtsstunden kaum Einfluss. Wann und in welchem Ausmaß was unterrichtet wird, ist im Wesentlichen gleich geblieben. Auch, dass nach wie vor der Cluster Sprachen + Geschichte den umfangreichsten Teil im Unterricht bildet. Letzteres gilt noch mehr für die Stundenpläne an den Gymnasien (nicht gezeigt). Wesentlich reduziert wurde in beiden AHS-Formen der Unterricht in den klassischen Sprachen Latein und Griechisch (Latein ist ja für viele Studienrichtungen nicht mehr Voraussetzung). Abbildung 2. Der Stundenplan des Realgymnasiums heute und im Schuljahr 1933/34 (Bild: Links: https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_unterstufe.html, https://www.bmb.gv.at/schulen/unterricht/lp/lp_ahs_oberstufe.html). und rechts: RG: 45. Jahresbericht der städtischen Mädchenmittelschulen in Linz, http://digi.landesbibliothek.at/viewer/image/AC04151241_45193334/15)

In Mathematik und den naturwissenschaftlichen Fächern gab es mit Ausnahme der Chemie hingegen kaum Änderungen. Für dieses besonders stiefmütterlich bedachte Fach wurden - zumindest seit den 1950er Jahren - zusätzliche 2 Stunden in den 4. Klassen der Unterstufe eigeführt.

Was sollten Schüler am Ende der Pflichtschule in den Naturwissenschaften wissen und können?

Gehen wir nun von den AHS-Absolventen zu den Schülern am Ende der Pflichtschulzeit.

Naturwissenschaften rangieren im österreichischen Unterrichtsministerium offensichtlich nicht unter Top Priority. So hat das Ministerium im Jahr 2009 für die 8. Schulstufe Bildungsstandards für die Pflichtfächer Deutsch, lebende Fremdsprache (Englisch) und Mathematik verordnet (StF: BGBl. II Nr. 1/2009 ), die nun seit dem Schuljahr 2011/12 flächendeckend am Ende der Pflichtschule (Hauptschule, NMS, Unterstufe der AHS) in einem Zyklus von fünf Jahren überprüft werden. Entsprechende Bildungsstandards in den Naturwissenschaften existieren aber (noch) nicht.

Die PISA-Studie 2015.....

Ein internationaler Leistungsvergleich erfolgt in der von der OECD beauftragten PISA Studie (Programme for International Student Assessment), die im Abstand von drei Jahren die Leistungen der 15- und 16-jährigen Schüler/innen in drei zentralen Bereichen – Lesen, Mathematik und Naturwissenschaften – erhebt und international vergleicht. Nach 2006 standen im Jahr 2015 die Naturwissenschaften wieder im Mittelpunkt des Tests, in geringerem Ausmaß wurden auch Lesekompetenz und Mathematik erhoben. Über 540 000 Schüler aus 72 Ländern nahmen 2015 an den Pisa-Tests teil, in Österreich waren es rund 7000 Schüler aus rund 270 Schulen.

Der Test evaluierte dabei drei Kompetenzen, von denen jede einen bestimmten Typ von Wissen über Naturwissenschaften voraussetzt: die Fähigkeiten

i) Phänomene naturwissenschaftlich zu erklären,

ii) naturwissenschaftliche Forschung zu bewerten und naturwissenschaftliche Experimente zu planen,

iii) Daten und Evidenz naturwissenschaftlich zu interpretieren.

Ohne nun auf die Art der Fragestellungen, den Verlauf der Testung und das Verfahren zur Quantifizierung der Ergebnisse auf einer Punkteskala eingehen zu wollen (und auf die darin kritisierten Punkte), gibt PISA durchaus einen Eindruck vom Wissen und Können im internationalen Vergleich. In der 2015-Testung erstreckt sich die Skala vom Durchschnittsergebnis über alle Länder von 493 Punkten nach höheren und niedrigeren Werten. Dabei liegt Singapur mit 556 Punkten an der Spitze der Wertung, die Dominikanische Republik mit 332 Punkten am unteren Ende.

... und die Ergebnisse für die österreichischen Schüler

Österreichs Schüler zeichneten sich leider nicht durch Leistungsstärke aus: mit einem Durchschnitt von 495 Punkten sind sie OECD-Durchschnitt. Unter den 38 OECD Ländern bedeutet dies nun nur mehr den 20. Platz. Unerfreulich ist auch, dass nur ein vergleichsweise sehr kleiner Anteil (7,7 %) dieser Schüler mit der naturwissenschaftlichen Kompetenz (Leistungsstufe größer/gleich 5) im internationalen Spitzenfeld lag, dagegen 20,8 % die naturwissenschaftliche Grundkompetenz (Leistungsstufe unter 2) nicht erreicht haben (unter 409,5 Punkte) . Abbildung 3.

Abbildung 3. Mittlere Punktzahlen auf der Gesamtskala Naturwissenschaften, 2006-2015 (oben) und Prozentsatz leistungsschwacher und besonders leistungsstarker Schüler (unten). (Bild: www.bildungswissenschaft.at Auszug aus [2]; mit freundlicher Genehmigung von Gerhard Riegler)

Bedenklicher als das mittelmäßige Abschneiden unserer Schüler erscheinen deren Einstellungen gegenüber Naturwissenschaften. Abbildung 4. Wesentlich weniger Schüler als im OECD-Schnitt finden Freude an Naturwissenschaften, sind bereit darüber zu lesen, zu lernen und sich mit naturwissenschaftlichen Problemen zu beschäftigen. Unter den OECD-Ländern zeigen nur die Niederländer ein ähnlich geringes Interesse wie die Österreicher.

Mit dem Desinteresse in Einklang meint (mehr als) die Hälfte der Schüler, dass es sich einfach nicht lohnt sich im Unterricht anzustrengen - dass die Jobaussichten damit nicht besser werden und dass sie für ihren künftigen Beruf Naturwissenschaften nicht brauchen werden.

Abbildung 4. Freude an Naturwissenschaften (oben) und Lernmotivation (unten). (Quelle: Auszug aus [2], oben: Tabelle I.3.1a, unten: Tabelle I.3.3a)

Es ist nicht von der Hand zu weisen, dass die Einstellung der Schüler zu den Naturwissenschaften und die Einschätzung der damit verbundenen Zukunftsaussichten von dem in unserem Land grassierenden Misstrauen diesen Fächern gegenüber geprägt sind.

Mangelnde naturwissenschaftliche Bildung führt ja dazu, dass in neuen Erkenntnissen und Anwendungen vor allem Gefahren gesehen werden und die Ängste die Positiva überdecken, die mit den neuen Möglichkeiten verbunden sind. Insbesondere ist das Bild der Chemie negativ besetzt - die Medien werden nicht müde die böse Chemie anzuprangern als Verursacherin von Umweltschäden, Vergiftungen, Nebenwirkungen von Medikamenten und, und, und.....Über die Schlüsselrolle, welche die Chemie in allen Bereichen unseres Lebens hat, wird kaum berichtet. Ebenso werden in der Biologie Gefahrenquellen gesehen; hier werden vor allem Ängste vor Gentechnik , vor der Humangenetik geschürt, Tierversuche verdammt. Dazu kommt die Furcht vor der Kernenergie, vor Versuchen in Teilchenbeschleunigern, vor Radioaktivität. An die Stelle von kritischen Risikoabwägungen treten Vorurteile und es wird Verschwörungstheorien Glauben geschenkt, beispielsweise zu den vermeintlichen Gefahren der Handystrahlung oder zu der Vergiftung durch Chemtrails. Wer im Internet nach einigermaßen seriösen Darstellungen/Videos zu einem naturwissenschaftlichen Thema sucht, muss sich durch einen riesigen Berg mit pseudowissenschaftlichen Inhalten durchkämpfen, deren Richtigkeit er häufig nicht abschätzen kann.

Fazit

Unsere Schulen können das Verständnis für Naturwissenschaften offensichtlich nicht ausreichend vermitteln. Das mag daran liegen, dass diese Fächer nicht ihrer Bedeutung entsprechend im Unterricht repräsentiert sind, aber auch, dass in unserer Gesellschaft ungenügendes naturwissenschaftliches Wissen nicht als Bildungslücke angesehen wird. Es mag auch an einem Mangel an kompetenten Lehrern liegen, die bereit sind gegen Vorurteile und Desinteresse anzukämpfen und für ihre Fächer Faszination auslösen können. Wie bereits eingangs zitiert muss also " darauf hingearbeitet werden, dass der Naturwissenschaftsunterricht ein positiveres Image erhält, indem er als Wissensbereiche präsentiert wird, die interessant sind und Spaß machen[2.]


[1] R.von Wettstein (als Präsident der k.k. zool.- bot. Gesellschaft): Der naturwissenschaftliche Unterricht an den österreichischen Mittelschulen. Bericht über die von der k. k. zoologisch-botanischen Gesellschaft in Wien veranstalteten Diskussionsabende und über die hiebei beschlossenen Reformvorschläge.1908, Wien.

[2] OECD (2016), PISA 2015 Ergebnisse (Band I): Exzellenz und Chancengerechtigkeit in der Bildung, PISA, W. Bertelsmann Verlag, Germany. DOI 10.3278/6004573w

[3] OECD (2016), PISA 2015 Results (Volume II): Policies and Practices for Successful Schools, PISA, http://dx.doi.org/10.1787/9789264267510-en


Weiterführende Links

Artikel im ScienceBlog zu verwandten Themen


 

 

inge Thu, 22.06.2017 - 07:52

Neue Einblicke in eine seltene Erkrankung der Haut

Neue Einblicke in eine seltene Erkrankung der Haut

Do, 15.06.2017 - 17:47 — Francis S. Collins

Francis S. CollinsIcon MedizinIchthyosen sind (zumeist) genetisch bedingte Störungen der Verhornung (Barrierebildung) unserer Haut, charakterisiert durch abnorm trockene, größere Schuppen bildende, verdickte Hautareale, welche die normalen Hautfunktionen stören. Bis jetzt haben Forscher mehr als 50 Mutationen von Genen identifiziert, die für unterschiedliche Typen und Subtypen dieser Krankheit verantwortlich sind. Ein NIH-gefördertes Forscherteam hat nun eine weitere genetische Ursache identifiziert, die wesentliche Auswirkungen auf die Therapie hat. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet darüber.*

Die Haut ist das größte Organ des menschlichen Körpers und wir betrachten es meistens als selbstverständlich, was die Haut alles an großartigen Funktionen ausübt, um uns gesund zu erhalten. Nicht selbstversändlich ist dies aber für Menschen, die an sogenannten Ichthyosen leiden, d.i. die Sammelbezeichnung für einer Gruppe seltener schuppenbildender Hauterkrankungen (der Name leitet sich vom griechischen Wort für Fisch "ichthys" her). Jedes Jahr werden weltweit mehr als 16 000 Babys mit Ichthyosen geboren [1]. Bis jetzt haben Forscher mehr als 50 Mutationen von Genen identifiziert, die für unterschiedliche Typen und Subtypen dieser Krankheit verantwortlich sind. Ein NIH-gefördertes Forscherteam hat nun eine weitere genetische Ursache identifiziert und diese hat wichtige Auswirkungen auf die Therapie. Es handelt sich dabei um "Schreibfehler" in einem Gen, welches für ein Enzym kodiert, das in der Synthese von Ceramiden eine entscheidende Rolle spielt. Ceramide sind Lipidmoleküle, welche mithelfen die Haut feucht zu halten. Ohne normales Ceramid entwickelt die Haut schuppenähnliche Plaques, welche die Betroffenen anfällig für Infektionen und andere Hautprobleme werden lässt.

Der neue Typ von Ichthyose spricht auf Therapie mit Isotretinoin an

Zwei Patienten mit diesem neu identifizierten Typ der Ichthyose wurden mit Isotretinoin (Accutan) behandelt, einem Medikament, das üblicherweise gegen schwere Akne verschrieben wird (Isotretinoin ist der pharmakologisch aktive Vitamin A-Metabolit 13-cis Retinsäure, der in sehr niedriger Konzentration auch im Organismus vorkommt; Anm. Red.). Es zeigte sich, dass die Symptome praktisch vollständig verschwanden. Abbildung 1. Die Schlußfolgerung aus diesen Ergebnissen: Isotretinoin regt nicht nur den raschen Turnover der Hautzellen an sondern stimuliert die Haut auch zu einer verstärkten Produktion von Ceramid - allerdings geschieht dies über einen anderen biologischen Syntheseweg. Abbildung 1.Die Behandlung eines an progressiver symmetrischer Erythrokeratodermie (PSEK) leidenden Patienten mit Isotretinoin führt zur Normalisierung der Stirnhaut. (Mit freundlicher Genehmigung von of Keith Choate, Yale University School of Medicine, New Haven, CT)

Genetische Ursachen

Keith Choate (Yale University School of Medicine, New Haven, CT) hat seine wissenschaftliche Laufbahn der Forschung an Ichthyosen gewidmet. Das beinhaltet auch, dass er mit seinem Team daran arbeitet mehr als 800 betroffene Familien in das "Nationale Register für Ichthyosen und verwandte Hauterkrankungen" (das sich in Yale befindet) aufzunehmen. In der Fachzeitschrift The American Journal of Human Genetics ist eben eine Untersuchung erschienen, in der Choate und sein Team 750 der in diesem Register gelisteten betroffenen Personen getestet haben, um herauszufinden ob diese Träger einer der bereits bekannten zu Ichthyosen führenden Mutationen wären [2]. Insbesondere waren die Forscher aber daran interessiert Personen zu identifizieren, die keine der bekannten Mutationen aufwiesen. Derartige ungeklärte Fälle von Ichthyose könnten, ihrer Meinung nach, der Schlüssel zur Entdeckung weiterer Gene sein, die wichtige Rollen in gesunder und kranker Haut spielen. Die Testung ergab vier Patienten, die an einer rezessiven Form der Ichthyose litten - der sogenannten progressiven symmetrischen Erythrokeratodermie (PSEK) - und keine der bisher bekannten Mutationen aufwiesen. PSEK ist ein äußerst seltener Typ der Ichthyose, der Bereiche von roter, schuppenartig verdickter Haut zeigt, die symmetrisch über den Körper verteilt sind. Im Laufe der Zeit weiten sich diese betroffenen Stellen häufig aus und verschlimmern sich. Abbildung 2. Abbildung 2. Personen mit PSEK haben eine stark verdickte äußere Hautschichte - stratum corneum -, in welcher in den Zellen die Zellkerne (lila) noch zurückgeblieben sind. (Quelle: Keith Choate, Yale University School of Medicine, New Haven, CT) Auf der Suche nach dem zugrunde liegenden genetischen Defekt für diese Krankheit sequenzierten die Forscher von jedem der vier Patienten den für Proteine kodierenden Teil des Genoms, das sogenannte Exom, das bloß 1,5 % des gesamten Genoms ausmacht. Diese Exom-Sequenzen wiesen in allen Patienten Mutationen in einem Gen auf, das für das Enzym KDSR (3-Ketodihydrosphingosine Reductase) kodiert. Das erschien bemerkenswert: das Enzym KDSR spielt ja eine entscheidende Rolle in dem aus vielen Schritten bestehenden Prozess, mit dem die Haut Ceramide aufbaut. Interessanterweise schienen zwei der Träger von KDSR-Mutanten nur jeweils eine defekte Kopie des Gens zu besitzen. Das war verblüffend - die Forscher wussten ja , dass der Ichthyose-Typ rezessiv war, das heißt, dass zwei defekte Kopien des Gens notwendig waren, um die Krankheit hervorzurufen. Choates Team vermutete daher, dass die anscheinend gute zweite Kopie des KDSR-Gens eine Mutation haben müsste, die sich außerhalb der analysierten Exom-Sequenzen befand.

Die gestörte Ceramid-Synthese kann durch Isotretinoin wieder angekurbelt werden

Um dazu mehr zu erfahren, sequenzierten die Forscher das vollständige Genom von einer der beiden Personen. Tatsächlich zeigten die Sequenzdaten des ganzen Genoms, dass die anscheinend gute Kopie des KDSR-Gens im Genom in die falsche Richtung orientiert, vorlag und daher seine Funktion verloren hatte. Dass das KDSR-Gen tatsächlich nicht funktionierte und es damit zu Störungen in der Synthese des Haut-schützenden Ceramids kam, bestätigten weitere Untersuchungen an der Haut des Patienten. Der neue genetische Beweis vermag zu erklären, warum Isotretinoin so erstaunlich gut in der Behandlung dieser Form von Ichthyose gewirkt hat. Ceramid kann auf drei unterschiedlichen Wegen hergestellt werden:

  • Unsere Haut produziert Ceramide, indem sie die Lipide "von Null an" aus kleineren Bausteinen zusammensetzt. Es ist dies der Weg, der in Patienten mit PSEK unterbrochen ist.
  • Hautzellen können Ceramide aber auch produzieren, indem sie Zellmembranen abbauen, um Komponenten freizusetzen , welche über einen von zwei verwandten biochemischen Wegen in die Lipide umgewandelt werden.
  • Die neuen Befunde lassen den Schluss zu, dass Isotretinoin es den Zellen möglich macht ihren genetischen Defekt zu kompensieren, indem es sie stimuliert Ceramide über die alternativen Wege bereit zu stellen. Für Menschen mit Ichthyosen sind die Ergebnisse ermutigende Zeichen des Fortschritts. Für uns Andere streichen sie jedenfalls heraus, wie wichtig Ceramid - die aktive Komponente in vielen Feuchtigkeitscremen - zur Erhaltung einer gesunden Haut ist.
    [1] What is ichthyosis? Foundation for Ichthyosis & Related Skin Types. http://www.firstskinfoundation.org/what-is-ichthyosis [2] Mutations in KDSR cause recessive progressive symmetric erythrokeratoderma. Boyden LM, Vincent NG, Zhou J, Hu R, Craiglow BG, Bayliss SJ, Rosman IS, Lucky AW, Diaz LA, Goldsmith LA, Paller AS, Lifton RP, Baserga SJ, Choate KA. Am J Hum Genet. 2017 Jun 1;100(6):978-984. https://www.ncbi.nlm.nih.gov/pubmed/28575652
    *Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Skin Health: New Insights from a Rare Disease"" zuerst (am 6. Juni 2017) im NIH Director’s Blog: https://directorsblog.nih.gov/2017/06/06/skin-health-new-insights-from-a.. .Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).

    Weiterführende Links

    Ichthyosis Overview (National Institute of Arthritis and Musculoskeletal and Skin Diseases/NIH).

    Leben mit dem Haut-Gendefekt. Video 50 min. BBC worldwide.

    Zu Struktur und Funktion der Haut im ScienceBlog

    Inge Schuster , 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick.

Redaktion Thu, 15.06.2017 - 14:49

Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden?

Do, 08.06.2017 - 12:47 — Henrik Hartmann Henrik HartmannIcon BiologieDie Fähigkeit der Pflanzen, Sonnenenergie in chemischen Verbindungen zu speichern und für andere Lebensformen zur Verfügung zu stellen, macht sie zur Grundlage allen Lebens auf unserer Erde. Pflanzen spielen eine entscheidende Rolle in regionalen und globalen Stoff- und Energiekreisläufen und puffern anthropogen bedingte Kohlendioxid-Emissionen ab. Ähnlich wie Kleinunternehmen müssen sie dabei Ressourcen effizient verwalten und gewinnbringend investieren. Der Ökophysiologe Dr. Henrik Hartmann (Leiter der Forschungsgruppe "Plant Allocation" am Max-Planck-Institut für Biogeochemie in Jena) untersucht mit neu entwickelten Methoden, wie Pflanzen ihre Entscheidungen treffen.*

Pflanzen als Kleinunternehmer einer globalen Zuckerfabrik

Der globale Pflanzenbestand setzt jährlich enorme Mengen an Ressourcen um. Pflanzen binden durch Fotosynthese jedes Jahr etwa 123 Petagramm Kohlenstoff aus der Atmosphäre. Diese umgerechnet 123 Milliarden Tonnen entsprechen einem mit Kohle beladenen Güterzug, der 375-mal die Erde umspannt! Auch wenn der Großteil dieses Kohlenstoffs früher oder später durch Zellatmung wieder in die Atmosphäre abgegeben wird, stellt die durch Fotosynthese gebildete Biomasse die Nahrungsgrundlage für alle heterotrophen (nicht fotosynthetischen) Lebensformen wie Menschen, Tiere, Mikroorganismen und Pilze dar. In der Fotosynthese wird der Kohlenstoff zunächst zusammen mit Wasserstoff und Sauerstoff zu kurzen Molekülen mit sechs Kohlenstoffatomen, dem Traubenzucker, zusammengefasst, der als energiereicher Grundbaustein für alle anderen organischen Substanzen dient (siehe Abbildung 1).

Abbildung 1. Durch Fotosynthese wird mittels Sonnenergie und Wasser die Ressource CO2 in energiereichen Zucker (Kohlenhydrat) umgewandelt. Zucker und andere Kohlenhydrate verwenden Pflanzen als Grundbausteine der Biomasse (Zellulose), als Substrate für den Energiestoffwechsel (Zellatmung) und als Speicherstoffe (Stärke, Öle) . Den Kohlenstoffhaushalt einer Pflanze kann man mit der Bilanz eines Kleinunternehmens vergleichen: Der gebildete Zucker dient hier als Zahlungsmittel und als Rohstoff für die Produktion; die Pflanze kann damit Ausgaben begleichen, Investitionen tätigen und Produkte herstellen.© Hartmann & Trumbore

Die meisten Pflanzen sind sessile (festgewachsene) Organismen und können daher unwirtlichen Situationen wie Trockenheit oder Insektenbefall nicht durch Abwanderung entkommen. Sie müssen den zur Verfügung stehenden Zucker effizient und situationsgerecht verwenden, ähnlich einem Kleinunternehmen, das sich an Bedrohungen durch neue Marktsituationen mit gezielten Maßnahmen wie Investitionen anpassen muss.

Der Kohlenstoffhaushalt: eine Ressourcenbilanz der Pflanzen

Anders als bei einem Unternehmen sind die Entscheidungsmechanismen von Pflanzen in der Verwaltung ihrer Energie, Rohstoffe und Speicherstoffe oft nicht eindeutig. Wie reagieren Pflanzen auf konkrete Umwelteinflüsse durch Verteilung von Ressourcen? Wissenschaftlich Theorien gehen davon aus, dass Pflanzen unter Trockenstress mehr Ressourcen in ihr Wurzelwachstum stecken, um damit ein größeres Bodenvolumen auf der Suche nach Wasser erschließen zu können. Oder sie verteidigen sich gegen Angriffe von Fressfeinden, indem sie Substanzen herstellen, die sie entweder unattraktiv oder sogar giftig machen. Wie dabei knappe Ressourcen verteilt werden, bezeichnet man als Allokation.

Trotz ihrer offensichtlichen Schlüsselfunktion in der Reaktion auf widrige Umweltbedingungen sind die bisherigen Erkenntnisse zur Allokation ungenügend. Dies liegt vor allem daran, dass viele der Prozesse und Funktionen, die auf Kohlenstoff als Energie- oder Rohstoffquelle angewiesen sind, sich nicht oder nur schwer experimentell erfassen lassen, etwa wie die zum Wurzelwachstum notwendige Zellatmung im Wurzelbereich oder die Freisetzung flüchtiger Substanzen. Das hat zur Folge, dass sich viele Untersuchungen auf leicht erfassbare, Kohlenstoff-verbrauchende Einzelprozesse wie das Wachstum von struktureller Biomasse konzentrieren und somit nur ein Teilbild der Allokation vermitteln können. Mit einem solchen Teilbild lassen sich Pflanzen aber weder als gesamter Organismus noch in ihrem Zusammenspiel mit der Umwelt verstehen. Dies entspräche in der Analogie dem Versuch, die Finanzbilanz eines Unternehmens nur anhand der bestehenden Produktionsanlagen bewerten zu wollen, ohne dabei Einnahmen, Investitionen und Einlagen zu berücksichtigen.

Pflanzen unter Ressourcenlimitierung: Investitionsmuster werden deutlich

Die Fähigkeit eines Unternehmers, die richtigen Entscheidungen zu treffen, offenbart sich besonders in finanziell schwierigen Situationen. Die Forschungsgruppe Plant Allocation am Max-Planck-Institut für Biogeochemie wendet diese Logik auf Pflanzen an, um Muster, Prioritäten und Strategien der Kohlenstoffallokation zu erkennen. Mit einer eigens zu diesem Zweck entwickelten Anlage (siehe Abbildung 2) lassen sich der Kohlenstoffhaushalt der Pflanzen kontrollieren und ihre Ressourcen künstlich limitieren. Erfasst man all ihre Reaktionen, so wird die gesamte Kohlenstoffbilanz ermittelt, einschließlich schwer messbarer Verbrauchsprozesse wie die Wurzelatmung, die Abgabe flüchtiger Substanzen, das Erzeugen von Verteidigungsstoffen sowie die Speicherung des Kohlenstoffs. Diese Daten liefern dann umfassende Einblicke in die Ressourcenbilanz der Pflanze und deuten auf Entscheidungsmuster hin.

Abbildung 2. Anlage zur Reduzierung der CO2-Konzentration der Luft in Phytokammern. Die Anlage kontrolliert und erfasst den Kohlenstoffhaushalt der darin wachsenden Pflanzen. Durch Verwendung von isotopisch markierten Tracern lassen sich Flüsse von Elementen (etwa Kohlen- und Stickstoff) verfolgen und quantifizieren. Durch künstliches Absenken der CO2-Konzentration in der Luft, erleiden die Pflanzen eine Kohlenstoffunterversorgung. Die dabei entstehenden Verteilungsmuster zeigen Prioritäten in der Allokation auf. © moveslikenature

Wachstum oder Marketing, eine alte, aber immer noch offene Frage

Unternehmen schützen sich in einem heftig umkämpften Markt, indem sie beispielsweise ihre Produktion steigern oder aggressives Marketing betreiben. Auch Pflanzen wenden diverse Strategien zur Abwehr von Fressfeinden an. Sie steigern entweder ihr Wachstum oder bilden kostspielige chemische Abwehrsubstanzen. Aufgrund begrenzter Ressourcen muss eine Pflanze aber die Bildung von Abwehrstoffen gegenüber anderen Funktionen wie das Pflanzenwachstum abwägen. Eine kleine Pflanze mit wenigen Blättern muss diese vor Fressfeinden gut schützen, eine große Pflanze kann hingegen einige „billige“ Blätter opfern, ohne sich ernsthaft zu gefährden; so zumindest die Theorie.

Wie wichtig die Bildung von Abwehrstoffen für die Ressourcenbilanz der Pflanzen ist, wird dann am deutlichsten, wenn die Versorgung mit dem essentiellen Rohstoff Kohlenstoff knapp wird. Am Beispiel der Pfefferminzpflanzen zeigte sich, dass Abwehrstoffe zu produzieren hier einen sehr hohen Stellenwert hat, sogar höher als das Wachstum beizubehalten. Leidet die Pfefferminze unter starkem Kohlenstoffmangel, wird der Anteil des aktuell gebundenen Kohlenstoffs zur Bildung von Monoterpenen, dem Hauptbestandteil ätherischer Öle, beibehalten. Der Anteil für andere Kohlenstoff-verbrauchende Prozesse, wie das Pflanzenwachstum oder die Produktion von Speicherstoffen wird jedoch reduziert (siehe Abbildung 3, links). Interessanterweise wurde eine ähnliche Umverteilung der Ressourcen unter Kohlenstofflimitierung auch im Winterweizen beobachtet. Den aktuell gebundenen Kohlenstoff investierte diese Pflanze jedoch nicht in die Bildung von Abwehrstoffen, sondern in die Produktion flüchtiger Substanzen (siehe Abb. 3, rechts). Die Emission dieser flüchtigen Stoffe soll vermutlich physiologischen Stress der Pflanze mindern.

Abbildung 3. Schematische Darstellung von Allokationsmustern. Die Flächen stellen das Verhältnis des gesamten zur Verfügung stehenden Kohlenstoffs dar, die den jeweiligen Kohlenstoffpools der Pfefferminze (links) oder Funktionen im Winterweizen (rechts) zugeteilt wurden. (Links) Allokation zu Biomasse (Wachstum), Monoterpene (Abwehr) und Stärke und lösliche Zucker (Reserven) in der Pfefferminze. Unter Kohlenstoffmangel (rechte Pflanzenhälfte) werden, relativ zu anderen Investitionen, mehr Ressourcen in die Bildung von konstitutiven Abwehrstoffen gesteckt (größere Anteile an frisch-assimiliertem „neuem“ Kohlenstoff, dunkle Schattierung). Im Winterweizen (rechts) werden unter Kohlenstoffmangel (rechte Pflanzenhälfte) das Wachstum, die Bildung von Rücklagen und die Produktion von Abwehrstoffen zugunsten der Emission flüchtiger Substanzen zum Schutz gegen Stress im Vergleich zur Kontrolle (linke Pflanzenhälfte) zurückgefahren. © moveslikenature

Von vielen, oft komplexen Substanzen, die Pflanzen aufwändig herstellen und gasförmig ausscheiden, sind Funktion und Rolle für die Pflanze noch weitgehend unbekannt. Man nimmt an, dass einige davon wie der Kohlenwasserstoff Isopren oxidativen Stress mindern. Oxidativer Stress verändert Lipide, Proteine, Amino- und Nukleinsäuren und kann dadurch zu Störungen physiologischer Prozesse führen. Unabhängig von ihrer genauen Funktion ist zudem völlig ungewiss, wie die Herstellung und Emission flüchtiger Substanzen von der Kohlenstoffversorgung der Pflanze abhängen. Dieser Frage geht die Forschungsgruppe Plant Allocation zurzeit unter Mitwirkung des Max-Planck-Instituts für Chemische Ökologie in Jena nach. Erste Ergebnisse zeigen, dass auch Fichten unter experimentellem Kohlenstoffmangel die Produktion und Emission flüchtiger Substanzen wie Mono- und Sequiterpene hochfahren. Wahrscheinlich tun sie dies ebenfalls, um oxidativen Stress zu reduzieren. Mit steigender Zufuhr von Kohlenstoff steigt dann die Ausgasung von Methanol und Aceton an, die möglicherweise als Abfallprodukte des gesteigerten Stoffwechsels anfallen.

Pflanzen im Handel mit Partnern: wer bestimmt den Preis?

Der Handel mit anderen Unternehmen erlaubt es, die für die eigene Produktion notwendigen Ressourcen zu erwerben. Die Handelsbedingungen wie etwa die Preise bestimmt oft der stärkere Partner. Pflanzen handeln unter anderem mit Mykorrhizen, fadenförmigen Bodenpilzen, welche die Pflanzen bei der Aufnahme von Nährstoffen, insbesondere Phosphor, unterstützen und die die Pflanzen im Gegenzug mit energiereichen Zuckern versorgen. Doch wer bestimmt die Bedingungen in diesem symbiontischen Handel, die Pflanze oder der Pilz? Um dies zu untersuchen, wurde experimentell eine Situation geschaffen, in der es der Pflanze an Kohlenstoff mangelt, und sie gleichzeitig wichtige Nährstoffe aber nur durch den Handel mit dem Pilz beziehen kann: Reduziert man die Kohlenstoffbilanz des Spitzwegerichs, so wächst er geringer und verringert außerdem die Abgabe von Zucker an Mykorrhizen um rund 60 Prozent; er erhält jedoch im Gegenzug genauso viel Stickstoff wie unter normalen Bedingungen (Abbildung 4). Es scheint also, dass die Pflanze in diesem Handel der stärkere Partner ist, sie bestimmt den Preis. Der ausgeklügelte Versuchsaufbau erlaubte aber noch weitergehende Erkenntnisse: Unter Kohlenstoff-Mangel baut die Pflanze den neu fixierten Kohlenstoff wie auch den preisreduzierten Stickstoff des Pilzes verstärkt in den Spross und die Blätter, also die oberirdischen Pflanzenteile, ein. Der Gesamtorganismus investiert damit gezielt in die fotosynthetisch aktiven Organe, die den Kohlenstoffmangel ausgleichen sollen.

Abbildung 4. Untersuchungen des Ressourcenhandels zwischen Spitzwegerich und Mykorrhizen. Die Pflanze wächst in einem stickstofffreien Substrat. In dem durch ein feines doppeltes Gewebe abgetrennten Teil befindet sich der benötigte Stickstoff. Das Gewebe verhindert zum einen, dass Bodenlösung hinüberfließt und zum anderen, dass Pflanzenwurzeln hindurchdringen, ohne dabei jedoch die mit den Pflanzenwurzeln verbundenen viel feineren Pilzfäden auszugrenzen. Beide Partner sind notwendigerweise aufeinander angewiesen; die Pflanze kann nur durch den Handel mit dem Pilz an den im abgetrennten Teil eingelagerten Stickstoff gelangen. Unter Kohlenstoffmangel (rechts) verringert die Pflanze die Abgabe von Zucker an den Pilz um rund 60 Prozent (grüner Pfeil), ohne dabei Einbußen an Stickstoff hinnehmen zu müssen (gelber Pfeil). Zudem baut die Pflanze den neu fixierten Kohlenstoff und den Stickstoff des Pilzes verstärkt in die oberirdischen Pflanzenteile (Spross, Blätter) ein, weniger in die Wurzeln (Kuchendiagramme), um dadurch die fotosynthetische Kapazität zu erhöhen und den Kohlenstoffmangel besser kompensieren zu können. © moveslikenature.

Nächste Schritte: von Bilanzen zu langfristig festgelegten Strategien der Ressourcenverteilung

Die bisherigen Untersuchungen der Forschungsgruppe Plant Allocation ließen wichtige Muster der Ressourcenverteilung von Pflanzen erkennen: eine Art Zwischenbilanz der Kohlenstoffverteilung. Bilanzen bieten zwar eine Orientierung über zeitlich begrenzte Vermögens-, Finanz- und Ertragslagen, sagen jedoch wenig über die langfristig angelegte Planung, also die zugrunde liegende Unternehmensstrategie aus. Bei Lebewesen sind diese Pläne genetisch kodiert, sie werden durch gezielte Regulation von Genexpression und Enzymaktivität als Reaktion auf die aktuellen Umweltsituationen optimal umgesetzt. Bisherige Untersuchungen zur Analyse komplexer Pflanzenstrategien sind auf Zell- oder Gewebeebene beschränkt [10], Kenntnisse auf organismischer Ebene fehlen bislang. Aktuelle und zukünftige Projekte der Forschungsgruppe Plant Allocation untersuchen, wie Ressourcenänderungen genetisch verfügbare Reaktionsmuster und die Aktivierung von Proteinen beeinflussen, also wie der Gesamtorganismus einschließlich Symbionten und Schädlingen die Investitionsstrategie der Pflanzen umsetzt.


* Der unter demselben Titel " Die Qual der Wahl: Was machen Pflanzen, wenn Rohstoffe knapp werden? " im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/11023678/mpi-bgc_jb_2017; DOI 10.17617/1.49)  wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, allerdings ohne Literaturangaben, da diese großteils nicht frei zugänglich sind. Diese Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links:

H. Hartmann: Plant Allocation. Projekte und Publikationen (viele davon open access) https://www.bgc-jena.mpg.de/bgp/index.php/PlantAllocation/PlantAllocation

H.Hartmann et al., Das Jenaer Trockenstress-Experiment- Warum sterben Bäume, wenn das Wasser knapp wird? http://docslide.net/documents/das-jena-trockenstress-experiment-warum-st... (abgerufen am 7.6.2017)

Jenaer Experte zum Waldsterben: Über den Waldrand hinaus schauen. Interview mit H. Hartmann (7.12.2014) http://jena.otz.de/web/jena/startseite/detail/-/specific/Jenaer-Experte-...

Der Wald in einer CO2-reichen Welt http://www.waldwissen.net/wald/klima/wandel_co2/wsl_wald_co2/index_DE (abgerufen am 7.6.2017)

Artikel zum Themenkomplex Kohlenstoffkreislauf - Kohlenstoffspeicherung im Scienceblog

Christian Körner, 29.07.2016: Warum mehr CO₂ in der Atmosphäre (meistens) nicht zu einem Mehr an Pflanzenwachstum führt.

Redaktion, 26.06.2015: Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Walter Kutschera, 22.01.2016: Radiokohlenstoff als Indikator für Umweltveränderungen im Anthropozän

Rattan Lal, 27.11.2015: Boden - Der große Kohlenstoffspeicher

Rattan Lal, 11.12.2015: Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Knut Ehlers, 01.04.2016: Der Boden - ein unsichtbares Ökosystem

Rupert Seidl, 18.03.2016: Störungen und Resilienz von Waldökosystemen im Klimawandel

Julia Pongratz & Christian Reick, 18.07.2014: Landwirtschaft pflügt das Klima um

Gerhard Glatzel, 21.03.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 1)

Gerhard Glatzel, 04.04.2013: Rückkehr zur Energie aus dem Wald — mehr als ein Holzweg? (Teil 2)


 

inge Thu, 08.06.2017 - 00:47

Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919)

Frauen in den Naturwissenschaften: die ersten Absolventinnen an der Universität Wien (1900 - 1919)

Do, 01.06.2017 - 12:41 — Robert Rosner

Robert RosnerIcon WissenschaftsgeschichteWer waren die meist jungen Frauen, die sich im Wien der Jahrhundertwende, in einer Zeit, in der die Naturwissenschaften in Österreich wenig öffentliches Interesse fan­den, entschlossen, ein naturwissenschaftliches Studium aufzunehmen? Der Chemiker und Wissenschaftshistoriker Robert Rosner versucht an Hand der sogenannten „Nationale“ - Angaben, die alle Studenten zu Geburtsort, Religion, und Stand des Vaters oder Vormunds machen mussten - ein Bild dieser so ungewöhnlichen Frauen zu zeichnen.

In der reich­haltigen Literatur, welche die bürgerliche Gesellschaft in Wien (und Prag) um die Jahrhundertwende ausführlich beschreibt, beschäftigten sich junge Menschen - und erst recht die jungen Frauen - mit den schönen Dingen der Welt, mit Kunst, Theater oder Musik. In den Gymnasien - soweit Mädchen Gymnasien überhaupt besuchen konnten - wurde das Hauptgewicht auf Griechisch, Latein und Deutsch gelegt. Die Naturwissenschaften spielten eine untergeordnete Rolle, Chemie nur in zwei Klassen ein halbes Jahr lang als Nebengebiet der Physik unterrichtet. Es müssen also sehr ungewöhnliche Frauen gewesen sein, die sich um ein Doktorat in einem Fach der Naturwissenschaften bemühten, obwohl die Berufsmöglichkeiten gering waren. Bereit waren sich etwa „mit den Temperaturkoeffizienten einiger Jodelemente“ zu beschäftigen (Dissertation von Olga Steindler 1903) oder mit der „Esterbildung einiger Sulfosäuren“ (Dissertation der Margarete Furcht 1902).

Nachdem 1897 Frauen zum Studium an der philosophischen Fakultät der öster­reichischen Universitäten zugelassen wurden, waren es anfangs nur wenige, die tatsächlich ein Studium begannen, häufig mit der Absicht eine Lehramtsprüfung abzulegen, um dann an einem Gymnasium für Mädchen zu unterrichten. Nur ein Teil der ersten Studentinnen an den österreichischen Hochschulen schlossen das Studium mit einem Doktorat ab, gleichgültig in welchem Fach:

In Germanistik waren es drei Frauen, deren Dissertation 1903 angenommen wurde, in Anglistik und Romanistik je eine. In Mathematik gab es die erste Dissertation schon 1900, im Fach Botanik 1901 und im Fach Chemie 1902. Die oben erwähnte Olga Steindler promovierte im Fach Physik 1903; Abbildung 1.

Abbildung 1. Olga Steindler (1879 - 1933) promovierte 1903 als erste Physikerin an der Univ. Wien, legte im selben Jahr auch die Lehramtsprüfung für Mittelschulen ab, unterrichtete in Folge an einem Wiener Mädchengymnasium und befasste sich mit Themen aus dem Bereich der Optik (Rechts: aus Jahresbericht des Mädchen-Obergymnasiums mit Öffentlichkeitsrecht des Vereines für erweiterte Frauenbildung 14 1905/06, 4-11 ÖNB 496086-B.Neu) Bild: http://bit.ly/2qEaeZ5

Als in den folgenden Jahren die Zahl der Studentinnen wuchs, wurde ersichtlich, welche Fachgebiete besonderes Interesse fanden: Bis 1914 gab es In Germanistik nicht weniger als 54 Dissertationen, in Romanistik 14 und in Anglistik 6. Im selben Zeitraum wurden 11 mathematische, 22 botanische 18 chemische und 14 physikalische Dissertationen angenommen worden. In keinem naturwis­senschaft­lichen Fachgebiet gab es auch nur annähernd so viele Studienabschlüsse, wie in der Germanistik.

Die Zahl der Frauen, die an der Universität Wien ihr Studium in den vier Fächern, Mathematik, Botanik, Chemie und Physik mit einem Doktorat abschlossen, war in Relation zu der Zahl der Männer größer als an der Deutschen Universität in Prag und noch viel größer als an der Tschechischen Universität. Abbildung 2.

Zum Vergleich: 50 Jahre später, zwischen 1950 und 1955, war die Zahl der Studentinnen, die in den vier untersuchten Fachgebieten an der Universität Wien promovierten, zwar stark gestiegen aber das relative Verhältnis von Frauen zu Männern noch immer niedrig, mit Ausnahme des Fachs Botanik.

Abbildung 2. Studienabschlüsse in Mathematik, Physik, Chemie und Botanik von Frauen und Männern in den Jahren 1900 - 1914 und zum Vergleich von 1950 -1955.

Herkunft, Religion und Stand des Vaters/Vormundes der Studentinnen

An Hand der sogenannten „Nationale“ - dem Personaldatenblatt, das alle Studenten auszufüllen hatten, - konnten diese Daten von 85 % der Absolventinnen erhoben werden.

Bemerkenswert ist die niedrige Zahl der Studentinnen aus den Bundesländern des heutigen Österreich. Die Ursache dafür mag die geringe Zahl von Bildungsstätten für Mädchen in diesen Gebieten gewesen sein. Wie Otto Neurath in einem 1914 erschienen Artikel behauptete, war Galizien das Gebiet mit der höchsten Dichte an Mädchengymnasien. Abbildung 3 :

Abbildung 3. Herkunft und Religion der Frauen, die im Zeitraum 1900 - 1919 an der Universität Wien in Mathematik oder Naturwissenschaften promoviert haben.

Wenn man sich die Berufsstruktur der Väter anschaut, sieht man, dass die Väter der katholischen Studentinnen vorwiegend höhere Beamte in der Verwaltung, bei Gericht, bei der Nordbahn, in der Armee oder im Unterrichtswesen, waren aber nur wenige Anwälte oder Ärzte. Ähnlich war die Situation bei den Vätern der evangelischen Studentinnen; nur gab es bei ihnen relativ mehr Anwälte. Die Väter der jüdischen Studentinnen waren hingegen vorwiegend in der Privatwirtschaft tätig oder arbeiteten als Anwälte und Ärzte, nur wenige waren Lehrer oder im Staatsdienst tätig. Bemerkenswerte Unterschiede sind bei einzelnen Fachrichtungen festzustellen: bei den Vätern der katholischen Botanikstudentinnen, gab es mehrere, die in der Privatwirtschaft als Direktoren, Hoteliers oder Gutsbesitzer tätig waren.

Die geringe Anzahl von katholischen oder evangelischen Studentinnen, deren Väter in der Privatwirtschaft tätig waren, deutet allerdings darauf hin, dass es in diesem Teil des Bürgertums noch größere Vorurteile gegenüber einem Frauenstudium gab als beim jüdischen Bürgertum.

An der Deutschen Universität in Prag waren die Verhältnisse sehr ähnlich. Außer einem Universitätsprofessor und einem Arzt waren die Väter von den acht jüdischen Studentinnen in der Privatwirtschaft tätig, dagegen - mit Ausnahme eines Landwirts - die Väter von fünf katholischen Studentinnen höhere Beamte. Von den Vätern der zwei evangelischen Studentinnen war einer Professor, der andere Fabrikant.

Die Studienrichtungen

Abbildung 4 bringt eine Zusammenstellung der Studienabschlüsse von Frauen und Männern in den einzelnen Fachgebieten:

Abbildung 4. Promotionen an der Universität Wien in Mathematik und Naturwissenschaften zwischen 1900 und 1919.

Es gab Unterschiede der gesellschaftlichen Herkunft zwischen den Studentinnen der einzelnen Fachrichtungen aber auch zwischen denen, die noch vor dem Krieg ihr Studium abschlossen und denen, die erst während des Krieges promovierten.

Als bei Kriegsausbruch 1914 die Männer einberufen wurden, entstand ein Mangel an männlichen Dissertanten, die mit ihren Untersuchungen die Arbeit der Professoren und Dozenten unterstützen konnten. Es wurde nun für Frauen leichter sich um ein Doktoratsstudium zu bewerben, und es konnten - besonders in den naturwissenschaftlichen Fächern - auf einmal viel mehr Frauen ihr Studium mit einem Doktorat abschließen.

Das Mathematikstudium

hat für die spätere Ausübung des Lehramts wohl mehr Möglichkeiten geboten als ein reines Naturwissenschaftstudium, denn der Lehrplan sah sogar für die humanistischen Gymnasien in den 8 Mittelschuljahren 23 Stunden Mathematik vor, während sich die Fächer Physik und Chemie zusammen mit nur 13 Stunden begnügen mussten. Man kann außerdem davon ausgehen, dass der Abschluss eines Doktorats bei der Bewerbung um eine Stelle einen Vorteil bot.

Rund zwei Drittel der Mathmatikstudentinnen stammte aus Wien und etwas mehr als ein Drittel waren Jüdinnen. In keinem anderen Fachgebiet gab es einen so hohen Anteil an Töchtern von (Hochschul)Lehrern.

Das Chemiestudium

Für Chemikerinnen gab es wenige Möglichkeiten im Schulunterricht unterzukommen. Hingegen gab es zur Jahrhundert­wende in Wien und auch in anderen Teilen des Reiches zahlreiche Betriebe und Laboratorien, in denen die jungen Chemikerinnen offenbar hofften, eine Stellung zu finden. Elisabeth Ekl, die 1918 promovierte, war die einzige, die eine Anstellung als Assistentin erhielt, nämlich an der Technischen Hochschule in Wien, wo sie bis 1923 blieb. An der Universität wurde im untersuchten Zeitraum keine einzige Frau eingestellt.

Die Chemiestudentinnen stammten aus allen Teilen der Monarchie, wobei die größte Gruppe aus Wien kam.

Die erste Frau, die 1902 in Wien ein Chemiestudium beendete, war Jüdin und die Tochter eines Börsensensals. Bis 1914 gehörten rund zwei Drittel der Frauen der jüdischen Religion an, in den Kriegsjahren immerhin noch ein Drittel. Die Struktur der Berufe der Väter änderte sich in dem Maße, in dem es verhältnismäßig mehr katholische und weniger jüdische Studentinnen gab.

Das Physikstudium

Mehr als die Studentinnen der anderen Fachrichtungen waren es die Physikstudentinnen, die ein Studium begannen, um sich Wissen anzueignen in der Hoffnung als Wissenschaftlerinnen arbeiten zu können. Tatsächlich gelang dies in der ersten Generation der Lise Meitner (Abbildung 5). Für die Frauen jener Generation, die im Krieg studierte, sind Marietta Blau (Abbildung 5), Hilde Fonovits oder Elisabeth Bormann anzuführen. Andere beschäftigten sich später mit Kinderpsychologie (wie Hermine Hug von Hugenstein) oder mit Pädagogik und Erziehung (wie Olga Steindler, Abbildung 1) und drückten dem von ihnen gewählten Fachgebiet ihren Stempel auf. Es waren sehr bedeutende Frauen, deren Namen mit Recht in Lexika zu finden sind.

Es ist bemerkenswert, dass einige der Frauen der ersten Generation erst in einem relativ fortgeschrittenen Alter begannen Physik zu studieren. Nicht nur die Offizierstochter Hermine Hug von Hugenstein beendete ihr Studium mit 37 Jahren, auch die Pragerin Marie Buchmayer war 34 Jahre, als sie nach acht Semestern das Studium abschloss und Rosa Uzel, die Tochter eines hohen Beamten der Nordbahn, 32 Jahre. Auch andere, die 30 oder 31 Jahre alt waren, als sie nach einem regulären Studium fertig wurden, mussten offenbar große Schwierigkeiten überwinden bevor sie ihr Physikstudium aufnehmen konnten.

Abbildung 5. Lise Meitner - Mitentdeckerin der Kernspaltung - hat 1906 ihr Physikstudium an der Universität Wien abgeschlossen, Marietta Blau - Entwicklerin des photographischen Nachweises von Kernstrahlung - im Jahr 1919. (Bilder: Lise Meitner: gemeinfrei, adaptiert; MariettaBlau: R.Rosner,B.Strohmaier (Hrsg.): Marietta Blau – Sterne der Zertrümmerung, Biographie einer Wegbereiterin der modernen Teilchenphysik. 2003)

Lag das Verhältnis von Frauen zu Männern, die ihr Studium mit einem Doktorat abschlossen, vor dem Krieg bei 1 : 7, so war in den Kriegsjahren der Bedarf an Dissertantinnen so groß, dass sich das Verhältnis zwischen Männern und Frauen vollständig umdrehte und mehr als doppelt so viele Frauen promovierten. Mehr als 60 % dieser Frauen stammten aus Wien. Die angegebene Religionszugehörigkeit war bei rund 40 % der Studentinnen römisch katholisch, bei einem Drittel jüdisch.

Das Botanikstudium

Das Interesse am Studium der Botanik scheint zu Beginn des 20. Jahrhunderts größer gewesen zu sein, als am Studium der anderen besprochenen Disziplinen. Das Verhältnis zwischen Frauen und Männern lag mit etwas mehr als 1 : 4 niedriger als in der Mathematik (1 : 7), Chemie (1 : 12) oder Physik (1 : 7). Allerdings waren die Berufsaussichten nicht rosig: der Naturge­schichts­unterricht erfolgte in den Mittelschulen nur in der Unterstufe, die Botanik konnte demnach nur als Zweitfach dazu dienen eine Stelle an einer Mittelschule zu erhalten. Auch war die Botanik ein Fach, das nicht so viele Möglich­keiten bot in der Privatwirtschaft unterzukommen, wie es für die Chemie der Fall war.

Dass sich dennoch so viele Studentinnen für ein Botanikstudium entschieden, scheint darauf hinzuweisen, dass dieses Fach für Frauen besonders anziehend war. Es mag damit zusammen­hängen, dass in der traditionellen Frauenrolle in der Familie Gartenpflege, Blumen und dergleichen größere Bedeutung hatten als Themen der Chemie oder der Physik. Vielleicht war das der Grund, dass sich Ida Boltzmann, Tochter des Physikers Ludwig Boltzmann, für ein Botanikstudium entschloss, während ihr Bruder Andreas der Studienrichtung seines Vaters folgte. Eine der ersten Botanikstudentinnen war Emma Stiassny, die sich auch nach Abschluss ihres Studiums als Wissenschaftlerin einen Namen machte. Eine andere Botanikstudentin war Margarete Streicher, die neben Botanik Turnen als Zweitfach unterrichtete und später eine entscheidende Rolle bei der Modernisierung des Turnunterrichtes spielte.

Stammte zwischen 1900 und 1914 mehr als die Hälfte der 22 Studentinnen aus Wien, so sank deren Anteil während des Krieges zugunsten von Studentinnen aus Galizien und Mähren. Als Religionszugehörigkeit wurde vor und während des Krieges von 50 % der Studentinnen römisch-katholisch angegeben, der Anteil der Jüdinnen stieg dagegen von 18 % auf 45 %.

Fazit

Aus den Angaben, die Studentinnen bei der Inskription über Herkunft, Religionszugehörigkeit und Stand ihres Vaters, bzw. ihres Vormunds gemacht hatten, konnte ein grober Eindruck darüber gewonnen werden, aus welchen Gebieten und sozialen Schichten die jungen Frauen kamen, die sich für ein Studium an der Universität Wien entschieden. Unterschiede hinsichtlich der gesellschaftlichen Herkunft gab es zwischen den Studentinnen der einzelnen Fachrichtungen aber auch zwischen denen, die noch vor dem Krieg ihr Studium abschlossen und denen, die erst während des Krieges promovierten. Die geringe Anzahl von katholischen oder evangelischen Studentinnen, deren Väter in der Privatwirtschaft tätig waren, deutet allerdings darauf hin, dass es in diesem Teil des Bürgertums noch größere Vorurteile gegenüber einem Frauenstudium gab als beim jüdischen Bürgertum.


Weiterführende Links

Frauen in Bewegung: 1848-1938. Biographien, Vereinsprofile, Dokumente.

Artikel zu Frauen in den Naturwissenschaften im ScienceBlog

inge Thu, 01.06.2017 - 00:41

Der schlafende Wurm

Der schlafende Wurm

Do, 25.05.2017 - 15:36 — Henrik Bringmann Henrik BringmannIcon Gehirn

Wie und warum wir schlafen ist immer noch ein Rätsel. Schlaf ist wichtig für unsere Gesundheit. Doch wir wissen nicht, wie der Schlaf seine regenerierenden Kräfte entfaltet. Henrik Bringmann (Forschungsgruppenleiter am Max-Planck-Institut für Biophysikalische Chemie, Göttingen) widmet sich mit seinem Team diesen grundlegenden Fragen. Untersucht wird zurzeit der Schlaf in einem, molekularbiologisch betrachtet, sehr einfachen Modellorganismus: dem Fadenwurm Caenorhabditis elegans. Die Forscher konnten zeigen, dass nur ein einzelnes Neuron für das Schlafen dieser Würmer notwendig ist und das Einschlafen von einem definierten molekularen Mechanismus kontrolliert wird.*

Wie und warum schlafen wir?

Manchmal erscheint Schlaf wie Zeitverschwendung. Wir verbringen etwa ein Drittel unseres LebACens mAVit Schlafen. Welche wichtigen Dinge könnten wir alle erledigen, wenn wir nicht schlafen würden? Allerdings können wir auf Schlaf nicht verzichten! Schlafprobleme, insbesondere Ein- und Durchschlafprobleme, sind in unserer Gesellschaft weit verbreitet und die davon betroffenen Mitmenschen leiden unter den Folgen von schlechtem oder zu wenig Schlaf: Sie sind müde, unkonzentriert und wenig produktiv. Das schlafende Drittel unseres Lebens ist also gut investiert. Aber warum braucht unser Körpers Schlaf? Warum können wir uns nicht erholen, indem wir einfach nur wach im Bett liegen und nichts tun? Irgendetwas scheint im Schlaf regeneriert zu werden, aber was, ist nach wie vor ein Rätsel.

Nicht nur wir Menschen brauchen Schlaf, sondern auch Tiere. Schlaf wurde in allen darauf gründlich untersuchten Tieren nachgewiesen, die ein Nervensystem haben. Somit schlafen nicht nur Affen, Hunde und Vögel, sondern auch Schnecken, Fliegen und vermutlich sogar Quallen. Weil Schlaf im Tierreich so weit verbreitet ist geht man davon aus, dass er schon vor sehr langer Zeit entstand - vermutlich bereits nach oder mit der Entstehung von Nervensystemen. Möglicherweise reichen die Wurzeln des Schlafes aber noch weiter zurück.

Man geht davon aus, dass der Schlaf ähnliche Funktionen in verschiedenen Tierarten erfüllt. Daher sollte es möglich sein, durch das Studium von Schlaf in einfachen Modellorganismen bereits Grundlegendes über die Regulation und Funktion des Schlafes zu lernen, das auch für den Schlaf des Menschen von Bedeutung sein könnte. Modellsysteme, die aktuell für die Schlafforschung verwendet werden, reichen von Mäusen über Fische und Fliegen bis hin zu Würmern.

Das Gehirn kontrolliert den Schlaf

Zentral für die Kontrolle des Schlafes in Säugetieren sind spezialisierte Nervenzellen im Gehirn, sogenannte Schlaf-aktive, Schlaf-induzierende Neurone. Diese Nervenzellen werden beim Übergang von der Wach- in die Schlafphase aktiv und induzieren den Schlaf direkt durch das Ausschütten von inhibitorischen Neurotransmittern, nämlich Gammaaminobuttersäure (GABA) und Neuropeptiden. Dies führt zu einer Inhibierung von Wachsein-induzierenden Neuronen.

Schlaf ist somit ein aktiver Prozess, der vom Gehirn gesteuert wird und nicht eine passive Folge von Erschöpfung. Mit anderen Worten: Das Gehirn wird aktiv ausgeschaltet, damit es sich erholen kann. Über die Kontrolle von Schlaf-aktiven Nervenzellen ist nur wenig bekannt und man weiß bisher nicht, was zu einer Aktivierung von Schlaf-Neuronen zu Beginn des Schlafs führt.

Unsere Arbeitsgruppe möchte verstehen, wie Schlaf reguliert wird und wie der Schlaf seine regenerierende Wirkung entfaltet:

Versuchsobjekt ist der Fadenwurm Caenorhabditis elegans

C. elegans ist ein in der modernen Biologie etabliertes Modelltier für die Erforschung von grundlegenden molekularen Mechanismen. Die Arbeit mit C. elegans ist in vielerlei Hinsicht einfacher als die Arbeit mit Säugetiermodellen:

  • Der Wurm hat unter guten Wachstumsbedingungen eine kurze Generationszeit von nur knapp drei Tagen und er lässt sich in großen Mengen züchten - beides erlaubt umfassende genetische Untersuchungen.
  • Der Fadenwurm ist transparent, wodurch sich seine Gehirnaktivität und andere physiologische Prozesse nicht-invasiv beobachten lassen.
  • Nicht zuletzt hat der Wurm ein sehr kleines Gehirn, das aus nur rund 300 Nervenzellen besteht und deren Verknüpfung untereinander bekannt ist.

Wie andere Tiere schläft auch C. elegans. Juvenile Würmer schlafen mehr als adulte, und kranke Tiere mehr als gesunde. Die Arbeitsgruppe hat ein mikrofluidisches Verfahren entwickelt, mit dem die Würmer in winzigen Kammern gehalten und ihr Schlaf-Verhalten direkt untersucht werden kann (Abbildung 1).

Abbildung 1. Agrose-Hydrogel-Mikrokammern erlauben es, Caenorhabditis elegans zu kultivieren und die Entwicklung der Larven und ihren Schlaf zu beobachten. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Ein einziges Neuron reicht zum Einschlafen

Am Institut wurden genetische Screens durchgeführt, um Schlafmutanten zu identifizieren. Eine der daraufhin gefundenen Mutanten zeigte keinerlei messbaren Schlaf mehr. Dies konnte, so zeigte die nachfolgende Untersuchung, auf die Deletion von APTF-1, eines Transkriptionsfaktors aus der AP2-Familie, zurückgeführt werden.

Dieses Gen ist hochkonserviert und Mutationen in AP2 führen auch beim Menschen zu Schlafstörungen. Durch die Analyse von AP2 konnte ein einziges Neuron determiniert werden, das allein für den Wurm zum Schlafen notwendig ist: Ist nur dieses eine Neuron außer Funktion, wird der betreffende Wurm nie wieder schlafen können. Das Neuron, RIS genannt (Abbildung 2), enthält inhibitorische Neurotransmitter, und zwar, ähnlich wie bei Säugetieren, GABA und Neuropeptide.

Abbildung 2. Functional Imaging verschiedener Neurone inklusive des im Text beschriebenen RIS Neurons im Kopf eines nicht mutierten Exemplars von Caenorhabditis elegans (oben). Mitte: Lichtmikroskopische Aufnahme des Kopfes; unten: Überlagerung der oberen beiden Bilder. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Durch ein besonderes bildgebendes Verfahren, dem sogenannten funktionalen Imaging, konnte im Wurm-Gehirn gezeigt werden, dass das RIS-Neuron immer dann physiologisch aktiv wird, sobald ein Übergang vom Wach- zum Schlafzustand stattfindet (Abbildung 3).

Abbildung 3. Funktionales Calcium-Imaging zeigt, dass das RIS-Neuron in Caenorhabditis elegans spezifisch zu Beginn der Schlafphase aktiviert ist.(Rot stellt die Wachphase und blau die Schlafphase dar). Die untere Aufzeichnung zeigt die Beweglichkeit des Tieres. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Durch optogenetische Verfahren konnte der molekulare Mechanismus der Schlafinduktion aufgeklärt werden

Eine artifizielle, optogenetisch erzeugte Aktivierung von RIS durch einen lichtgesteuerten Ionenkanal kann zu jedem beliebigen Zeitpunkt ein waches Tier zum Schlafen bringen. Die Aktivierung des Neurons, wie bereits beschrieben, bewirkt, dass die inhibitorischen Neurotransmitter abgegeben werden mit der Folge, dass die Aktivität des Nervensystems global gedämpft wird. Der kritische Neurotransmitter, so zeigte sich, ist ein Peptid mit dem Namen FLP-11 (Abbildung 4). Das Schlaf-System von C. elegans hat somit eine erstaunliche Ähnlichkeit mit dem Schlaf-System der Säugetiere: Beide Systeme bestehen aus Schlaf-aktiven Schlaf-induzierenden Nervenzellen und nutzen GABA und Peptide zur Schlafeinleitung. Das RIS-System stellt dabei die ultimative Vereinfachung eines Schlaf-Systems dar, da es im Kern aus nur einer einzigen Schlaf-Nervenzelle besteht.

Abbildung 4. Ein Modell für das RIS Neuron, den Motor des Schlafes in Caenorhabditis elegans. (A) Transkriptionsfaktoren (LIM-6, APTF-1) bewirken die Expression der inhibitorischen Neurotransmitter GABA und FLP-11-Neuropeptide. Diese Transmitter sind stets im RIS Neuron vorhanden. (B) Zu Beginn der Schlafphase führt ein noch unbekanntes Signal, bedingt durch transiente Calcium Konzentrationsänderungen, zur Depolarisation von RIS und nachfolgend zum Ausschütten von FLP-11. Freigesetztes FLP-11 dämpft dann, vermutlich über einen endokrinen Mechanismus, die Aktivität von erregbaren Nervenzellen im Gehirn, was zum Schlafen führt. © Max-Planck-Institut für biophysikalische Chemie/Bringmann

Die Erforschung des Schlafneurons RIS in C. elegans stellt eine große Chance dar, die Regulation von Schlaf zu verstehen und mit überschaubarem Aufwand die Kontrolle des Schlafes in C. elegans aufzuklären. Wir wissen nur sehr wenig über die Funktionen des Schlafes. Sobald wir aber verstehen, wie Schlaf kontrolliert wird, können wir dieses Wissen nutzen, um Schlaf zu manipulieren oder die Menge des Schlafes und seine Qualität zu verändern und die Mechanismen, die dahinter stehen, aufzudecken.

C. elegans ist zwar ein hervorragendes System, um die Grundlagen des Schlafes zu eruieren. Doch der Schlaf in Säugetieren inklusive des Menschen ist deutlich komplexer als der Schlaf des Fadenwurmes. Wie können wir diese zusätzlichen Komplexitätsebenen studieren? Da der Schlaf der Tiere vermutlich einen gemeinsamen evolutionären Ursprung hat, sollte es möglich sein, Ergebnisse aus der Schlafforschung beim Wurm auch auf Säugetiermodelle zu übertragen. Ein etabliertes System hierfür ist die Maus, da sie molekularbiologisch zugänglich ist und ihr Schlafverhalten mittels Tests und physiologischen Untersuchungen beobachtet und gemessen werden kann. In vergleichenden Experimenten könnten beispielsweise homologe Gene der Maus ausgeschaltet werden, für die gezeigt wurde, dass sie den Schlaf in C. elegans kontrollieren. Die Ergebnisse könnten einen direkten Weg weisen, Schlafkrankheiten beim Menschen besser zu verstehen und zu behandeln.


Der unter dem Titel " Der schlafende Wurm" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel ( https://www.mpg.de/10937350; DOI 10.17617/1.42 ) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, allerdings ohne Literaturangaben. Die links zu den großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für Biophysikalische Chemie (Göttingen) http://www.mpibpc.mpg.de/de

Exzellentes Video über den Wurm C. elegans als Modellsystem von Jason Pellettieri: Online Developmental Biology: Introduction to C. elegans Video 26:05 min (englisch) https://www.youtube.com/watch?v=zc1P7lGSzdU Standard-YouTube-Lizenz

A brief introduction to C. elegans. Video 2:11 min (englisch). https://www.youtube.com/watch?v=zjqLwPgLnV0 Standard-YouTube-Lizenz
Virtual Worm Project http://caltech.wormbase.org/virtualworm/ an effort to recreate the nematode Caenorhabditis elegans in virtual form using the "free open source 3D content creation suite," Blender.

Artikel zum Thema Schlaf im ScienceBlog:

Kontrolle der Schlafsteuerung in der Fruchtfliege: Gero Miesenböck, 23.02.2017: Optogenetik erleuchtet Informationsverarbeitung im Gehirn http://scienceblog.at/optogenetik-erleuchtet-informationsverarbeitung-im....

Redaktion, 09.02.2017: Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild. http://scienceblog.at/die-schlafdauer-global-gesehen-aus-mehr-als-1-bill....


 

inge Thu, 25.05.2017 - 15:36

Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern

Do, 11.05.2017 - 07:06 — Ilona Grunwald Kadow Ilona Grunwald KadowIcon Gehirn

Körperliche Verfassung und Lebensumstände können sowohl die Wahrnehmung als auch die Reaktion auf den Geruch oder Geschmack bestimmter Nahrung verändern. Was diese Veränderung jedoch auslöst, ist noch unklar. Die Autorin (ehem. Forschungsgruppenleiterin am MPI für Neurobiologie, jetzt Professor für Nervensystem und Metabolismus an der TU München) konnte zeigen, dass befruchtete Weibchen der Fruchtfliege (Drosophila melanogaster) nach der Befruchtung polyaminreiche Nahrung bevorzugen und diese mittels bestimmter Geruchs- und Geschmacksrezeptoren identifizieren. Körperliche Bedürfnisse können also die Sinne und letztlich das Verhalten beeinflussen.*

Sinneseindrücke wie Geruch und Geschmack bilden die Basis für unser Verhalten, unsere Entscheidungen und unsere Präferenzen. Sie sind entscheidend bei der Wahl unserer Nahrung und ermöglichen es, Toxine, Bakterien, Pilze oder sonstige Verunreinigungen zu vermeiden. Unsere Sinne verändern sich aber auch je nach physiologischem Zustand und Bedürfnislage. Hunger erhöht nicht nur unser Interesse an Nahrung, sondern sensibilisiert auch unseren Geruchs- und Geschmackssinn.

Andere wichtige physiologische Veränderungen, zum Beispiel eine Schwangerschaft, beeinflussen ebenfalls die Wahrnehmung von Geruch und Geschmack. Eine große Frage in der neurobiologischen Forschung ist daher, wie der Körper mit dem Nervensystem kommuniziert, um unser Verhalten und unsere Nahrungspräferenzen an solche Zustandsveränderungen anzupassen. Nach wie vor ist unklar, wie die Sinnesveränderungen mit den physiologischen und metabolischen Bedürfnissen des Körpers verbunden sind. Diese Mechanismen haben die Neurobiologen am Max-Planck-Institut in Martinsried/München in der Fruchtfliege untersucht. In zwei aktuellen Arbeiten konzentrierten sie sich auf Polyamine, die ein essentieller Nahrungsbestandteil mit wichtiger Bedeutung für den tierischen und menschlichen Körper sind.

Polyamin-Rezeptoren fördern das Überleben und den Reproduktionserfolg

Polyamine tragen so charakteristische Namen wie Cadaverin, Spermin oder Putrescin (lateinisch putridus bedeutet faulig). Abbildung 1 (von Red. eingefügt).

Abbildung 1. Einige wichtige Polyamine. Es sind kleine, stark basische Verbindungen, die in allen lebenden Zellen vorkommen und essentielle physiologische Funktionen ausüben. (Bild von Red. eingefügt)

Was für uns Menschen und viele Tiere gerade in höheren Konzentrationen durchaus unangenehm riecht, ist gleichzeitig überlebenswichtig. Ein Mangel an Polyaminen wird mit neurodegenerativen Erkrankungen, Altern und Abnahme der Fruchtbarkeit in Verbindung gebracht. Neue Daten zeigen, dass Polyamine als Nahrungsergänzung das Herz schützen und so lebensverlängernd wirken können. Zu viel an bestimmten Polyaminen scheint hingegen bei der Entstehung von Krebs eine Rolle spielen. Obwohl der Körper Polyamine zum Teil selbst herstellt und ein weiterer Teil durch Darmbakterien produziert wird, muss ein variierender Anteil über die Nahrung aufgenommen werden. Mit fortschreitendem Alter sinkt die körpereigene Produktion, sodass die Aufnahme von Polyaminen mit der Nahrung dann immer wichtiger wird.

Das führte zu unserer Hypothese, dass die Polyaminaufnahme an die aktuellen Bedürfnisse des Körpers angepasst sein müsste. Ob und wie Polyamine erkannt werden und wie der Körper die Aufnahme an die jeweilige Bedürfnislage anpasst, war noch weitgehend unerforscht. Anhand des Modells der Fruchtfliege untersuchten die Neurobiologen daher, wie Tiere Polyamine wahrnehmen und welchen Einfluss Körper und Physiologie haben.

Verhaltensstudien an Fliegen...

Wie Verhaltensversuche zeigten, werden Fliegen vom Polyamingeruch stark angezogen; sie legen ihre Eier lieber auf polyaminreiche, ältere Früchte als auf frische. Durch eine Reihe von genetischen Experimenten fanden die Wissenschaftler heraus, dass Fliegen die Polyamine mit dem Geruchs- und Geschmackssinn wahrnehmen. Welche Geschmacks- und Geruchssinneszellen dabei aktiv wurden, zeigte sich unter dem Mikroskop (Abbildung 2).

Abbildung 2. Die chemosensorischen Nervenzellen im Bein der Fruchtfliege werden aktiv, wenn zwei evolutionär sehr alte Rezeptoren Polyamine erkennen. © MPI für Neurobiologie/Loschek

...kombiniert mit genetischen Studien

Durch die Kombination der Verhaltensstudien und genetischen Untersuchungen konnten die Forscher drei Rezeptoren identifizieren, die zu derselben Rezeptorklasse gehören und in den Sinneszellen den Geruch und Geschmack von Polyaminen vermitteln. Diese Rezeptoren gehören zu einer evolutionär sehr alten Klasse von Proteinen, den sogenannten ionotropischen Rezeptoren (IRs). Diese sind mit Rezeptoren verwandt, welche die synaptische Aktivität von Nervenzellen kontrollieren. Interessanterweise werden auch diese synaptischen Rezeptoren durch Polyamine, die unter anderem in synaptischen Vesikeln enthalten sind, beeinflusst. Warum bestimmte Geschmacks- und Geruchsrezeptoren nur spezifische Geschmäcke oder Gerüche erkennen, ist unklar. Die Ähnlichkeit zwischen IRs und synaptischen Rezeptoren könnte helfen, zu verstehen, warum Polyamine von IRs erkannt werden.

Die Ergebnisse zeigen, dass Fliegen eine polyaminreiche Nahrungsquelle zunächst über zwei dieser IRs (IR76b und IR41a) anhand des Geruchs finden (Abbildung 3). Dort hingelangt, erkennen die Geschmacksnervenzellen über den IR76b-Rezeptor zusammen mit einem Bitter-Rezeptor (GR66A)die Qualität der gefundenen Polyamine. Ähnlich wie bei uns Menschen scheint eine zu hohe Polyamin-Konzentration die Fliegen eher abzuschrecken. Sie fraßen oder legten ihre Eier nur dann auf polyaminreiches Futter, wenn zusätzliche Futterkomponenten wie zum Beispiel Zucker den bitteren Geschmack der Polyamine überdeckten.

Abbildung 3. Jeweils zwei Rezeptoren ermöglichen es der Fruchtfliege, die überlebenswichtigen Polyamine in der Nahrung aufzuspüren. © MPI für Neurobiologie/Gompel

Es ist denkbar, dass das Erkennen von Polyaminen mithilfe dieser Rezeptoren bereits früh in der Entwicklungsgeschichte das Überleben von Tieren verbessert hat, da wichtige Nahrungskomponenten gefunden und in der richtigen Menge aufgenommen werden konnten.

Die Untersuchungen der Forscher zeigten auch, dass sich zumindest Mücken vom Geruch der Polyamine ähnlich angezogen fühlen wie Fliegen. Während vergleichbare Mechanismen somit auch bei anderen Tierarten möglich sind, könnten die Ergebnisse ebenfalls bei der Bekämpfung für den Menschen gefährlicher Arten - wie z. B. der Asiatischen Tigermücke (Stegomyia albopicta) - interessant sein.

Neuropeptide verändern Wahrnehmen und Verhalten

Polyamine werden besonders bei körperlicher Belastung vermehrt gebraucht. Eine besonders große Herausforderung für den Organismus ist die Trächtigkeit/Schwangerschaft. Um die heranwachsenden Nachkommen optimal zu versorgen und gleichzeitig die eigenen, gesteigerten Körperfunktionen aufrecht zu erhalten, muss sich die Ernährung auf die geänderten Anforderungen umstellen.

Ähnlich wie beim Menschen oder der Maus wirken sich zusätzliche Polyamine in der Nahrung positiv auf den Reproduktionserfolg von Fliegen aus. So legten Tiere, die eine Nahrung mit hohem Polyaminanteil zu sich nahmen, mehr Eier und produzierten mehr Nachwuchs. Diese Daten legten die Vermutung nahe, dass tragende Weibchen ein höheres Interesse an dieser Art von Nahrung zeigen müssten. Tatsächlich fanden die Forscher, dass Fruchtfliegenweibchen nach der Paarung Nahrung mit einem höheren Polyamin-Anteil stärker bevorzugten als vor der Paarung. Eine Kombination aus Verhaltensstudien und physiologischen Untersuchungen ergab, dass die veränderte Anziehungskraft der Polyamine auf die Fliegen vor und nach der Paarung durch den Neuropeptid-Rezeptor SPR (Sex Peptid Rezeptor) und seinen Bindungspartner MIP (myoinhibitorisches Peptid) ausgelöst wird. Überraschenderweise bewirkte die Aktivierung des SPR nicht nur, dass die Weibchen überhaupt Eier legten, wie in vorangegangen Studien bereits gezeigt wurde, sondern sie veränderte direkt die Nervenübertragung in den Sinneszellen, die für die Erkennung von Polyamin-Geschmack und –Geruch zuständig sind. Diese Veränderung war ausreichend, um die Verhaltensänderung der Tiere zu erklären.

Neuropeptide verändern die Reizbarkeit oder Übertragungsleistung von Nervenverbindungen. Sie spielen in vielen wichtigen Prozessen eine Rolle. Zum Beispiel verändert sich die Wahrnehmung in Tieren, wenn sie hungrig sind, oder sich in einem bestimmten emotionalen oder physischen Zustand befinden. Die neuen Ergebnisse zeigen nun, dass in trächtigen Weibchen deutlich mehr SPR-Neuropeptid-Rezeptoren in die Oberflächen von polyaminsensitiven, chemosensorischen Nervenzellen eingebaut werden. Polyamine werden so bereits am Eingang der Verarbeitungskette von Gerüchen und Geschmäckern verstärkt wahrgenommen. Die Bedeutung des Rezeptors zeigte sich vor allem, als die Forscher durch eine genetische Modifikation das SPR-Vorkommen in Geruchs- und Geschmacksneuronen nicht-trächtiger Weibchen steigerten: Die Veränderung reichte aus, um die Nervenzellen von jungfräulichen Fliegen stärker auf Polyamine reagieren zu lassen. Letztendlich führte dies dazu, dass die Weibchen ihre Vorlieben änderten und wie ihre verpaarten Artgenossinnen die polyaminreiche Nahrungsquelle anflogen.

Zusammenspiel von Körper und Gehirn

Die Ergebnisse der Neurobiologen weisen auf einen Mechanismus hin, wie körperliche Veränderungen (hier Trächtigkeit oder Schwangerschaft) die chemosensorischen Nervenzellen modifizieren und so die Wahrnehmung wichtiger Nährstoffe und die Reaktion darauf verändern können (Abbildung 4).

Abbildung 4. Das Nervensystem und die inneren Organe interagieren, um beispielsweise physiologische Zustände zu kommunizieren. IR76b Nerven innervieren nicht nur das Gehirn und die Sinnesorgane, sondern auch die inneren Organe. Blau: Ovar, Rot: IR76b Nerven, Grün: Darm. © MPI für Neurobiologie/Loschek.

Welche Nervenverbindungen das Körperinnere, wie Darm und Reproduktionsorgane, mit dem Gehirn verbinden und wie sie genau kommunizieren, wollen die Forscher in weiteren Studien klären. Möglicherweise spielen Geschmacks- oder andere Rezeptormoleküle, die direkt Moleküle aus der Nahrung oder in den Reproduktionsorganen erkennen, eine Rolle. Da Geruch und Geschmack in Insekten und Säugetieren ähnlich verarbeitet werden, könnte ein entsprechender Mechanismus auch beim Menschen dafür sorgen, dass das heranwachsende Leben optimal versorgt ist.


* Der unter dem Titel " Wie körperliche Bedürfnisse und physiologische Zustände die sensorische Wahrnehmung verändern" im Jahrbuch der Max-Planck-Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/10957858; ) wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, geringfügig für den Blog adaptiert (Abbildung 1 wurde von der Redaktion eingefügt und ebenso einige Absätze und Untertitel für's leichtere Scrollen), allerdings ohne Literaturangaben. Die großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Weiterführende Links

Max-Planck-Institut für Neurobiologie http://www.neuro.mpg.de/ 

Wie der Geruchssinn funktioniert (Animationen): Max-Planck-Film 3:15 min. https://www.mpg.de/785777/Riechen https://www.mpg.de/785777/

Riechen Ulrich Pontes (2013) Riechen und Schmecken – oft unterschätzt. https://www.dasgehirn.info/wahrnehmen/riechen-schmecken/riechen-und-schm...

Im ScienceBlog

Themenschwerpunkt Sinneswahrnehmung/ Riechen und Schmecken: http://scienceblog.at/sinneswahrnehmung-riechen-schmecken



 

inge Fri, 05.05.2017 - 07:06

Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

Überschreitungen von Diesel-Emissionen — Auswirkungen auf die globale Gesundheit und Umwelt

Do, 18.05.2017 - 15:33 — IIASA IIASAIcon Politik & Gesellschaft

Ausgehend von dem Skandal um die manipulierten Stickstoffoxidemissionen von Dieselmotoren im Jahr 2015 hat sich herausgestellt, dass unter realen Fahrbedingungen (die meisten) Dieselfahrzeuge die vorgeschriebenen Emissions-Grenzwerte nicht einhalten. Stickstoffoxide (NOx) entstehen als Nebenprodukte bei der Verbrennung fossiler Brennstoffe, wie beispielsweise Kohle oder Öl, und können die Gesundheit gefährden. Unter Beteiligung von IIASA-Forschern ist vorgestern eine Studie erschienen [1], die auf der Basis etablierter Modelle erstmals versucht die globalen Auswirkungen von NOx - Emissionen quantitativ zu erfassen. So werden Überschreitungen von Stickstoffoxid Emissionen weltweit mit rund 38 000 vorzeitigen Todesfällen im Jahr 2015 in Verbindung gebracht - hauptsächlich betroffen waren die Europäische Union, China und Indien.*

Weltweit tragen Stickstoffoxid-Abgase von mit Dieselkraftstoff betriebenen Autos, Lastwagen und Bussen wesentlich zu den Luftverschmutzung hervorgerufenen Todesfällen bei. Und diese Auswirkungen der Abgase steigen an – trotz gesetzlichen Grenzwerten. Als 2015 aufgedeckt wurde, dass Volkswagen und andere Hersteller Abschalteinrichtungen verwenden, um vor den Behörden zu verschleiern, dass ihre Dieselautos zu viel Stickstoffoxide (NOx: Sammelbezeichnung für die verschiedenen gasförmigen Oxide des Stickstoffs; Anm. Red.) produzieren, half dies das Abgasproblem in den Blickpunkt öffentlicher Aufmerksamkeit zu rücken. Das Problem liegt aber nicht nur bei den Abschalteinrichtungen.

Leichte wie auch schwere Dieselfahrzeuge stoßen im Straßenverkehr mehr NOx-Abgase aus als unter zertifizierten Testbedingungen im Labor. Die Gründe dafür sind vielfältig - reichen von Details in der Kalibrierung zu Störungen im Betrieb, mangelhafter Wartung, Manipulationen durch den Fahrzeughalter, absichtlicher Verwendung von Abschalteinrichtungen oder einfach fehlerhaften Verfahren in der Zertifizierungsprüfung. Abbildung 1.

Abbildung 1. Schwere wie auch leichte Nutzfahrzeuge stoßen im Straßenverkehr mehr NOx-Abgase aus als unter zertifizierten Testbedingungen im Labor. © Maznev Gennady | Shutterstock

Wieviel NOx wird von Dieselfahrzeugen emittiert?

Bis jetzt haben solide Daten über die Auswirkungen von Überschreitungen der NOx-Emissionen durch Dieselfahrzeuge gefehlt – sowohl in Hinblick auf die Volksgesundheit als auch auf die Umwelt. Eine neue Untersuchung, die eben im Journal Nature erschienen ist [1], hat nun die 11 wichtigsten Dieselfahrzeugmärkte untersucht, die im Jahr 2015 in Summe mehr als 80 % verkaufter neuer Dieselfahrzeuge repräsentieren (Australien, Brasilien, Kanada, China, EU, Indien, Japan, Mexiko, Russland, Südkorea und die USA). Dabei stellte sich heraus, dass unter realistischen Fahrbedingungen diese Fahrzeuge 13,2 Millionen Tonnen NOx emittieren, das sind um 4,6Mio Tonnen mehr als die auf Grund der offiziellen Labortests erwarteten 8,6 Mio Tonnen.

"Schwere Nutzfahrzeuge – gewerbliche Lastkraftfahrzeuge und Busse – trugen weltweit mit 76 % der gesamten NOx- Emissionen am meisten zu den Überschreitungen bei. Und die Fahrzeuge in fünf Märkten - in Brasilien, China, der EU, Indien und den USA - produzierten 90 % davon. In Hinblick auf leichte Diesel-Nutzfahrzeuge - PKWs und Lieferwagen - war die Europäische Union für nahezu 70 % der Emissionsüberschreitungen verantwortlich" konstatierte Josh Miller, Forscher am International Council on Clean Transportation (ICCT) und Ko-Erstautor der Studie.

Die IIASA-Forscher Zbigniew Klimont und Chris Heyes haben zu dieser Studie Daten über die globalen NOx- Emissionen aus dem IIASA Greenhouse gas - Air pollution Interactions and Synergies (GAINS) Modell beigetragen.

"Während global gesehen Dieselfahrzeuge im Straßenverkehr mit über 20 % zu den gesamten NOx- Emissionen beitragen, ist deren Anteil in einigen Regionen wesentlich höher; in der EU übersteigt der Anteil 40 %, wobei rund die Hälfte davon durch unzureichende Umsetzung bestehender Standards bedingt ist. Die Höhe der Emissionen kann auch die Erreichung anderer Umweltziele gefährden, welche die Einhaltung strengerer Emissionsnormen annehmen" meint Klimont.

Auswirkungen auf die Gesundheit

NOx sind Hauptverursacher der Luftverschmutzung in Form von bodennahem Ozon und sekundären partikelförmigen Stoffen. Langfristige Exposition gegenüber diesen Schadstoffen steht in direktem Zusammenhang mit gesundheitlichen Problemen. Diese schließen Behinderungen mit ein, verlorene Lebensjahre auf Grund von Schlaganfällen, ischämischen Herzerkrankungen, chronisch obstruktiven Lungenerkrankungen und Lungenkrebs. Insbesondere sind sensitive Personengruppen betroffen, die ein höheres Risiko für chronische Krankheiten haben wie z.B. die ältere Bevölkerung.

Um die Schäden abschätzen zu können, die durch NOx- Emissionen von Dieselfahrzeugen entstehen, hat die Studie nun Ergebnisse aus Untersuchungen im realen Fahrbetrieb mit globalen Atmosphärenmodellierungen, Satellitenbeobachtungen und Modellen zu Gesundheit, Ernteerträgen und Klima kombiniert.

Die Studie schätzt nun, dass auf Grund der NOx- Emissionsüberschreitungen durch Dieselfahrzeuge weltweit rund 38 000 vorzeitige Todesfälle eingetreten sind, der Großteil davon in der EU, in China und Indien. Abbildung 2. "Die Folgen für die Bevölkerung sind augenfällig," sagt Susan Anenberg Ko-Erstautorin der Studie und Mitbegründerin der Environmental Health Analytics, LLC. "Die jährliche Mortalität durch Ozonbelastung könnte um 10 % niedriger sein, wenn die NOx- Emissionen von Dieselfahrzeugen innerhalb der festgesetzten Normen lägen."

Abbildung 2. Durch NOx-Emissionen von Dieselfahrzeugen im Jahr 2015 verursachte vorzeitige Todesfälle. (Todesfälle durch NOx innerhalb der gesetzlichen Grenzwerte: blau, durch Emissionsüberschreitungen: schwarz und rot.). Abschätzungen für die 11 wichtigsten Dieselfahrzeugmärkte. © Annenberg et al, 2017

Für 2040 sagt die Studie voraus, dass die globalen Auswirkungen der NOx- Emissionen von Dieselfahrzeugen bereits 183 600 vorzeitige Todesfälle verursachen könnten, sofern die Regierungen nichts dagegen tun. In einigen Ländern könnte die Einführung der strengsten Richtlinien - wie sie anderswo schon etabliert sind - die Situation wesentlich verbessern. "Die wichtigste Einzelaktion zur Reduzierung der Gesundheitsfolgen von NOx- Emissionen ist, dass Länder für Schwerlaster eine EURO VI Auspuffemissions-Richtlinie anwenden und durchsetzen. Zusammen mit einer strengeren Einhaltung der Richtlinien für leichte Nutzfahrzeuge und Standards der nächsten Generation könnten so die Emissionsüberschreitungen nahezu eliminiert werden - Maßnahmen, mit denen im Jahr 2040 an die 174 000 durch Luftverschmutzung verursachte Todesfälle und 3 Millionen verlorene Lebensjahre vermieden werden könnten, " so Ray Minjares, Koautor der Studie und Leiter des Clean Air Program am ICCT.

Die wichtigsten Ergebnisse der Studie zusammengefasst:

  • Die infolge von Diesel NOx-Emissionen gestiegene Luftverschmutzung hat im Jahr 2015 weltweit 107 600 vorzeitige Todesfälle verursacht. Von diesen sind 38 000 auf "Überschreitungen der NOx- Emissionen" - d.i. Emissionen unter realistischen Fahrbedingungen verglichen mit Emissionen unter zertifizierten Labor-Testbedingungen - zurückzuführen. Rund 80 % dieser Todesfälle traten in drei Regionen auf: in der EU, in China und Indien. Im Vergleich dazu sind 2015 etwa 35 000 Menschen bei Verkehrsunfällen in den US gestorben und etwa 26 000 in der EU.
  • China erfuhr die schwerste Gesundheitsbelastung durch Diesel NOx-Emissionen (31 400 Tote, davon 10 700 durch Emissionsüberschreitungen), gefolgt von der EU (28 500 Tote, davon 11 500 durch Emissionsüberschreitungen) und Indien (26 700 Tote, davon 9 400 durch Emissionsüberschreitungen).
  • In der EU waren leichte Dieselfahrzeuge für 6 von 10 durch NOx-Emissionsüberschreitungen verursachte Todesfälle verantwortlich.
  • In den US passierten durch NOx-Emissionsüberschreitungen geschätzte 1 100 Todesfälle - schwere Nutzfahrzeuge führten zu 10 mal so vielen Toten wie die leichten Nutzfahrzeuge.
  • Im Labor hielten zertifizierte Fahrzeuge die vorgeschriebenen Emissionsgrenzwerte ein, unter realistischen Fahrbedingungen produzierten leichte Nutzfahrzeuge 2,3 mal so hohe Werte und schwere Nutzfahrzeuge 1,45 mal so hohe Werte.

[1] Anenberg S, Miller J, Minjares R, Du L, Henze D, Lacey F, Malley C, Emberson L, Franco V, Klimont Z, and Heyes C (2017). Impacts and mitigation of excess diesel NOx emissions in 11 major vehicle markets. Nature 15 May 2017.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text und die Abbildungen 1 und 2 stammen von der am 15. Mai 2017 auf der Webseite des IIASA erschienenen Pressemitteilung “ Excess diesel emissions bring global health and environmental impacts" http://www.iiasa.ac.at/web/home/about/news/170515-air-diesel.html . IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt.


Weiterführende Links

Aus dem Helmholtz Zentrum München (Deutsches Forschungszentrum für Gesundheit und Umwelt):

Weitere

Artikel über Luftschadstoffe im ScienceBlog

inge Thu, 18.05.2017 - 15:33

Manfred Eigen: Von "unmessbar" schnellen Reaktionen zur Evolution komplexer biologischer Systeme

Manfred Eigen: Von "unmessbar" schnellen Reaktionen zur Evolution komplexer biologischer Systeme

Do, 04.05.2017 - 10:04 — Inge Schuster

Inge SchusterIcon WissenschaftsgeschichteIn wenigen Tagen feiert Manfred Eigen seinen 90. Geburtstag. Der langjährige ehemalige Direktor am Max-Planck Institut für Biophysikalische Chemie in Göttingen ist einer der vielseitigsten deutschen Naturwissenschafter: Seine bahnbrechende Arbeiten haben das Tor zu bis dahin für unmessbar schnell gehaltenen chemischen Reaktionen und deren Mechanismen geöffnet. Seine Fragen zur Evolution haben zu Theorien der Selbstorganisation komplexer Moleküle geführt und daraus zur evolutiven Biotechnologie, einem neuen, kommerziellen Zweig der Biotechnologie. Eigen hat zahllose renommierteste Auszeichnungen und Ehrungen erhalten, die Krönung war der Nobelpreis für Chemie im Jahr 1967 . Mein Mann und ich hatten das Glück als Postdocs an Manfred Eigens Institut arbeiten zu können.

Manfred Eigen wird 90!

Wenn wir das Phänomen Leben als eine Regelmäßigkeit im Verhalten der Materie ansehen, so erhebt sich die Frage: Was für ein physikalisches Prinzip steht hinter einer solchen Verhaltensweise, und was beiwrkt es? (Manfred Eigen, Stufen zum Leben; 1987)Manfred Eigen 1992Abbildung 1. Manfred Eigen 1992

Sein Name ist auch vielen Nicht-Wissenschaftern geläufig, Manfred Eigen ist zweifellos ein Topstar unter den Naturwissenschaftern - enorm vielseitig, unkonventionell, ungemein kreativ und visionär.

Manfred Eigen blickt auf einen ungewöhnlichen Werdegang zurück. Am 9. Mai 1927 in Bochum als Sohn eines Kammermusikers geboren, wuchs er in einem Haus auf, das voll von Musik war, Musik, die ihn faszinierte, die ihn bald konzertreif Klavier spielen ließ. Gleichzeitig entstand aber auch sein Interesse an der Chemie; er experimentierte in einem kleinen Labor, das er sich daheim eingerichtet hatte. Dieses Leben wurde durch den 2. Weltkrieg abrupt unterbrochen: als er 15 Jahre alt war, wurde er als Luftwaffenhelfer eingezogen, im April 1945 von amerikanischen Truppen am Salzburger Flughafen gefangen genommen. Zu Kriegsende kam er frei und wanderte zusammen mit einem Freund zu Fuß nachhause: von Salzburg nach Bochum - rund 1000 km weit.

Göttingen - Hochburg der Naturwissenschaften

Die Frage, ob er nun Musiker oder Naturwissenschafter werden wolle, entschied der Achtzehnjährige zugunsten der Naturwissenschaften, die Musik sollte bis heute sein Hobby bleiben. Manfred Eigen machte sich im Sommer 1945 (größtenteils zu Fuß) nach Göttingen auf - damals wie heute eine Hochburg der Naturwissenschaften -, um an der dortigen Universität Physikalische Chemie zu studieren. Die Matura als Voraussetzung zum Studium hatte er (ohne weiteren Schulbesuch) als mündliche Prüfung abgelegt. Unter Anleitung des renommierten Physikochemikers Arnold Eucken entstand die Doktorarbeit über die "spezifische Wärme von schwerem Wasser " (D2O), Bestimmungen, für die Manfred Eigen ein spezielles Messgerät (ein hochpräzises Kalorimeter) baute, die ihm Aussagen über die Wechselwirkungen zwischen den Wassermolekülen und später zwischen Ionen in Lösung erlaubten.

Die Relaxationskinetik

Bereits um 1953 hatte Manfred Eigen die bahnbrechende Idee, wie bis dahin für unmessbar schnell gehaltene chemische Reaktionen - z.B. Neutralisierungsreaktionen - gemessen werden könnten. Mischte man vordem miteinander reagierende Komponenten zusammen und wollte die Produktbildung verfolgen, so nahm der Mischvorgang bereits 1 Millisekunde in Anspruch - schnellere Reaktionszeiten blieben damit unmessbar. Eigen umging das Mischproblem, er begann mit der fertigen Mischung und störte deren Gleichgewicht durch plötzliche Änderung - d.i. einer Änderung mit bis zu weniger als 1 Milliardstel Sekunde Dauer - eines physikalischen Parameters wie Druck, Temperatur oder elektrischem Feld. Das System ging nun – relaxierte – in das neue Gleichgewicht; aus dieser sogenannten Relaxationskinetik ließen sich die kinetischen Parameter auch der schnellsten Reaktionen relativ einfach bestimmen.

Eigen veröffentlichte diese Entdeckung 1954; er hatte nun bereits ein Labor am neu gegründeten Max-Planck Institut für Physikalische Chemie in Göttingen, das aus dem ehemaligen Kaiser Wilhelm Friedrich Institut in Berlin entstanden war. Der Belgier Leo de Maeyer stieß zu der jungen Gruppe und trug wesentlich zur Weiterentwicklung der Relaxationsmethoden bei. Die neuen Techniken machte Furore. Elementarschritte in anorganischen, organischen und auch schon biochemischen Prozessen konnten nun erstmals gemessen werden, die Mechanismen der Prozesse analysiert werden. 1958 wurde Eigen zum Direktor des Max-Plack Instituts für Physikalische Chemie berufen. Er war nun bereits begehrter Vortragender in renommiertesten Instituten und auf internationalen Kongressen, an sein Institut kamen Scharen von Besuchern, die die neuen Techniken sehen, lernen und für ihre Fragestellungen anwenden wollten. Gerade 40 Jahre alt, wurde er 1967 für seine "studies of extremely fast chemical reactions, effected by disturbing the equilibrium by means of very short pulses of energy" mit dem Nobelpreis für Chemie ausgezeichnet.

In den ersten Monaten danach, kamen alle, die in der Wissenschaft Rang und Namen hatten in Göttingen vorbei, hielten Vorträge und standen für Diskussionen bereit.

Wie wir Göttingen erlebt haben

Unsere Postdoc-Zeit hatte mit 1.1.1968 begonnen, von da an konnten wir den Aufbruch der molekularen Wissenschaften an vorderster Front und in einem unglaublich stimulierenden Klima miterleben.

Unmittelbar nach unserem Eintritt fand ein sogenanntes Winterseminar in Sölden statt. Dieses ließ uns beim Schifahren, beim Essen und bei den Vorträgen unsere neuen Kollegen kennenlernen und machte uns mit ihren Interessen und Forschungsgebieten vertraut (bis zum heutigen Tag gab es bereits mehr als fünfzig dieser Seminare). Dazu gab es jeden Mittwoch nachmittags "Teestunden", in denen zwei bis drei von uns Jungforschern ihre Ergebnisse präsentierten, dabei - vor allem von Manfred Eigen -nach Strich und Faden kritisiert wurden und so enorm viel lernten (da alle kritisiert wurden, war dies für den Einzelnen kein Problem).

In Anbetracht der damals noch in den Kinderschuhen steckenden Molekularbiologie konstatierte Manfred Eigen sehr bald: "wir alle müssen mehr über Molekularbiologie lernen" und organisierte ein von der (1964 gegründeten) European Molecular Biology Organization (EMBO) finanziertes Meeting im Schloss Elmau zum Thema: "Physical and Chemical Characterization of Biological Macromolecules". Es müssen an die 150 Personen daran teilgenommen haben, darunter rund 30 der damals prominentesten Wissenschafter als eingeladene Vortragende (u.a. F. Crick, F. Lynen, L. Onsager, J. Wyman, kurzfristig J. Monod, Ch. Longuett-Higgins, H. Gutfreund, L. de Mayer, D. Crothers u.v.a.m.). Eine Kollage (Abbildung 1) soll an dieses Treffen erinnern.

Abbildung 2.Das EMBO-Meeting "Physical and Chemical Characterization of Biological Macromolecules"1968. In der Mitte steht Manfred Eigen. Links ganz unten: Francis Crick und Leo de Maeyer, Links daneben: Lars Onsager, links darüber: Ruthild Oswatitsch-Eigen und Manfred Eigen ,links oben: Peter Schuster und Hermann Träuble. Rechts: Shneior Lifson und Leo de Maeyer, 3 Gruppenbilder.

In den zwei Jahren lernten wir sehr viel. In der Zusammenarbeit mit dem Biochemiker Kaspar Kirschner, der aus der Schule von Feodor Lynen kam, begriff ich nun erst, wie man seriöse Biochemie betreibt; ich habe diese Erfahrungen später an meine Mitarbeiter und Studenten weitergegeben. Aus unserer Zusammenarbeit entstanden in kurzer Zeit fünf Arbeiten, die zeigten, dass kinetische und Gleichgewichts-Untersuchungen an dem Glykolyse-Enzym GAPDH in Einklang mit dem von Eigen und Kirschner postulierten Konzept einer allosterischen konzertierten Konformationsänderung waren.

Mein Mann untersuchte anfänglich Wasserstoffbrückenbindungen mit Hilfe von Relaxationskinetik, begann sich aber sehr bald für Manfred Eigens Überlegungen zur molekularen Evolution zu begeistern und entwickelte dafür Computer-Simulationen. Sie beschrieben das Konzept des Hyperzyklus in einer Reihe hochzitierter Veröffentlichungen: Der meistzitierte Artikel "Hypercycle - principle of natural self-organization. A. Emergence of Hypercycle" (1977) Naturwissenschaften 64:541-65 wurde bis heute 781 mal zitiert.

Die Vision eines neuen Instituts

In unserer Zeit als Postdocs waren wir noch im Institut für Physikalische Chemie in der Bunsenstrasse angesiedelt. Wir hörten von der Initiative Manfred Eigens, dass nun ein neues Institut entstünde, das transdisziplinär - mit biologischen, chemischen und physikalischen Methoden - komplexe Lebensvorgänge erforschen sollte. Die Vision wurde Wirklichkeit: Aus der Zusammenlegung der Institute für Physikalische Chemie und Spektroskopie ging das Institut für biophysikalische Chemie hervor, eine großzügige Anlage, die am Faßberg erbaut und 1971 eingeweiht wurde. Dieses Institut ist enorm erfolgreich: es wurden zahlreiche bedeutende Preise an Forscher des Instituts vergeben. 1991 erhielten Erwin Neher und Bert Sakmann den Nobelpreis für Physiologie oder Medizin für die Erforschung von Ionenkanälen in Membranen von Nervenzellen. 2014 wurde der Nobelpreis für Chemie an Stefan Hell verliehen für seine bahnbrechenden Arbeiten auf dem Gebiet der hochauflösenden Fluoreszenzmikroskopie

Was ist Leben?

Bereits 1967 hatte sich Manfred Eigen mehr und mehr der Biochemie zugewandt - den Mechanismen der Basenpaarung in den Nukleinsäuren, den Fragen zur Optimierung von Enzymfunktionen. Er begann sich mit Evolution zu beschäftigen: Gilt das Darwinsche Prinzip auch auf dem Niveau der Moleküle? Für die Optimierung von Enzymen? Wo findet der Selektionsprozess statt? Eigen begann eine kinetische Theorie der Reproduktion von Nukleinsäuren zu entwickeln. Diese entsprach dem Darwinschen Prinzip in einer wesentlich präziseren Form. Das was Biologen allgemein als "Wildtyp" bezeichnen, stellte sich als ein Spektrum von Mutanten heraus, der Begriff "Quasispecies" wurde für ein breit gestreutes Spektrum an Mutanten gewählt. Wie aber nun die für die Reproduktion nötigen Komponenten zusammenfinden, wurde im Konzept von sogenannten Hyperzyklen beschrieben. Abbildung 3.

Abbildung 3. Stark vereinfachte Darstellung eines Hyperzyklus. Dieser Hyperzyklus weist eine zyklische Folge von Rückkopplungen auf, in welcher Nukleinsäuren (I1 – I5) die Bildung von Enzymen (E1- E5) durch Übersetzung (Translation) katalysieren, welche wiederum die Replikation der Nukleinsäuren katalysieren.

Ein derartiger Hyperzyklus ist ein geschlossener Kreislauf von katalytischen Prozessen und zeigt bereits grundlegende Eigenschaften von Lebewesen: Selbstvermehrung und Vererbung - d.i. Weitergabe von Information -, Stoffwechsel sowie Mutation infolge unscharfer Replikation und er funktioniert nach dem Prinzip der Rückkopplung: Nukleinsäuren katalysieren die Bildung von Proteinen, von denen einige die Replikation der Nukleinsäuren katalysieren. Dies führt zu deren schnelleren Vermehrung. Hyperzyklen sind die Grundlage der Selbstorganisation der Materie.

Von Grundlagen- zur angewandten Forschung

Die Möglichkeit Evolutionsexperimente im Labor auszuführen hat zur Entwicklung von Evolutionsmaschinen und zu deren Anwendung in der Praxis geführt: Manfred Eigen hat damit eine neue Sparte der Biotechnologie, die evolutive Biotechnologie begründet. Mit Hilfe dieser Evolutionsmaschinen können grundlegende Mechanismen der Evolution beispielsweise von pathogenen Krankheitserregern untersucht werden aber auch optimierte neuartige Wirkstoffe entwickelt werden.

Die Arbeiten Manfred Eigens waren Basis für die Gründung zweier erfolgreicher Unternehmen, der Hamburger Evotec AG und der DIREVO Biosystems AG/Köln (heute: Bayer HealthCare AG).


Wenn es so etwas wie wissenschaftliche Prägung gibt, so hat uns unsere Postdoc Zeit in Göttingen für unser weiteres Leben geprägt. Durch Manfred Eigen haben wir den offenen, aber auch kritischen Blick auf eine Wissenschaft erfahren, die kontinuierlich Neues, bisher Undenkbares erschafft und sich an keine Fachgrenzen hält.

Seit nahezu fünfzig Jahren ist uns Manfred Eigen Freund, Lehrer und Vorbild - Seine Faszination an der Wissenschaft hat sich auf uns übertragen, ein Leben ohne fortwährende wissenschaftliche Betätigung ist für uns unvorstellbar geworden.

Dafür einfach "Danke" zu sagen, ist viel, viel zu wenig.

Zum runden Geburtstag gratulieren wir von ganzem Herzen!!


Weiterführende Links

Max-Planck Institut für Biophysikalische Chemie

Manfred Eigen

Immeasurably fast reactions. Nobelpreisrede (1967)

The Origin of Biological Information (1977) Video (Deutsch) 1:24:08.

What is life? - Manfred Eigen (1997) Video 3:47 min. (https://www.webofstories.com/play/manfred.eigen/ , Standard-YouTube-Lizenz)

Manfred Eigen At Work (1967). Video (ohne Ton) 1:35 min. (Quelle: British Pathe, Standard-YouTube-Lizenz)

Schöpfung ohne Schöpfer - Wie das Universum sich selbst organisiert. Video 58:46 min. Diskussion auf 3Sat über Selbstorganisation; Standard-YouTube-Lizenz)

Artikel zu Selbstorganisation/Evolution im ScienceBlog

inge Thu, 04.05.2017 - 10:04

Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium

Frauen in den Naturwissenschaften: erst um 1900 entstanden in der k.u.k Monarchie Mädchenmittelschulen, die Voraussetzung für ein Universitätsstudium

Do, 27.04.2017 - 09:01 — Robert W. Rosner Robert W. RosnerIcon Wissenschaftsgeschichte

Frauen wurden erst ab 1897 zum Studium an der Philosophischen Fakultät und ab 1900 an der Medizinischen Fakultät zugelassen. Voraussetzung war die Ablegung einer Matura. Da es im ganzen Reich nur sehr wenige vorbereitende Schulen für Mädchen gab, mussten diese als externe Schülerinnen an Knabenschulen zur Matura antreten. Von der Regierung geförderte Schulen für Mädchen waren sechsklassige Lyzeen, die keinen Antritt zur Matura ermöglichten. Deren Absolventinnen konnten an der philosophischen Fakultät nur als außerordentliche Hörerinnen inskribieren, an der medizinischen Fakultät überhaupt nicht studieren. Der Chemiker Robert Rosner hat nach seiner Pensionierung Wissenschaftsgeschichte studiert und beschäftigt sich seitdem vor allem mit der Geschichte der Physik und Chemie in Österreich. *

Genau zur Jahrhundertwende hatten die kaiserlichen Unterrichtsbehörden unter dem Minister für Kultus und Unterricht, Wilhelm Ritter v. Hartl, begonnen, Pläne für eine einheitliche höhere Frauenbildung zu entwickeln. Davor waren in vielen Teilen des Landes private Fortbildungsschulen für Mädchen entstanden, in die Mittelstandsfamilien ihre Töchter schickten. Es gab die verschiedensten Schultypen von zweiklassigen und dreiklassigen „Höheren Töchterschulen“ als Fortsetzung der Bürgerschulen bis zu sechsklassigen Lyzeen, mit entsprechend unterschiedlichen Lehrplänen, sowie Schulen, in denen junge Frauen für ihren Beruf vorbereitet wurden, wie Handels-und Gewerbeschulen. In einigen Kronländern gab es vereinzelt Schulen, in denen Mädchen für die Matura vorbereitet wurden.

Was ist höhere Frauenbildung?

In der Stellungnahme der Landesschulbehörden in Lemberg heißt es: Der Drang nach höherer Bildung ist auch in Galizien unter der weiblichen Jugend fühlbar geworden und betätigte sich sowohl in den Stimmen der öffentlichen Presse als auch in der wachsenden Frequenz aller Arten von Schulen, welche geeignet sind eine höhere Bildung der weiblichen Jugend zu vermitteln.

Eine ähnliche Stellungnahme kam aus Prag und aus Brünn. Dagegen meinte die Statthalterei in Innsbruck - auch in Hinblick auf die Aufbringung der finanziellen Mittel: Mit Rücksicht auf die Bedürfnisse dieses Kronlandes dürfte sich auch fernerhin weniger ein Streben nach Errichtung höherer Mädchenschulen nach Art und Organisation von Mittelschulen fühlbar machen als vielmehr solche Mädchenschulen welche einerseits allgemein ethische beziehungsweise sittlich-religiöse Erziehung fördern und andererseits beruflich praktischen Zwecken dienen, um so die Mädchen in das Berufs-und Wirtschaftsleben einzuführen und sie für die Leitung eines einfachen Haushalts vorzubereiten“….. Die erforderlichen Kenntnisse in der Unterrichtssprache, in Geographie und Geschichte, im Rechnen in der Naturlehre sowie im Zeichnen sind etwa in dem Umfang zu lehren, wie es etwa in den Lehrplänen der Bürgerschulen bestimmt ist – jedoch so können beispielweise im Rechnen die wichtigsten kaufmännischen Rechnungen sowie die Grundlagen der einfachen Buchführung behandelt und an praktischen Beispielen eingeübt werden. Ferner soll im Unterricht der Naturgeschichte auf die einheimischen für den Haushalt wichtigen Naturkörper bezogen werden und-- auf Anschauung gegründet --mit einer Gesundheitslehre verbunden“. Die Landesschulbehörden in Czernowitz, wo es ein sechsklassiges Mädchenlyzeum gab, meinten, „daß nur der geringste Teil der weiblichen Jugend die ausgesprochene Tendenz habe sich einem bestimmten wissenschaftlichen Beruf zu widmen. Der größere Teil derselben strebt eine höhere Bildung aus dem Grunde an um wenn erwachsen auf der geistigen Höhe des gebildeten Mannes zu stehen und ihre Stellung in Haus und Gesellschaft auch in geistiger Beziehung ganz auszufüllen“. ….Die weibliche Mittelschule hat die Aufgabe den Mädchen der psychischen Eigenart des Weibes und ihrer künftigen Bestimmung entsprechende allgemeine wissenschaftliche Bildung zu gewähren, die es einzelnen ermöglicht über sie hinaus die durch die Gymnasial-oder Realmaturitätsprüfung zu einer erhobenen wissenschaftlichen Vorbildung für das betreffende Fakultätsstudium sich anzueignen.

Höhere Töchterschulen

Es ist bemerkenswert wie unterschiedlich die Zahl dieser „Höheren Töchterschulen“ in den verschiedenen Teilen des Landes war. In Niederösterreich, einschließlich Wien, gab es 18 Schulen, davon 8, die einem Lyzeum entsprachen und sogar eine mit einem vollständigen gymnasialen Lehrplan. Die 1892 in Wien gegründete Schule des Vereins für höhere Frauenbildung war zur Jahrhundertwende in der Hegelgasse und übersiedelte später in die Rahlgasse. Bemühungen für diese Schule eine staatliche Subvention zu erhalten, wurde von der Landesschulbehörde schärfstens abgelehnt. In den Jahren 1898 und 1899 maturierten 25 Mädchen, die in dieser Schule für die Matura vorbereitet worden waren. Sie mussten aber die Matura an einer Knabenschule ablegen. Sieben Maturantinnen gaben an, dass sie Medizin studieren wollten, sobald sie zu diesem Studium zugelassen werden.

In den nur deutschsprachigen Ländern Oberösterreich, Steiermark, Kärnten und Schlesien gab es nur ein Lyzeum in der jeweiligen Hauptstadt des Landes. In Tirol gab es höhere Mädchenschulen in Innsbruck und in Bozen. In einigen Kronländern mit anderen Volksgruppen gab es neben einer deutschen Schule für Mädchen auch eine für die andere Volksgruppe; in Laibach außer der deutschen Schule auch eine slowenische Mädchenschule; in Brünn ein deutsches und ein tschechisches Lyzeum. Laut den Berichten der Landesschulräte in Salzburg und in Dalmatien gab es außer den Pflichtschulen keine Schulen für Mädchen.

In Triest gab es nur ein italienisches Mädchenlyzeum mit italienischer Unterrichtssprache; in Böhmen sechs Mädchenschulen für höhere Bildung, davon vier Schulen mit deutscher Unterrichtssprache in Prag, Aussig, Leitmeritz und Reichenberg und zwei Schulen mit „böhmischer“ Unterrichtssprache in Prag. Das deutsche Lyzeum führte ab 1898 Kurse zur Vorbereitung für die Matura.

In Prag war bereits 1890 vom Verein Minerva ein tschechisches Lyzeum gegründet worden, das auch einen Vorbereitungskurs für die Matura führte und 1897/98 in ein Gymnasium umgestaltet wurde.

In Galizien gab es mehrere private „Höhere Töchterschulen“ und außerdem drei von der Stadt subventionierte Klosterschulen für Mädchen in Krakau. Einige dieser Schulen bereiteten die Mädchen für die Matura vor.

Eine Übersicht über Lyzeen und Gymnasium in Cisleithanien ist in Abbildung 1 dargestellt.

Abbildung 1. Um 1900 gab es in Cisleithanien (hellgelb) des k.u.k.Reichs erst wenige Lyzeen und eine noch geringere Zahl an Mädchen-Gymnasien (Landkarte modifiziert aus Wikipedia, gemeinfrei).

Das Mädchenlyzeum als einheitliche Schulform

Laut Plan des Ministeriums für Kultus und Unterricht sollte im ganzen Land die Mittelschulbildung für Mädchen in der Form von sechsklassigen Lyzeen mit einheitlichen Lehrplänen erfolgen. Das Lyzeum sollte „Mit besonderer Berücksichtigung der modernen Sprachen und Literatur eine höhere, der weiblichen Eigenart entsprechende allgemeine Bildung gewähren als es die Volks-und Bürgerschule zu bieten vermag. Hierdurch zugleich für die berufliche Ausbildung vorbereiten.“

Die Mädchen sollten nach der fünfklassigen Volksschule und einer Aufnahmeprüfung im Lyzeum beginnen können. Der Unterricht sollte ausschließlich von Mittelschullehrern durchgeführt werden und in der Unterstufe ähnlich dem Unterricht der Reformrealgymnasien für Knaben sein, wobei allerdings mehr Wert auf Französisch und Englisch gelegt werden sollte und weniger auf die realen Fächer wie Naturgeschichte, Mathematik und Physik. Französisch sollte ab der 1. Klasse und Englisch nach der 4. Klasse unterrichtet werden.

Im Lehrplan waren keine klassischen Sprachen vorgesehen aber Gegenstände wie Gesang, Stenographie oder weibliche Handarbeiten. Es sollten eigene Schulbücher für Lyzeen für Mädchen herausgegeben werden. Die Absolventinnen eines Lyzeums sollten nach der Abschlussprüfung und der Vollendung des 18. Lebensjahres die Möglichkeit haben als außerordentliche Hörerinnen an einer philosophischen Fakultät zu studieren. Da sie nach Beendigung des sechsklassigen Lyzeums in der Regel erst 17 Jahre alt waren, mussten sie ein Jahr warten, bevor sie als außerordentliche Hörerinnen inskribieren konnten. Sie konnten nach den Vorschlägen des Ministeriums dann bereits nach 6 Semestern als außerordentliche Hörerinnen für die Lehramtsprüfung für ein Lyzeum antreten. Sie konnten aber nicht als ordentliche Hörerinnen studieren. Dazu wurde ein Studium mit Matura benötigt.

Einige Lehrerorganisationen kritisierten diese Pläne. Sie fürchteten, dass die Pläne für die Mädchenlyzeen auf Kosten des Ausbaus der öffentlichen Bürgerschulen für Mädchen geschehen werde. Durch die Einrichtung von Mädchenlyzeen würde der weitere Ausbildungsweg eines Mädchens schon mit 10 Jahren bestimmt. In der Eingabe der Reichenberger Lehrer an das Unterrichtsministerium heißt es: „Die großen Kosten eines von dem Wohnort der Eltern weit entfernten Lyzeums sind ferner nur von reichen Eltern zu bestreiten imstande. Dadurch wird das wissenschaftliche Studium der Mädchen ein Monopol der Reichen“

Schließlich wurde im Dezember 1900 ein provisorisches Statut für eine einheitliche Organisation und einen einheitlichen Lehrplan beschlossen.

Kritiken am Lyzeum

Das Statut, das Absolventinnen eines Lyzeums ermöglichte als außerordentliche Hörerinnen an einer philosophischen Fakultät zu inskribieren, fand bald sehr viel Kritik: die Absolventinnen der Lyzeen wären nicht in der Lage, den Seminaren oder Proseminaren zu folgen und die Vortragenden würden gezwungen das Niveau zu senken. Besonders scharf wurde der Beschluss abgelehnt, dass die Absolventinnen eines Lyzeums nach ihrem Studium als außerordentliche Hörerinnen bereits nach 6 Semestern zu einer Lehramtsprüfung als Mittelschullehrerin in einem Lyzeum antreten können, während Maturanten und Maturantinnen, die als ordentliche Hörer oder Hörerin studiert haben, erst nach 8 Semestern zu einer derartigen Prüfung antreten konnten, allerdings dann für alle Mittelschulen. In den folgenden Jahren mussten einige Änderungen im Lehrprogramm durchgeführt werden. Abbildung 2.

Abbildung 2. Zitate von Johann Baptist Degn, Direktor am Mädchen-Lyzeum in Linz, der maßgeblich für den Lehrplan der Lyzeen verantwortlich war. (Bilder links und oben rechts stammen aus den Jahresberichten 1916 und 1896 des Mädchen Lyzeums, die von der oÖ. Landesbibliothek digitaliert wurden und gemeinfrei sind. http://digi.landesbibliothek.at/viewer/image/AC04151117_27191516/1/ und http://digi.landesbibliothek.at/viewer/image/AC02725595_1896/5/LOG_0007 )

Die Frauenvereine blieben sehr kritisch gegenüber der Weiterführung der Lyzeen in der vorhandenen Form und im Lehrplan und verfassten im März 1911 eine Denkschrift (unterzeichnet von Marianne Hainisch, Eugenie Schwarzwald und Melitta Berka und auch von den Leiterinnen der Katholischen Reichsfrauenorganisation Gräfin Melanie Zichy-Metternich und Gräfin Gertrude von Walterskirchen). Darin forderten die Frauenvereine die Umwandlung der Lyzeen in Gymnasien. Die Unterstufe solle der Unterstufe der Knabenreformgymnasien entsprechen. Bei der Oberstufe solle es eine Gabelung geben. Ein Zweig sollte der Maturavorbereitung dienen während der andere Zweig als Frauenoberschule weiter geführt werden sollte.

Trotz dieser Kritiken wurde mit Erlass vom 14.Juni 1912 beschlossen in der Regel die Mädchenlyzeen in einer nur wenig veränderten Form weiter zu führen. Es wurde aber auch die Möglichkeit offen gelassen, diese Schulen auf sieben Klassen zu erweitern wenn es die örtlichen Verhältnisse zuliessen. Sogar Kurse könnten angeschlossen werden, die eine Matura ermöglichen.

Das Interesse an Lyzeen und Mädchengymnasien ist groß

Trotz allen Kritiken zeigte es sich, dass es im ganzen Reich ein großes Interesse für die neu eingeführten Lyzeen für Mädchen gab. Das rasche Anwachsen der Zahl der Lyzeen von 13 Lyzeen mit 2566 Schülerinnen im Schuljahr 1901/2 auf 69 Lyzeen im Schuljahr 1910/11 mit 11.123 Schülerinnen in allen Ländern –von Vorarlberg im Westen bis zur Bukowina im Osten—zeigt dass es ein großes Interesse beim Mittelstand für diese Schulform gab, obwohl die Absolventinnen eines Lyzeums nur als außerordentliche Hörerinnen an einer Universität studieren konnten.

Da an den österreichischen Universitäten ab 1897 Maturantinnen an der philosophischen Fakultät als ordentliche Hörerinnen zugelassen wurden und ab 1900 an der medizinischen Fakultät, entstanden in diesem Jahrzehnt in Wien, in Prag und in Galizien auch Schulen in denen junge Frauen für die Matura vorbereitet wurden, aber keine Schulen dieser Art in den alpinen Kronländern.

Mädchen, die studieren wollten, mussten also als externe Schülerinnen an Knabenschulen maturieren, wenn sie kein Mädchengymnasium besucht hatten. Abbildung 3.

Abbildung 3. Lise Meitner (1878 - 1968) hat die Bürgerschule 1892 abgeschlossen. 1898 nahm sie Privatunterricht, um sich auf die Externistenmatura vorzubereiten, die sie dann 1901 am Akademischen Gymnasium in Wien erfolgreich ablegte (nur 4 von 14 angetretenen Mädchen schafften die Prüfung).

Ebenso wie die Zahl der Lyzeen zwischen 1901 und 1910 schnell wuchs, nahm in dieser Zeit auch die Zahl der Mädchengymnasien rasch. Im Schuljahr 1903/04 gab es laut Statistischer Monatsschrift von A. Lorenz in ganz Cisleithanien ein Gymnasium für Mädchen mit 45 Schülerinnen. Im Schuljahr 1912/13 waren es 32 Gymnasien mit Öffentlichkeitsrecht mit 4797 Schülerinnen. Obwohl die gesetzlichen Möglichkeiten für die Errichtung eines Mädchengymnasiums im ganzen Land die gleichen waren, gab es damals in den verschiedenen Teilen der Monarchie große Unterschiede.

In Wien gab es schon vor der Jahrhundertwende die gymnasiale Mädchenschule des Frauenerwerbsvereins in der Hegelgasse, wo in den Jahren 1898 und 1899 25 Mädchen maturiert hatten. Die Schule übersiedelte 1906 in die Rahlgasse. Das von Eugenie Schwarzwald geleitetes Lyzeum wurde 1911 als Gymnasium zugelassen.

Im Schuljahr 1910/1911 gab es in Wien und Niederösterreich 15 Lyzeen aber nur zwei Mädchengymnasien, die von 395 Schülerinnen besucht wurden. In Salzburg wurde 1910 ein katholisches Mädchengymnasium eröffnet. In den anderen Ländern, die das heutige Österreich bilden, gab es 1910 überhaupt kein Gymnasium für Frauen. Jedoch in Galizien gab es 1910 bereits 15 Gymnasien für Mädchen mit Öffentlichkeitsrecht mit 2027 Schülerinnen und nur 13 Lyzeen. In den folgenden Jahren haben sich diese Unterschiede noch viel klarer gezeigt. Zwei Jahre später, im Schuljahr 1912/13 gab es in Wien 19 Lyzeen und drei Gymnasien für Mädchen mit 548 Schülerinnen und in Galizien 11 Lyzeen und 21 Gymnasien mit 3064 Schülerinnen. Auch in Böhmen und Mähren war das Interesse für Mädchengymnasien viel größer als in den Gebieten des heutigen Österreichs. In diesen beiden Kronländern gab es sechs Mädchengymnasien mit 972 Schülerinnen im Schuljahr 1912/13.

Die Aussichten erfolgreich zu maturieren

waren für junge Frauen, die aus Gymnasien kamen, besser als für die, die als externe Schülerinnen in einer Knabenschule maturieren wollten: Laut Statistik von A. Lorenz haben es im Schuljahr 1910 174 von 176 zur Matura gemeldeten Schülerinnen aus Mädchengymnasien geschafft, hingegen nur 150 von angemeldeten 256 externen Schülerinnen an Knabenschulen.

Sowohl für die Lyzeen wie auch für die Mädchengymnasien musste Schulgeld bezahlt werden, auch wenn sich der Staat an den Kosten für die Lyzeen beteiligte. Beide Schultypen wurden vorwiegend von Töchtern des Mittelstands besucht. Die Statistiken zeigen also, dass die in Galizien wohnenden, meist jüdischen Mittelstandsfamilien viel mehr als in anderen Teilen des Reiches darauf achteten, ihre Töchter in eine Schule zu schicken, die ihnen den Weg zu einem Studium als ordentliche Hörerin an einer Universität ermöglichte.

Erst nach der Gründung der Republik wurden in den Bundesländern Schulen eingerichtet, die es jungen Frauen ermöglichten, zu maturieren. Wenn heute über den langen Kampf für ein Frauenstudium berichtet wird, so soll nicht vergessen werden, dass viele der Impulse zur Modernisierung Österreichs aus Galizien oder der Bukowina, den ärmsten Kronländern der Monarchie, kamen.


*Eine wesentlich ausführlichere Darstellung dieses Themas hat Robert Rosner veröffentlicht unter dem Titel: Mädchenmittelschulen. Mädchenmittelschulen zur Jahrhundertwende von Lemberg bis Innsbruck. Frauenbildung für den „ Five o’clock tea“ oder für die Uni?. https://schulmuseum.schule.wien.at/fileadmin/s/111111/Dateien/Zeitungsartikel/Rosner_M%C3%A4dchenB_LangF_WSM-2015-1_2.pdf


Weiterführende Links

Wiener Schulmuseum: Aus Wiens Schulgeschichte.

Österreichische Schulbücher. Vom Ende der Monarchie bis in die 50er.

Frauen in Bewegung: 1848-1938. Biographien, Vereinsprofile, Dokumente. Paul J. Moebius (1903)

Über den physiologischen Schwachsinn des Weibes. (Der Nervenarzt vertrat die Ansicht, Frauen hätten von Natur aus eine physiologisch bedingte geringere geistige Begabung als Männer.)

Artikel im ScienceBlog

Christian Noe 6.12.2013: Das Ignaz-Lieben Projekt — Über Momente, Zufälle und Alfred Bader

Lore Sexl 20.9.2012: Lise Meitner – weltberühmte Kernphysikerin aus Wien.

inge Thu, 27.04.2017 - 09:20

Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen

Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen

Do, 20.04.2017 - 10:15 — Redaktion RedaktionIcon Politik & Gesellschaft

Im Sommer 2011 haben drei der angesehensten Forschungsinstitutionen - das Howard Hughes Medical Institute (US) , die Max-Planck Gesellschaft (D) und der Wellcome Trust (UK) - das "non-profit", open-access Journal "eLife" gegründet. Es ist dies ein umwälzend neues Modell , das - geleitet von einem höchstrangigen Herausgeber-Team - Spitzenforschung in Lebenswissenschaften und Biomedizin veröffentlicht und verbreitet. Ein wesentlicher Aspekt ist dabei die Forschungsergebnisse in allgemein verständlicher Form zusammenzufassen.*

Eines der überzeugendsten Argumente für den offenen Zugang zu Forschungsergebnissen lautet: der Großteil der Forschung wird mit öffentlichen Mitteln finanziert, daher sollen die Früchte aus dieser Forschung der Öffentlichkeit zugänglich sein. Wenn also öffentliches Geld dafür ausgegeben wird, dass Vorgänge in Zellen untersucht werden, dass Ursachen von Krankheiten erforscht werden oder Möglichkeiten Leben auf anderen Planeten zu finden, dann sollte die Bevölkerung in der Lage sein die Veröffentlichungen zu lesen, die aus derartigen Projekten herauskommen. In zunehmendem Maße ist dies bereits der Fall, dank der Zunahme von "open access" Zeitschriften und - in jüngster Zeit - von Vorabdrucken.

Auch bezüglich anderer Aspekte von "open science" hat es Fortschritte gegeben , beispielsweise im freien Zugang zu Datenbanken "open data" oder zur "open-source software". Es liegt aber noch ein weiter Weg vor uns bis die Gebührenschranken verschwunden sind und alle wissenschaftlichen Ergebnisse zum Zeitpunkt ihrer Veröffentlichung frei zugänglich.

Allerdings muss noch mehr geschehen.

Es reicht nicht aus Jedermann Zugang zu jeder Publikation zu verschaffen und es dann dabei zu belassen. Wir müssen uns vielmehr bemühen mit Lesern außerhalb der Forschergemeinde zu kommunizieren : wir müssen zu Lehrern und Schülern sprechen, zu medizinischen Fachleuten und zu Patienten (und deren Angehörigen), zu jedem der an Wissenschaft und Forschung interessiert ist. Und wir haben uns in ihrer Sprache auszudrücken, in der Sprache der Nachrichten-Medien und der Wikipedia. Wir müssen in verständlicher Sprache sprechen und nicht in der formalen, formelhaften Prosa, in der die meisten Veröffentlichungen abgefasst sind. Wir müssen Verba verwenden, nicht Substantiva, wir müssen Worte wie "charakterisieren" und "ermöglichen" vermeiden, die - auch wenn sie von Wissenschaftern besonders gerne angewendet werden - einen Satz, einen Artikel bereits in seinem Keim ersticken können.

Aktivitäten zur Wissenschaftskommunikation…

Diese, auch unter Bezeichnungen wie "Verständnis für Wissenschaften in der Öffentlichkeit", "öffentliches Engagement" oder "Wissenschaft und Gesellschaft", erfolgenden Aktivitäten haben in den letzten paar Jahrzehnten wesentlich zugenommen: Forscher in diesen Gebieten haben ihre eigenen Zeitschriften, Tagungen und natürlich auch spezielle Ausdrucksweisen. Universitäten, Fördereinrichtungen und medizinische Hilfsorganisationen beschäftigen viele Pressesprecher und Öffentlichkeitsarbeiter (gleichwohl beschäftigen Tageszeitungen und Zeitschriften wesentlich weniger Wissenschaftsreporter); Podcasts, Blogs und Soziale Medien florieren, die Zahl der Ausstellungen, der Festivals steigt und auch Veranstaltungen, die an Orten wie Pubs oder Cafes stattfinden, nehmen zu.

…bei eLife

"In diesem reichen Mosaik an Aktivitäten zur Wissenschaftskommunikation wollen wir hier (und in drei weiteren Artikeln [1, 2, 3] ein Nischengebiet betrachten, nämlich eine allgemein verständliche Zusammenfassung eines Forschungsvorhabens oder einer -Veröffentlichung.

Seit dem Start des eLife Journal im Jahr 2012 haben wir in einfachen Worten Zusammenfassungen wissenschaftlicher Veröffentlichungen - sogenannte Digests - herausgebracht [1]."  Abbildung 1.

Abbildung 1. eLife Digests destillieren aus Veröffentlichungen kurze, auch der breiten Öffentlichkeit leicht verständliche Zusammenfassungen (Bild aus [1]; IMAGE CREDIT: vividbiology.com)

Diese Zusammenfassungen sind üblicherweise 250 - 400 Worte lang und scheinen unmittelbar unter dem Abstract - der wissenschaftlichen Kurzfassung - auf. Der Digest hat drei Ziele: i) er soll den Hintergrund der Veröffentlichung darstellen, ii) die wesentlichen Ergebnisse zusammenfassen und iii) kurz diskutieren, was man weiter zu tun beabsichtigt. Dies soll in einer Sprache erfolgen, die ein interessierter oder motivierter Leser verstehen kann.

Derartige eLife Digests richten sich vorzugsweise an Leser außerhalb der Forschergemeinde. Eine vor kurzem erfolgte Umfrage hat nun ergeben, dass die Digests auch weithin bei Forschern beliebt sind . Derartige verständliche Zusammenfassungen erweisen sich auch für die Autoren selbst von Nutzen, wenn es notwendig ist ihre Arbeiten in nicht-technischer Sprache zu erklären (beispielsweise, wenn sie um eine Förderung ansuchen oder sich für einen Posten bewerben).

"Vorerst sind wir so vorgegangen, dass wir für alle in eLife erscheinenden Arbeiten - gleichgültig um welche Themen es sich dabei handelte - Digests verfasst haben. Abbildung 2. Dies war teilweise recht schwierig aber wir zogen es durch. Als die Zahl der akzeptierten Arbeiten jedoch kontinuierlich zunahm, mussten wir dann 2016 - wenn auch widerstrebend - beginnen Arbeiten auch ohne Digest zu publizieren."

Abbildung 2. eLife Digests gibt es zu den verschiedensten Themen der Lebenswissenschaften und der Biomedizin (Bild aus [2]; IMAGE CREDIT: vividbiology.com)

Natürlich ist eLife nicht die einzige Zeitschrift, die Zusammenfassungen wissenschaftlicher Arbeiten in allgemein verständlicher Sprache publiziert. Es gibt hier bereits eine Reihe von Journalen (u.a. auch der Pionier in open access: PLOS), deren weitgefächertes Spektrum von Autismus über Ökologie bis hin zu rheumatischen Erkrankungen reicht [2]. Eine Herausforderung für alle Herausgeber besteht dabei darin, wie sie diese Zusammenfassungen für die angepeilte Leserschaft schnell auffindbar machen können.

Das Gebiet, das wahrscheinlich den dringendsten Bedarf für klare, genaue Information über die laufende Forschung hat, ist die medizinische Forschung - medizinische Hilfsorganisationen und Patientengruppen sind auf diesem Feld sehr aktiv [3]. Einige der Organisationen benötigen Wissenschafter, um verständliche Kurzfassungen in Förderungsansuchen einzufügen, andere haben Parientenvertreter in ihren Gremien, welche die Ansuchen evaluieren.

Von akademischen Forschern erwartet man, das sie mit der Öffentlichkeit kommunizieren - daran ist nichts Neues. Bereits das Gründungsdokument der American Association of University Professors (1915) konstatiert: Zu den Aufgaben eines Akademikers gehört, "dass er die Ergebnisse seiner eigenen Untersuchungen und Überlegungen und auch die Ergebnisse seines Teams sowohl Studenten als auch der breiten Öffentlichkeit vermittelt".

Die Herausforderung einen komplexen Inhalt einem breiten Publikum zu vermitteln, ist nicht auf Wissenschaft beschränkt. Beispielsweise hat im letzten Jahr Jonathan Fulwood (von der Bank of England) die Lesbarkeit von Texten verglichen, die aus fünf unterschiedlichen Quellen stammten. Er konstatierte, dass von seinem Arbeitsgeber und auch von anderen Banken stammende Berichte und Reden am wenigsten lesbar waren, dagegen waren politische Reden am leichtesten verständlich. Der Grund, so meinte er, wäre, dass in der Finanzindustrie die Tendenz zu langen Worten bestehe, diese Worte zu langen Sätzen zusammengefügt würden und diese dann zu langen Paragraphen. Dies ist auch häufig bei wissenschaftlichen Artikeln der Fall.

Fazit

Rund zwei Millionen wissenschaftliche Publikationen erscheinen jährlich. Ausgehend von unseren Erfahrungen mit eLife erscheint es extrem schwierig jede dieser Arbeiten mit einem leicht verständlichen Digest zu versehen. Es ist aber sicherlich angezeigt, dass mehr Journale diese Möglichkeit bieten - zum Nutzen der Autoren, der Journale, anderer Wissenschafter und der breiten Öffentlichkeit.


*Der von Peter Rodgers, Features Editor at eLife, stammende Artikel: "Plain-language summaries of research: Writing for different readers" ist am 15. März 2017 erschienen in: eLife 2017;6:e25408, http://dx.doi.org/10.7554/eLife.25408.

Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, 2 Abbildungen aus anderen eLife Artikeln (Quellen zitiert)). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz


[1] King SRF, Pewsey E, Shailes S. 2017. An inside guide to eLife digests. eLife 6:e25410. DOI: 10.7554/eLife. 25410

[2] Shales S. 2017. Plain-language summaries of research: Something for everyone. eLi fe 6:e25411. DOI: 10.7554/eLife. 25411

[3] Kuehn BM. 2017. The value of a healthy relationship. eLife 6:e25412. DOI: 10.7554/eLife.25412


Weiterführende Links

Homepage eLife

Wie Digests von eLife aussehen

Aktuelle Liste von Journalen, die leicht verständliche Zusammenfassungen bieten

Videos über eLife:

Wissenschaftskommunikation in ScienceBlog.at:

Dazu sind bereits rund 30 Artikel erschienen, die im Themenschwerpunkt Wissenschaftskommunikation zusammengefasst sind.

inge Thu, 20.04.2017 - 10:15

Embryonalentwicklung: Genmutationen wirken komplexer als man dachte

Embryonalentwicklung: Genmutationen wirken komplexer als man dachte

Do, 13.04.2017 - 07:19 — Redaktion RedaktionIcon Biologie

Der Zusammenhang zwischen einer einfachen Genmutation und deren Konsequenz auf die Entwicklung ist komplexer ist, als man bisher angenommen hat. Das zeigt eine ausgedehnte Untersuchung (an der auch Forscher von der Medizinischen Universität in Wien beteiligt waren) an Mausembryonen: In Mäusen mit identem genetischen Hintergrund kann dieselbe Mutation eines Gens in den einzelnen Individuen zu einem unterschiedlichen Spektrum phänotypischer Anomalien führen.*

Wenn man untersuchen will, welche Rolle bestimmte Gene in der Entwicklung und bei Krankheiten des Menschen spielen, so verwendet man bereits seit langer Zeit Tiermodelle als experimentelle Surrogate. Da über die Tierspezies hinweg Gensequenzen und -Funktionen erstaunlich konserviert geblieben sind, hat dieser Ansatz zweifellos seine Berechtigung.

Die genmanipulierte Maus als Modell

Ein übliches Modell zur Erforschung der Genfunktion ist die genmanipulierte Maus. Das ambitionierteste der mit diesem Modell konzipierten Projekte wird derzeit vom International Mouse Phenotyping Consortium (IMPC) koordiniert und hat das Ziel einen Katalog der Funktionen aller Gene zu erstellen. Dazu werden systematisch Mauslinien generiert, in denen genomweit jeweils ein Gen ausgeschaltet ist (knock outs) und die individuellen Gen-knockouts (KO) phänotypisch charakterisiert. Die bis jetzt erfolgten Untersuchungen haben gezeigt, dass rund ein Drittel aller Gene lebensnotwendig sind. Schaltet man diese aus, so führt dies zum Absterben im Embryonalstadium oder um die Geburt herum.

Die Untersuchung derartiger KO-Mauslinien bietet somit eine einzigartige Möglichkeit einen Überblick über die genetischen Komponenten zu erhalten, welche die normale embryonale Entwicklung kontrollieren und - als Schlussfolgerung - welche Gene es sind, die auf Grund von Mutationen zu angeborenen Defekten oder Störungen in der Entwicklung des Menschen führen können.

Die Entschlüsselung der Mechanismen von Entwicklungsstörungen

(Mechanisms of Developmental Disorders- DMDD) ist ein vom Wellcome Trust finanziertes 5-Jahresprogramm, das vom Francis Crick Institute in England koodiniert wird. Das Ziel ist insgesamt 240 embryonal letale Mauslinien phänotypisch zu charakterisieren.

In einer groß-angelegten Studie (die vorgestern von den Reviewern akzeptiert wurde) hat ein Forscherteam insgesamt 220 Mäuseembryonen am Tag 14,5 ((E14,5), d.i. gegen das Ende der embryonalen Entwicklung) untersucht. In jedem dieser Embryos war jeweils eines von 42 Genen ausgeschaltet - untersucht wurden die homozygoten Mutanten (d.i. in den diploiden Zellen trugen beide Allele des Gens die Mutation, Anm. Red.). Wie ein normaler Embryo in diesem Stadium aussieht, ist in Abbildung 1 gezeigt .

Abbildung 1. Normaler Mausembryo am Tag 14,5 der Entwicklung. Die Länge des Tieres beträgt etwa 13 mm. (Abbildung von der Redaktion beigefügt. Das Bild steht unter einer cc.by-Lizenz und stammt aus: Beck-Cormier S, Escande M, Souilhol C, Vandormael-Pournin S, Sourice S, Pilet P, et al. (2014) Notchless Is Required for Axial Skeleton Formation in Mice. PLoS ONE 9(5): e98507. https://doi.org/10.1371/journal.pone.0098507 )

Abgesehen von dem jeweils ausgeschalteten Gen handelte es sich um Mäuse mit identem genetischen Hintergrund.

Indem die Forscher jeden Embryo in minutiösem Detail mittels eines High Resolution Episcope Microscope (HREM, siehe Video in: weiterführende Links) scannten, konnten sie auch winzigste Unterschiede in Merkmalen erkennen, ob es nun einzelne Nerven, Muskeln oder kleine Blutgefäße waren, die Anomalitäten aufwiesen. Die Bewertung der Phänotypen basierte schließlich auf der Analyse von mehr als 1,6 Millionen Bildern.

Das Ergebnis war völlig überraschend

In den einzelnen Individuen einer Linie genetisch identer Mäuse führte die Ausschaltung desselben essentiellen Gens zu einem Spektrum unterschiedlicher, teilweise überlappender physischer Merkmale und Anomalitäten. Dies ist in Abbildung 2 für vier unterschiedliche Mauslinien mit je fünf Individuen dargesstellt: die Differenz zwischen entdeckten Anomalitäten (rot) in den individuellen Tieren einer Linie ist frappant.

Abbildung 2. Phänotypische Charakterisierung von vier Mauslinien, in denen jeweils ein essentielles Gen (hier die Gene Atp11a, Brd2, Celf4 und Tcf712) ausgeschaltet wurde. Die individuellen Embryonen einer Linie zeigen unterschiedliche, teilweise überlappende Anomalien. (Bild: ist aus [1], Figure 2 entnommen.)

Dies lässt darauf schließen, dass der Zusammenhang von Genmutation und deren Auswirkung wesentlich komplexer ist, als man bisher angenommen hat.

Ganz allgemein stellen Kliniker fest, dass Menschen, die denselben genetischen Defekt tragen, unterschiedliche Symptome mit unterschiedlichen Schweregraden zeigen können. Zum Teil dürfte dies wahrscheinlich darauf zurückgeführt werden, dass wir in unserem genauen genetischen Make-up differieren. Die Studie in Mäusen zeigt nun aber:

sogar wenn die einzelnen Individuen einen praktisch identen genetischen Hintergrund haben, kann dieselbe Mutation zu einer Vielfalt unterschiedlicher Ergebnisse in den betroffenen Embryonen führen.

In den Augen des Studienleiters Tim Mohum ist dies ein überaus verblüffendes Ergebnis: "Es zeigt uns, dass sogar mit einer anscheinend einfachen und wohldefinierten Mutation das Ergebnis komplex und variabel sein kann. Um zu verstehen, warum das so ist, müssen wir noch eine Menge über die Rolle dieser letalen Gene in der embryonalen Entwicklung dazulernen." Und Andrew Chisholm , Leiter der Cellular and Developmental Sciences von Wellcome und Finanzier von DMDD, meint: "Diese Untersuchung ändert unseren Blick auf das, was wir als eine einfache Beziehung angesehen haben, zwischen dem, was in unseren Genen kodiert ist und dem, wie wir uns entwickeln. Es ist eine zusätzliche Ebene der Komplexität, welche die Forscher nun miteinbeziehen müssen, ebenso wie das Bestreben die komplizierten Vorgänge der genetischen Steuerung zu entflechten."


*Der vorliegende Artikel basiert auf einem News Article des Wellcome Trust Sanger Institute vom 11.April 2017: http://www.sanger.ac.uk/news/view/how-genetic-mutations-affect-development-more-complex-previously-thought . Dieser Artikel wurde weitestgehend wörtlich übersetzt und durch ebenfalls übersetzte Teile (Einleitung) und Figure 2 aus der zugrundeliegenden Publikation ergänzt:

[1] Wilson R, Geyer SH, Reissig L et al. Highly variable penetrance of abnormal phenotypes in embryonic lethal knockout mice [version 1; referees: 1 approved, 2 approved with reservations] Wellcome Open Research 2016, 1:1 (doi: 10.12688/wellcomeopenres.9899.1).

Die Inhalte der Website des Sanger Instituts und auch [1] stehen unter einer cc-by 3.0 Lizenz.


Weiterführende Links

Wellcome Trust Sanger Institute: http://www.sanger.ac.uk/ (Motto: We use genome sequences to advance understanding of the biology of humans and pathogens to improve human health).

International Mouse Phenotyping Consortium: http://www.mousephenotype.org

High resolution episcopic microscopy (HREM). Wellcome Collection; Video (englisch) 5:10 min https://www.youtube.com/watch?v=t0WEHUpaxlI Tim Mohun, Leiter der oben besprochenen Studie, erklärt die Technik, die unglaublich detaillierte 3D-Bilder von winzigen Strukturen, u.a. von Maus -Embryonen ermöglicht.

Artikel im ScienceBlog

Francis S. Collins, 13.10.2016: Von Mäusen und Menschen: Gene, die für das Überleben essentiell sind.


 

inge Thu, 13.04.2017 - 07:19

Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung

Pech gehabt - zufällige Mutationen spielen eine Hauptrolle in der Tumorentstehung

Do, 06.04.2017 - 13:13— Francis Collins

Francis CollinsIcon MedizinKrebserkrankungen werden durch Mutationen der DNA verursacht, welche durch Vererbung, Einflüsse von Umwelt/Lifestyle oder fehlerhaftes Kopieren der DNA während des normalen Vorgangs der Zellteilung hervorgerufen werden. Welchen Anteil diese Ursachen an den DNA-Mutationen in 32 Tumorarten haben, schätzt eine eben erschienene Studie ab: sie kommt zu dem Schluss, dass zwei Drittel der Mutationen zufällig während des Kopiervorgangs passieren, also unvermeidlich sind. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet darüber.*

Wenn irgendetwas Böses passiert, so verlangt unsere menschliche Veranlagung nach einem Verursacher zu suchen. Wenn jemand einen Tumor entwickelt, wollen wir den Grund dafür wissen. Möglicherweise liegt ja der Tumor in der Familie. Oder, vielleicht hat der Betroffene geraucht, nie einen Sonnenschutz verwendet , oder viel zu viel Alkohol getrunken. Bis zu einem gewissen Grad sind dies durchaus vernünftige Annahmen, da ja Gene, Lebensstil und Umwelt wichtige Rollen bei Krebserkrankungen spielen. Eine neue Untersuchung behauptet nun, dass die Ursache, warum viele Menschen an Tumoren erkranken, einfach Pech ist.

DNA-Ablesefehler während der Zellteilung

Das Unglück passiert während des normalen Vorgangs der Zellteilung, eines unabdingbaren Prozesses, der unsere Körper wachsen lässt und sie gesund erhält. Jedes Mal, wenn sich eine Zelle teilt, werden die 6 Milliarden Buchstaben ihrer DNA kopiert und die neue Kopie wandert in jede Tochterzelle. Dass während der Duplizierung Schreibfehler entstehen, ist unvermeidlich (Abbildung 1).

Abbildung 1. Beim Kopiervorgang der DNA entstehen zufällige Mutationen.

Die Zelle besitzt nun DNA-Korrekturmechanismen, die Schreibfehler üblicherweise entdecken und ausbessern. Allerdings kann von Zeit zu Zeit ein Fehler durchrutschen. Tritt dieser Fehler dann zufällig in bestimmten Schlüsselbereichen des Genoms auf, so kann er dazu führen, dass die Zelle sich unbegrenzt vermehrt, dass ein Tumor entsteht.

Wie ein Team von NIH-Forschern nun zeigt,

entstehen nahezu zwei Drittel der DNA-Mutationen bei Krebserkrankungen des Menschen auf diese zufällige Art. Damit bekommen Menschen, die wegen vieler Formen von Krebserkrankungen in Behandlung sind, die Bestätigung , dass sie ihre Krankheit vermutlich nicht hätten verhindern können. Diese Ergebnisse enthalten aber auch eine wichtige Mahnung: neben verbesserten Strategien zur Prävention müssen Krebsforscher fortgesetzt innovative Technologien verfolgen, um Tumoren frühzeitig zu entdecken und zu behandeln.

Die erwähnte Untersuchung stammt von Cristian Tomasseti, Lu Li und Bert Vogelstein (John Hopkins Universität, Baltimore, US) und ist im Fachjournal Science erschienen [1]. Die beschriebenen Ergebnisse basieren auf mathematischen Analysen einer Kombination von DNA-Sequenzdaten - aus Tausenden von Tumorproben und normalen Gewebeproben, die im Cancer Genome Atlas niedergelegt sind - und epidemiologischen Informationen von der Cancer Research UK, einer Gesundheitsorganisation in England. Auf Grund dieser Analysen konnten die Forscher den Anteil an DNA-Tippfehlern in 32 Tumorarten abschätzen und zwar danach ob diese der Vererbung , der Umwelt oder zufälligen Fehlern in der Kopierung der DNA zuzuschreiben wären.

Über alle Tumortypen hin gemittelt zeigte das Modell: etwa 66 % der Tumormutationen sind das Ergebnis fehlerhafter DNA-Kopierung. Rund 29 % können auf Umwelteinflüsse, incl. Lifestyle und Verhaltensfaktoren zurückgeführt werden und 5 % auf Vererbung (Abbildung 2).

Abbildung 2. Über alle untersuchten 32 Tumorarten hin gemittelt passieren 2/3 der zu Tumoren führenden DNA-Mutationen durch Zufall während der DNA-Kopierung

Zufall, Umwelt und Vererbung tragen unterschiedlich zu verschiedenen Krebserkrankungen bei

Dabei muss erwähnt werden, dass dieser Verteilungsschlüssel unter den Tumorarten beträchtlich variiert. Beispielsweise hängt die Entstehung von Lungenkrebs stark von Umwelteinflüssen ab, insbesondere vom schädigenden Effekt des Rauchens. Die Forscher schätzen daraus, dass rund 65 % der Lungenkrebs-Mutationen verhindert werden könnten. Dennoch, 35 % der Mutationen entstehen offensichtlich aus Kopierfehlern - damit lässt sich auch erklären, warum auch Menschen Lungenkrebs entwickeln, die niemals geraucht haben.

In anderen Krebsformen - einschließlich der Tumoren von Prostata, Knochen, Gehirn und der meisten Krebserkrankungen in der Kindheit - dürften zufällige Mutationen eine noch viel stärkere Rolle spielen: die Analysen schätzen, dass mehr als 95 % der Krebs-verursachenden Mutationen zufällig entstanden sein dürften (Abbildung 3).

Abbildung 3. Auf welche Weise Mutationen in Treiber-Genen für die Krebsentstehung zustandekommen (Bild wurde von Redaktion eingefügt; Daten sind [1], Table S6 "Proportion of driver gene mutations attributable to E, H, and R" entnommen).

Tumorinzidenzen sind mit der Zahl der Zellteilungen von Stammzellen korreliert

Als weiteren Nachweis für die Bedeutung von zufälligen Kopierfehlern in Tumoren haben die Forscher das Vorkommen - die Fallzahlen - von 17 Tumorarten in 69 Ländern über den ganzen Globus hin untersucht. Basis waren die Daten, die von der International Agency for Research on Cancer in Frankreich erhoben wurden. Die Forscher stellten hier die Frage ob eine unterschiedliche Teilungszahl der Stammzellen die Unterschiede in der Häufigkeit der Tumorvorkommen erklären könnte.

Tatsächlich hatten Tomasetti und Vogelstein ja bereits früher eine enge Korrelation zwischen Tumorinzidenz und Zahl der Stammzellenteilung gefunden und darüber im Jahr 2015 berichtet [2]. Allerdings hatte diese frühere Analyse beträchtliche Kritik erregt - u.a. fehlten ja Daten bezüglich zwei der häufigen Tumoren, Brust- und Prostatakrebs. Darüber hinaus war die Studie auf Einwohner der Vereinigten Staaten beschränkt.

Die neue Studie schließt nun Personen verschiedenster Nationalitäten ein, die für mehr als die halbe Weltbevölkerung repräsentativ sind: sie zeigt, dass in den 17 Arten von Krebserkrankungen - Prostata- und Brustkrebs mit eingeschlossen - tatsächlich eine enge Beziehung zwischen Tumorhäufigkeit und Zellteilungsrate besteht (Abbildung 4).

Abbildung 4. Zwischen dem Risiko während einer Lebenszeit von 80 Jahren an 17 verschiedenen Tumorarten zu erkranken und der Teilungsrate der Stammzellen in den betroffenen Organen besteht eine enge Korrelation. (Bild wurde von Redaktion eingefügt; Daten sind [1], Table 1. "Correlations between the lifetime risk of cancers in 17 tissues and the lifetime number of stem cell divisions in those tissues entnommen")

Fazit

Natürlich sollte keiner der neuen Befunde Menschen davon abhalten gesünderen Lebensgewohnheiten nachzugehen, um das Krebsrisiko zu senken. Wie die neue Studie zeigt, resultiert nahezu ein Drittel aller Krebsmutationen aus Einflüssen der Umwelt und diese können verhindert werden. Da jeder von uns die Perspektive auf unvermeidbare Krebs-erregende Mutationen ins Auge fassen muss, erscheint es angeraten alle zusätzlichen DNA-Mutationen auf ein Minimum zu reduzieren, also nicht zu rauchen, Sonnenschutz anzuwenden, das Körpergewicht zu kontrollieren und andere präventive Maßnahmen zu treffen.

Dennoch - auch Menschen, die alles richtig machen, werden die Diagnose Krebs erhalten. Wenn man den Kampf gegen den Krebs gewinnen will, werden Fortschritte in allen drei Aspekten - Prävention, früher Entdeckung und Behandlung - von zentraler Bedeutung sein.

[1] Stem cell divisions, somatic mutations, cancer etiology, and cancer prevention. Tomasetti C, Li L, Vogelstein B. Science. 2017 Mar 24;355(6331):1330-1334.

[2] Cancer etiology. Variation in cancer risk among tissues can be explained by the number of stem cell divisions. Tomasetti C, Vogelstein B. Science. 2015 Jan 2;347(6217):78-81.


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Random Mutations Play Major Role in Cancer" zuerst (am 4. April 2017) im NIH Director’s Blog:. https://directorsblog.nih.gov/2017/04/04/random-mutations-play-major-role-in-cancer/#more-8082. Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


Weiterführende Links

The Cancer Genome Atlas. https://cancergenome.nih.gov/ This website offers free, credible, current, comprehensive information about cancer prevention and screening, diagnosis and treatment, research across the cancer spectrum, clinical trials, and news and links to other NCI websites.

EMBL: https://www.embl.de/leben/werk/

EMBL: Vom Leben lernen.Eigenleben (Krebs)

Jochen Börner: Entstehung von Krebs. Video 4:14min (Standard-YouTube-Lizenz)


Artikel im ScienceBlog:

Gottfried Schatz 22.08.2014: Jenseits der Gene — Wie uns der Informationsreichtum der Erbsubstanz Freiheit schenkt

inge Thu, 06.04.2017 - 13:13

Eine neue Sicht auf Typ-1-Diabetes?

Eine neue Sicht auf Typ-1-Diabetes?

Do, 30.03.2017 - 06:28 — Ricki Lewis Ricki LewisIcon MedizinEiner eben erschienenen Untersuchung des Teams um B.Petersen (Universität Florida) zufolge, könnte es ein Umdenken hinsichtlich der Entstehung von Typ-1-Diabetes (T1D) geben. Demnach dürfte T1D nicht direkte Folge eines Autoimmundefekts sein und das Verfolgen des Glukosespiegels im Blut nicht der einzige Weg, um die Krankheit in den Griff zu bekommen [1]. Im Fokus steht ein neu entdecktes, bei Patienten im Übermaß vorhandenes Protein, das die Balance von Insulin und seinem Gegenspieler Glukagon in Richtung Glukagon verschiebt und so der Insulin Funktion entgegenwirkt. Die Genetikerin Ricki Lewis fasst hier die faszinierenden Ergebnisse zusammen, die neue Möglichkeiten für Diagnose und Therapie eröffnen dürften.*

Etablierte Vorstellungen in den Wissenschaften lassen sich nur schwer ändern. Beispielsweise:

Proteine sind der Stoff aus dem Gene gemacht sind,

Gene bestehen aus einem zusammenhängenden, immobilen Stück DNA,

das Genom besteht aus 120 000, nein, 80 000, nein 60 000 und schließlich aus 20325 Genen.

Sobald wir mehr in Erfahrung bringen, ändert sich unser Wissen über die Natur. Deshalb gibt es auch keinen strengen wissenschaftlichen Beweis, gerade eben Hinweise, Hypothesen und (selten) ausreichende Befunde um eine Theorie zu untermauern. Wissenschaft ist evidenzbasiert, beruhend auf Beobachtungen und Untersuchungen. Wir glauben nicht an die Evolution oder an den Klimawandel so als ob es eine Religion wäre. Dennoch kann es für einen Forscher schwierig sein Befunde aufzuzeigen, die eine gängige Vorstellung in Frage stellen.

In der Situation gegen ein Dogma anzutreten, befindet sich Bryon Petersen, Direktor des Pediatric Stem Cell Research and Hepatic Disorders Child Health Research Institute an der Universität von Florida. Seine Befunde lassen darauf schließen, dass Typ 1 Diabetes (T1D) nicht direkt aus einem Autoimmundefekt entstehen dürfte und, dass das Verfolgen des Glukosespiegels im Blut nicht der einzige Weg wäre, um die Krankheit in den Griff zu bekommen.

Mit seinem Team hat Petersen eben eine Arbeit veröffentlicht, die ein wenig bekanntes Protein, das Islet Homeostasis Protein (IHoP), in den Fokus rückt [1]:

Menschen, die an Typ 1 Diabetes leiden erzeugen zu viel von diesem IHoP. Untersuchungen an Mäusen und Menschen zeigen, dass eine Reduzierung von IHoP die Regulierung des Glukosespiegels im Blut wiederherstellt und die Zahl der Insulin-produzierenden beta-Zellen in der Bauchspeicheldrüse (dem Pankreas) erhöht. Der vielleicht wichtigste Befund: ein Übermass an IHoP im Blut der Patienten, das es zu einem möglichen neuen Biomarker für T1D macht.

Zur Anatomie des Pankreas

Das Pankreas ist eine zweifache Drüse: Der exokrine Teil erzeugt Enzyme zur Spaltung von Proteinen, Lipiden und Stärke und setzt diese in die Verdauungsflüssigkeit im Dünndarm frei.

Dies ist für Diabetes nicht von Bedeutung. Der endokrine (d.i. Hormon-erzeugende) Teil besteht aus Anhäufungen von Zellen, die als Inseln (Langerhans-Inseln) bezeichnet werden, wobei eine derartige Insel vier unterschiedliche Zelltypen beherbergt . 15 - 20 % der Inselzellen sind sogenannte alpha-Zellen, die Glukagon freisetzen (Abbildung 1). Dieses Hormon steigert den Glukosespiegel im Blut indem es in der Leber den Abbau der Speicherform Glykogen stimuliert und die Neusynthese von Glukose aus Aminosäuren.

Rund 60 % der Inselzellen sind sogenannte beta-Zellen, die ein anderes Hormon - Insulin - produzieren (Abbildung 1). Insulin ist der Gegenspieler zu Glukagon: es stimuliert die Leber Glukose zu Glykogen aufzubauen und verhindert dass andere Nährstoffe in Glukose umgewandelt werden. Zellen, die Rezeptoren für Insulin besitzen, werden durch das Hormon zur Aufnahme von Glukose aus dem Blutstrom stimuliert. Dies ist der Grund warum Training dazu führt, dass die Muskel (Skelettmuskel) Glukose aufnehmen und damit seinen Blutspiegel senken - ein den Diabetikern wohlbekannter Effekt.

Abbildung 1. Das Pankreas im Bauchraum und eine mikroskopische Aufnahme der Anhäufung - Inseln - endokriner Zellen. Glukagon-produzierende alpha Zellen sind rot, Insulin erzeugende beta-Zellenblau.

IHoP fördert die Glukagon Produktion - es wirkt damit der Funktion des Insulin entgegen. Wird im Tiermodell der diabetischen Mäuse die IHoP Produktion herunterreguliert (mittels RNA-Interferenz, auf die hier nicht eingegangen werden soll; Anm. Red), so normalisiert sich der Glukosespiegel in den Tieren.

In Patienten mit T1D enthalten die Inseln wesentlich mehr als 15 - 20 % alpha-Zellen, da die beta-Zellen absterben. Abbildung 2. Dies wird weithin als Trigger für Autoimmunangriffe angesehen, welche als primäre Auslöser der Krankheit betrachtet werden. Petersens Untersuchungen weisen nun darauf hin, dass Autoimmunität erst sekundär auftreten dürfte - dies kann wesentliche klinische Auswirkungen auf Diagnose, Überwachung und Behandlung der Krankheit haben.

Abbildung 2. Vergleich der Insel eines T1D-Patienten (links) mit der Insel eines Gesunden (rechts). Die beta- Zellen sind braun gefärbt. Im linken Bild fehlen intakte beta-Zellen, nur zerstörte Reste sind vorhanden.

Ist Autoimmunität sekundär?

Gegen eine etablierte Meinung anzugehen hat - wie Petersen meint - dazu geführt, dass seine Untersuchung erst nach fünf Jahren angenommen wurde, nachdem eine lange Reihe von Top-Journalen diese abgelehnt hatten.

"Unsere Untersuchungen erregen bei den Diabetesforschern Aufregung, da IHoP nun Dinge deuten kann, die sie selbst nicht erklären konnten. T1D ist keine Autoimmunerkrankung" sagt Petersen.

Die Verbindung zwischen dem Anstieg von IHoP und der Autoimmun-Zerstörung der beta-Zellen könnte in der Ähnlichkeit des IHoP zu Plastin liegen, einem Protein, das dafür bekannt ist, dass es an das Zytoskelett von aktivierten T-Zellen bindet und diesen Beweglichkeit verleiht. Möglicherweise ist IHoP dazu ebenfalls in der Lage - dies gibt das Bild der Autoimmunität, da Aktivierung von T-Zellen ja Bestandteil der Immunantwort ist.

Wurde die Expression von IHoP in den Mäusen herunterreguliert, so konnten deren Inselzellen länger als 35 Wochen von schädigenden Immunzellen freigehalten werden. In Petersens Veröffentlichung findet sich diese Auswirkung in Form einer Waage dargestellt (Abbildung 3): Ein Anstieg von IHoP verändert das Gleichgewicht: Glukagon ist nun oben, Insulin unten - als Folge entsteht Diabetes. Wird IHoP stillgelegt, kommt die Schaukel ins Gleichgewicht. Allerdings muss eine derartige Blockierung schon früh im Krankheitsprozess erfolgen, um die Zerstörung von beta-Zellen zu stoppen sodass das Pankreas sich rechtzeitig noch erholen und die Insulin Produktion wieder aufnehmen kann.

Abbildung 3. In gesunden pankreatischen Inseln sind Glukagon und Insulin balanciert (oben). Bei T1D (unten) wird IHoP verstärkt exprimiert, das die Glukagon-Produktion stimuliert; Insulin sinkt ab.

Das Ergebnis ist mehr als ein Abgehen von der traditionellen Betrachtung der T1D als eine Autoimmunerkrankung - es hat ein bedeutendes klinisches Potential. Petersen erklärt dies so:

"IHoP bewirkt Dreierlei: Erstens und vor allem öffnet es einen neuen Weg zum Verständnis der Krankheit. Zweitens haben wir damit ein neues Target in der Hand, um Arzneimittel/ Behandlungsformen für frisch diagnostizierte Patienten zu entwickeln. Drittens ergibt es für das Gebiet eine neuen Biomarker, der eine frühere Diagnose und damit bessere therapeutische Chancen ermöglicht."

Petersen räumt jedoch ein, dass unser Wissen über Autoimmunität noch recht beschränkt ist, eine - wie er es nennt - unglückselige Konstellation von abweichenden Immunantworten, in denen sich der Organismus gegen seine eigenen gesunden Zellen und Organe richtet und häufig in Krankheit endet. "Es ist eine fehlgeleitete Immunantwort, die möglicherweise aber nicht in einer zufallsbedingten Weise abläuft. Vielleicht ist es nicht so sehr ein Angriff auf das "Selbst", sondern eine Sekundärreaktion auf einen Vorgang, der zur Aktivierung von Antigen-präsentierenden Zellen führt, damit eine T-Zell Antwort auslöst und so den Eindruck von Autoimmunität vermittelt."

Fazit

Diabetes ist ein wesentliches Kapitel in der Geschichte der Medizin: es geht aus von Versuchen, die Frederick Banting und Charles Best (Universität Toronto) in den frühen 1920er Jahren an Hunden ausführten und dabei das ursprünglich "Isletin" genannte Hormon entdeckten und führt über Insulin-Pumpen und Insel-Transplantationen vierzig Jahre später bis zum ersten, mittels rekombinanter DNA-Technologie hergestellten Therapeutikum, 60 Jahre danach.

Möglicherweise wird mit IHop das nächste Kapitel in der Geschichte von Typ1 Diabetes aufgeschlagen.


*Der Artikel ist erstmals am 23. März 2017 in PLOS Blogs - DNA Science Blog unter dem Titel "A New View on Diabetes?" erschienen (http://blogs.plos.org/dnascience/2017/03/23/a-new-view-of-diabetes/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Die Übersetzung folgt so genau wie möglich der englischen Fassung. Von der Redaktion eingefügt: Beschriftung der Abbildungen, Untertitel.


[1] S-H Oh, ML Jorgensen, CH Wasserfall, A Gjymishka, BE Petersen. Suppression of islet homeostasis protein thwarts diabetes mellitus progression. Laboratory Investigation (2017), 1–14. http://www.nature.com/labinvest/journal/vaop/ncurrent/pdf/labinvest201715a.pdf


Weiterführende Links

Über Typ1 Diabetes (englisch): Type 1 Diabetes Facts. http://www.jdrf.org/about/fact-sheets/type-1-diabetes-facts/

Diabetes (Typ 2) im ScienceBlog

inge Thu, 30.03.2017 - 06:28

Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist

Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist

Do, 23.03.2017 - 22:44— Boris Greber Boris GreberIcon MedizinPluripotente Stammzellen gelten als wahre Schatzkiste - aus ihnen können theoretisch sämtliche Gewebe des menschlichen Körpers erzeugt werden, zum Beispiel von selbst schlagendes Herzmuskelgewebe. Der Molekulargenetiker Boris Greber (Forschungsgruppenleiter am Max-Planck Institut für molekulare Biomedizin, Münster) zeigt wie dies funktioniert und wie der Prozess besser kontrolliert werden kann. Mit seinem Team hat er hat herausgefunden, wie und welche zellulären „Steuerungshebel“ zur richtigen Zeit umgelegt werden müssen. Es ist ein eigentlich erstaunlich einfaches, in zwei Schritten verlaufendes Verfahren, das sich nutzen lässt, um an Herzmuskelzellkulturen die Ursachen genetisch bedingter Herzkrankheiten zu ergründen und mögliche Wirkstoffe zu testen.

Klettern im Entscheidungsbaum

Die meisten Zellen unseres Körpers sind hochspezialisiert und nehmen, je nach ihrer Lage, nur die ihnen zugeteilten Aufgaben wahr: Nervenzellen im Gehirn brauchen wir zum Denken, Muskelzellen zur Bewegung und so weiter. Mehr als 200 unterschiedliche Zelltypen tragen wir in uns. Man kann sich diese als Spitzen eines weit verzweigten Baumes vorstellen. Abbildung 1 zeigt das in vereinfachter Form.

Doch wie entsteht die Vielfalt? Die Antwort findet sich in den Anfängen der menschlichen Individualentwicklung. Pluripotente Stammzellen sind die unspezialisierten Vorläufer aller unterschiedlichen Zelltypen unseres Körpers. Sie stellen quasi den Hauptstamm des Baumes dar (Abbildung 1). Durch vielfache Teilung und Differenzierung durchlaufen die Zellen bei der Embryonalentwicklung eine Reihe unterschiedlicher Zwischenstufen, bis sie schließlich einen bestimmten Endzustand annehmen - insgesamt ein Prozess von ungeheurer Komplexität.

Abbildung 1. Humane pluripotente Stammzellen lassen sich im Labor in Kolonieform vermehren. Das untere Bild zeigt eine undifferenzierte Kolonie aus mehreren Hundert Zellen. Durch mehrstufige Differenzierung entlang der Hauptachsen Endoderm, Mesoderm und Neuro-Ektoderm entstehen spezialisierte Körperzellen, die in den Beispielen durch Fluoreszenzfarbstoffe markiert wurden. Die Herzmuskeldifferenzierung beinhaltet Mesodermbildung als Zwischenstufe. © Max-Planck-Institut für molekulare Biomedizin/Greber

Die Umkehrung des Prozesses: induziert-pluripotente Stammzellen

Einmal Nervenzelle, immer Nervenzelle - so dachte man lange Zeit. Aber der Prozess ist umkehrbar! Seit einigen Jahren ist es technisch möglich, beliebige Körperzellen, zum Beispiel Bindegewebszellen der Haut oder sogar Wurzelzellen einzelner Haare, umzuprogrammieren und in den embryonalen Stammzellzustand zurückzuversetzen. Während sich die meisten Körperzellen als spezialisierte Zellen nicht weiter teilen können, lassen sich die so erzeugten, induziert-pluripotent genannten Stammzellen (iPS-Zellen) praktischerweise fast unbegrenzt im Labor vermehren. Dabei behalten iPS-Zellen ihre zweite definierende Eigenschaft, nämlich sich in unterschiedliche spezialisierte Körperzellen differenzieren zu können, fortlaufend bei. Ein besonderer Zustand ist das also offenbar, in dem diese Zellen vorliegen: hochgradig vermehrungsfreudig und allzeit bereit, differenzierungsmäßig „Gas zu geben“.

Dass sich menschliche pluripotente Stammzellen auch im Labor, in einer Kulturschale mit etwas Nährflüssigkeit, in eine Reihe unterschiedlicher Zelltypen differenzieren lassen, macht sie für Forscher so interessant. Denn mit diesem System lassen sich Zusammenhänge zur Entstehung des menschlichen Körpers auf zellulärer Ebene herausfinden. Ein weiteres Ziel ist es, die auf iPS-Zellen basierende Gewebezüchtung medizinisch nutzbar machen. Wenn man iPS-Zellen in einer Kulturschale mit einfacher Nährlösung, das heißt ohne Stoffe, welche ihren undifferenzierten Zustand stabilisieren, sich selbst überlässt, bildet sich tatsächlich eine Reihe spezieller Zelltypen spontan aus, zum Beispiel Leberzellen, Herzmuskelzellen oder Nervenzellen (Abbildung 1). Das Problem: bei dieser Herangehensweise entstehen wilde Gemische differenzierter Zellen.

Wie lassen sich die Zellen auf kontrollierte Weise durch den „Entscheidungsbaum“ navigieren, so dass man ein einzelnes, gewünschtes Zellgewebe in hoher Ausbeute erhält? Diese Frage beschäftigt das Labor für humane Stammzellpluripotenz am Max-Planck-Institut für molekulare Biomedizin.

Heute die grüne Pille, morgen die rote

Viele Jahre entwicklungsbiologischer Forschung lieferten eine Reihe von Erkenntnissen darüber, wie die Stammzelldifferenzierung in einem neu entstehenden Organismus kontrolliert abläuft. Gesteuert werden diese komplexen Prozesse durch Signalstoffe - oftmals spezialisierte Proteine, die von außen an Zellen im Embryo „andocken“. Diese Informationen werden in den Zellkern weitergeleitet. Dort führen sie zur Abschaltung stammzellspezifischer Gene und zur Anschaltung von Genen, die für den angestoßenen Differenzierungsprozesses nötig sind. Eine Reihe biotechnologischer Firmen stellen solche Signalstoffe einzeln her. Mit ihnen lässt sich untersuchen, welche Stoffe in den Zellen welche Prozesse auslösen und welche Gene dabei reguliert werden. Solche Zusammenhänge aufzudecken war ein zentrales Anliegen der Forschergruppe, um zu entschlüsseln, wie aus pluripotenten Stammzellen spontan schlagendes Herzmuskelgewebe entstehen kann (Abbildung 1).

Zunächst wurde durch Ausprobieren herausgefunden, in welcher Kombination und zeitlicher Abfolge die unterschiedlichen Signalfaktoren zugesetzt werden müssen. Dies lässt sich mit folgendem Bild erläutern:

Man stelle sich vor, die Stammzelle (hPS) sei ein Ball, der einen Hügel in gewünschter Richtung - Richtung Herzmuskel – hinunter rollen soll. Hierbei gibt es aber hintereinanderliegende Steine, die aus dem Weg zu räumen sind. Sie entsprechen unterschiedlichen regulatorischen Genen, welche den Differenzierungsprozess an zwei aufeinanderfolgenden Punkten hemmen. Es hätte nun, wie Abbildung 2 verdeutlicht, keinen Sinn, zunächst den weiter talwärts gelegenen Brocken zu beseitigen. Man sollte mit dem ersten anfangen und sich erst anschließend um Nummer zwei kümmern. In der konkreten Forschung heißt das: erst müssen den Zellen die Signalmoleküle BMP und WNT zugeführt werden, die den Austritt aus dem pluripotenten Zustand ermöglichen und die Zellen in einen Zwischenzustand überführen (Mesoderm). In einem zweiten Schritt wird die Nährlösung durch eine solche ersetzt, die einen Gegenspieler zum WNT-Signal enthielt (anti-WNT), so dass der weitere Weg in den Herzmuskelzustand frei wird (Abbildung 2).

Abbildung 2. Die Stammzelldifferenzierung erfordert die Beseitigung regulatorischer Barrieren. Durch die Behandlung der Zellen mit den Signalmolekülen BMP und WNT, und anschließend mit anti-WNT, werden Gene ausgeschaltet, welche die Herzmuskeldifferenzierung hemmen. Die Zellen verlieren im Laufe dieses Prozesses allmählich ihr anfangs hohes Potenzial, unterschiedlichste Zelltypen hervorbringen zu können.© Max-Planck-Institut für molekulare Biomedizin/Greber

Überraschend war für die Forschergruppe die Erkenntnis, dass die Steuerung des Prozesses zum großen Teil auf der Beseitigung dieser Barrieren beruht und nur teilweise auf der Notwendigkeit, dem Ball anfangs einen ordentlichen Tritt zu versetzen. Die initiale Ausschaltung des Regulatorgens SOX2 (Abbildung 2) scheint dabei ein universeller Mechanismus zu sein, um die mesodermale Differenzierung zu starten – sowohl beim Menschen als auch in vielen anderen Organismen.

Derart einfache Eingriffe in die Signalwege der Stammzellen können also durchaus ausreichen, um einen an sich komplizierten, mehrstufigen Prozess hin zu spezialisierten Körperzellen zu steuern.

Krankheitsforschung in der Kulturschale

Im Falle der Herzmuskeldifferenzierung war das Verfahren so effizient, dass nahezu sämtliche Zellen in der Kulturschale in spontan kontrahierendes Gewebe überführt wurden - ähnlich einem autonom schlagenden Herzen im Zuge einer Organtransplantation. Damit war eine wichtige Voraussetzung erfüllt, um das System für angewandte Zwecke zu nutzen. Die Forscher entnahmen einem Patienten mit einer erblichen Herzkrankheit, dem Jervell-Lange-Nielsen-Syndrom (JLNS), Hautzellen und reprogrammierten diese in pluripotente iPS-Zellen (Abbildung 3).

Abbildung 3. iPS-Zellen dienen der patientenspezifischen Krankheitsmodellierung. Arbeitsablauf zur Generierung von iPS-Zellen und daraus abgeleiteten Herzmuskelgewebes aus Zellproben von Patienten. Die farbigen Kügelchen stellen Gene dar, die den Prozess der Reprogrammierung bewerkstelligen.© Max-Planck-Institut für molekulare Biomedizin/Greber

Anschließend differenzierten sie die Stammzellen in patientenspezifische Herzmuskelzellen, die weiterhin den ursächlichen Gendefekt in sich trugen. Diese Zellen brachten sie auf Elektrodenchips auf, um deren elektrische Aktivität messen zu können - zu vergleichen mit der Aufzeichnung eines Elektrokardiogramms bei Herzpatienten, bei der man Elektroden auf der Körperoberfläche anbringt (Abbildung 4).

Abbildung 4. Ein Cluster aus Herzmuskelzellen wurde auf punktförmigen Elektroden mit Leiterbahnen aufgebracht. Auf diese Weise lassen sich elektrische Signale ableiten. Unter Grundbedingungen schlagen Kontroll- und Patientenzellen ähnlich schnell und regelmäßig (obere Aufzeichnung). Nach Zugabe eines Adrenalin-Analogons schlagen die Kontrollzellen schneller (links unten). Die Patientenzellen hingegen entwickeln wellenförmige, sogenannte TdP-Arrhythmien (rechts unten). © Max-Planck-Institut für molekulare Biomedizin/Greber

Im Vergleich zu gesunden Kontrollzellen verhielten sich die Patientenzellen tatsächlich wie erhofft: das Herzmuskelgewebe mit dem Gendefekt zeigte Arrhythmien, wenn man ihm ein Adrenalin-Analogon zusetzte, während die Kontrollzellen lediglich schneller schlugen. Diese Reaktion ähnelt der erhöhten Herzschlagfrequenz in Stressituationen, wobei JLNS-Patienten lebensbedrohliche Rhythmusstörungen erleiden können (Abbildung 4).

Ausblick: patientenspezifische Krankheitsmodellierung

Der Vorteil dieses Verfahrens besteht darin, dass es - durch die Vermehrbarkeit der iPS-Zellen - einen unbegrenzten Zugang zu patientenspezifischem Zellmaterial bietet.

An solchen patientenspezifischen Herzzellen lassen sich mögliche Medikamente testen, ohne den Patienten zu gefährden oder Tierversuche durchführen zu müssen. In der Tat fand die Forschergruppe eine Substanz, welche die Zellen vor der Auslösung von Arrhythmien unter Stress schützte. Die Potenz dieses Wirkstoffes muss weiter verbessert werden, bevor die tatsächliche Anwendung bei Patienten in Frage käme, doch zeigt die Arbeit der Wissenschaftler, wie sich aus grundlagenorientierter Stammzellforschung neue Anwendungsmöglichkeiten für die Medizin ergeben.


* Der unter dem Titel " Herzmuskelgewebe aus pluripotenten Stammzellen - wie das geht und wozu es zu gebrauchen ist" im Jahrbuch der Max-Planck Gesellschaft 2017 erschienene Artikel (https://www.mpg.de/10877559/vasb_jb_2017; DOI 10.17617/1.3B) wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Er erscheint ungekürzt, geringfügig für den Blog adaptiert (für's leichtere Scrollen wurden einige Absätze und Untertitel eingefügt), allerdings ohne Literaturangaben. Die großteils nicht frei zugänglichen Veröffentlichungen sind im Jahrbuch ersichtlich und können auf Wunsch zugesandt werden.


Glossar

Induzierte pluripotente Stammzellen (iPS-Zellen) sind aus Körperzellen gewonnene Stammzellen, die sich in ebenso viele verschiedene Körperzellen differenzieren können wie embryonale Stammzellen.

Adulte Stammzellen sind in zahlreichen Geweben Erwachsener vorhandene Stammzellen, die nicht pluripotent sind aber sich teilweise in iPS-Zellen verwandeln lassen.

Ausdifferenzierte Zelle ist eine Körperzelle, die auf ihre Funktion spezialisiert ist.


Weiterführende Links

Max-Planck-Institut für molekulare Biomedizin, Münster

Verjüngungskur von Zellen (2010). Video 7:20 min. Prof.Dr.Hans Schöler, Direktor des MPI für Biomolekulare Medizin (Münster), hat das Gen OCT4 entdeckt mit dessen Hilfe normale Körperzellen zu Stammzellen reprogrammiert werden können.

Dazu ein Artikel aus 2009: Potenzmittel für Zellen. (PDF-Download)

The Winding Road to Pluripotency (2012) Nobelpreis-Vortrag (english) von Shinya Yamanaka (Kyoto University), der Körperzellen in pluripotente Stammzellen reprogrammierte. (PDF-Download)

inge Thu, 23.03.2017 - 22:24

Zur Dynamik wandernder Dürren

Zur Dynamik wandernder Dürren

Do, 16.03.2017 - 11:27 — Internationales Institut für angewandte Systemanalyse (IIASA)

IIASAIcon GeowissenschaftenDürreperioden gehören zu den größten Naturkatastrophen und kommen den betroffenen Völkern sehr teuer zu stehen. Unter den besonders starken Dürren gibt es solche, die sich - in der Art eines langsam ziehenden Wirbelsturms - hunderte bis tausende Kilometer von ihren Entstehungsorten fortbewegen. Um derartige Situationen besser vorhersagen und entsprechende Vorkehrungen treffen zu können, ist es unabdingbar zu verstehen, wie Dürren sich entwickeln und welche physikalischen Gegebenheiten ihre Dynamik kontrollieren. Ein Forscherteam des Internationalen Instituts für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) und der Princeton University (USA) hat nun ein Modell zur Entwicklung von Dürren in Raum und Zeit erarbeitet. Dieses basiert auf der Analyse von Daten über 1420 Trockenheiten, die im Zeitraum 1979 bis 2009 weltweit auftraten.*

Die meisten Menschen glauben, dass Dürren ein lokales oder regionales Problem sind. Dies ist auch größtenteils der Fall. Tatsächlich können aber rund zehn Prozent der Dürren zu "wandern" beginnen. Sie ziehen dabei in der Art eines Wirbelsturms weiter, allerdings wesentlich langsamer: anstelle der für Wirbelstürme üblichen Tage bis Wochen benötigen Dürren für ihre Wanderung Monate bis Jahre. Dabei legen sie Strecken zurück, die - je nach Kontinent - zwischen 1400 und 3100 km betragen können und tendieren dazu die stärksten und schlimmsten Dürren zu sein. Sie haben ein enormes Potential größte Schäden in Landwirtschaft, Energie- und Wasserversorgung anzurichten (Abbildung 1) und enorme Probleme für humanitäre Hilfsbereiche hervorzurufen.

Abbildung 1. Dürre - Fische in einem fast ausgetrockneten See (das von der Redaktion beigefügte Bild stammt von "Max Pixel" und ist gemeinfrei).

Räumliche Muster der Ausbreitung von Dürren

In der vergangenen Woche sind im Fachmagazin"Geophysical Research Letters" die Ergebnisse einer Zusammenarbeit von Forschern des Internationalen Instituts für Angewandte Systemanalyse (IIASA, Laxenburg bei Wien) und der Princeton University (USA) erschienen, die einen neuen Zugang zum Verständnis derartiger wandernder Dürren zeigen. Beschränken sich die meisten der bisherigen Studien darauf entweder die zeitlichen Änderungen der Trockenheit in einer definierten Region zu untersuchen oder aber deren räumliche Variabilität in einem definierten Zeitraum, so berücksichtigt diese neue Arbeit gleichzeitig Raum und Zeit, um die Dynamik sich entwickelnder Dürren zu erfassen [1]:

Als Basis dienten dem Forscherteam Trockenheitsdaten aus dem Zeitraum von 1979 bis 2009 (Quelle: "Climate Forecast System Reanalysis (CFSR)" ). Diese Daten haben die Forscher analysiert und daraus weltweit 1420 Dürren identifiziert. Zusammenhängende, von Dürre betroffene Regionen wurden in Cluster zusammengefasst und diese räumlich und zeitlich verfolgt. Dabei haben sie auf jedem Kontinent Hotspots festgestellt, wo eine Reihe von Dürren ähnliche Wege genommen hat (Abbildung 2). Beispielsweise zeigen im Südwesten der USA auftretende Dürren eine Tendenz vom Süden nach dem Norden zu ziehen. Für Australien fanden die Forscher zwei Hotspots und bevorzugte Wanderungsrichtungen von Dürren, nämlich von der Ostküste in nordwestliche Richtung und von den zentralen Ebenen in nordöstliche Richtung.

Abbildung 2. Hotspots der Routen, die Dürren im Zeitraum von 1979 bis 2009 genommen haben. Justin Sheffield (University Southampton): "There might be specific tipping points in how large and how intense a drought is, beyond which it will carry on growing and intensifying.(Daten basieren auf der Analyse von 1420 Dürren [1]; Bild: http://www.iiasa.ac.at/web/home/about/news/170307-drought.html, ©Julio Herrera-Estrada)

Die Ursache, warum Dürren zu wandern beginnen, bleibt unklar. Die Daten lassen aber darauf schließen, dass es Rückkoppelungen zwischen Niederschlag und Verdunstung in Atmosphäre und Boden sein dürften, die eine wesentliche Rolle spielen. Der Studie zufolge könnte es für das Ausmaß und die Schwere einer Dürre spezifische Schwellwerte geben - werden diese überschritten, so wird die Dürre weiter wachsen und in ihrer Intensität zunehmen.

Die Dynamik der wandernden Dürren

Während der Beginn einer Dürreperiode schwierig vorauszusagen ist, bietet die Studie eine neues Modell, das es Forschern ermöglichen sollte bessere Prognosen zur räumlichen und zeitlichen Entwicklung und Dauer von Dürren zu erstellen, als es bisher möglich war.

Die Studie zeigt aber auch, wie wichtig hier regionale Zusammenarbeit und Austausch von Informationen über alle nationalen Grenzen und Staatsgrenzen hinweg sind. Ein Beispiel dafür ist der Nordamerikanische Dürremonitor (Abbildung 3). Hier laufen Messungen und weitere Informationen aus Mexiko, den US und Canada zusammen und bilden ein umfassendes Überwachungssystem in Echtzeit.

Abbildung 3. Der Nordamerikanische Trockenheitsmonitor (North American Drought Monitor - NADM): wie sich die Trockenheit vom Feber 1987 bis März 1988 entwickelte. (Bilder stammen von der IIASA Website http://www.iiasa.ac.at/web/home/about/news/170307-drought.html). Nach Aussage des US National Centers for Environmental Information haben seit 1980 größere Dürren und Hitzewellen allein in den US Schäden von mehr als 100 Milliarden Dollar verursacht (https://www.ncdc.noaa.gov/temp-and-precip/drought/nadm/overview).

Wie geht es weiter?

In einem nächsten Schritt wollen die Forscher nun die Ursachen für die Wanderung der Dürren untersuchen, indem sie die Rückkoppelung von Niederschlägen und Verdunstung genauer durchleuchten. Julio Herrera-Estrada, der Erstautor der vorliegenden Studie (Bau- und Umwelt­ingenieurwesen, Princeton University, US) möchte auch analysieren welchen Einfluss der Klimawandel auf die Charakteristik von Dürren nimmt.


[1] Herrera-Estrada JE, Satoh Y, & Sheffield J (2017). Spatiotemporal Dynamics of Global Drought. Geophysical Research Letters: 1-25. DOI:10.1002/2016GL071768.


*Der von der Redaktion aus dem Englischen übersetzte, geringfügig für den Blog adaptierte Text und die Abbildungen 2 und 3 stammen von der am 7. März auf der Webseite des IIASA erschienenen Pressemitteilung “Traveling” droughts bring new possibilities for prediction: http://www.iiasa.ac.at/web/home/about/news/170307-drought.html.

IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt. Die gemeinfreie Abbildung 1 wurde von der Redaktion zugefügt.


Weiterführende Links

Internationales Institut für Angewandte Systemanalyse (IIASA): http://www.iiasa.ac.at/

Die Aufgabe des IIASA besteht darin mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen.

inge Thu, 16.03.2017 - 11:27

Vor 76 Jahren: Friedrich Wessely über den Status der Hormonchemie

Vor 76 Jahren: Friedrich Wessely über den Status der Hormonchemie

Do, 09.03.2017 - 07:19 — Inge Schuster Inge SchusterIcon Wissenschaftsgeschichte

Vor 50 Jahren ist der österreichische Chemiker Friedrich Wessely (1897 -1967) gestorben. Wie kaum ein anderer Universitätslehrer hat er an der Universität Wien - beginnend von den 1920er Jahren bis zu seinem Tod - Generationen von Wissenschaftern geprägt und seine Ansichten erscheinen nach wie vor unglaublich aktuell. Der vorliegende Text - die gekürzte Fassung eines Vortrags, den er 1941 über eines seiner Forschungsgebiete gehalten hat - endet mit den Worten: "Das Ziel der Naturwissenschaft: die unendliche Vielheit des Lebens, das uns umgibt und in das auch wir gestellt sind, zu erfassen und, soweit es dem menschlichen Geist gegeben ist, zu erkennen, wird nur erreichbar sein, wenn sich die Vertreter der Einzelwissenschaften zu einem immer enger werdenden Gedanken- und Erfahrungsaustausch zusammenfinden, um durch die Synthese ihrer Einzelergebnisse wieder ein Ganzes zu schaffen." *

Abbildung 1. Univ.Prof. Dr. Friedrich Wessely um 1966 (Quelle unklar, das Bild hat uns F. Wessely geschenkt).

Wessely war ein hervorragender, ungemein motivierender Lehrer, der uns aktuellstes Wissen vermittelte und es verstand das von ihm geleitete Institut für Organische Chemie unter ungemein schwierigen Verhältnissen auf einen modernen Standard zu bringen. Dies bedeutete in den 1960er Jahren die Ausstattung mit neuesten analytisch spektroskopischen Einrichtungen - der Kernresonanz- und Massenspektrometrie - ebenso wie die Etablierung einer Theoretischen Organischen Chemie.

Als noch ganz junger Soldat war Wessely im 1. Weltkrieg schwer verletzt worden. Er hatte dann im Rekordtempo Chemie studiert , wurde Mitarbeiter am Kaiser Wilhelm Institut für Faserchemie (Berlin, Dahlem) und bereits von 1927 an Leiter der Abteilung für Organische Chemie an der Universität Wien. 1948 trat er schließlich die Nachfolge von Ernst Späth als Leiter des II. Chemischen Institutes (später "die Organische Chemie") dieser Universität an.

Wessely liebte die Herausforderung in neue Gebiete vorzudringen. Seine Forschungsarbeiten betrafen Themen aus der Organischen Chemie und speziell aus der Naturstoffchemie. Er leistete u.a. Pionierarbeiten zur Synthese von nieder- und hochmolekularen Peptiden, klärte die Struktur von pharmakologisch wichtigen Naturstoffen (von Coumarinen, Flavonen) auf und beschäftigte sich vor allem auch mit Hormonen, u.a. mit "körperfremden weiblichen Sexualhormonen", die zur Entwicklung einer Reihe von pharmakologisch wichtigen Stoffen führten.

Wie schwierig und langwierig es war aus riesigen Materialmassen kleinste Mengen an Naturstoffen zu isolieren, in ihrer Struktur aufzuklären und durch Synthese neu herzustellen, ohne die heutigen analytischen Möglichkeiten, ist kaum mehr vorstellbar. Vielleicht kann aber der Vortrag "Einige neuere Ergebnisse der Hormonchemie", den Friedrich Wessely am 12. Februar 1941 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" gehalten hat, einen Eindruck davon vermitteln. Der Vortrag erscheint im Folgenden in einer für den Blog adaptierten, gekürzten Form mit einigen zusätzlichen Untertiteln.

Friedrich Wessely: Einige neuere Ergebnisse der Hormonchemie

Vortrag am 12. Februar 1941 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" *

Ein wichtiger Zweig der heutigen modernen organischen Chemie beschäftigt sich mit der Isolierung und chemischen Erforschung von im Pflanzen- und Tierreich vorkommenden Stoffen. Diese interessieren nicht nur den Chemiker, sondern auch andere naturwissenschaftliche Disziplinen, so z. B. den Zoologen, Botaniker, Biologen und Mediziner. Diese Tatsache bedingt auch die Zusammenarbeit verschiedener Wissenszweige und je größer deren gemeinsames Interesse an einer Frage ist, desto intensiver gestalten sich die wechselseitigen Anregungen, desto fruchtbarer wird die Zusammenarbeit, die in den meisten Fällen zu wirklich wertvollen Ergebnissen führt. Der im Jahre 1941 verstorbene große deutsche Chemiker und Techniker C. Bosch, dem wir neben vielen anderen die technische Ammoniaksynthese verdanken, hat den Satz geprägt: „Alle wirklichen Fortschritte liegen auf Grenzgebieten." Von einem solchen Grenzgebiet soll im folgenden die Rede sein, von den Hormonen.

Wir verstehen unter Hormonen

heute Stoffe, die vom Organismus selbst erzeugt, diesem zur Steuerung bestimmter für sein Leben wichtiger Reaktionen dienen. Sie liegen meist nur in sehr kleinen Mengen vor und der Chemiker hätte die meisten der heute bekannten Hormone noch nicht isoliert, wenn er nicht das biologische Experiment als Ausgangspunkt und als Hilfe für seine Untersuchungen zur Verfügung hätte. Durch den biologischen Versuch wurde und wird auch heute noch der Nachweis geführt, dass bestimmte Vorgänge und Reaktionen des lebenden Organismus isolierbare stoffliche Ursachen haben müssen. Erst wenn dieser Nachweis erbracht ist, beginnt die Arbeit des Chemikers, dem die Feindarstellung, die Aufklärung des chemischen Baues und die Synthese des Wirkstoffes obliegt. Es ist wichtig, die Stoffe, die am Lebensgetriebe beteiligt sind, rein darzustellen, denn nur so kann ihre Wirkung gegen die von anderen Stoffen hervorgerufene abgegrenzt werden.

Mit der Kenntnis bestimmter von gewissen Stoffen hervorgerufenen Endwirkungen stehen wir aber erst am Anfang des Weges. Denn vor uns liegt noch die Aufgabe, in den feineren Mechanismus der biologischen Reaktionen und in deren Neben- und Miteinanderlaufen einzudringen. Hierüber wissen wir fast nichts oder nur sehr wenig. Es liegen hier Forschungsaufgaben für Generationen vor und die Frage, wieweit sich uns überhaupt das Geheimnis der Lebensvorgänge entschleiern wird, muss heute unbeantwortet bleiben. Es ist sicher, dass heute nur ein Teil aller das Getriebe eines Organismus steuernden Stoffe bekannt ist.

Biologische Versuche weisen stoffliche Ursachen für Vorgänge in Organismen nach

Es soll hier zunächst von Hormonen die Rede sein, deren Wirken durch biologische Versuche sichergestellt, deren chemische Untersuchung aber noch nicht abgeschlossen ist.

Thyroxin - das Schilddrüsenhormon

Die Metamorphose bestimmter Tiere wird durch Hormone, also hormonal gesteuert. Es ist schon eine ältere Erkenntnis, daß das Thyroxin (I), das Hormon der Schilddrüse bei der Kaulquappe zu einer verfrühten Metamorphose in die Landform führt.

Man beobachtet im normalen Entwicklungsgang unmittelbar vor der Metamorphose ein Ansteigen der Absonderungstätigkeit der Schilddrüse. Nimmt man die Schilddrüse aus einer Larve heraus, so verwandelt sich diese nicht. Sie ist aber wieder dazu imstande, wenn man ihr Schilddrüsensubstanz oder deren wirksames Prinzip das Thyroxin zufügt. Im Falle des Thyroxins bewirkt also ein altbekanntes, den Stoffwechsel vielfach beeinflussendes Hormon auch als morphogenetisches oder Formbildungshormon den Übergang von einer Entwicklungsstufe zu einer anderen. Richtung und Verlaufsart der Veränderungen sind aber in den reagierenden Zellen vorbestimmt. Wir kennen also von dem Mechanismus der Metamorphose nur das Anfangsglied, das die heute noch unbekannte Reaktionskette der Verwandlung auslöst.

Das Verpuppungshormon

Neuere Versuche haben auch gezeigt, dass die Insektenmetamorphose hormonal gesteuert wird. Schnürt man eine erwachsene Schmetterlingsraupe, die kurz vor der Verpuppung steht, quer durch, so verpuppt sich nur das Vorderende, während das Hinterende unverpuppt bleibt. Ebenso verliert die ganze Raupe die Verpuppungsfähigkeit, wenn man ihr das Gehirn herausnimmt. Sie stirbt dann aber nicht rasch ab, sondern kann als Dauerraupe Wochen, ja Monate unter Verbrauch des angesammelten Fettvorrates weiterleben. Setzt man einer solchen „Dauerraupe" das Gehirn einer anderen erwachsenen Raupe irgendwo in den Leib, dann kann Verpuppung eintreten. Das Gehirn bewirkt die Verpuppung also nicht als nervöses Zentralorgan, sondern als Spender eines Stoffes, des Verpuppungshormons. Die Metamorphosenhormone sind nicht artspezifisch. Aus jungen Schmetterlingspuppen ließ sich ein Extrakt gewinnen, der Verpuppungserscheinungen bei Dauermaden von Fliegen hervorruft, die wie die „Dauerraupen" durch Abschnüren des Vorderendes erhalten wurden. Bei Insekten mit vollständiger Verwandlung setzt sich die Metamorphose aus mehreren einschneidenden Wandlungen zusammen und jede dieser Entwicklungsphasen wird hormonal gesteuert. Bei den Insekten werden mehrere verschiedene Entwicklungsschritte durch mehrere nacheinander auftretende Hormone ausgelöst. In der letzten Zeit sind von dem deutschen Chemiker Butenandt Versuche zur Isolierung und Charakterisierung solcher Verpuppungshormone in Angriff genommen worden.

Organlokalisierende Stoffe

Man kennt auch Versuche, die darauf hinweisen, dass es Wirkstoffe gibt, die die Ausbildung bestimmter Organe an bestimmten Orten bewirken. Man kann in diesem Fall von „organlokalisierenden" Wirkstoffen sprechen. Beispiele kennt man aus der Entwicklung der Wirbeltiere, vor allem der Amphibien. Durch Transplantationsversuche hat Spemann schon vor längerer Zeit gezeigt, dass gewisse Teile eines Molchkeimes an andere Stellen anderer Molchkeime transplantiert, an diesen Stellen die Ausbildung der Organe hervorrufen, die sonst normalerweise aus diesen Keimstücken gebildet werden. Diese induzierte sekundäre Embryonalanlage kann eine beträchtliche Größe und einen hohen Grad der Ausbildung der Körperteile erreichen, sodass der Keim als Doppelbildung erscheint. Das implantierte Material erweist sich also als Organisator, der in dem benachbarten Keimmaterial Organanlagen induziert. Diese Induktionswirkung vollzieht sich offenbar durch ein chemisches Mittel, das von dem implantierten Stück des Keimes gebildet wird. Denn auch ein durch Hitze, Gefrierenlassen, Aceton-Äther abgetötetes Stück ruft zum mindesten einen Teil der von dem intakten Hautstück hervorgerufenen Wirkungen hervor. Ein Teil der Induktionswirkungen lässt sich auch durch chemische bekannte Stoffe, wie z. B. Ölsäure hervorrufen. Die bisher bekannten chemischen Mittel rufen allerdings nie zusammenhängende Organkomplexe hervor, so wie sie von einem Stück lebenden Gewebes hervorgerufen werden. Weitere Versuche zeigten auch, dass die Induktoren nicht artspezifisch sind. Aber welche Organe entstehen, das ist artspezifisch, d. h. die hervorgerufene Organisation entspricht der Natur des reagierenden Materials. Dies wird bewiesen durch Gewebeaustausch zwischen Arten mit sehr verschiedenen Einzelorganen. Die Molchlarven haben auf ihren Kiefern Zähne, die Froschlarven Hornscheiden. Pflanzt man nun in die Gesichtsgegend eines jungen Molchkeimes ein Stück Bauchhaut eines Froschkeimes, so bildet dieses Hautimplantat unter der Induktionswirkung der Umgebung eine Mundbucht mit Mundbewehrung und entsprechend der Natur der Froschhaut erhält die Molchlarve ein Froschmaul mit einem Hornkiefer. Die Reaktion, die durch Induktionsreize ausgelöst wird, wird also durch die Erbanlagen des reagierenden Stückes gesteuert.

Steuerung durch Gene

Diese Erbanlagen oder Gene, die in bestimmten Teilen der Chromosomen im Zellkern lokalisiert sind, verursachen bekanntlich die Übertragung bestimmter Eigenschaften von Generation zu Generation. In die Natur der Gene ist man von der chemischen Seite aus noch nicht sehr weit eingedrungen, wenngleich auch hier in den letzten Jahren wichtige Ergebnisse gewonnen werden konnten. Hier sei einiges über die Art der Genwirkung berichtet. Prinzipiell sind zwei Möglichkeiten der Genwirkung gegeben:

  1. eine einzelne Erbanlage wirkt nur unmittelbar in der Zelle, die damit unter bestimmte Entwicklungsbedingungen kommt (innerzellige Genwirkung);
  2. unter der Wirkung bestimmter Erbanlagen wird in bestimmten Zellen ein Wirkstoff gebildet, welcher an andere Stellen abgegeben wird und in anderen Zellen bestimmte Bildungsvorgänge auslöst (zwischenzellige Genwirkung). In diesem Fall sind also zwischen dem Gen und dem ausgebildeten Merkmal diffusible Wirkstoffe eingeschaltet, die wir wegen ihrer Beziehungen zum Gen als „Genhormone" bezeichnen. (Versuche, die die Existenz derartiger Wirkstoffe sicherstellen, wurden beispielsweise an der Mehlmotte Ephestia ausgeführt.)

Chemische Charakterisierung

Je tiefer wir in das Geheimnis des Zellgeschehens eindringen wollen, desto schwieriger werden die Aufgaben des Chemikers. Wir verfügen heute über keine Methodik, Stoffe, die nur in Gewichtsmengen von Mikrogramm vorliegen, zu isolieren. Unsere heutige Mikrochemie ist für diese Aufgabe noch viel zu grob. Meist ist aber die Isolierung eines Stoffes die unumgänglich notwendige Voraussetzung zur chemischen Charakterisierung.

Manche biologische Reaktionen sind unspezifisch

Bestimmte biologische Reaktionen können nicht allein von dem natürlichen Wirkstoff hervorgerufen werden. Dies hat (neben dem bedeutenden theoretischen Interesse) auch unter Umständen große praktische Bedeutung. Der natürliche pflanzliche Wuchsstoff, das Auxin, ist synthetisch nicht zugänglich und aus seinem natürlichen Vorkommen isoliert ein äußerst kostbarer Stoff. Man kann aber fast alle seine Wirkungen mit dem sogenannten Heteroauxin nachahmen, das heute ein leicht und billig erhältliches Material darstellt. Auch bei den Vitaminen finden wir zahlreiche Fälle von Unspezifität.

In der letzten Zeit hat man in dieser Richtung auch auf dem Gebiet der Zoohormone Erfolge erzielt. Es wurden Verbindungen gewonnen, die in allen wichtigen Wirkungen einem weiblichen Sexualhormon, dem Follikelhormon entsprechen. In quantitativer Hinsicht wird dieses sogar von den künstlichen Stoffen noch übertroffen.

Weibliche Sexualhormone

Zu den weiblichen Sexualhormonen zählen wir die sogenannten gonadotropen Hormone des Hypophysen-Vorderlappens und die Keimdrüsen- oder Gonadenhormone selbst. Gonadotrop werden die Hormone der Hypophyse genannt, weil sie die Tätigkeit der Keimdrüsen regeln. Sie gehören zu den Eiweißstoffen und dementsprechend weiß man sehr wenig über ihren chemischen Bau. Von weiblichen Gonadenhormonen gibt es zwei: das Follikelhormon und das Hormon des Gelbkörpers oder Corpus luteum. Ersteres wird auch als östrogenes Hormon bezeichnet, weil, eine seiner Wirkungen beim Tier in der Auslösung der Brunst, des Östrus besteht. Man kennt mehrere körpereigene Östrogene, die sämtlich in nahen chemischen Beziehungen zu einander stehen. (Abbildung 2). Vom Chemiker werden sie zu den Steroidverbindungen gezählt. Von körpereigenen Hormonen mit Corpus luteum-Wirkung kennen wir bisher nur ein einziges, das sogenannte Progesteron, das ebenfalls zu den Steroiden zu zählen ist

Abbildung 2. Weibliche Gonadenhormone sind nah-verwandte Steroidverbindungen.

Durch eine Unterfunktion der Hypophyse oder der Keimdrüsen wird die Produktion der diesen Organteilen eigentümlichen Hormone gestört. Durch eine Zufuhr der „Ausfallshormone" können die entstandenen krankhaften Zustände meist günstig beeinflusst werden und die Therapie mit weiblichem Sexualhormon ist aus der modernen Medizin nicht mehr wegzudenken.

Die genannten Hormone sind aber recht teure Substanzen und dieser Umstand ließ eine Therapie mit ihnen auf breitester Basis nicht zu. Für die weiblichen Gonadenhormone ist die Totalsynthese bisher nur für das Equilenin gelöst. Der Weg, der zu diesem Stoff führt, ist sehr umständlich. Die anderen weiblichen Gonadenhormone werden entweder aus ihren natürlichen Vorkommen isoliert oder durch entsprechende Umbaureaktionen aus Sterinen dargestellt, beides Wege, die sehr teuer und umständlich sind. Durch die Untersuchungen, über die im folgenden berichtet wird, ist man aber in den Besitz von östrogenen Stoffen gelangt, die wesentlich billiger sind. Seit 1932 liefen anfangs vor allem von Engländern ausgeführte Versuche, die es sich zum Ziele setzten, die für die östrogene Wirkung notwendigen strukturellen Voraussetzungen näher zu bestimmen. Es wurde eine sehr große Zahl der verschiedensten Verbindungen auf ihre östrogene Wirkung hin untersucht. Dabei zeigte sich, daß diese auch bei Stoffen eintrat, die mit den natürlichen östrogenen chemisch gar keine oder zum mindesten nur sehr wenig Beziehungen hatten. Besonders interessant war die östrogene Wirkung von Verbindungen, die sich vom Stilben ableiten lassen. Auch der Verfasser und seine Mitarbeiter haben sich seit 1937 mit der Synthese solcher Stoffe befasst, in deren Verlauf es fast gleichzeitig mit den Engländern gelang, ein besonders hochwirksames Produkt zu gewinnen, das sogenannte Diäthylstilböstrol (Abbildung 3).

Abbildung 3. Vom Stilben abgeleitete Verbindungen sind östrogen wirksam

Auch eine Reihe von anderen Verbindungen, die sich von diesem Stoff durch Absättigung der Doppelbindung durch Wasserstoff oder Sauerstoff ableiten, zeigten hohe östrogene Aktivität. An zahlreichen Stellen des In- und Auslandes durchgeführte biologische Versuche er gaben, dass zwischen diesen künstlichen östrogenen und den natürlichen keine wesentlichen Wirkungsunterschiede bestehen. Für die praktische Verwendung musste auch die Toxizität der synthetischen Verbindungen geprüft werden; dabei ergaben sich keine Hinweise dafür, daß deren Verwendung für den Menschen irgendwie gefährlich sein könne. Es wurden also auch bald das Diäthylstilböstrol und gewisse Derivate von ihm klinisch erprobt. Und es wird heute von allen Klinikern übereinstimmend angegeben, daß die synthetischen Präparate alle Wirkungen der körpereigenen Hormone herzurufen imstande sind. Sie werden also schon heute in großem Umfang bei allen Indikationen der Gynäkologie, inneren Medizin und Dermatologie verwendet, die bisher den körpereigenen Follikelhormonen vorbehalten waren. Auch für die Veterinärmedizin sind diese Verbindungen wegen ihrer Billigkeit von Wichtigkeit.

Ausblick

Die synthetischen Östrogene sind eines von vielen Beispielen, die zeigen, dass eine zunächst aus theoretischen Gründen begonnene Arbeitsrichtung von bedeutendem praktischen Erfolg begleitet sein kann. Man wird erwarten können, dass man auch für andere Hormone und Vitamine billigere Ersatzpräparate finden wird. Es soll hier auch auf die soziale Seite dieser Untersuchungen hingewiesen werden: eine Hormontherapie mit billigeren Präparaten kann die breitesten Volksschichten erfassen.

Bei der Suche nach Ersatzhormonen wird man aber gegenwärtig auf die Empirie angewiesen sein, da man auf Grund der heutigen Kenntnisse nicht angeben kann, welchen chemischen Bau ein Ersatzhormon haben muss. Hier ist noch sehr viel Arbeit zu leisten.

Es gilt den Ursachen für die gleichartige Wirkung chemisch verschieden gebauter Stoffe nachzuspüren und man kann erwarten, dabei auch Einblicke in den Wirkungsmechanismus der natürlichen Wirkstoffe zu gewinnen. Auch diese Untersuchungen setzen wieder eine intensive Zusammenarbeit verschiedener Wissenschaftszweige voraus.

Das Ziel der Naturwissenschaft: die unendliche Vielheit des Lebens, das uns umgibt und in das auch wir gestellt sind, zu erfassen und, soweit es dem menschlichen Geist gegeben ist, zu erkennen, wird nur erreichbar sein, wenn sich die Vertreter der Einzelwissenschaften zu einem immer enger werdenden Gedanken- und Erfahrungsaustausch zusammenfinden, um durch die Synthese ihrer Einzelergebnisse wieder ein Ganzes zu schaffen.


* Friedrich Wessely (1947): Einige neuere Ergebnisse der Hormonchemie. Schriften des Vereines zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien 81-85: 1-23. http://www.zobodat.at/pdf/SVVNWK_81_85_0001-0023.pdf

Der sehr lange Vortrag wurde für den Blog adaptiert und stark gekürzt. Insbesondere fehlt der Teil über Versuche von Franz Moewus, der die Grünalge Chlamydomonas als Modellobjekt der Genetik verwendete: diese Versuche standen später unter der Kritik Fälschungen zu sein.


Weiterführende Links

Redaktion 26.12.2014: Popularisierung der Naturwissenschaften im 19. Jahrhundert. Über den Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien im ScienceBlog

inge Thu, 09.03.2017 - 07:19

Gentherapie - Hoffnung bei Schmetterlingskrankheit

Gentherapie - Hoffnung bei Schmetterlingskrankheit

Do, 02.03.2017 - 09:02 — Eva Maria Murauer

Eva Maria MurauerIcon Medizin

Die Schmetterlingskrankheit - Epidermolysis bullosa (EB) - ist eine derzeit (noch) nicht heilbare, seltene Erkrankung, die durch Mutationen in Strukturproteinen der Haut hervorgerufen wird und in Folge durch eine extrem verletzliche Haut charakterisiert ist. Dr. Eva Maria Murauer vom EB-Haus Austria zeigt, dass sich derartige Mutationen in den Stammzellen von Patienten mittels Gentherapie korrigieren lassen und aus den so korrigierten Zellen Hautäquivalente produziert werden können, welche die Haut von EB-Patienten stückweise ersetzen und (langfristig) die Charakteristik einer stabilen, gesunden Haut bewahren können.*

Was ist Epidermolysis bullosa (Schmetterlingskrankheit)?

Unter die Bezeichnung Epidermolysis bullosa (EB) fällt eine Reihe von angeborenen Erkrankungen, die durch eine extrem verletzliche Haut charakterisiert sind, welche bereits nach leichten mechanischen Reizen Blasen bildet, die Wunden nach sich ziehen. Da die Haut von EB-Patienten in ihrer Fragilität einem Schmetterlingsflügel gleicht, wird EB volkstümlich auch als Schmetterlingskrankheit bezeichnet und die (vorwiegend jungen) Patienten als "Schmetterlingskinder" (Abbildung 1).

Abbildung 1. Epidermolysis bullosa (EB) ist eine angeborene, derzeit noch nicht heilbare Erkrankung, die nicht nur auf die Haut beschränkt bleibt. Bei geringster mechanischer Belastung bilden sich Blasen, es entstehen schmerzende Wunden, oft gefolgt von Vernarbungen. Bei manchen EB-Formen kommt es auch zu Verwachsungen von Fingern und Zehen.

Allerdings bleibt die Erkrankung nicht auf die Haut beschränkt, es können auch innere Organe und die Schleimhäute (z.B. im Mund oder im Verdauungstrakt) betroffen sein, einige bullöse Erkrankungstypen führen zu sehr aggressiven Hautkrebsformen.

EB gehört zu den seltenen Erkrankungen, an der weltweit rund 500 000 Menschen- also einer von 17 000 - leiden (in Österreich rechnet man mit rund 300 "Schmetterlingskindern"). Die Ursachen von EB sind bekannt: es wurden bis jetzt Mutationen in mehr als 18 Genen identifiziert, die für Strukturproteine in der Haut kodieren, welche die Haftung der obersten Hautschichten - der Epidermis - an die darunterliegende Schicht - der Dermis - bewirken (Abbildung 2). Ist eines dieser Proteine defekt oder nicht mehr (in ausreichender Menge) vorhanden, so ist der Zusammenhalt der Hautschichten gestört und es kommt dort bereits bei leichten mechanischen Reizen zu Blasenbildung und schmerzenden Wunden. Je nachdem welches Protein an welcher Stelle der Epidermis/Dermis defekt ist, resultieren unterschiedlich schwer verlaufende Typen von EB (Abbildung 2).

Abbildung 2. Epidermolysis bullosa wird durch defekte und/oder fehlende Strukturproteine (rechts) verursacht, die für den Zusammenhalt der Hautschichten Epidermis und Dermis (linkes Schema und Histologie, Mitte) essentiell sind. Je nachdem wo die Blasenbildung auftritt werden unterschiedliche EB-Typen definiert (EBS: EB simplex, JEB: junktionale EB, DEB: dystrophe EB, KS: Kindler Syndrom).

Wie kann man EB behandeln?

EB ist derzeit (noch) nicht heilbar, es können bloß Symptome behandelt werden, in langwierigen Prozeduren Wunden verbunden, Infektionen vorgebeugt und Schmerzen gelindert werden. Öffentliche Gesundheitssysteme sind auf die besonderen Herausforderungen einer derartigen seltenen Erkrankung kaum vorbereitet. Vor 22 Jahren wurde in Großbritannien von den Eltern an EB erkrankter Kinder und Ärzten eine Selbsthilfegruppe - DEBRA - gegründet. Inzwischen ist DEBRA zu einem internationalen Netzwerk in mehr als 50 Ländern angewachsen und seit 1995 auch in Österreich präsent. Die Organisation finanziert sich aus Spenden. Ihr Ziel ist es die Lebensqualität der Betroffenen zu verbessern, kompetente medizinische Versorgung anzubieten und durch weltweite Förderung von Spitzenforschung mitzuhelfen, wirksame Therapien zu finden und zu entwickeln.

An Strategien zur Behandlung dieser Erkrankungen wird intensiv geforscht - im Fokus stehen vor allem Strategien zur Gentherapie, die ja die Ursache der Erkrankung beheben könnte, daneben das Einbringen von Zellen gesunder Spender (Zelltherapie), das Ersetzen defekter Strukturproteine und die medikamentöse Behandlung zur Linderung der Beschwerden (Abbildung 3).

Abbildung 3. Strategien zur Therapie von Epidermolysis bullosa. Die blau hervorgehobenen Kästchen zeigen einige der von der Forschungseinheit im EB-Haus Austria verfolgten Strategien. Diacerein ist ein synthetisches anti-entzündliches Arzneimittel, das derzeit für EB in der klinischen Entwicklung ist.

Das EB-Haus in Salzburg

DEBRA Austria hat im Jahr 2005 eine Spezialklinik, das EB-Haus Austria, an den Salzburger Landeskliniken eröffnet, das mittlerweile im Bereich EB zu einem europaweit anerkannten "Centre of Expertise" geworden ist. Das EB-Haus ist Teil der Salzburger Universitätsklinik und ermöglicht so unter einem Dach eine umfassende Palette an Untersuchungen und Maßnahmen: von Diagnostik und medizinischer Versorgung für "Schmetterlingskinder" über Grundlagenforschung und klinische Studien bis hin zu Vernetzung und Ausbildung von medizinischem Fachpersonal und Betroffenen.

Im EB-Haus streben wir vor allem an, mittels Gentherapie ein defektes Gen durch ein intaktes zu ersetzen. Daneben entwickeln wir Methoden, um Mutationen auf der Ebene der RNA-Moleküle zu korrigieren - das sogenannte mRNA trans-splicing -, eine Methode, in der kein ganzes Gen eingebracht wird, sondern nur der defekte Teil eines Gens ausgetauscht wird. Seit kurzem untersuchen wir auch den Einsatz einer Genkorrektur mittels der CRISPR-Cas9 Genschere. (Abbildung 3.) Alle diese Methoden bieten viele Vorteile, haben aber auch Schwachstellen.

Eine erfolgreiche ex-vivo Gentherapie - eine Fallstudie

Primär beschäftigen wir uns mit der Entwicklung einer ex-vivo Gentherapie. Dabei werden dem Patienten Hautproben entnommen und die darin befindlichen Stammzellen isoliert. In diese Stammzellen wird dann in der Zellkultur das intakte Gen eingefügt, die so korrigierten Zellen vermehrt und zu sogenannten "skin sheets" (dünnen Oberhautschichten) gezüchtet. Mit dieser neuen Haut können dann Wundflächen des Patienten abgedeckt werden. Da diese Haut einen gesunden Ersatz für das früher defekte Strukturprotein produziert, ist der Zusammenhalt der Hautschichten wieder hergestellt, daher sollte es hier keine Blasenbildung mehr geben. Dies haben wir vor kurzem an einer EB-Patientin verifizieren können.

Es handelte sich dabei um eine vom österreichischen Gesundheitsministerium genehmigte Studie, die in Zusammenarbeit mit dem Zentrum für Regenerative Medizin in Modena (Italien) erfolgte. Die einzelnen Schritte der ex-vivo Gentherapie sind in Abbildung 4 schematisch dargestellt. Die Patientin, eine 49-jährige Frau, litt an der junktionalen EB-Form: sie hatte ein defektes Laminin-Gen und konnte damit das Laminin Protein, einen wesentlichen Bestandteil der Basalmembran zwischen Epidermis und Dermis, nicht bilden. Seit Geburt litt sie an schweren Hauterosionen. Insbesondere hatte sie seit mehr als 10 Jahren eine große offene Wunde am rechten Bein, die trotz aller Therapieversuche nicht heilte und laufend zu schweren Infektionen führte.

Abbildung 4. Erfolgreiche Heilung einer Beinwunde bei junktionaler EB durch Transplantation von körpereigenen korrigierten Stammzellen der Haut. Kooperation: EB-Haus Austria (Salzburg) und Zentrum für Regenerative Medizin, Modena (Italien). Das defekte Laminin-Gen wurde durch ein intaktes Gen ersetzt. Immunfluoreszenzfärbung (grün) zeigt das Laminin-Protein in den korrigierten Stammzellen und 1 Jahr nach Transplantation in einer Hautbiopsie an der korrekten Position zwischen Epidermis und Dermis. Außerhalb der transplantierten Fläche (schwarz umrandet) treten weiter Erosionen auf. (Die obersten 3 Fotos stammen aus J.Bauer et al., 2016 [1] und sind unter cc-by-sa-nd lizensiert.)

Von dieser Patientin entnahmen wir Hautbiopsien aus der Handfläche. Das Team in Modena isolierte daraus Hautstammzellen und korrigierte diese mit einem intakten Laminin-Gen. Dabei wurde ein Retrovirus als Vektor verwendet, der das Gen stabil in die Zellen integrierte. Als wir die korrigierten Zellen untersuchten, zeigte es sich, dass alle Zellen nun ein intaktes Laminin (Abbildung 4, ganz unten) produzierten: Dies war nun keine Korrektur des mutierten Gens - dieses befand sich weiter in den Zellen, es war bloß ein zusätzliches intaktes Gen zugefügt worden (Abbildung 4, Schema).

Aus den so korrigierten Stammzellen wurden dann zwei skin sheets im Ausmaß von jeweils 35 cm2 produziert. Diese neue Haut transplantierten wir dann auf die Beinwunde der Patientin. Bereits neun Tage danach konnten wir dort regenerierende Haut beobachten, Nachuntersuchungen auch nach 12 Monaten zeigten stabile, intakte Haut, die auch nach mechanischem Reiben keine Blasen mehr bildete. Um nachzuweisen, dass diese Haut noch korrigierte Zellen enthielt, haben wir Gewebeproben entnommen und histologisch auf das Vorhandensein des Laminin-Proteins geprüft. Dies war der Fall: Das eingebrachte Laminin-Gen produzierte an der Grenzfläche von Epidermis/Dermis in den Hauttransplantaten nachhaltig funktionierendes Laminin-Protein (Abbildung 4, rechts oben).

Unerwünschte Nebeneffekte der Behandlung traten bis jetzt nicht auf.

Diesen erfolgreichen Ansatz wollen wir nun an einer weiteren EB-Form - der dystrophen EB - in einer Phase 1/Phase 2 klinischen Studie prüfen. Bei dieser EB-Form fehlt den Patienten zwischen Epidermis und Dermis das Protein Kollagen VII, dies führt zu sehr schweren Blasenbildungen. Die Studie wurde von den zuständigen österreichischen Behörden sowie der Ethikkommission bereits genehmigt und kann an bis zu zwölf Patienten durchgeführt werden.

Erste Versuche zur Korrektur des Kollagen VII-Gens mittels der CRISPR Cas9 Technologie

Bei dieser neuen Technologie wird kein zusätzliches Gen in die Hautzelle eingebracht, sondern die Mutation wird im defekten Gen direkt und bleibend korrigiert. Sind dominant vererbte Erkrankungen durch ein falsch funktionierendes Protein bedingt, so ist dies zweifellos gegenüber der oben beschriebenen Methode von Vorteil - es wird kein zusätzliches, fehlerhaftes Protein mehr produziert. Ein weiterer wichtiger Vorteil besteht darin, dass kein Virusvektor notwendig ist, um die Genreparatur zu bewerkstelligen und damit kein, wenn auch geringes, Risiko einer Tumorentstehung eingegangen wird.

Wir haben nun die CRISPR Cas9 Technologie benützt, um eine Mutation auf dem Kollagen VII-Gen in den Hautzellen eines Patienten zu korrigieren, der an dystropher EB leidet. Bei dieser Methode wird das Enzym Cas9 eingesetzt, um das Gen nahe der mutierten Stelle durchzuschneiden, wobei die präzise Positionierung der Schnittstelle durch ein an Cas9 gebundenes kurzes Gegenstück zur zu schneidenden DNA - einer "guide RNA" - ermöglicht wird. Wir haben ein derartiges Cas9-guide RNA-Konstrukt zusammen mit einer Donor-Sequenz (ohne Mutation) angewandt, welche den DNA Strangbruch reparierte ("homologe Rekombination") und zu einem korrekten Kollagen 7-Gen führen sollte. Dies war der Fall: Die korrigierten Zellen produzierten nun das Kollagen VII-Protein (Abbildung 5).

Abbildung 5. Erfolgreiche Korrektur des mutierten Kollagen VII- Gens mittels der CRISPR Cas9 Technologie. (Das Schema von CRISPR Cas9 stammt aus: M.Jinek et al., 2013, https://elifesciences.org/content/2/e00471 und ist unter cc-by-sa lizensiert.)

In weiterer Folge untersuchten wir - im Tierversuch -, ob die korrigierten Zellen nun eine einwandfreie Haut bilden können, mit dem Kollagen VII-Protein an der richtigen Position zwischen Epidermis und Dermis. Dazu haben wir die Zellen in Kultur zu Hautäquivalenten wachsen lassen und diese dann auf den Rücken von Mäusen transplantiert (um die Abstoßung des humanen Gewebes zu verhindern, erfolgten die Versuche an immundefizienten Mäusen). Vier Wochen später wurden dann Biopsien der angewachsenen Transplantate untersucht. Tatsächlich fand sich Kollagen VII an der richtigen Position.

Fazit

EB verursachende Mutationen lassen sich prinzipiell in den Hautzellen von EB-Patienten mittels Gentherapie korrigieren. Die aus korrigierten Zellen produzierten Hautäquivalente bewahren (langfristig) die Charakteristik einer stabilen, gesunden Haut und könnten die Haut von EB-Patienten stückweise ersetzen. Primär geht es dabei um die Abdeckung besonders geschädigter Hautareale. Ähnliches gilt auch für die neue CRISPR Cas9 Technologie: erste Versuche zeigen, dass diese (relativ) einfache und risikoarme Methode zweifellos geeignet ist, um EB-verursachende Mutationen und den EB-Phänotyp zu korrigieren. Bevor dieses Verfahren allerdings am Menschen erprobt werden kann, muss seine Effizienz noch gesteigert und seine Spezifität analysiert werden.


[1] J W. Bauer, Josef Koller, Eva M. Murauer, et al.,(2016) Closure of a Large Chronic Wound through Transplantation of Gene-Corrected Epidermal Stem Cells J Invest Dermatol. 2016 Nov 10. http://www.jidonline.org/article/S0022-202X(16)32636-7/pdf (open access under CC BY-NC-ND license)

*Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Gene therapy approaches for epidermolysis bullosa, den die Autorin im November 2016 anlässlich der Feier zur Verleihung des Wilhelm-Exner Preises gehalten hat: https://slideslive.com/38899167/gene-therapy-approaches-for-epidermolysis-bullosa . Video (englisch) 15:45 min .


Weiterführende Links

DEBRA International: http://www.debra-international.org/homepage.html

DEBRA Austria: http://www.debra-austria.org/startseite.html

EB-Haus an den Salzburger Landeskliniken: www.eb-haus.org

Videos

DEBRA Austria - So fühlt sich das Leben für ein "Schmetterlingskind" an. (2015) Video 7:26 min Standard-YouTube-Lizenz

So fühlt sich das Leben für ein Schmetterlingskind an (2011, DEBRAustria) Video 7:56 min. Standard-YouTube-Lizenz

EB-Haus: Spezialklinik für Schmetterlingskinder (2012, DEBRAustria) Video 4:31 min. Standard-YouTube-Lizenz

Das Leben eines Schmetterlingskindes, Teil 1 (DEBRA Südtirol) Video 6:00 min, und Fortsetzung. Standard-YouTube-Lizenz


Artikel zum Thema Gentherapie im ScienceBlog.at

Francis S. Collins, 02.02.2017: Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Artikel zum Thema Haut im ScienceBlog.at

I.Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick. http://scienceblog.at/unsere-haut.

inge Thu, 02.03.2017 - 09:02

Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Optogenetik erleuchtet Informationsverarbeitung im Gehirn

Do, 23.02.2017 - 22:01 — Gero Miesenböck Gero MiesenböckIcon Gehirn-Fliege

Optogenetik ist eine neue Technologie, die Licht und genetisch modifizierte, lichtempfindliche Proteine als Schaltsystem benutzt, um gezielt komplexe molekulare Vorgänge in lebenden Zellen und Zellverbänden bis hin zu lebenden Tieren sichtbar zu machen und zu steuern. Diese, von der Zeitschrift Nature als Methode des Jahres 2010 gefeierte Strategie revolutioniert (nicht nur) die Neurowissenschaften und verspricht bahnbrechende Erkenntnisse und Anwendungen in der Medizin. Gero Miesenböck, aus Österreich stammender Neurophysiologe (Professor an der Oxford University), hat diese Technologie entwickelt und zeigt hier auf, wie mit Hilfe der Optogenetik die neuronale Steuerung des Schlafes erforscht werden kann.*

Wenn Sie Puzzles wie Sudoku mögen, haben Sie wahrscheinlich die Erfahrung gemacht, dass die bloße Betrachtung eines schwierigen Problems nicht immer zur Lösung führt. Häufig ist es aussichtsreicher das Problem spielerisch anzugehen, verschiedene Lösungsansätze auszuprobieren, um dann eventuell ein Muster zu finden, das in allen Punkten genügt. Dies gilt ebenso für den Neurowissenschafter, der das Gehirn besser verstehen möchte.

Invasive Eingriffe in das Nervensystem

In der Vergangenheit haben Neurowissenschafter das Gehirn vor allem beobachtet, aber nicht damit "gespielt". Der Grund, dass es so viele Betrachtungen und so wenig invasive Eingriffe gegeben hat, liegt in der enormen Komplexität der Nervensysteme (Abbildung 1). Sogar das Hirn der kleinen Fruchtfliegen, mit denen wir arbeiten, enthält an die 100 000 Nervenzellen und Millionen von Verbindungen zwischen diesen Zellen.

Abbildung 1. Das zentrale Nervensystem: ein undurchdringliches Dickicht aus Zellen und Verbindungen zwischen diesen Zellen.

Wo kann man aber in einem so undurchdringlichen Dickicht zu untersuchen beginnen?

Eines der frühesten und berühmtesten invasiven Experimente steht am Beginn der Neurowissenschaften undstammt von Luigi Galvani. Galvani berichtete 1791 darüber, wie er den Schenkelnerv eines präparierten Frosches durch elektrische Impulse erregte und dabei beobachtete, dass der Schenkel zuckte. Dieses Experiment hat erstmals unwiderlegbar gezeigt, dass elektrische Impulse die Träger der Information im Gehirn sind, und dass man die Funktion des Gehirns durch Einführen von elektrischen Impulsen steuern kann. Allerdings hat das Experiment von dem Frosch nicht viel übrig gelassen. Die unserem intelligenten Verhalten zugrundeliegenden neuronalen Vorgänge wird man nur schwerlich verstehen, wenn man das ganze System auseinandernehmen muss (bottom-up Ansatz), um es untersuchen zu können.

Untersucht man die Funktion von Schaltkreisen mit Hilfe von Elektroden, die man in einem "Meer an erregbarem Gewebe" platziert, so zeigen sich viele Schwachstellen.

  • Erstens ist es ein Herumstochern. Man weiß oft nicht, was sich unter der stimulierten Stelle befindet, was genau stimuliert wird.
  • Für die Zahl der Elektroden, die man gleichzeitig verwenden kann,gibt es eine physikalische Grenze – bestenfalls wird man eine Handvoll Stellen steuern können. Man geht heute davon aus, dass die Rechenleistung des Gehirns auf parallelgeschalteten Prozessen vieler Nervenzellverbände beruht: diese über verschiedene Hirnregionen verteilten Systeme gleichzeitig zu kontrollieren, erscheint praktisch unmöglich.
  • Ein wesentlicher Nachteil ist, dass die Spezifität des Stimulus einzig darauf beruht, wo die Elektrode sitzt. Wenn sich diese Position experimentell-bedingt verschiebt, ändert sich natürlich die Art des Einflusses. Das macht Untersuchungen an Tieren, die sich frei bewegen können, sehr schwierig.
  • Ein massives Problem ist auch, dass die Versuchsanordnung keine biologische Spezifität ermöglicht. Das heißt, man kann sich nicht aussuchen, zu welcher bestimmten Klasse von Neuronen man "spricht". Man weiß nicht einmal, wie weit das Signal reicht, wie viele Zellen in der Umgebung aktiviert werden.

Die Optogenetik hat diese Schwierigkeiten überwunden: anstatt ein Signal exakt zu positionieren, versucht man definierte Nervenzellen durch genetische Manipulation für eine Stimulation sensibilisierbar zu machen.

Was ist überhaupt Optogenetik?

Zwei Bestandteile – Gene und Photonen – haben dem Gebiet den Namen Optogenetik gegeben. Allerdings nicht ganz zutreffend, da wir ja eigentlich nicht die Funktion von Genen kontrollieren, sondern die Funktion von deren Genprodukten, also von Proteinen, die in den betreffenden Zellen erzeugt werden.

Die Nervenzellen des Gehirns besitzen unterschiedliche genetische Signaturen – unterschiedliche Expressionsmuster einer Gruppe von Genen, die für bestimmte Zellpopulationen charakteristisch sind. Die Optogenetik bedient sich nun dieser Signaturen und spricht selektiv Nervenzellen an, die ein Markergen einer solchen Signatur exprimieren. Mit molekularbiologischen Methoden werden in derartige Zellen dann Ionenkanäle eingefügt, welche den Kanälen ähnlich sind, die allen elektrischen Signalen in unserem Nervensystem zugrundeliegen, mit einer wichtigen Ausnahme: Die Kanäle sind an Photorezeptoren gekoppelt (Abildung 2). Diese Photorezeptoren entsprechen in groben Zügen jenen, welche uns in unseren Augen zum Sehen befähigen. Trifft Licht auf einen solchen Rezeptor, so verändert er seine Gestalt, die Formänderung überträgt sich auf die Pore des Ionenkanals und diese öffnet sich: Ein schwacher elektrischer Strom fließt, und das Neuron feuert ein elektrisches Signal.

Abbildung 2. In einem Dickicht von Nervenzellen (oben) wird eine Zellpopulation anhand eines charakteristischen Markergens selektiert (pinkfarbene Neuronen, Mitte). In diese wird gentechnisch ein Ionenkanal eingefügt, der an einen Photorezeptor gekoppelt ist (unten rechts).

Mittels optischer Fernsteuerung lassen sich so Nachrichten an Zellpopulationen senden und lesen, auch, wenn die Zellen im Nervensystem weit von einander entfernt liegen und sich deren Positionen verändern, wenn sich ein Versuchstier bewegt. Die Zellen wissen ja, dass sie selbst die Zielobjekte der Stimulation sind; sie decodieren die Signale und wandeln sie in elektrische Energie um.

Optogenetik öffnet drei bisher versperrte experimentelle Zugänge zum Verständnis des Gehirns

Auffinden der Ursachen des Verhaltens

Optogenetik macht es möglich die Ursachen festzustellen, die intelligentem Verhalten zugrundeliegen. In der Biologie gilt die Rekonstitution eines Systems häufig als strengster Beweis einer Kausalität. Will man als Biochemiker demonstrieren, dass ein bestimmtes Molekül kausal in einem bestimmten Prozess involviert ist, so stellt man dieses Molekül rein her, fügt es dem Testsystem zu und beobachtet, ob man so den Prozess ablaufen lassen kann.

Die Optogenetik ist für den Neurobiologen das Äquivalent der Rekonstitution. Optogenetik erlaubt es – metaphorisch gesprochen – Erregungsmuster, die normalerweise Lebensvorgängen zugrundeliegen, "rein darzustellen", sie ins Hirn zurückzuspielen und zu sehen, ob man auf diese Weise Wahrnehmung, Handeln, Emotion, Gedanken und Gedächtnis rekonstruieren kann.

Gelingt dies, kann man plausibel argumentieren, die unseren Verhaltensweisen zugrundeliegenden Informationsmuster verstanden zu haben.

Auffinden von interneuronalen Verbindungen

Ein zweiter bisher verschlossener Zugang befähigt uns, Verbindungen zwischen den Neuronen zu kartographieren – eine Voraussetzung für die Entschlüsselung der Schaltkreise im Gehirn. Die klassische Methode, nach verknüpften Partnern mittels zweier einzeln platzierter Elektroden zu suchen, ist äußerst mühsam, die Wahrscheinlichkeit solche Zellen aufzufinden sehr gering. Wird nun eine der Elektroden durch einen Lichtstrahl ersetzt, der über das Gewebe rastert und – wann immer er auf einen verbundenen Partner trifft – einen Impuls auslöst, so werden Durchsatz und Spezifität der Suche um Größenordnungen erhöht.

Auffinden von neuronalen Mechanismen

Der dritte Zugang, den wir mit Hilfe der Optogenetik öffnen konnten, ermöglicht die Suche nach neuronalen Mechanismen. Wenn man eine Idee hat, wie ein neuronales System arbeiten könnte, dann kann eine gezielte Manipulation des Systems zeigen, ob man recht oder unrecht hat.

Was dank der technologischen Fortschritte heute bereits möglich ist, möchte ich im Folgenden an Hand eines Beispiels aus unserer rezenten Forschung darstellen, das alle drei Fortschritte veranschaulicht:

Die neuronale Steuerung des Schlafes

Schlaf ist eines der großen biologischen Rätsel. Jede Nacht melden wir uns für 7 - 8 Stunden von der Außenwelt ab - ein Zustand, der uns verwundbar und handlungsunfähig macht, also Risiken und Kosten mit sich bringt. Stellen Sie sich vor, die Evolution hätte ein Tier hervorgebracht, das ohne Schlaf auskommt. Dieses Tier würde alle anderen übertreffen: während die anderen schlafen, könnte es jede Ressource aufstöbern und Feinde außer Gefecht setzten. Die Tatsache, dass es kein derartiges Tier gibt, sagt uns, dass Schlaf etwas Lebenswichtiges ist. Was dieses lebenswichtige Etwas ist, wissen wir jedoch nicht.

Wir versuchen an dieses Problem heranzugehen, indem wir die neuronalen Mechanismen verstehen möchten, die normalerweise Schlafen und Wachen steuern. In allen mit Gehirnen ausgestatteten Lebewesen gibt es dafür zwei Steuerungssysteme, die in unterschiedlicher Weise oszillieren. Abbildung 3.

  • Eine Sinuskurve charakterisiert die zirkadiane Uhr – die innere Uhr –, die synchron mit den vorhersehbaren, durch die Erdrotation verursachten Änderungen der Umwelt oszilliert. Als solcher ist dies ein adaptiver Mechanismus, der uns schlafen lässt, wenn es am wenigsten problematisch ist. Er löst er aber nicht das Rätsel, warum wir überhaupt schlafen müssen, um zu überleben..
  • Die Lösung dieses Rätsels wird wahrscheinlich kommen, wenn wir das zweite Kontrollsystem – den Schlafhomöostat – verstehen, der dem zirkadianen System überlagert ist. Während der Wachphase geschieht etwas (wir wissen nicht, was es ist) in unserem Gehirn oder unserem Körper, und wenn dieses Etwas einen Schwellwert erreicht, schlafen wir ein. Während des Schlafes erfolgt ein Zurückstellen des Systems, und der Zyklus beginnt von Neuem, wenn wir erwachen.

 

Abbildung 3. Schlaf und Wachen werden in allen Lebewesen durch zwei oszillierende Steuerungssysteme- die zirkadiane Uhr (untere Sinuskurve) und den Schlafhomöostat (überlagerte Kurve) – reguliert.

Unter normalen Bedingungen wird uns nicht bewusst, dass wir diese beiden Kontrollsysteme in uns haben, da sie synchron verlaufen. Ein Interkontinentalflug oder eine durchwachte Nacht können aber eine Phasenverschiebung induzieren, und dann stoßen zirkadiane Uhr, die uns wachhält, und Schlafhomöstat, der uns einschlafen lassen will, zusammen und ergeben eine unerfreuliche Mischung von extremer Müdigkeit und Schlaflosigkeit.

Nach mehr als vier Jahrzehnten Forschung ist die Funktionsweise der zirkadianen Uhr auf der molekularen, sowie der zellulären und Systemebene bereits gut verstanden. Im Gegensatz dazu war bis vor Kurzem über den Schlafhomöostat praktisch nichts bekannt.

Steuerung von Schlafen und Wachen am Modell der Fruchtfliege

Vor einigen Jahren hat Jeff Donlea Nervenzellen im Gehirn der Fliege entdeckt, die den Schlaf steuern. Mittels Optogenetik konnten wir zeigen, dass diese Zellen die Outputfunktion des Schlafhomöostaten darstellen (Abbildung 4). Überraschend ist die kleine Zahl der Zellen: von insgesamt 100 000 Neuronen sind es bloß 24. Dennoch, wenn man diese Zellen (wie oben beschrieben) mit Licht stimuliert, schlafen die Fliegen sehr schnell ein.

Wir untersuchen dies auf folgende Weise: wir fixieren eine Fruchtfliege an ihrem Kopf, unter ihren Beinen ist eine drehbare Styroporkugel, auf der sie läuft, solange sie wach ist (Abbildung 4, oben links) die Rotationen der Kugel zeichnen wir optisch auf. Gleichzeitig messen wir die elektrische Aktivität des Gehirns: bei geöffneter Kopfkapsel haben wir in eine der 24 schlafsteuernden Zellen eine Messelektrode platziert; zusätzlich haben wir in alle 24 Zellen die Licht-sensitiven Ionenkanäle eingebaut (Abbildung 4, oben rechts). Solange wir das Licht nicht einschalten, produzieren diese Ionenkanäle keine elektrischen Ströme, und die Fliege läuft munter dahin. Sobald das Licht angeschaltet wird, beginnen die Zellen elektrische Impulse auszusenden, und die Bewegungen des Tieres hören sehr schnell auf – das Tier schläft (Abbildung 4, unten). Schalten wir das Licht wieder aus, so stoppt die elektrische Aktivität,die Fliege erwacht und läuft, schalten wir es ein, schläft die Fliege. Wir haben also einen Schalter gefunden, der es uns erlaubt, mittels optogenetischer Steuerung das Tier zwischen Schlaf und Wachen hin- und herzuschalten.

Abbildung 4. Optogenetische Fernsteuerung von Schlaf- und Wachphasen der Fruchtfliege. In denschlafsteuernden Neuronen (oben rechts, pinkfarben) sind die Licht sensitiven Ionenkanäle exprimiert, Solange diese Zellen nicht stimuliert werden, läuft das Tier auf der Kugel (oben links), deren Rotation aufgezeichnet wird (rote Linien, unten). Durch Licht werden die Zellen sofort aktiviert, senden elektrische Impulse aus und die Rotation hört schlagartig auf - das Tier schläft (unten).

In weiteren Untersuchungen haben wir entdeckt, dass die schlafsteuernden Nervenzellen auch unter natürlichen Bedingungen in zwei Zuständen vorliegen: im aktiven Zustand senden sie elektrische Impulse aus, im anderen Zustand sind sie elektrisch inaktiv. Da diese Zustände exakt mit Schlaf und Wachen der Tiere korrelierten, erschien es wahrscheinlich, dass dieses Schalten zwischen den beiden Zuständen – ein rein biophysikalischer Vorgang – der Mechanismus der homöostatischen Schlafsteuerung sein könnte. Was ist aber das Signal, das ein Umschalten auslöst?

Dopamin – Schalter zwischen Schlaf und Wachen

Ein Hinweis, was dieses Signal sein könnte, kam aus bereits länger zurückliegenden Experimenten, in denen erstmals (von meiner Studentin Susana Lima) das Verhalten eines Lebewesens optogenetisch kontrolliert wurde. Susana untersuchte unter anderem die Funktion des Neurotransmitters Dopamin. Dopamin führte zu hoher Erregung der Tiere; sobald die dopaminproduzierenden Zellen optogenetisch eingeschaltet wurden, liefen Fruchtfliegen wie verrückt im Kreis. Dies entspricht auch der erregenden Wirkung von Dopamin in unserem Gehirn: Psychostimulantien, die uns wach halten, wie beispielsweise Kokain oder Amphetamin, wirken, indem sie die Wiederaufnahme von Dopamin in den Synapsen blockieren (und damit länger aktivierende Wirkung auf die Dopaminrezeptoren erzielen; Anm. Red.)

Falls Dopamin ein auf den Schlafschalter wirkendes Erregungssignal ist,so sollte seine Zufuhr die schlafinduzierenden Zellen abschalten und zum Erwachen führen. Anatomisch gesehen ist das plausibel: Dopaminerge Neuronen, die Dopamin liefern könnten, finden sich in derselben Hirnregion wie die schlafproduzierenden Zellen, und beide Neuronentypen liegen so dicht beieinander, dass man den Eindruck gewinnt, sie seien miteinander verbunden. Die Optogenetik ermöglicht uns dies zu prüfen, indem wir die Aktivität der schlafproduzierenden Zellen aufzeichnen, während wir die dopaminergen Zellen mittels Licht erregen. Eine synaptische Signalübertragung von der dopaminergen auf die schlafproduzierende Zelle sollte deren elektrische Aktivität stilllegen und zum Erwachen führen.

Dies ist tatsächlich der Fall. Fliegen, die am Beginn des Experiments schlafen, werden durch das Lichtsignal auf die dopaminerge Zelle sofort geweckt, beginnen zu laufen und verharren auch nach dem Stop des Lichtsignals über längere Zeit - bis zu einigen Stunden - im Wachzustand. Das System hat also ein Gedächtnis.

Welcher Mechanismus ist dabei am Werk?

Der Sandmann kommt

Kurzgesagt: wir haben einen neuen Kanal für Kaliumionen entdeckt, den wir Sandmann getauft haben. Ist die schlafproduzierende Zelle im elektrisch aktiven Zustand, befindet sich der Kanal im Inneren der Zelle, in den Membranen von Vesikeln. Wenn Dopamin ausgeschüttet wird und an seinen Rezeptor in der Zellmembran bindet, fusionieren die Vesikel mit der Zellmembran, Sandmann wird in die Zellmembran integriert und erzeugt einen Kurzschluss, der die Zellen abschaltet. (Abbildung 5).

Abbildung 5. Der Sandmann kommt. Ein biophysikalisch erklärbarer Mechanismus schaltet vom Schlaf- zum Wachzustand

Es ist der Mechanismus, der dem Aufwachen zugrundeliegt.

Was ich hier beschrieben habe, gleicht einer bekannten Vorrichtung an der Wohnzimmerwand, dem Thermostaten. Es wird hier aber nicht die Temperatur gemessen und die Heizung angeschaltet, wenn es kalt ist. Der Schlafhomöostat misst Etwas, und wenn dieses Etwas einen Schwellenwert erreicht, schaltet er auf Schlaf (Abbildung 6).

Abbildung 6. Der Schlafhomöostat. Die rote Linie zeigt die Schlafphase, in der die Neuronen elektrische Impulse aussenden,und die Wachphase, in der die Zellen ruhig gestellt sind.

Was dieses Etwas ist, wissen wir noch nicht.

Zumindest wissen wir aber, wo wir suchen müssen, um das Rätsel zu lösen.


*Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Lighting up the Brain",den der Autor im November 2016 anlässlich der Verleihung des Wilhelm-Exner Preises an ihn gehalten hat: Gero Miesenböcks Exner LectureVideo (englisch) 31:09 min .

Method of the Year 2010, Nature Methods 8,1(2011) doi:10.1038/nmeth.f.321 http://www.nature.com/nmeth/journal/v8/n1/full/nmeth.f.321.html


Weiterführende Links

Gero Miesenböck homepage: http://www.cncb.ox.ac.uk/people/gero-miesenboeck/

Was ist Optogenetik? DFG: SPP 1926 http://www.spp1926.org/public-outreach-deutsch/

PNAS Journal Club: “Sandman” molecule controls when fruit flies wake up. (26.08.2016) http://blog.pnas.org/2016/08/journal-club-sandman-molecule-controls-when-fruit-flies-wake-up/

Videos:

Re-engineering the Brain. TED-Talk (07.2010) Video 17:27 min. http://www.ted.com/talks/gero_miesenboeck

Lights out! An optogenetic sleep switch, Prof. Gero Miesenböck. In a decade and a half, optogenetic control of neuronal activity has developed from a far-fetched idea to a widely used technique. Prof. Miesenböck explains how this happened, drawing on the earliest and latest results from his lab. Video (17.06.2016; SwissTech Convention Center, Lausanne, Switzerland), 16:53 min.


 

inge Thu, 23.02.2017 - 22:01

Placebo-Effekte: Heilung aus dem Nichts

Placebo-Effekte: Heilung aus dem Nichts

Do, 16.02.2017 - 10:45 — Susanne Donner

Susanne DonnerIcon Gehirn

Erwartungshaltung und Konditionierung können bewirken, dass Scheinmedikamente ebenso wirkungsvoll werden wie Arzneien – zumindest gegen Schmerz, bei psychischen Erkrankungen und Allergien. Die Erforschung dieser sogenannten Placebo-Effekte ist zu einem enorm wichtigen, intensiv untersuchten Thema in der Medizin geworden. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner beschreibt hier, wie Veränderungen auf Ebene des Gehirns und Rückenmarks dieses Phänomen erklären können.*

Das Experiment ist ein Lehrstück über die Macht der Gedanken: Opioide sind die stärksten Schmerzmittel überhaupt. Und sie helfen eigentlich immer. Aber als die Neurologin Ulrike Bingel vom Universitätsklinikum Essen einem Teil der 22 Probanden erzählte, dass sie nun einem Hitzeschmerz ausgesetzt würden, aber dass es mehr wehtun könne, da sie keine Opioide bekämen, peinigte sie die Hitze tatsächlich stärker als zuvor. Dabei hatten die Forscher entgegen ihrer Behauptung doch das Medikament verabreicht. Aber es wurde unwirksam, weil die Probanden dachten, dass ihnen nichts helfe. Erzählte Bingel den Versuchspersonen dagegen, dass sie ein starkes Opioid bekämen, wirkte es doppelt so stark wie ohne Vorankündigung – ein klassischer „Placeboeffekt“. Die Aufhebung der Wirksamkeit heißt in Analogie dazu „Noceboeffekt“ (lat. von nocere: schaden). Schon der Wechsel von einem Originalpräparat zu einem Generikum, einem preiswerteren Nachahmerpräparat, kann einen solchen Einbruch in der Wirksamkeit zeitigen. Beide Effekte sind genauso mächtig wie Arzneistoffe, das demonstriert Bingels Experiment von 2011.

Abbildung 1. Placebos enthalten keine Substanzen, die bei der zu behandelnden Krankheit wirksam sein könnten. Grafik: MW

Die Wirkmacht der Placebos

Scheinmedikamente lindern Studien zufolge Schmerzen bei verschiedenen Erkrankungen von der Migräne bis zum Rückenleiden. Aber auch Depressionen und Angsterkrankungen sprechen darauf an. 2008 sorgte der Psychologe Irving Kirsch von der Universität in Plymouth für Gesprächsstoff, als er in einer Metaanalyse zu vier Antidepressiva aufzeigte, dass diese bei leichter und mittelgradiger Erkrankung auch nicht mehr bewirken als ein Placebo. Sogar die Bewegungsfähigkeit von Parkinsonkranken und Heuschnupfen lassen sich über die Beeinflussung des Geistes verbessern.

„Im Grunde können wir alle Symptome mit Placebos behandeln“, macht der Psychologe Paul Enck vom Universitätsklinikum Tübingen deutlich. „Die zugrunde liegenden Krankheitsursachen bleiben aber bestehen.“ Entgegen den Verheißungen etlicher Gegner der Schulmedizin kann der Placeboeffekt aber keine Wunder erklären, stellt der Psychologe Falk Eippert von der Universität in Oxford klar. „Krebs etwa kann man damit nicht heilen. Behauptungen dieser Art sind Humbug.“

Erwartung und Gewöhnung

Abbildung 2. Eine 20 Minuten dauernde Behandlung mit Metallstäben (Perkins Tractors) sollte im 18. Jahrhundert gegen Entzündung, Schmerz im Gesichts-und Schädelbereich wirken. (Das gemeinfreie Bild wurde von der Redaktion zugefügt. Quelle: Gillray - Treatment with tractors.jpg, Created: 1 January 1801; Wikipedia.)

Der Placeboeffekt wird mindestens über zwei unterschiedliche Mechanismen vermittelt. Zum einen wird der Körper auf einen Stimulus hin, das Medikament, konditioniert. So sind Veränderungen auf das Immunsystem zu erklären, das sich willentlich gar nicht beeinflussen lässt. In einem Experiment etwa wurde das Immunsuppressivum Cyclosporin mit grüner Erdbeermilch kombiniert. Das Medikament hemmt bestimmte Entzündungsbotenstoffe. Nachdem die Probanden an diesen Effekt gewöhnt worden waren, beeinflusste grüne Erdbeermilch alleine die Entzündungsparameter in derselben Weise.

Daneben entsteht der Placeboeffekt über die Erwartung des Patienten und damit über eine geistige Manipulation des körperlichen Zustands. Die Erwartungshaltung speist sich auch aus Vorerfahrungen mit demselben Medikament oder aus Vorwissen etwa aus den Medien über die Wirksamkeit. Je positiver der Patient der Therapie gegenübersteht, desto mehr wird sie ihm helfen. Überhaupt zeigen Optimisten ausgeprägtere Placeboeffekte.

Bis heute am besten untersucht ist die Hemmung von Schmerz mit Scheinmedikamenten. Dabei produzieren die Nervenzellen im Gehirn körpereigene Opioide, die dann sozusagen als leibeigenes Medikament auf das Schmerzsystem wirken. Dies beinhaltet verschiedene schmerzhemmende Regionen der Hirnrinde wie den dorsolateralen präfrontalen Cortex und das rostrale anteriore Cingulum. Die Aktivierung dieser Areale zieht eine verminderte Aktivierung schmerzrelevanter Regionen nach sich, etwa im somatosensorischen Cortex.

Der Noceboeffekt wird mutmaßlich über ähnliche Mechanismen ausgelöst, sodass dieselben Hirnstrukturen mit von der Partie sind. Allerdings wird überdies auch der präfrontale Cortex im Stirnhirn aktiviert, berichtet Bingel. „Nachvollziehbar, denn im präfrontalen Cortex werden Ängste verarbeitet. Je ängstlicher Patienten sind, desto eher erleiden sie bei der Einnahme eines Medikamentes einen Noceboeffekt, also einen Schaden, der nicht rein pharmakologisch bedingt ist.“

Hirnrinde, Hirnstamm und Rückenmark sind beteiligt

Die Beteiligung der Hirnrinde lässt vermuten, dass der Placeboeffekt höhere geistige Fähigkeiten erfordert. Allerdings entdeckte der Psychologe Falk Eippert von der Universität Oxford, dass der Placeboeffekt schon auf Ebene des Rückenmarks einsetzt – also einem evolutiv sehr alten und zugleich sehr schnellen Pfad. Die Antwort der Nervenzellen im Rückenmark wird gedämpft, wie er anhand von Aufnahmen mit einem Magnetresonanztomografen nachweisen konnte. Gesteuert wird der Effekt vom Hirnstamm, sagt Eippert. Dort werden Opioide ausgeschüttet, die die Schmerzminderung vermitteln.

Weshalb der Effekt schon auf so früher Ebene einsetzt, beschäftigt die Wissenschaftler. Eippert glaubt, dass der Placeboeffekt auch über eine Ausrichtung der Aufmerksamkeit zustande kommt. „Wenn wir Hunger haben, spüren wir Schmerzen nicht sonderlich“, verdeutlicht er an einem Beispiel. Dies ist aber keine sonderliche kognitive Leistung, sondern das Zentralnervensystem steuert autonom die Verschiebung der Aufmerksamkeit, so die Theorie.

Auch Tiere reagieren

Demzufolge sollten aber auch Tiere auf Scheinmedikamente ansprechen. Und tatsächlich: In Ratten und Mäusen konnten Forscher das beobachten. Todd Nolan von der Universität Florida stellte 2012 gar ein Rattenmodell vor, das sich zum Studium des Placeboeffektes eignet. Wenn er den Tieren Morphium verabreichte, reagierten sie weniger stark auf einen Hitzeschmerz an der Schnauze, auch nachdem er das Medikament absetzte. Eine klassische Konditionierungsreaktion: Ihr Körper produzierte eigenmächtig Opioide. Nolan konnte die erträgliche Schmerzschwelle messen, indem er die Hitzeelektrode so platzierte, dass es den Tieren an der Schnauze unangenehm heiß wurde, wenn sie von einer gesüßten Milch tranken. Je mehr Milch, desto mehr überwanden sie den Schmerz, desto ausgeprägter der Placeboeffekt.

Vom Tierversuch auf den Menschen zu schließen ist allerdings nur bedingt möglich: Schließlich setzt der Placeboeffekt beim Menschen eine mündliche Mitteilung voraus. Tiere haben jedoch keine Sprache, und ihre Erwartungshaltung muss daher im Experiment indirekt – durch Konditionierung – geweckt werden. „Es ist noch immer strittig, inwieweit Tiere wirklich zu einem dem Menschen vergleichbaren Placeboeffekt fähig sind“, bewertet Eippert. „Aber die aktuelle Forschung deutet darauf hin.“

Placebo statt Pille

Unterdessen grübeln die Forscher, wie das Wissen über Placebo- und Noceboeffekte den Patienten zu Gute kommen kann. Denn in den Experimenten wird den Probanden oft eine Lüge aufgetischt, damit ihre Erwartung den Placeboeffekt in die Höhe schraubt. Doch im klinischen Alltag gilt das Ideal des aufgeklärten Patienten. Ärzte dürfen nicht schwindeln oder Informationen unterschlagen. In der Heilkunde anderer Länder gehören Mystik und Geheimhaltung dagegen zur guten Tradition, etwa bei Heilern aus dem afrikanischen Raum. „Schwindeln ist nicht der richtige Weg“, wehrt Enck ab, „wir müssen deshalb damit leben, dass drastische Placeboeffekte nur Gegenstand akademischer Forschung sein können.

Doch in engen Grenzen kann die Manipulation des Geistes auch dem Patienten helfen". So diskutieren einige Ärzte, ob sich der Konditionierungseffekt nutzen lässt, um in gewissen Abständen das Medikament durch ein Placebo zu ersetzen. „Wir könnten Medikamente einsparen und Nebenwirkungen vermindern. Die meisten Patienten wären dazu sofort bereit“, glaubt Enck. Das Konzept ist als „placebo-kontrollierte Dosisreduktion“ in die Literatur eingegangen. Bei Schuppenflechte, allergischem Schnupfen und dem Aufmerksamkeitsdefizitsyndrom haben Wissenschaftler es schon erprobt.

So teilte Adrian Sandler vom Olson Huff Center in Asheville 99 Kinder mit Aufmerksamkeitsdefizitsyndrom in drei Gruppen ein. Acht Wochen lang erhielten alle zunächst die normale Dosis an Methylphenidat, einem gängigen Medikament gegen die Erkrankung. Eine Gruppe fuhr so fort. Eine weitere nahm nur noch die halbe Dosis und eine weitere Gruppe bekam die halbe Dosis samt einer farbigen Tablette, bei der es sich um ein Placebo ohne Wirkstoff handelte. Sandler zufolge war die Wirksamkeit der Behandlung in allen Gruppen gleich gut.

Mitgefühl und Mitverantwortung

Einen anderen Ansatzpunkt die Kenntnisse aus der Forschung in die Praxen zu bringen, hat eine Hamburger Palliativmedizinerin gegenüber Eippert geschildert. Sie schärfe ihren Patienten ein, dass sie es selbst in der Hand hätten, wie gut die Therapie anschlage, weil ihr Körper selbst die Schmerzen vermindern könne, wenn sie an den Behandlungserfolg glaubten. Mit dieser Ausrichtung der Erwartungshaltung versucht sie den Placeboeffekt zugunsten ihrer Patienten zu nutzen.

Die Zuwendung des Arztes kann ein Übriges beitragen. In einem Experiment demonstrierte David Rakel von der Universität Wisconsin in Tampa, dass sich die Dauer einer Erkältung um einen Tag verkürzt, wenn der Kranke einen mitfühlenden Arzt vor sich hat. Die Empathie kann in einigen Experimenten die Wirkung von Scheintherapien erklären.

Vor allem aber zeigt die Forschung eines: Die bisherige Fokussierung des Gesundheitswesens auf pharmakologische Effekte greift viel zu kurz. Es gibt andere ebenso potente Heilmittel wie die Zuwendung und die Orientierung der Erwartung des Kranken, die bisher völlig außer Acht gelassen wurden. Dabei kosten sie fast nichts.


*Der Artikel ist der Webseite www.dasgehirn.info entnommen: https://redaktion.dasgehirn.info/wahrnehmen/schmerz/heilung-aus-dem-nichts,er ist dort am 17.11.2016 erschienen und steht unter einer CC-BY-NC Lizenz. (Abbildung 2 wurde von der Redaktion zugefügt) www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM|Zentrum für Kunst und Medientechnologie Karlsruhe


Weiterführende Links

Placebos - Die Kraft der Einbildung (zdf info, 18.05.2013) Video 14:57 min https://www.youtube.com/watch?v=VuX0mi-L5hM Standard-YouTube-Lizenz

UKF Aktuell: Der Placeboeffekt (Universitätsklinikum Freiburg, 01.04.2015) Video 2:40 min. https://www.youtube.com/watch?v=O6zHRYuWv9A Standard-YouTube-Lizenz

Placebos und Nocebos mit Paul Enck (Arvid Leyh, Datum: 31.08.2012) Audio 16:05 min. https://redaktion.dasgehirn.info/aktuell/foxp2/placebos-und-nocebos-mit-paul-enck-8330/view/ Lizenz: cc-by-nc ,

Stephan Geuter und Schmerz per Nocebo (Martin Vieweg, 11.10.2013) Audio 12:56 min https://redaktion.dasgehirn.info/aktuell/foxp2/stephan-geuter-und-schmerz-durch-nocebo-888/view/ Lizenz: cc-by-nc .



 

inge Thu, 16.02.2017 - 10:45

Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild

Die Schlafdauer global gesehen: aus mehr als 1 Billion Internetdaten ergibt sich erstmals ein quantitatives Bild

Do, 09.02.2017 - 11:21 — Redaktion RedaktionIcon Biologie

Das Internet hat die Welt in rasantem Tempo erobert, etwa die Hälfte der Weltbevölkerung ist bereits an das Internet angeschlossen. Wie schnell die Durchdringung des Internets in Staaten erfolgt ist und wo es noch Wachstumspotential gibt, haben K. Ackermann, SD Angus und PA Raschky (Univ. Chikago, Monash Univ. Australia) evaluiert. Daraus entsteht eine noch kaum vorstellbare Möglichkeit Daten über menschliches Verhalten zu extrahieren: Dies haben die genannten Autoren nun erstmals getan: aus mehr als einer Billion Zugriffen haben sie quantitative Informationen über menschliches Verhalten - die Schlafdauer - erhoben[1].

Das Internet ist zweifellos eine der einflussreichsten Erfindungen in der Geschichte der Menschheit. Es durchdringt alle unsere persönlichen und gesellschaftlichen Bereiche, beeinflusst unsere Verhaltensweisen und hat in der kurzen Zeit seines Bestehens die Grenzen aller Länder überwunden. Waren 1995 erst rund 40 Millionen Menschen an das Internet angeschlossen, so stieg deren Zahl 5 Jahre später auf rund 400 Millionen und 2016 auf bereits 3,5 Milliarden. In anderen Worten: rund die Hälfte der gesamten Weltbevölkerung ist heute global miteinander vernetzt, verwendet dieselbe Technologie zur Kommunikation. Die globale Reichweite und das Faktum , dass von jedem Gerät aus umgehend und passiv der Status anderer Geräte - online oder offline - abgefragt werden kann, machen das Internet zu einem aussagekräftigen Sensor, um menschliche Verhaltensweisen zu erfassen.

Derartige Untersuchungen werden in einem vor wenigen Tagen erschienenen Bericht beschrieben [1].

Datenbank zur Internetnutzung - eine Sisyphos-Arbeit

Der ursprünglich aus Österreich stammende Klaus Ackermann und Kollegen (Universität Chikago und Monash University, Australien) haben im Zeitraum von 2006 bis 2012 untersucht, wann weltweit Geräte online und offline waren. Die gewaltigen technischen Herausforderungen dieser Studien sind in Abbildung 1 dargestellt.

Die Forscher haben jede öffentlich zugewiesene IP-Adresse (bestehend aus 4 Zahlen; Internet Protocol Version 4; das bedeutet rund die Hälfte der möglichen 4,3 Milliarden Adressen) im zeitlichen Abstand von 15 Minuten auf Status online/offline abgefragt. Insgesamt ergaben sich daraus mehr als eine Billion (1000 Milliarden) Einzelbeobachtungen. Die erforderliche geographische Lokalisierung der einzelnen Adressen und Geräte wurde über eine kommerzielle Datenbank ermittelt. Insgesamt entstand so eine riesige Datenbank, welche die Internetnutzung in 122 Staaten aufzeigt.

Abbildung 1. Wie die Datenbank zur Internetnutzung in 122 Ländern im Zeitraum 2006 - 2012 zustande kam. Dieses Bild und weitere Details in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/) Um das wissenschaftliche Leistungsvermögen der Datenbank zu demonstrieren, haben die Forscher zunächst die Dynamik des Internetwachstums charakterisiert und sodann - basierend auf der tageszeitlichen Nutzung des Internets - die globale Schlafdauer der Menschen abgeschätzt.

Die dynamische Ausbreitung des Internets

Mit der beschriebenen Methode wurde erstmals eine genaue Charakterisierung der Internetausbreitung möglich. Diese folgt in allen Gesellschaften einer S-förmigen Kurve, d.h. nach einer anfänglich langsamen Phase, nimmt das Wachstum steil zu, um schließlich abzuflachen und in eine Sättigung überzugehen.

Aus den Daten wurde klar, dass Sättigung erreicht ist, wenn 0,32 IP's pro Person vorhanden sind, das heißt eine IP-Adresse pro 3-Personen Haushalt.

Die Zeit die es braucht, um ein Land mit Internetzugängen zu sättigen, ist von Land zu Land verschieden. Im Mittel von 100 Nationen braucht es 16,1 Jahre, um von 1 % auf 99 % Sättigung zu kommen. Die Internetausbreitung in Österreich folgt in etwa diesem Mittelwert und liegt nun knapp an der Sättigung. Viele Länder - darunter die USA - sind bereits gesättigt, andere - beispielsweise Lettland - werden dazu noch sehr lange brauchen. Abbildung 2.

Abbildung 2. Die Ausbreitung des Internets in 100 Nationen folgt S-förmigen Kurven. Kurven sind für alle Nationen dargestellt, einige Beispiele - darunter Österreich - sind farbig hervorgehoben. Die farbigen Punkte sind die zugrundeliegenden, experimentellen monatlichen Daten. Das Wachstum in Österreich entspricht in etwa dem Mittelwert aus den 100 Nationen (dicke schwarze Kurve). Alle Kurven wurden auf 1% Ausbreitung extrapoliert und standardisiert. Dieses Bild und weitere, detaillierte Darstellungen aller Länder nach Kontinenten in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/) .

Wie lange schlafen die Menschen auf unserem Globus?

Die Bedeutung, welche Dauer und Qualität des Schlafes für unser körperliches und psychisches Wohlbefinden hat, ist aktuell ein "Hot Topic" in den biomedizinischen Wissenschaften. Schlafforscher haben diesbezügliche Informationen bis jetzt aus persönlich erhobenen Angaben bezogen. Es besteht ein Bedarf für erweiterte Möglichkeiten der Datenerfassung.

Ackermann und Kollegen haben die tageszeitlichen Variationen der IP-Aktivitäten herangezogen, um die Zeit des Schlafengehens, des Aufstehens und der gesamten Schlafdauer abzuschätzen. Berücksichtigt wurden dabei nur Städte mit über 500 000 Einwohnern (ins gesamt waren dies 645 Städte). Aufdrehen des Computers am Tagesbeginn und Abdrehen am Tagesende wurden dabei als mit Aufwachen und Einschlafen korreliert gesehen. (Nach Ansicht der Autoren braucht diese Korrelation nicht exakt sein, auch wenn diese systematisch vor- oder nachläuft, können die gewünschten Informationen erhalten werden.) Wie selbstlernende Verfahren, die von detaillierten Zeitbudgeterhebungen (American Time Use Survey) ausgingen, auf die globalen täglichen IP-Aktivitäten angewandt wurden, kann in [1] nachgelesen werden.

Abbildung 3 fasst die wesentlichen Ergebnisse dieser Untersuchung zusammen.

Abbildung 3. Eine Abschätzung der täglichen Schlafdauer basierend auf der Internet-Aktivität. Selbstlernende Verfahren, die von detaillierten Zeitbudgeterhebungen (American Time Use Survey) ausgingen, wurden auf die globalen täglichen IP-Aktivitäten angewandt. Dieses Bild und weitere detaillierte Angaben in: Ackermann et al., arxiv.org/abs/1701.05632 (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/)

Im Einzelnen wurde gezeigt:

  • Die abgeschätzte Schlafdauer variierte in den einzelnen Regionen signifikant (dies dürfte kulturell bedingt sein).
  • Im Allgemeinen schlafen Menschen in Großstädten länger als in den umgebenden Satellitenstädten.
  • Über den Beobachtungszeitraum hin scheint die Schlafdauer zu konvergieren. Während sie sich in Nordamerika wenig ändert, ist sie in Europa zurückgegangen und in Ostasien angestiegen (Abbildung 3D).

Die aus den Daten zur Internetnutzung ermittelte Schlafdauer in europäischen und einigen nicht-europäischen Ländern ist in Abbildung 4 dargestellt.

Abbildung 4. Mittlere Schlafdauer in Städten mit mehr als 500 000 Einwohnern. Daten für den Zeitraum 2006 - 2012 in Ländern Europas und einigen nicht-europäischen Ländern (schwarze Balken). Für die Grafik wurden Daten aus Tabelle 3 in: Ackermann et al., arxiv.org/abs/1701.05632 verwendet (Lizenz: http://arxiv.org/licenses/nonexclusive-distrib/1.0/)

Zusammenfassung

Zur Internetnutzung im Zeitraum 2006 -2012 wurde eine enorm große Datenbank angelegt. Die darin gespeicherten IP-Aktivitätsdaten wurden erstmals angewandt, um ein quantitatives Bild der Dynamik zu erhalten, mit der sich die Internetnutzung global ausbreitet. Die hohe Durchdringung des Internets - es wird bereits von der Hälfte der Menschheit genutzt - macht es zu einem einzigartigen Sensor für menschliche Verhaltensweisen. Ein erstes Beispiel ist die Abschätzung der globalen Schlafdauer.

Nicht abschätzbar ist der Gewinn, den diese Datenbank für andere Forschungszweige haben wird.


[1] Der vorliegende Beitrag basiert auf dem eben erschienenen Bericht: Klaus Ackermann, Simon D Angusy und Paul A Raschky: The Internet as Quantitative Social Science Platform: Insights From a Trillion Observations. (23. 01.2017) arXiv:1701.05632, https://www.technologyreview.com/s/603541/the-trillion-internet-observations-showing-how-global-sleep-patterns-are-changing/ . Daten und Abbildungen sind diesem Bericht entnommen, der unter der Lizenz: arXiv.org - Non-exclusive license to distribute steht.

inge Thu, 09.02.2017 - 11:21

Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Finden und Ersetzen: Genchirurgie mittels CRISPR/Cas9 erscheint ein aussichtsreicher Weg zur Gentherapie

Do, 02.02.2017 - 11:42 — Francis S. Collins

Francis S. CollinsIcon MedizinIn der Forschung zur Gentherapie gibt es eine immerwährende Herausforderung: Es ist die Suche nach einem verlässlichen Weg, auf dem man eine intakte Kopie eines Gens sicher in relevante Zellen einschleusen kann, welches dann die Funktion eines fehlerhaften Gens übernehmen soll. Mit der aktuellen Entdeckung leistungsfähiger Instrumente der Genchirurgie ("Gene editing"), insbesondere des CRISPR-Cas9 Systems - beginnen sich nun die Chancen einer erfolgreichen Gentherapie zu vergrößern. Francis Collins, Direktor der US National Institutes of Health (NIH) und ehem. Leiter des "Human Genome Project" berichtet hier von einer zukunftsweisenden Untersuchung , die nicht nur Fortschritte in der Heilung der seltenen Erbkrankheit "septische Granulomatose" verspricht, sondern auch von vielen anderen Erbkrankheiten.*

Fortschritte in der Genchirurgie ("Gene editing")

Anstatt, dass man mit einer, ein sperriges Gen enthaltenden Injektionsnadel die Zellmembran durchstößt, versuchen die Forscher die Instrumente des "Gene editings" nun direkt in den Zellkern zu bringen: Ziel ist es, die Krankheit verursachenden Fehler in einem Gen herauszuschneiden und so seine korrekte Funktion zu ermöglichen. Abbildung 1.

Abbildung 1. Das CRISPR/Cas9 System ermöglicht Mutationen gezielt aus einem Gen zu entfernen und durch eine korrekte Version zu ersetzen. Das ursprünglich in Bakterien entdeckte Enzym Cas9 (Kristallstruktur, hellblau) kann eine DNA (gelb) an der gewünschten Stelle durchschneiden. Die präzise Positionierung der Schnittstelle wird durch ein an Cas9 gebundenes kurzes Gegenstück zur zu schneidenden DNA - einer "guide RNA" (rot) - ermöglicht. (Credit: Bang Wong, Broad Institute of Harvard and MIT, Cambridge, MA)

Während diese Forschung gerade anläuft, wurden bereits Fortschritte in einer seltenen, angeborenen Immunschwäche, der sogenannten "septischen Granulomatose" (CGD - chronic granulomatous disease), erzielt.

In einer jüngst in Science Translational Medicine erschienenen Arbeit beschreiben NIH-Forscher, wie sie mit Hilfe des CRISPR/Cas9-Systems eine Mutation in adulten hämatopoietischen (blutbildenden) Stammzellen korrigieren konnten, die eine übliche Form der CGD verursacht [1]. Besonders anzumerken ist dabei, dass diese Korrektur erfolgt, ohne dass irgendwelche neuen und möglicherweise Krankheit verursachenden Fehler in den benachbarten DNA-Sequenzen auftreten.

Als derart behandelte, humane Zellen in Mäuse transplantiert wurden, siedelten sich die Zellen ganz korrekt im Knochenmark an und begannen voll funktionsfähige weiße Blutkörperchen zu erzeugen. Die chirurgisch veränderten Zellen blieben bis zu 5 Monate in Knochenmark und Blutstrom der Tiere nachweisbar - ein prinzipieller Beweis dafür, dass die lebenslange genetische Krankheit CGD und ähnliche Defekte eines Tages geheilt werden können und dies ohne die Risiken und Einschränkungen unserer gegenwärtigen Behandlungen.

Was ist Septische Granulomatose (CGD)?

Menschen, die an CGD leiden, tragen eine oder mehrere genetische Mutationen, die es ihren weißen Blutkörperchen unmöglich machen, infektiöse Eindringlinge - Bakterien, Pilze - anzugreifen und abzutöten. Es sind dies Defekte auf Genen, die für einen Enzymkomplex kodieren, welcher für die antimikrobielle Aktivität verantwortlich ist. Dabei handelt es sich um Komponenten des Enzyms NADPH-Oxidase 2 (NOX2), das reaktiven Sauerstoff (Superoxid) generiert und damit Neutrophile zur Abtötung von Krankheitserregern befähigt (Anm. Red.).

CGD-Patienten müssen daher spezielle Maßnahmen ergreifen, um sich zu schützen; dies inkludiert auch eine permanente Einnahme von Medikamenten gegen diverse Infektionen. Aber auch dann besteht das Risiko lebensbedrohender Infektionen mit Bakterien und Pilzen.

Finden und Ersetzen

Wissenschafter am NIH’s National Institute for Allergy and Infectious Diseases (NIAID) haben nun begonnen das Potential der CRISPR/Cas9 Genschere auszutesten, um Menschen mit GCD helfen zu können [1]:

In einem ersten Schritt haben sie adulte Stammzellen von zwei Patienten gewonnen, die dieselbe GCD-verursachende Mutation aufwiesen - im konkreten Fall war es ein einzelner Buchstabe (d.i. ein einzelnes Nukleotid) in der Sequenz eines Gens auf dem X-Chromosom - und haben sodann die Fähigkeit des CRISPR/Cas9-Systems getestet diese Mutation herauszuschneiden. Abbildung 2.

Abbildung 2. Die zu den weißen Blutkörperchen gehörenden neutrophilen Granulozyten ("Neutrophile") sind essentiell in die Bekämpfung von Infektionen involviert. Links: Zwei Neutrophile in einer Mehrzahl von roten Blutkörperchen (Bild von der Redaktion eingefügt; Quelle: Wikipedia, Mgiganteus (talk | contribs) disease.CC BY-SA 3.0). Rechts: Ein Neutrophiler, dessen DNA "korrigiert" wird, um seine Fähigkeit zur Infektionsabwehr wieder herzustellen (Quelle: Jill George, NIH).

Das CRISPR/Cas9-System

verwendet kleine RNA-Moleküle - sogenannte "guide RNAs" zusammen mit einem scherenartig wirkenden Enzym Cas9 um präzise am richtigen Ort die defekte Stelle in der DNA-Sequenz zu finden und dort zu schneiden (siehe Abbildung 1). Wenn die DNA durchgeschnitten ist, schließt die Zelle den Eingriff ab, indem sie die korrekte Gensequenz einsetzt - diese wird von den Forschern in Form eines DNA-Fragments als Vorlage zur Verfügung gestellt. Man kann diesen Vorgang als ein Finden und Ersetzen sehen.

In ihrem in vitroTestsystem haben die Forscher festgestellt, dass mittels CRISPR/Cas9 etwa 20 - 30 % der Stammzellen "repariert werden konnten. Dort, wo die Genchirurgie funktionierte, war ausschliesslich die defekte Sequenz ersetzt worden. Die guide RNA war tatsächlich genügend spezifisch, um die DNA-Sequenz mit dem falschen Buchstaben zu finden und zu ersetzen.

Genkorrigierte humane Zellen funktionieren in Mäusen

Diese Ergebnis führte zur nächsten groß angelegten Untersuchung, in welcher die Forscher jeweils rund 500 000 der Gen-modifizierten humanen Zellen in jedes Versuchstier einbrachten. Da die Mäuse immundefizient waren und mit dem Zytostatikum Busulfan vorbehandelt worden waren, um die eigenen blutbildenden Zellen zu unterdrücken und für die transplantierten Zellen Platz zu machen, akzeptierten die Tiere die humanen Zellen und gestatteten es, dass deren Immunsystem "in Betrieb" ging.

Zweifelsfrei haben die Infusionen funktioniert. Die reparierten blutbildenden Stammzellen haben sich im Knochenmark der Mäuse angesiedelt und dort reife Blutzellen produziert, inklusive funktionierender neutrophiler Granulozyten, die ja den an GCD Erkrankten fehlen. Nach fünf Monaten trugen noch 10 - 20 % der Blutzellen die Korrektur. Das ist beachtlich viel, da eine langandauernde Präsenz des korrigierten Gens in nur10 % der Blutzellen wahrscheinlich ausreicht um Patienten zu nützen.

Zur Gentherapie am Menschen

Während diese Ergebnisse äußerst vielversprechend sind, muss allerdings noch sehr viel getan werden, bevor eine derartige Vorgehensweise in Patienten mit GCD getestet werden kann. Die Forscher sagen, dass sie die Genkorrektur in einen noch höheren Anteil der Stammzellen einfügen möchten. Der Prozess muss auch hochskaliert werden, um insgesamt viel mehr Zellen korrigieren zu können: Im Vergleich zu den mit 500 000 Zellen behandelten Mäusen werden ja für den ungleich größeren Menschen Hunderte Millionen korrigierter Stammzellen benötigt.

CRISPR Strategien bieten enorme Vorteile zur Präzision der Gentherapie, es zeigen sich aber auch andere Verfahren vielversprechend. Eine klinische Untersuchung ist derzeit an den NIH und anderen Stellen in den US im Laufen, die eine mehr konventionelle Gentherapie von CGD ins Auge fasst. Es wird dabei ein inaktiviertes, nicht-infektiöses Virus verwendet, um ein funktionelles Gen in die Zellen von GCD Patienten einzuschleusen. Es ist aber noch zu früh um zu wissen, ob dieser Ansatz erfolgreich sein wird; die ersten Hinweise sind aber sehr ermutigend.

Fazit

Die Forscher am NIAID haben Jahrzehnte damit verbracht die GCD besser zu verstehen und Wege aufzufinden um diese chronische, lebensbedrohende Krankheit effizienter behandeln zu können. Die jüngsten Ergebnisse sind als ein ermutigendes Zeichen eines Fortschritts zu sehen - nicht nur in der Behandlung von CGD, sondern auch von vielen anderen Erbkrankheiten.

Es ist eine Story, die es wert ist weiter verfolgt zu werden.


*Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:" Find and Replace: DNA Editing Tool Shows Gene Therapy Promise" zuerst (am 24. Jänner 2017) im NIH Director’s Blog:. https://directorsblog.nih.gov/2017/01/24/find-and-replace-dna-editing-tool-shows-gene-therapy-promise/.

Reprinted (and translated by ScienceBlog) with permission from the National Institutes of Health (NIH).


[1] CRISPR-Cas9 gene repair of hematopoietic stem cells from patients with X-linked chronic granulomatous disease. De Ravin SS, Li L, Wu X, Choi U, Allen C, Koontz S, Lee J, Theobald-Whiting N, Chu J, Garofalo M, Sweeney C, Kardava L, Moir S, Viley A, Natarajan P, Su L, Kuhns D, Zarember KA, Peshwa MV, Malech HL. Sci Transl Med. 2017 Jan 11;9(372).

[2] Study of Gene Therapy Using a Lentiviral Vector to Treat X-linked Chronic Granulomatous Disease. Clinicaltrials.gov


Weiterführende Links

  • Gen-editing mit CRISPR/Cas9 Video 3:13 min (deutsch) , Max-Planck Gesellschaft (2016) (Standard-YouTube-Lizenz )
    Die Entdeckung, dass sich auch Bakterien mit einer Art Immunsystem gegen Viren wehren können, hat zunächst nur Mikrobiologen begeistert. Seitdem aber bekannt wurde, dass sich mit dem als CRISPR/Cas9 bezeichneten System das Erbgut unterschiedlichster Organismen manipulieren lässt, interessieren sich auch Nicht-Wissenschaftler für die neue Gentechnik-Methode. Doch wie funktioniert die Methode mit dem unaussprechlichen Namen?
  • Schöne neue Gentechnik - Neue Hoffnung in der Medizin - 3sat 2016 - myDoku, Video 44:17 min.
inge Thu, 02.02.2017 - 11:42

Tierversuche in der Grundlagenforschung – Grundsatzerklärung der Max-Planck-Gesellschaft

Tierversuche in der Grundlagenforschung – Grundsatzerklärung der Max-Planck-Gesellschaft

Do, 19.01.2017 - 06:27 — Max-Planck-Gesellschaft

Icon Politik & GesellschaftTierversuche geraten immer mehr unter die Kritik breiter Gesellschaftschichten. Dennoch ist die biologische und medizinische Forschung nach wie vor auf derartige Experimente angewiesen, da nur diese es erlauben das komplizierte Zusammenspiel der Komponenten komplexer Organismen zu verstehen. In ihrer Grundsatzerklärung (White Paper) zum Thema „Tierversuche in der Grundlagenforschung" betont die Max-Planck-Gesellschaft (MPG)“ die Notwendigkeit von Tierversuchen, bekennt sich aber auch zur besonderen Verantwortung des einzelnen Wissenschaftlers für die Versuchstiere und die mit Untersuchungen an Lebewesen verbundenen ethischen Probleme. Das Papier wurde nach umfangreichen Beratungen einer vom Präsidenten der MPG einberufenen international besetzten Kommission renommierter Wissenschafter unter dem Vorsitz des Neurowissenschafters Wolf Singer (http://scienceblog.at/wolf-singer) verfasst.*

Die Max-Planck-Gesellschaft fördert Grundlagenforschung in den Natur- und Geisteswissenschaften, und hat daher die Verantwortung, eine kritische Bewertung der ethischen Folgen wissenschaftlicher Untersuchungen vorzunehmen.

Besondere Herausforderungen entstehen in den Lebenswissenschaften, deren Forschungsprojekte häufig auch Tierversuche erfordern. (Abbildung 1. Tierversuche in der MPG 2015).

Abbildung 1. Tierversuchszahlen in der MPG im Jahr 2015. Es wurden vorwiegend Versuche mit geringer Belastung durchgeführt. Lediglich 0,35 Prozent der Versuche wurden als schwer belastend eingestuft. Affen (keine Menschenaffen!) werden im Tierversuch nur dann eingesetzt, wenn die Fragestellung an keiner anderen Tierart, wie beispielsweise an Mäusen, Fischen oder Fruchtfliegen, untersucht werden kann. (© MPG; https://www.mpg.de/themenportal/tierversuche/tiere)

Daraus ergibt sich eine spezielle Verantwortung der Wissenschaftlerinnen und Wissenschaftler, die den Wert des Wissenserwerbs gegen den möglichen Schaden abwägen müssen, der dabei empfindungsfähigen Lebewesen zugefügt wird. Um sich mit dieser Herausforderung auseinanderzusetzen, hat der Präsident einen umfassenden Diskussionsprozess initiiert. Daran waren die Mitglieder einer internationalen Präsidentenkommission, die Wissenschaftlichen Mitglieder der MPG sowie Vertreter der Generalverwaltung beteiligt. Die Ergebnisse dieser Beratungen sind in dem vorliegenden WhitePaper zusammengefasst, das eine Stellungnahme der MPG zu Tierversuchen in der Grundlagenforschung darstellt.

Nachhaltiger Fortschritt durch erkenntnisorientierte Forschung

Dem Versuch, „die Welt besser zu verstehen“, wird ein Wert an sich zugeschrieben, da er konstitutiv für menschliche Kulturen ist. Zudem bezieht Erkenntnisgewinn auch einen großen Wert daraus, dass er die Voraussetzung für mögliche, allerdings nicht planbare Beiträge zu Problemlösungen ist. Der Beitrag, den erkenntnisorientierte Forschung letztlich am nachhaltigen Fortschritt geleistet hat und leisten kann, ist trotz menschengemachter Katastrophen unbestreitbar:

Verbesserte Erklärungsmodelle der Welt haben dazu beitragen, Herausforderungen zu meistern und werden dies auch weiterhin tun. So haben Fortschritte im Verständnis von Krankheitsmechanismen und der Vorhersage gefährlicher Entwicklungen doch unzweifelhaft zur Verbesserung der Lebensqualität und zur Bekämpfung von Leid beigetragen. Der Mensch hat dank grundlegender Erkenntnisgewinne wirkungsvolle Mittel entwickelt, um auf die unbelebte und belebte Welt einzuwirken. Ein Handeln aber wäre verantwortungslos, wenn es nicht von dem Versuch begleitet wäre, das zur Vorhersage der Folgen benötigte Wissen zu erwerben. Somit sprechen, über einen von vielen attestierten intrinsischen Wert des Erkenntnisgewinns hinaus, langfristige Nützlichkeits- ebenso wie moralische Überlegungen für den hohen Wert wissenschaftlicher Grundlagenforschung.

In den Lebenswissenschaften entstehen besondere ethische Konflikte,

weil der zu erwartende Nutzen wissenschaftlicher Forschung gegen den tatsächlichen oder mutmaßlichen Schaden für empfindungsfähige Lebewesen abgewogen werden muss. Die entstehenden ethischen Konflikte müssen in einem qualifizierten Diskurs aller Beteiligten kontinuierlich aufs Neue gelöst werden. Wissenschaftlerinnen und Wissenschaftler haben folglich die moralische Verpflichtung, die für ethisch verantwortungsvolles Handeln notwendigen Fähigkeiten zu erwerben und die Öffentlichkeit an ihrem Diskurs zu beteiligen. Sie müssen Vertrauen bilden, indem sie offen über die Ziele ihrer Untersuchungen und die dafür eingesetzten Methoden berichten. Ebenso müssen sie die unberechenbare Natur von Entdeckungen, deren mutmaßliche Folgen, sowie die Grenzen wissenschaftlicher Erkenntnisse deutlich machen. Alle Beteiligten müssen hierbei bedenken, dass ethische Einschätzungen stark von subjektiven Einstellungen und Werten abhängen, die zudem einem zeitlichen Wandel unterliegen.

Die größte Herausforderung für die Lebenswissenschaften in den kommenden Jahrzehnten besteht darin, die äußerst komplexen Wechselwirkungen zwischen den einzelnen Komponenten von Organismen zu verstehen. Dank der Untersuchungen in Modellsystemen wie Zellkulturen und in vitro Präparationen sind die Bausteine von Organismen, die Gene, Proteine und individuelle Zellen bereits gut erforscht. Um jedoch integrierte Funktionen zu verstehen, die aus dem Zusammenspiel dieser Komponenten entstehen, müssen intakte Organe und Organismen untersucht werden. Dies gilt insbesondere für komplexe Systeme wie das Herz-Kreislauf-System, das Immunsystem und allen voran das Gehirn.

Über den fortlaufenden Diskurs hinaus müssen ethische Kompromisse auch in einem rechtlichen Regelwerk festgeschrieben werden. Die aktuelle ethische Einstellung einer Mehrheit der Bürgerinnen und Bürger spiegelt sich gegenwärtig in einem Konzept wieder, das den moralischen Status von empfindungs-und leidensfähigen Lebewesen sowie ihre kognitiven Fähigkeiten in den Mittelpunkt stellt. Diese sogenannte pathoinklusive Position ist auch die Grundlage der derzeitigen Tierschutz-Gesetzgebung in der Europäischen Union und in Deutschland.

Das 3R-Prinzip

Trotz strikter gesetzlicher Regelungen bleibt die ethische Abwägung eine außerordentlich herausfordernde Aufgabe, für die sowohl ein informierter Diskurs als auch die Zuweisung und Übernahme von Verantwortung notwendig ist. Die MPG verpflichtet sich daher zu einer Reihe von Maßnahmen zur Verbesserung des Tierschutzes und der Förderung einer Kultur der Fürsorge für die Tiere im Rahmen des gesetzlichen vorgeschriebenen 3R-Prinzips „Replacement, Reduction, Refinement“: Ersatz von Tierversuchen, Reduktion von Tierversuchen, Minimierung der Belastungen der Tiere. Abbildung 2.

Abbildung 2. Die Verantwortung der Max-Planck-Gesellschaft fußt auf dem 3R-Prinzip: „Replacement, Reduction, Refinement“ - dem Vermeiden, dem Verringern und dem Verbessern von Tierversuchen. (© Wolfgang Filser/MPG)

Ein koordinierendes Team in der Generalverwaltung der MPG soll aufgebaut werden und diese Maßnahmen in enger Kooperation mit den Instituten umsetzen.

Die MPG verpflichtet sich unter anderem:

  • in der Tierforschung höchste wissenschaftliche Qualität anzustreben, um den größtmöglichen epistemischen Nutzen zu erzielen
  • Tierversuche durch die Förderung und Finanzierung alternativer Versuchsmethoden zu vermeiden
  • offen und transparent über Tierversuche zu kommunizieren und eine aktive Rolle im öffentlichen Diskurs über alle Aspekte der Tierforschung zu übernehmen.

Als Organisation, die sich der Grundlagenforschung widmet, führt die MPG ein viertes R für „Responsibility“ oder Verantwortung ein. Sie beabsichtigt damit, ihre breitgefächerte wissenschaftliche Expertise in den Lebens- und Geisteswissenschaften zur Beförderung des Tierschutzes zu nützen. Hierzu gehören die Erforschung der kognitiven Fähigkeiten unterschiedlicher Tierarten, ihrer adäquaten Lebensbedingungen und von Verhaltensäußerungen, die auf Leid oder Stress schließen lassen. Wissenschaftliche Fortschritte, die für den Tierschutz von Bedeutung sind, sollen kommuniziert und mögliche Konsequenzen diskutiert werden.

Zur Erfüllung des vierten R verpflichtet sich die MPG unter anderem:

  • das Sozialleben von Versuchstieren zu verbessern
  • die wissenschaftliche Grundlage für eine objektive Ermittlung von Empfindungsfähigkeit, Schmerzerfahrung, Bewusstsein und Intelligenz in der Tierwelt weiterzuentwickeln
  • die Professionalisierung des öffentlichen Diskurses über Fragen der Tierethik aktiv zu unterstützen.

Zur Umsetzung des „White Papers“ wurden folgende Programme entwickelt:

  • Eine interne interaktive Datenbank bietet einen Überblick über alle Tierversuche der MPG und dient als Instrument für die Metaanalyse, zur transparenten Kommunikation und für das Management der Tierhäuser.
  • Forschungsprojekte zur Verbesserung der 3R-Maßnahmen sollen speziell gefördert werden.
  • Um der Notwendigkeit der Transparenz und Vertrauensbildung gerecht zu werden, wurde ein “Kommunikationsleitfaden“ formuliert und den Max-Planck-Instituten zur Verfügung gestellt.
  • Ein verpflichtendes Ethik-Curriculum wird derzeit entwickelt, um alle Mitarbeiterinnen und Mitarbeiter, die mit Tieren arbeiten, zur aktiven Teilnahme an einem professionellen ethischen Diskurs zu befähigen.
  • Die Fortschritte der Institute bei der Umsetzung der Selbstverpflichtungen, die in diesem White Paper formuliert wurden, sollen durch die Fachbeiräte evaluiert werden.

*Die Grundsatzerklärung "Tierversuche in der Max-Planck-Gesellschaft , White Paper" wurde am 12. Januar 2017 vom Senat der Max-Planck Gesellschaft verabschiedet. Im Blog erscheint die ungekürzte Zusammenfassung des White Paper. Wir haben diese durch Untertitel leicht adaptiert und zur Illustration 2 Abbildungen aus dem MPG-Themenportal Tierversuche eingefügt. Die MPG-Pressestelle hat freundlicherweise der Veröffentlichung in ScienceBlog.at zugestimmt.


Weiterführende Links

inge Thu, 19.01.2017 - 06:27

Die Proteindatenbank: Strukturen, Modelle und zwingend erforderliche Korrekturen

Die Proteindatenbank: Strukturen, Modelle und zwingend erforderliche Korrekturen

Do, 26.01.2017 - 08:03 — Bernhard Rupp & Inge Schuster Bernhard RuppInge SchusterIcon Chemie

Mit bis jetzt mehr als 120 000 eingespeisten Strukturdaten von Proteinen und daraus erstellten Modellen ist die Proteindatenbank (PDB) zur unentbehrlichen Basis von Grundlagenforschung und angewandter Forschung geworden. Allerdings kontaminieren einige wenige, stark fehlerhafte und sogar erfundene Strukturmodelle die Datenbank und beeinträchtigen Data-Mining, Metaanalysen und vor allem Wissenschafter die auf Basis der Daten aussichtlose, nur Ressourcen vergeudende Untersuchungen starten. Der aus Wien stammende Strukturbiologe Bernd Rupp ruft zu einem gemeinsamen Vorgehen von Strukturbiologen und Herausgebern von Fachzeitschriften auf, um derartige Einträge effizient zu eliminieren.*

Vor knapp 60 Jahren gelang einer der größten Durchbrüche in den Biowissenschaften: John Kendrew und Max Perutz veröffentlichten die ersten dreidimensionalen Strukturen von Proteinen. Es handelte sich dabei um die Strukturmodelle zweier verwandter, Sauerstoff bindender Proteine - Myoglobin und Hämoglobin, die in Jahrzehnte langer, überaus schwieriger Arbeit mittels Röntgenstrukturanalyse bestimmt worden waren. Die räumliche Lage der Atome zu einander war an Hand der Beugungsbilder von Röntgenstrahlen an den Proteinkristallen ermittelt worden. Man erkannte daraus nicht nur, wie sich Proteine falten, sondern konnte nun erstmals deren Funktion auf molekularer Basis verstehen: wie Hämoglobin den Sauerstoff in der Blutbahn aufnimmt, transportiert und abgibt, wie ein genetischer Defekt diese Vorgänge hemmt und wie Myoglobin in der Muskelzelle den Sauerstoff speichert.

Es dauerte dann bis 1967 bis die Struktur eines weiteren Proteins, des aus Hühnereiweiss isolierten Enzyms Lysozym, aufgeklärt wurde. In den nächsten Jahren folgten einige weitere Enzyme (u.a. Chymotrypsin, Carboanhydrase und Laktatdehydrogenase). Erstmals erkannte man nun die molekularen Details, wie Enzyme chemische Reaktionen katalysieren.

Die Protein Datenbank (PDB)

Eine kleine Tagung über "Struktur und Funktion von Proteinen auf 3D-Niveau" am Cold Spring Harbor Laboratory (NY, USA) brachte im Jahr 1971 die Pioniere der Strukturbiologie mit Biochemikern/Biophysikern zusammen, welche die Röntgen-Strukturdaten als Grundlage ihrer Forschung nutzen wollten. Man ahnte, dass dieses neue Gebiet eine Revolution für die gesamte Biologie darstellen würde und beschloss die Gründung einer zentralen Proteindatenbank PDB (untergebracht im Brookhaven National Laboratory, NY). In dieser sollten alle neuen Strukturdaten hinterlegt und für jeden Wissenschafter frei zugänglich sein. Damit begann der Siegeszug der Strukturbiologie. Wuchs diese Datenbank anfangs nur langsam - 1980 enthielt sie Daten von 69 Strukturen, 1990 von 507 Strukturen -, so ermöglichten rasche technologische Entwicklungen in Produktion, Reinigung und Kristallisation von Proteinen immer schnellere Analysen von immer komplizierter aufgebauten Systemen und zu deren Analyse und Visualisierung wurden immer bessere Verfahren entwickelt wurden. PDB wurde zu einer weltweiten Kollaboration (http://www.wwpdb.org/) von Datenbanken in den US (RSCB PDB), Japan (PDBj) und Europa (PDBe), in den letzten Jahren wurden jeweils mehr als 10 000 Strukturmodelle hinterlegt. Abbildung 1.

Abbildung 1. Zahl der in der Proteindatenbank (PDB) hinterlegten Strukturen. In den letzten Jahren sind jeweils rund 10 000 neue Strukturen hinterlegt worden. Das Insert unten zeigt, woher die Autoren dieser Daten stammten. Rund 10 % der Strukturen kommen aus der Industrie, insbesondere aus der pharmazeutischen Industrie, die so selektive Inhibitoren für Targetproteine - beispielsweise für die HIV-Protease - designt. (http://www.rcsb.org/pdb/statistics/contentGrowthChart.do?content=total&seqid=100,Update 17.01.2017)

Es wurden und werden Strukturen von kleinsten bis zu enorm großen Proteinen aufgeklärt, allein und in Wechselwirkung mit ihren natürlichen Liganden (z.B. Hormonrezeptoren mit ihren Hormonen) und mit Molekülen die diese Interaktionen modulieren. Es liegen Analysen riesiger Proteinkomplexe (z.B. das Proteasom), ganzer Viren und Ribosomen vor. Als besonderes Highlight im Jahr 2016 ist hier die erste Struktur des Zika-Virus zu nennen, gefolgt von seinem Komplex mit einem Antikörper

Derzeit enthält die PDB insgesamt 126 060 Strukturmodelle, die zum überwiegenden Teil (92,8 %) von Proteinen und zum kleineren Teil auch von Nukleinsäuren stammen. Rund 90 % der Proteinstrukturen wurden durch Röntgenstrukturanalyse ermittelt, etwa 9 % durch Kernresonanzuntersuchungen(NMR).

Das Interesse an diesen mehr als 120 000 Strukturen ist enorm. Im vergangenen Jahr zählte die Website weltweit mehr als eine Million unterschiedlicher Besucher: Studenten und Forscher in biologischen, biomedizinisch/pharmazeutischen und ökologischen Fachrichtungen. Strukturdaten wurden rund 600 Millionen Mal abgerufen. ( http://cdn.rcsb.org/rcsb-pdb/general_information/news_publications/newsletters/2017q1/home.html).

Von Beugungsdaten zu Proteinmodellen

Liest man Veröffentlichungen, die auf der Analyse von makromolekularen Strukturen basieren, so erwartet man natürlich, dass die dazu gehörigen, in der PDB hinterlegten Strukturmodelle sachgerecht erstellt und verfeinert wurden. Die Strukturbiologen waren ja Vorreiter im Erstellen von Normen für die Hinterlegung von Daten und Modellen. Die meisten wissenschaftlichen Journale sind diesen ethischen Normen gefolgt und haben eine verpflichtende Hinterlegung der Modell Koordinaten und in jüngerer Zeit der Beugungsdaten gefordert.

Nun zeichnet sich der Weg von den rohen Beugungsdaten zu den prozessierten Strukturdaten (wie sie aktuell hinterlegt werden) und von hier zur Rekonstruktion der Elektronendichteverteilung durch große mathematischer Objektivität aus (vereinfacht dargestellt in Abbildung 2). Die Übersetzung der Elektronendichte in ein Atommodell erlaubt dagegen erheblichen Freiraum, der umso größer wird, je niedriger die Qualität der Beugungsmuster und das Fachwissen des Modellierers sind. Wenn man also erwartet, dass jedes Modell die in Form von Elektronendichte vorliegende Evidenz genau widerspiegelt, , ist dies gelegentlich eine arge (Ent)Täuschung.

Abbildung 2. Röntgenkristallographie eines Proteins. Ein Proteinkristall wird fein-gebündelten (kollimierten), intensiven Röntgenstrahlen ausgesetzt, die an den Elektronenhüllen der Atome gebeugt werden. Die Beugungsbilder werden auf einem Flächendetektor aufgenommen und zu einem Set von Beugungsdaten zusammengesetzt – einem reziproken Code für die räumliche Anordnung der Atome im Kristall. Die Übersetzung diese Codes mittels Fourier-Transformation und Kenntnis der zugehörigen Phasenwinkel erlaubt die Rekonstruktion der Elektronendichte für die streuenden Atome. Daraus kann ein dreidimensionales Modell der Proteinstruktur erstellt werden - hier dargestellt in Form eines Ribbon – Modells (Abbildung modifiziert nach © Garland Science 2010).

Falsche und unglaubwürdige Modelle

Praktisch alle Fachgesellschaften und Herausgeber von Fachzeitschriften begrüßten den Ruf der Strukturbiologen nach Hinterlegung von Beugungsdaten und Modellkoordinaten. Dagegen wurde der Frage, was man eigentlich mit Publikationen machen sollte, die nachgewiesenermaßen unrichtige Strukturmodelle enthielten und wie - um die Integrität öffentlicher Datenbanken zu erhalten - derartige Modelle dort gelöscht werden könnten, wesentlich weniger Aufmerksamkeit gezollt.

Falsche und unglaubwürdige Modelle sind kein belangloses Ärgernis. Sie erschweren die Extraktion von Daten (Data-Mining), beeinträchtigen Metaanalysen und beschädigen sicherlich auch Image und Glaubwürdigkeit von Journalen, die strukturbiologische Untersuchungen veröffentlichen. Überdies können Veröffentlichungen, die unrichtige Modelle enthalten, andere Wissenschafter zu aussichtslosen, bloß Ressourcen vergeudenden Versuchen verleiten - ein Dominoeffekt, der nur schwierig zu stoppen ist.

Es erscheint sehr wichtig, dass sich die Gemeinschaft der Strukturbiologen zusammen mit den Herausgebern von Journalen und den Begutachtern auf ein klar umrissenes Protokoll einigen, wie umgehend auf Veröffentlichungen reagiert werden sollte, die in ihren Strukturmodellen nachgewiesene schwere Fehlerenthalten und wie derartige Modelle in Datenbanken wirkungsvoll markiert oder gelöscht werden.

Zurückziehen (obsoleting) von Einträgen in der PDB

Gegenwärtig wird das Problem einer Kontamination der Datenbank durch die Politik der PDB verschärft, dass ein Zurückziehen ("obsoleting" in der Sprache der PDB) der Modell-Koordinaten nur möglich ist, wenn der Autor der hinterlegten Daten es verlangt oder erlaubt. Ein kritisierter Autor stimmt diesem Schritt aber nur selten zu. Insgesamt sind bis jetzt in der PDB von mehr als 120 000 Einträgen nur 3 557 zurückgezogen worden, jedoch häufig nur, weil die Autoren nun bessere experimentelle Daten oder verbesserte Modelle produziert hatten.

Einige wenige ausgewählte Beispiele aus den letzten zehn Jahren sollen einen Eindruck vermitteln, wie schwierig es ist Einträge in Fachjournalen und in der PDB zu korrigieren, sogar wenn es sich um nicht plausible Modelle oder gar nachgewiesene Fabrikationen handelt .

  • Im Jahr 2006 erschien im Top-Journal Nature eine gefälschte Struktur des Komplement-Proteins C3b, das eine wichtige Rolle in der Aktivierung und Regulierung des Immunsystems zur Infektabwehr spielt. Ein kritischer Kommentar stellte die Fälschung sofort fest, wurde im Journal allerdings erst sechs Monate später online gestellt. Die Universität Alabama - Heimatuniversität des C3b-Kristallographen - untersuchte dann den Fall, stellte 2009 die Fälschung fest und, dass noch weitere 11 von dem Autor publizierte und in die PDB eingespeiste Strukturen verschiedener Proteine gefälscht waren. Hinsichtlich der C3b-Struktur meldete Nature erst 2016 das Zurückziehen der ursprünglichen Arbeit. Die Reaktion des Journals führte dann zur Löschung des Eintrags (Code 2HR0) in der PDB - obwohl der Autor nicht zustimmte. Von den anderen 11 inkriminierten Strukturen befinden sich aktuell noch 7 in der PDB (http://www.wwpdb.org/documentation/UAB)
  • Ein weiteres Beispiel, wo zwischen Kritik und Rückziehen der Struktur enorm lange Zeit verstrich, liegt im Fall des 2000 publizierten Komplexes von Botulinumtoxin mit einer Targetsequenz (einem kurzen Peptid) des Proteins Synaptobrevin vor (Synaptobrevin ist in der neuronalen Signalübertragung essentiell und wird bereits durch kleinste Konzentrationen Botulinumtoxin inaktiviert). Obwohl auf Grund der Elektronendichteverteilung das Fehlen des Peptids bereits 2001 aufgezeigt wurde, wurde das Modell des angeblichen Komplexes erst 2009 zurückgezogen.
  • Weitere Beispiele betreffen u.a. Modelle für Antikörper-Antigen Komplexe, die 2006 im Journal Immunity erschienen sind. Die Autoren stellen hier die Hypothese auf, dass das limitierte primäre Repertoire an Antikörpern dadurch erweitert wird, dass ein einzelner Antikörper jeweils verschiedene Antigene an unterschiedlichen Stellen binden kann. Vom Herausgeber in einem Leitartikel prominent herausgestellt, wurde bereits in 69 Publikationen auf diesen attraktiven Mechanismus Bezug genommen. Das Problem ist, dass sowohl die abwesende Elektronendichte als auch die praktisch unmögliche Stereochemie des Modelles nicht auf derartige Lokalisationen der Antigene im Komplex schließen lässt.

Damit ein fauler Apfel nicht das ganze Fass verdirbt

Stark fehlerhafte und sogar erfundene Strukturmodelle von Biomolekülen sind zwar selten, persistieren aber in den Datenbanken. Die sich daraus ergebenden Probleme - die Integrität der Datenbanken selbst und die Persistenz der auf falschen Strukturmodellen basierenden Arbeiten - müssen wirkungsvoll angegangen werden. Es ist ein Aufwand, der nicht nur kritischen Stimmen überlassen werden darf, die sich die Mühe machen die Irrtümer aufzuzeigen (und meistens ignoriert werden). Die gesamte Gemeinschaft der Strukturbiologen und in besonderem Maße die Herausgeber von Fachzeitschriften sind gefordert in einen konstruktiven Dialog einzutreten , damit die Strukturbiologie nicht ihre Glaubwürdigkeit als Evidenz-basierte Wissenschaft verliert.


* Ein ausführlicher Artikel von Bernhard Rupp und Kollegen über dieses Thema ist eben erschienen: B.Rupp et al., Correcting the record of structural publications requires joint effort of the community and journal editors. FEBS Journal 283 (2016) 4452–4457. doi:10.1111/febs.13765.


Weiterführende Links

Proteindatenbank

Ein wunderschöner 2017 Kalender der PDB: http://pdb101.rcsb.org/learn/resource/2017-calendar-geis-digital-archive-calendar (RCSB PDB has published a 2017 calendar highlighting the work of Irving Geis (1908-1997) "Geis was a gifted artist who helped illuminate the field of structural biology with his iconic images of DNA, hemoglobin, and other important macromolecules")

Bernhard Rupp (2009): „Biomolecular Crystallography: Prinicples, Practice, and Application to Structural Biology“ (Garland Science, Taylor & Francis)- ein weltweit anerkanntes Lehrbuch.

Artikel über Kristallstrukturen im ScienceBlog

inge Thu, 26.01.2017 - 08:03

Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt

Unser tägliches Brot — Ernährungsicherheit in einer sich verändernden Welt

Do, 12.01.2017 - 06:42 — IIASA

IIASAIcon GeowissenschaftenWeltweit ist unsere Versorgung mit Nahrungsmitteln in Gefahr. Will man dieses Problem ernsthaft angehen, so bedarf es eines ausreichenden Verständnisses, wie sich das Klima künftig entwickeln wird und welche Auswirkungen dies auf unsere Nahrungsressourcen haben kann. Mit Hilfe der Systemwissenschaft lassen sich dazu Modelle erstellen, die auch einbeziehen wie unsere Aktivitäten - von Kriegen bis hin zu Handelsabkommen - die Ernährungssicherheit beeinflussen können und uns aufzeigen, wie wir uns an die sich verändernde Welt anpassen können. Das "Internationale Institut für Angewandte System-Analysen" - IIASA - in Laxenburg (bei Wien) erstellt derartige, für Politik und Gesellschaft wichtige Systemanalysen.*

Was ist in einer sich verändernden Welt sicher?

Ernährungssicherheit bedeutet nicht einfach, dass wir momentan ausreichend zu essen haben und auch genügend Saatgut vorrätig für die Ernte des nächsten Jahres. In der Welt von heute müssen wir uns für globale, langfristige Änderungen vorbereiten.

Um Auswirkungen des Klimawandels auf unsere Nahrungsressourcen vorherzusagen, bedarf es großer Datenmengen, die aufzeigen, welche Nutzpflanzen wo wachsen, wie empfindlich diese auf einen Klimawandel reagieren und welche Verfahren oder Technologien vor Ort angewendet werden. Um diese Informationen für die Bedürfnisse der Politik zurecht zu schneidern, hat IIASA mit geholfen eine neue interaktive Plattform - Spatial Production Allocation Model "MapSPAM" - zu erstellen, die 42 der weltweit wichtigsten Nutzpflanzen kartiert, bei einer räumlichen Auflösung von 10 km [1]. Abbildung 1 zeigt als Beispiel den Ernteertrag der enorm wichtigen Kulturpflanze Reis in Europa, Afrika und Asien und wie wichtig künstliche Bewässerung vor allem in verschiedenen asiatischen Regionen ist.

Abbildung 1. Reisernte in Europa, Afrika und Asien. Oben: Gesamtertrag (kg/ha), Unten: Ertrag ohne künstliche Bewässerung. Der Ertrag hängt in weiten Teilen Asiens von der Bewässerung ab. Die räumliche Auflösung beträgt 10 km.(Statistische Daten von ca. 2005 . Quelle: You, L., U. Wood-Sichra, S. Fritz, Z. Guo, L. See, and J. Koo. 2014. Spatial Production Allocation Model (SPAM) 2005 v2.0.January 11, 2017. Available from http://mapspam.info; License: cc-by-nc)

Wie IIASA kürzlich gezeigt hat, spielt auch die Bodenbeschaffenheit eine essentielle Rolle [2]. Christian Folberth (IIASA) meint : "Unterschiedliche Böden können sehr verschiedene Charakteristika aufweisen, u.a. hinsichtlich ihrer Gehalte an Nährstoffen oder ihrer Fähigkeit Wasser zu speichern. Manche Böden wirken wie ein Schwamm und versorgen Pflanzen auch während Trockenperioden mit Wasser."

In Gegenden, die nur wenig Dünger oder Bewässerung anwenden - meistens handelt es sich hier um die ärmeren Gebiete -, hängen die Ernteerträge tatsächlich stärker vom bebauten Bodentyp ab als vom Wetter. Abbildung 2.

Dies hat wesentliche Konsequenzen für die Verbesserung der Ernährungssicherheit. Folberth: "Mit genauen Bodendaten in unseren Modellrechnungen können wir die Bauern besser beraten, wie sie für ihre Böden geeignete Nutzpflanzen auswählen und wie sie ihre Böden vor einer Degradierung schützen können."

Abbildung 2. Ernteerträge von Mais als repräsentativer Kulturpflanze: Ohne Zusatz von Dünger und ohne künstliche Bewässerung bestimmt häufig die Bodenqualität die globalen Erträge. Ist ausreichend Dünger und Bewässerung vorhanden, bestimmt das Klima die Erträge. (Quelle: http://www.iiasa.ac.at/web/home/about/news/160621-soil-data.html)

Diversität, um Veränderungen zu bewältigen

Ebenso wie unsere Böden nach und nach ihre Fähigkeit verlieren uns zu versorgen, gibt es eine andere langsam wachsende Bedrohung, nämlich unseren Einfluss auf das Erbgut all der Organismen von denen unsere Ernährung abhängt. Sogenannte "alte Sorten", von lilafarbenen Karotten bis hin zu alten Weizensorten sind plötzlich populär, zum Teil weil es die berechtigte Sorge gibt, dass die genetische Vielfalt unserer Nahrung auf ein gefährliches Niveau abnimmt. Wenn nur ein einzelner Stamm übrig ist, kann Krankheit jede Nutzpflanze dezimieren - tatsächlich haben wir ja bereits einen wichtigen Bananenstamm verloren.

Ebenso wie das Herauszüchten gewisser Eigenschaften den Genpool verändern kann, bewirkt dies auch das Ernten bestimmter Einzelorganismen aus einer Population. Im Zusammenhang mit den wasserbewohnenden Nahrungsressourcen hat dies IIASA gezeigt: intensiver Fischfang - wobei immer die größeren Fische entfernt werden - kann in der Fischpopulation zu einer Änderung des Genpools führen - zu einer sogenannten Fischerei-induzierten Evolution - und damit zu dem Risiko, dass die Bestände kollabieren, ebenso zu einem Absinken ihrer Produktivität und ihres Erholungspotentials. Um dem vorzubeugen, haben IIASA-Forscher ein Programm zur evolutionären Folgenabschätzung - Evolutionary Impact Assessment Framework - entwickelt, welches es Managern ermöglicht die Anfälligkeit unterschiedlicher Fischpopulationen abzuschätzen und Strategien zur Schaffung florierender, nachhaltiger Fischereien zu finden [3].

Instabilität bedeutet Unsicherheit

Wenn Nahrung knapp ist, steigen die Spannungen. Unruhen und Krieg können Nahrungsknappheit verursachen und auch dadurch verursacht werden. Indem es Informationen über sozioökonomische Risikofaktoren (beispielsweise politische Konflikte) mit Satellitendaten über physikalische Bedingungen (etwa Bodenfeuchtigkeit und Wetter) kombiniert, hat IIASA mitgeholfen eine App für das Mobiltelefon - SATIDA COLLECT- zu entwickeln, die von Nahrungsknappheit gefährdete Gemeinschaften identifiziert [4]. Diese App wird gegenwärtig von Ärzte ohne Grenzen in der Zentralafrikanischen Republik erprobt. Abbildung 3.

Abbildung 3. SATIDA COLLECT (Satellite Technologies for Improved Drought Risk Assessment): Eine App für Mobiltelefone, die zur Unterstützung von Ärzte ohne Grenzen entwickelt wurde. (Details: http://www.geo-wiki.org/mobile-apps/satida-collect).

"Wenn man von Nahrungsmittelknappheit bedrohten Gemeinschaften helfen möchte, besteht eine der größten Herausforderungen darin, dass man primär keine Information über die Gefährdung hat und dann, dass man diese nicht rechtzeitig hat," sagt die IIASA-Forscherin Linda See. Die SATIDA COLLECT App ist für die Mitarbeiter der Hilfsorganisationen entworfen: diese nehmen damit Antworten der Bevölkerung auf einfache, die Nahrungsversorgung betreffende Fragen auf. Darunter sind auch Fragen, wie: "Sind Familienmitglieder kürzlich aus der Gegend weggezogen?" "Ist irgendjemand gestorben?" "Wie häufig essen Sie?"

Sobald das Smartphone Internetkontakt hat, kann diese Information hochgeladen werden. Zusammen mit den Satellitendaten über die lokalen physikalischen Bedingungen, können diese verwendet werden, um Orte mit hohem Risiko - Hotspots - für Mangelernährung zu kartieren.

"Ernährungssicherheit kann auf wöchentlicher Basis überwacht werden", sagt See. "Außerdem -, wenn wir wissen, dass ein Desaster bevorsteht (beispielsweise El Nino), das die Nahrungsversorgung gefährdet, können NGOs die Daten nützen, um die Resilienz von Orten mit höchstem Risiko zu erhöhen."

Zusammenhänge schaffen

Die Ernährungssicherheit steht nicht nur in Wechselbeziehung mit einer Reihe von Systemen - von physikalischen bis hin zu sozioökonomischen Systemen -, sie hängt auch eng von anderen, essentiellen Ressourcen ab. Beispielsweise kann eine Intensivierung der Landwirtschaft die Wasserversorgung beeinträchtigen, indem sie Wasser verunreinigt und übermäßig verbraucht. Derartige Abhängigkeiten erstrecken sich auch auf Energie, Waldwirtschaft und internationalem Handel.

Mit Systemanalysen , die solche Abhängigkeiten berücksichtigen, bereitet IIASA nun zusammen mit der Nationalem Akademie der Wissenschaften der Ukraine eine "Politikberatung für die Ukraine" vor - für ein Land, das in der Vergangenheit niedrige Ernteerträge in Kauf nehmen musste und als Folge davon Exportquoten einführte um die heimische Nahrungsmittelversorgung sicher zu stellen und die Auswirkungen auf deren Preise abzuschwächen [5]. Die IIASA-Forscherin Tatiana Ermolieva beschreibt dies: "Wir haben nationale Modelle mit einem globalen, Multiregionen-Modell - dem IIASA "Global Biosphere Management Model" - verknüpft, das die wechselseitigen Abhängigkeiten von einzelnen Ländern und von Wirtschaftszweigen berücksichtigt. Wir haben gefunden, dass im Verlauf der Klimaerwärmung die Ukraine einen Vorteil von Nutzpflanzen erzielen könnte, die anderswo Schaden erleiden - wie beispielweise von einigen Getreidearten, deren Erträge in Frankreich, Deutschland, Italien und Spanien voraussichtlich sinken werden. So kann auch analysiert werden, welche Auswirkungen die EU-Politik auf die Ukraine und vice versa hat und wie beide zusammenarbeiten können, um die regionale und globale Ernährungssicherheit zu stärken."


*Der von der Redaktion aus dem Englischen übersetzte Text von Daisy Brickhill stammt aus dem Options Magazin (Winter 2016) des IIASA, das freundlicherweise der Veröffentlichung von Inhalten seiner Website in unserem Blog zugestimmt hat. http://www.iiasa.ac.at/web/home/resources/publications/options/w16_daily_bread.html. Die Abbildungen wurden von der Redaktion zugefügt und stammen ebenfalls aus IIASA-Unterlagen.


[1] Spatial Production Allocation "MapSpam" http://mapspam.info/

[2] Better soil data key for future food security .http://www.iiasa.ac.at/web/home/about/news/160621-soil-data.html

[3] Protecting fisheries from evolutionary change. http://www.iiasa.ac.at/web/home/about/news/160427-plaice-fish.html

[4] Monitoring food security with mobile phones. http://www.iiasa.ac.at/web/home/about/news/151118-PLOS-food.html

[5] Robust solutions for the food-water-energy nexus. http://www.iiasa.ac.at/web/scientificUpdate/2015/program/asa/Robust-solutions-for-the-food-water-energy-nexus.html


Weiterführende Links

Internationales Institut für Angewandte Systemanalyse (IIASA)

Beiträge im IIASA Research Blog Nexus (englisch)

inge Thu, 12.01.2017 - 06:42

Wie das Schuppentier zu seinen Schuppen kam

Wie das Schuppentier zu seinen Schuppen kam

Do, 05.01.2017 - 06:27 — Ricki Lewis Ricki LewisIcon Biologie

Vor kurzem wurde das Genom des Schuppentiers sequenziert [1]. Es zeigt sich, dass im Vergleich zu anderen Säugetieren bestimmte Genfamilien geschrumpft sind und andere erweitert wurden. Insbesondere dürfte die Bildung des Panzers, der das Tier ja von Infektionen freihält, dazu geführt haben, dass ein Teil der Immunabwehr nicht mehr notwendig war und verloren ging. Die Genetikerin Ricki Lewis berichtet hier über dieses Beispiel natürlicher Selektion, die nach dem Motto erfolgt: Was nicht gebraucht wird, geht verloren.*

Kuriositäten im Tierreich sind allseits beliebt.

Darwin und Lamarck dachten über die Vorteile nach, welche Giraffen von ihren langen Beinen und langem Hals haben. Eine Dekade später erklärte Rudyard Kipling wie der Leopard zu seinen Flecken kam. Die Sequenzierung von Genomen lässt uns heute konkretisieren, was wir über Anpassungen im Tierreich vermuteten.

Anpassungen sind vererbte Eigenschaften, die für das Individuum die Wahrscheinlichkeit erhöhen zu überleben und sich fortzupflanzen. Anpassungen sind die Streifen des Zebras - die es unsichtbar machen, wenn es läuft -, die riesigen Ohren des Wüstenfuchs, die zur Hitzeabfuhr dienen und, um entfernte Raubtiere zu hören.

Vor Kurzem ist im Fachjournal "Genome Research" ein Bericht erschienen [1], der die Grundlage für die Geschichte schafft, wie das Schuppentier - der schuppige Ameisenfresser - zu seinen Schuppen gekommen ist. Diese schützen das Tier - aber in einer Weise die über das Ersichtliche hinausgeht. Wie aus dem Genom herauszulesen ist, hat der Panzer des Schuppentiers einen Teil seines Immunsystems ersetzt.

Gefährdete Spezies

Heute leben acht Spezies der Schuppentiere. Von ihrem gemeinsamen Vorläufer her begannen sie sich vor rund 60 Millionen Jahren zu entwickeln. Dieser diversifizierte sich von Insektenfressern, welche wiederum rund 100 Millionen Jahre den plazentalen Säugetieren vorausgingen, als behaarte Tiere gerade begannen die herrschenden riesigen Reptilien abzulösen.

Vier der modernen Schuppentierarten leben in Asien, vier in Afrika. Die Internationale Union für die Erhaltung der Natur und der natürlichen Ressourcen (IU) hat Schuppentiere auf der "Roten Liste Gefährdeter Spezies" stehen, betrachtet sie als kritisch gefährdet.

Schuppentiere sind die am meistgejagten und (illegal) -gehandelten Säugetiere. In der Vietnamesischen und Chinesischen Küche gilt ihr Fleisch als Delikatesse und ihre zerriebenen Schuppen finden in der Chinesischen Medizin Verwendung als Mittel gegen Krebs, bei verschiedenen Hautdefekten und Kreislauferkrankungen. Im afrikanischen Volkstum wurde dem Häuptling ein gefangenes Schuppentier gebracht, das man eine Zeitlang beobachtete, dann opferte und als Spezialität dem Häuptling und seiner Hauptfrau servierte.

Landwirtschaft und Waldrodung haben den Lebensraum der Schuppentiere ständig verkleinert; in Gefangenschaft lassen sich die Tiere aber nur sehr schwer halten.

Das Schuppentier stellt sich vor

Das Markenzeichen des Tieres ist sein Panzer, eine Hülle aus Haaren (vorwiegend Keratin), die zusammengeklebt in großen überlappenden Schuppen den ganzen Körper bedecken, ausgenommen ist nur der weiche Bauch. Bei Gefahr rollt sich das Tier zur Kugel zusammen und schützt so die weichen Teile. (Abbildung 1)

Abbildung 1. Schuppentiere klettern auf Bäume und rollen sich bei Gefahr zu Kugeln zusammen. (Rechtes Bild: von der Redaktion beigefügt, Quelle: Wikipedia, gemeinfrei.)

Das Tier ist zahnlos und nahezu kieferlos. Seine spitze Schnauze und starke Zunge eignen sich hervorragend um Nahrung in Form von Ameisen und Termiten aufzusaugen. Seine Sehkraft ist sehr schwach, der Geruchsinn jedoch scharf.

Sieben der acht Schuppentierarten sind klein - etwa in der Größe von Katzen -, jedoch das Riesenschuppentier (Manis gigantean) kann bis zu 2 Meter lang werden. Die Tiere leben auf Bäumen und auch im Boden, in Bauten, die von anderen(nur sehr entfernt verwandten) Insektenfressern gegraben wurden.

Das Genom des Schuppentiers

Siew Woh Choo (Universität Malaya) und Kollegen haben das Genom des Schuppentiers sequenziert und zwar von einem malayischen Tier und einem chinesischen Tier, beide waren Weibchen [1]. Das Genom des malayischen Tiers enthält 23 446 Gene, das chinesische 20 298 Gene - eine ganz ähnliche Zahl wie das menschliche Genom. volutionsgenetiker untersuchen Genome auf Anzeichen von positiver und negativer natürlicher Selektion. Gene, die über Individuen hinweg sich nur wenig in der DNA-Sequenz unterscheiden, deuten auf positive Selektion - wie auch immer die Sequenz aussieht, das damit kodierte Protein ist funktionsfähig. Im Gegensatz dazu kann ein nicht mehr funktionierendes Gen voll von Mutationen sein, die von Individuum zu Individuum stark variieren können. Wenn das entsprechende Protein inaktiv ist, oder überhaupt nicht produziert wird, ist es ja gleichgültig, wie die zugrundeliegende DNA-Sequenz aussieht. Gene, die sich in ihrer Sequenz so weit von der ursprünglichen Sequenz entfernt haben, dass sie ihre Funktion verloren haben, werden als Pseudogene bezeichnet.

Was nicht gebraucht wird, häuft Fehler an: Pseudogene und schrumpfende Genfamilien

Eine Reihe von Schuppentier-Genen wurden zu Pseudogenen, haben ihre Funktion verloren.

  • Ein Gen - ENAM - das für das größte Protein im Zahnschmelz kodiert, ist voll von Fehlern - vorzeitigen Stoppcodons, Verdoppelungen und Deletionen. Dies ist ebenso der Fall bei den Genen von zwei weiteren Zahnschmelzproteinen, Ameloblastin und Amelogenin. Andere zahnlose Tiere wie Bartenwale, Schildkröten und Vögel weisen ebenfalls Mutationen in diesen Genen auf.
  • Mehrere Gene, die das Sehen betreffen, sind durch Mutationen stillgelegt
  • Interferone regulieren die Aktivität des Immunsystems. Das Interferon epsilon (IFNE) Gen wird in 71 Spezies von (plazentalen) Säugetieren exprimiert und dient bei Infektionen der Haut als "vorderste Verteidigungslinie". Dieses Gen ist in beiden Schuppentierarten funktionslos und ebenso auch in deren afrikanischen Verwandten. Einige andere Interferone, die mit Infektion, Entzündung und Wundheilung zu tun haben, fehlen ebenso. Während andere Säugetiere ein komplettes Set von 10 Interferongenen aufweisen, hat das malayische Schuppentier drei und das chinesische Tier nur zwei funktionierende Gene.
  • Das Schuppentiergenom weist auch weniger funktionierende Hitzeschockgene auf. Dies erklärt vielleicht die Stressanfälligkeit der Tiere und die Schwierigkeiten sie in Zoos zu halten.

Erweiterte Funktionen

Verglichen mit anderen (plazentalen) Säugetieren gibt es bei Schuppentieren Genfamilien, die mehr Mitglieder enthalten. Diese Gene kodieren für:

  • Proteine, die das Cytoskelett aufbauen, die Zellkontakte bilden, die die Funktion des Nervensystems und der Signalübertragung positiv beeinflussen - notwendige Funktionen für die Schuppenbildung
  • Kathepsine und Septine, welche bakterielle Infektionen unterdrücken,
  • Geruchsrezeptoren, die dem hervorragenden Geruchsinn des Schuppentiers zugrunde liegen.

Die Geschichte des Schuppentiers erzählt von der natürlichen Selektion

An einem bestimmten Zeitpunkt hatten einige Schuppentiere - dank zufälliger Mutationen - stärkere Haare. Weitere Mutationen brachten diese Haare dazu, dass sie schließlich überlappten und den Körper abschirmten. Tiere, deren Haare in überlappende Schuppen übergingen, hatten eine geringere Wahrscheinlichkeit an bakteriellen Infektionen zu erkranken. Sie überlebten vermehrt und konnten ihre Eigenschaften vererben. Vielleicht hat sie der Panzer auch für den Partner attraktiver gemacht und zu mehr Sex geführt.

Die Hinweise im Genom des Schuppentiers - welche Genfamilien geschrumpft sind und welche erweitert wurden - legen es nahe, dass der Panzer einen Teil der Immunabwehr ersetzt hat. Die dicht verwobenen, zähen Schuppen schrecken nicht nur Raubtiere ab (Abbildung 2), sondern halten das Tier auch frei von Infektionen.

Abbildung 2. Der Panzer des Schuppentiers frustriert hungrige Löwen.

Auch wenn es verlockend ist sich Ursachen vorzustellen, warum Tiere so sind, wie sie eben sind - vom Giraffenhals, zur Leopardenzeichnung und dem Panzer des Schuppentiers - , so bieten DNA-Sequenzierungen ein breiteres und weniger subjektives Bild von adaptiven Merkmalen, von Merkmalen, die sich im Verlauf der Evolution als brauchbar erwiesen haben zu solchen, die auf den Müllhaufen des Genoms entsorgt wurden.


*Der Artikel ist erstmals am 20. Oktober 2016 in PLOS Blogs - DNA Science Blog unter dem Titel "How the Pangolin Got Its Scales – A Genetic Just-So Story" erschienen (http://blogs.plos.org/dnascience/2016/10/20/how-the-pangolin-got-its-scales-a-genetic-just-so-story/) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt. Die Übersetzung folgt so genau als möglich der englischen Fassung.


[1] Siew Wo Choo et al., (2016) Pangolin genomes and the evolution of mammalian scales and immunity. Genome Res. 26:1-11 (free access). http://genome.cshlp.org/content/early/2016/09/13/gr.203521.115


Weiterführende Links

inge Thu, 05.01.2017 - 06:27