2015

2015 Redaktion Wed, 20.03.2019 - 01:03

Vom Newtonschen Weltbild zur gekrümmten Raumzeit – 100 Jahre Allgemeine Relativitätstheorie

Vom Newtonschen Weltbild zur gekrümmten Raumzeit – 100 Jahre Allgemeine Relativitätstheorie

25.12.2015 - 08:18 — Peter Christian Aichelburg Peter Christian AichelburgIcon physik

Am 25. November 1915 hat Albert Einstein seine Allgemeine Relativitätstheorie an der Preußischen Akademie der Wissenschaften präsentiert. Diese Theorie hat das Weltbild revolutioniert, wurde Grundlage sowohl der modernen Kosmologie als auch praktischer Anwendungen, wie beispielsweise des Navigationssystems GPS. Der theoretische Physiker Peter C. Aichelburg (emer. Prof. Universität Wien), dessen Forschungsgebiet selbst im Bereich der Allgemeinen Relativitätstheorie liegt, führt uns hier in die Zeit ihrer Entstehung und zeigt ihre moderne Bedeutung.

 „Es handelt sich um die Prüfung der sogenannten allgemeinen Relativitätstheorie. Diese Theorie gründet sich auf die Voraussetzung, dass Zeit und Raum keine physikalische Realität zukomme; sie führt zu einer ganz bestimmten Theorie der Schwerkraft, gemäß welcher die klassische Theorie Newtons nur in erster, wenn auch vorzüglicher Näherung gültig ist. Die Prüfung der Ergebnisse jener Theorie sind nur auf astronomischem Wege möglich….. „ Albert Einstein, Brief an Otto Naumann am 7. Dezember 1915

Stellen Sie sich vor, Sie kommen mit dem Auto in eine fremde Stadt und wollen zum gebuchten Hotel. Sie schalten das Navigationssystem ein, das Sie sicher durch das Straßengewirr bringen soll. Anfangs stimmen die Hinweise recht gut, aber schon nach zehn Minuten werden die Hinweise ungenau. Die Straße, in die Sie aufgefordert werden einzubiegen, ist die falsche, und alsbald sind die Hinweise unbrauchbar. So oder so ähnlich muss es dem US-Geheimdienst ergangen sein, als er das erste Globale Positionierung-System (GPS) getestet hat. Gott sei Dank haben die Verantwortlichen auf die Physiker gehört und eine Korrekturmöglichkeit eingebaut, um die Folgen aus der Einsteinschen Relativitätstheorie zu berücksichtigen.

Diese Theorie, die nun ihren 100. Geburtstag feiert, hat damals das Weltbild revolutioniert: Im Newtonschen Verständnis waren Raum und Zeit vorgegebene Größen, gleichsam die Bühne, auf der sich die physikalischen Begebenheiten zutragen. Mit der Allgemeinen Relativitätstheorie wurden sie zur gekrümmten Raumzeit und somit zum Teil des dynamischen Geschehens.

/pics/2015/20151225/abb1.jpegAbbildung 1. Albert Einstein, im Jahr 1921. (Foto: Ferdinand Schmutzer; das Bild ist in der Public Domain)

Beweis bei Sonnenfinsternis

Am 20. November 1915 legt der Göttinger Mathematiker David Hilbert in einer Mitteilung an die „Königliche Gesellschaft der Wissenschaften zu Göttingen“ jene Gleichungen einer geometrischen Formulierung der Gravitation vor, um die sich Einstein jahrelang bemüht hat. Fünf Tage später gibt Einstein dieselben Gleichungen der Preußischen Akademie bekannt.

Wie konnte dies geschehen? Einstein war im Juni 1915 zu Vorträgen in Göttingen, in denen er über seine Ideen zu einer neuen Theorie der Gravitation und den noch ungelösten Problemen berichtete. Als er am 25. November die endgültigen Gleichungen vorlegt, kannte er zwar Hilberts Ableitung flüchtig. Aber es ist unwahrscheinlich, dass er diese aus Hilberts Arbeit übernommen hat. Jedenfalls führte dies zu einer Verstimmung mit Hilbert – bis dieser ausdrücklich feststellte, dass die neue Gravitationstheorie ganz das Werk Einsteins sei.

Eine der Konsequenzen der Einsteinschen Theorie ist, dass Licht im Schwerefeld eine Ablenkung erfährt. Dieser Effekt sollte sich bei Sternenlicht, das nahe am Sonnenrand vorbei geht, bemerkbar machen. Abbildung 2. Um diese Ablenkung zu beobachten, bedarf es einer totalen Sonnenfinsternis, weil sonst das Sonnenlicht das Sternenlicht überstrahlt. Einstein wollte bereits 1914, also noch bevor er die endgültigen Gleichungen hatte, diesen Effekt bei einer Sonnenfinsternis in Russland testen. Dazu kam es aber wegen des Ausbruchs des Ersten Weltkriegs nicht. Erst 1919 plante der britische Astronom Sir Arthur Eddington eine entsprechende Expedition nach Westafrika. Als ein halbes Jahr später in einer feierlichen Sitzung der „Royal Society“ und der „Royal Astronomical Society“ in London die Vorhersage der neuen Theorie offiziell bestätigt wurde, war Einstein über Nacht international bekannt.

/pics/2015/20151225/abb2.jpegAbbildung 2. „Die Theorie ergibt das Resultat, dass ein neben einem Himmelskörper vorbeigehender Lichtstrahl eine Ablenkung erfährt“ (Bild und Zitat: A. Einstein 7.12.2015, Brief an Otto Naumann; siehe weiterführende Links) Unten: Diesen Effekt konnte Sir Arthur Eddington bei Sternenlicht - d.i. bei einer totalen Sonnenfinsternis - nachweisen.

Welche Bedeutung aber kommt Einsteins Theorie heute noch zu?

Viele der Konsequenzen sind schwer nachzuweisen und doch spielen sie, wie sich am Beispiel des GPS zeigt, auch in unser tägliches Leben hinein. Unbestritten sind die Effekte der Theorie für die Erforschung des Kosmos. Die oben erwähnte Lichtablenkung im Gravitationsfeld wird heute dazu benützt, um etwa die Masse von Galaxienhaufen abzuschätzen. Das durch Materie-Ansammlungen hervorgerufene Schwerefeld führt zu einer Bündelung der Lichtstrahlen, die von einer dahinter liegenden Quelle stammen. Diese sogenannten Gravitationslinsen ermöglichen es, auch Objekte zu sehen, die wegen ihrer Lichtschwäche sonst kaum zu beobachten wären. Eine der wohl spektakulärsten Konsequenzen aus Einsteins Theorie sind Schwarze Löcher: auf dem Papier Lösungen für Gleichungen, bei denen die Geometrie in einem Gebiet so stark gekrümmt ist, dass nichts daraus entweichen kann – nicht einmal Licht, daher der Name. Solche Schwarzen Löcher entstehen, wenn ein massereicher Stern am Ende seiner Entwicklung durch die Gravitation in sich zusammenbricht. Heute sind Forscher überzeugt, dass es unzählige solcher Objekte auch in unserer Milchstraße gibt. Die Beobachtung erfolgt indirekt durch das Aufleuchten hineinfallender Materie. Zuletzt ist es evident geworden, dass sich riesige Schwarze Löcher im Zentrum vieler Galaxien befinden – in unserer Milchstraße etwa eines mit circa vier Millionen Sonnenmassen. Dies zeigen Beobachtungen von Sternen, die das Schwarze Loch umkreisen.

Einsteins „kosmologische Konstante“

Allerdings ist es bis jetzt nicht gelungen, eine der Vorhersagen von Einsteins Theorie direkt nachzuweisen: Während sich die Gravitationswirkung nach der Newtonschen Theorie instantan, also augenblicklich ausbreitet, so verlangt schon die Spezielle Relativitätstheorie, dass sich jedes Signal höchstens mit Lichtgeschwindigkeit fortpflanzt. Wie aber sieht es mit Veränderungen in der Geometrie aus?

1918 publiziert Einstein eine Arbeit über Gravitationswellen, in der er nachweist, dass sich Störungen der Geometrie mit Lichtgeschwindigkeit ausbreiten und Energie transportieren, ähnlich wie elektromagnetische Wellen. Gravitationswellen werden durch bewegte Massen erzeugt, sind aber meist zu schwach, um bemerkt zu werden. Indirekt gibt es Beweise für die Existenz von Gravitationswellen, denn sie entziehen dem System Energie.

Rund um den Erdball gibt es Forschungsteams, die sogenannte Gravitationswellen- Detektoren entwickelt haben und laufend Messungen durchführen. Dieses Ziel verfolgt nun auch das „eLISA“-Projekt der Europäischen Raumfahrtagentur ESA. Hier arbeiten Theoretiker und Experimentalphysiker zusammen. Denn um das extrem schwache Signal aus dem Hintergrund herauszufiltern, bedarf es einer genauen Vorhersage über die Form des zu erwartenden Signals. In den nächsten Jahren sollte es gelingen, Gravitationswellen direkt nachzuweisen. Dies würde ein neues Fenster in den Kosmos öffnen und uns Kunde von dramatischen Vorgängen in fernen Galaxien bringen – und somit auch zu einem besseren Verständnis der Entwicklung des Universums beitragen.

Schon 1917 hat Einstein seine Theorie auf den Kosmos als Ganzes angewandt. Er war der Meinung, das Universum sei im Großen unveränderlich, und hat daher nach einer statischen Lösung gesucht. Als der exzentrische Physiker erkannte, dass seine Gleichungen eine solche nicht zulassen, fügte er die „kosmologische Konstante“ ein: Dies hat er später angeblich mit „die größte Eselei meines Lebens“ quittiert. Denn er hätte die Expansion des Kosmos, die 1929 der Astronom Edwin Hubble durch Beobachtung des Auseinander-Driftens der Galaxien entdeckte, vorhersagen können.

Zurück in die Ursuppe

Die Einsteinsche Theorie ist die Grundlage für die moderne Kosmologie. Wir haben starke Hinweise, dass sich das Universum vor circa 14 Milliarden Jahren aus einer extrem dichten und heißen „Ursuppe“ entwickelt hat, aus der die heute zu beobachtenden Strukturen nach und nach entstanden sind. Dennoch zeigt diese Urknall-Theorie die Grenzen der Einsteinschen Theorie auf: Denn verfolgt man die Entwicklung des Kosmos in der Zeit zurück, so gelangt man zu immer höheren Dichten bis, wie die Theoretiker es nennen, eine „Singularität“ entsteht. Hier muss die Theorie durch Neues ersetzt werden.

Quantengravitation ist das neue Schlagwort, denn den Gesetzen des Mikrokosmos sollte auch die Gravitation unterworfen sein. Trotz interessanter Ansätze wie etwa die String-Theorie oder die Schleifengravitation gibt es aber noch keine zufriedenstellende Lösung. Zweifellos gehört Einsteins Gravitationstheorie auch noch nach hundert Jahren zu den größten geistigen Leistungen in der Physik. Und sie prägt unsere Vorstellung von Raum und Zeit bis heute.


*Der vorliegende Text ist die leicht modifizierte Fassung eines Artikels, den Die Furche am 3. Dezember 2015 brachte.


Weiterführende Links

Eine umfassende Sammlung der Schriften Albert Einsteins ist zu finden in: PRINCETON'S SERIES Collected Papers of Albert Einstein. http://press.princeton.edu/catalogs/series/title/collected-papers-of-alb... .

Alle Dokumente sind in der ursprünglichen Sprache wiedergegeben. Der Zeitraum 1914 – 1917 findet sich in Band 6: http://einsteinpapers.press.princeton.edu/vol6-doc .Darunter ist auch die Präsentation der Allgemeinen Relativitätstheorie an der Preußischen Akademie der Wissenschaften und eine „gemeinverständliche“ Darstellung Einsteins „Über die speziell und allgemeine Relativitätstheorie“.

Was die Collected Papers bieten:

“Selected from among more than 40,000 documents contained in the personal collection of Albert Einstein (1879-1955), and 15,000 Einstein and Einstein-related documents discovered by the editors since the beginning of the Einstein Project, The Collected Papers will provide the first complete picture of a massive written legacy that ranges from Einstein's first work on the special and general theories of relativity and the origins of quantum theory, to expressions of his profound concern with civil liberties, education, Zionism, pacifism, and disarmament. The series will contain over 14,000 documents and will fill twenty-five volumes. Sponsored by the Hebrew University of Jerusalem and Princeton University Press

The Digital Einstein Papers is an exciting new free, open-access website that puts The Collected Papers of Albert Einstein online for the very first time, bringing the writings of the twentieth century’s most influential scientist to a wider audience than ever before.”

inge Fri, 25.12.2015 - 08:18

EU-Umfrage: Der Klimawandel stellt für die EU-Bürger ein sehr ernstes Problem dar

EU-Umfrage: Der Klimawandel stellt für die EU-Bürger ein sehr ernstes Problem dar

Fr, 18.12.2015 - 06:55 — Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Vor wenigen Tagen haben sich 195 Länder in Paris auf einen ersten rechtsverbindlichen, globalen Klimavertrag geeinigt, der die Erderwärmung eindämmen soll (Framework Convention on Climate Change [1]). Die Ziele sind sehr ehrgeizig und werden – wenn sie ernstgenommen werden – den Abschied von der fossilen Energie bedeuten und damit unsere Welt völlig verändern. Die Europäische Union hat zu dieser Übereinkunft ganz wesentlich beigetragen. Wieweit aber stehen die EU-Bürger selbst hinter einem derartigen Abkommen, welchen Stellenwert räumen sie dem Klimawandel unter den globalen Problemen ein und welche Aktivitäten setzen sie/haben sie bereits zu seiner Bekämpfung gesetzt? Eine EU-weite Umfrage zu diesem Thema hat im Frühsommer d.J. stattgefunden; die Ergebnisse sind unmittelbar vor Beginn der Klimakonferenz veröffentlicht worden und zeigen, dass die Menschen den Ernst der Situation erfasst haben und zu Klimaschutzmaßnahmen bereit sind (Special Eurobarometer 435 [2]).

Die Umfrage „Spezial Eurobarometer 435“

Im Auftrag der Europäischen Kommission wurde im Frühjahr 2015 eine Umfrage in den 28 Mitgliedsländern durchgeführt, welche die Einstellung der Bevölkerung zum Klimawandel, deren diesbezügliche Verhaltensweisen und Erwartungen für die Zukunft erkunden sollte. Es war dies nicht das erste Mal, dass die EU-Bürger rund um dieses Thema befragt wurden. Derartige Erhebungen hatten schon 2008, 2009, 2011 und 2013 stattgefunden und liefen auch jetzt nach dem bereits bewährten Muster ab. Ein Heer von Interviewern (Mitarbeiter der global arbeitenden Marktforschungsinstitution TNS opinion & social network) schwärmte aus, um in jedem Mitgliedsstaat jeweils rund 1000 Personen in ihrem Heim und in ihrer Muttersprache zu befragen. Insgesamt waren dies 27 718 Personen, die aus verschiedenen sozialen und demographischen Gruppen stammten und einen repräsentativen Querschnitt durch die jeweilige Bevölkerung eines Landes boten. In diesen persönlichen Interviews wurden dieses Mal Fragen zu vier Themenkreisen gestellt:

  1. Zur Wahrnehmung des Klimawandels: welchen Stellenwert nimmt der Klimawandel ein unter anderen globalen Problemen und als wie ernstes Problem wird er selbst gesehen?
  2. Zur Bekämpfung des Klimawandels: wer ist primär für Maßnahmen zur Bekämpfung verantwortlich und hat der Befragte selbst Schritte zur Verringerung von Treibhausgasemissionen gesetzt?
  3. Zur Einstellung hinsichtlich Bekämpfung des Klimawandels und Reduktion des Imports fossiler Brennstoffe: bringt die Bekämpfung des Klimawandels Vorteile für die Wirtschaft und können derartige Maßnahmen wirksam sein ohne, dass alle Länder der Welt sich daran beteiligen?
  4. Zu Zukunftsperspektiven: sollen Staaten Ziele für erneuerbare Energien festlegen und Energieeffizienz fördern?

Im vorliegenden Bericht soll ein allgemeiner Überblick über die Ergebnisse dieser Umfrage gegeben werden, wobei der Fokus auf Österreich und Deutschland gelegt wird. Weitere Details, auch zu den anderen EU-Staaten, sind unter [2] und [3] zu finden.

Die Ergebnisse der Umfrage

Themenkreis 1: Wie wird der Klimawandel wahrgenommen?

Der Klimawandel bleibt eine Hauptsorge der europäischen Bevölkerung: Insgesamt 91 % der Befragten betrachten den Klimawandel als ernstes Problem und 69 % als sehr ernstes Problem. Die Meinung der befragten Österreicher entspricht hier dem EU-Durchschnitt; auch in Deutschland sind es 91 %, die den Klimawandel als ernstes Problem sehen und – etwas mehr als im EU-Durchschnitt - 72 % als sehr ernstes Problem.

Vom sozial-demographischen Standpunkt aus betrachtet scheint der Bildungsgrad wenig Einfluss darauf zu haben, ob der Klimawandel als ernstes Problem gesehen wird oder nicht. Probleme, denen die Welt aktuell gegenübersteht: welche sind die wichtigsten? Dazu meint nahezu die Hälfte (47 %) der Europäer, dass der Klimawandel zu den größten Problemen gehört und etwa jeder Sechste (15 %), dass dieser überhaupt das Hauptproblem darstellt. EU-weit gesehen rangiert damit der Klimawandel hinter den globalen Problemen „Armut, Hunger, Trinkwassermangel“ (30 %), „Internationaler Terrorismus“ (19 %) und „Wirtschaftliche Situation“ (16 %) an vierter Stelle (Abbildung 1).

Dieses Ranking zeigt aber starke regionale Unterschiede:

An erster Stelle steht bei den Befragten in 19 der 28 Staaten – darunter auch in Österreich und Deutschland – die Armut. In jeweils 2 Staaten nehmen der internationale Terrorismus (Malta, Tschechien) und die wirtschaftliche Situation (Zypern, Italien) die Spitzenposition ein; in drei osteuropäichen Staaten (Lettland, Estland und Polen) ist es die Angst vor bewaffneten Konflikten und in den drei nordeuropäischen Staaten Schweden, Dänemark und Finnland der Klimawandel.

In Österreich rangiert der Klimawandel – über dem EU-Durchschnitt - etwa gleichauf mit der wirtschaftlichen Situation bereits hinter der Armut (Abbildung 1).

Abbildung 1. Welches der genannten Probleme betrachten Sie als das Hauptproblem für die Menschheit? (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Noch gravierender sehen die Deutschen den Klimawandel: 26% der Befragten sehen ihn als wichtigstes globales Problem; damit liegt er nur knapp hinter der Armut, die 28 % als Hauptproblem angaben.

Themenkreis 2: Bekämpfung des Klimawandels

Hier stand zuerst die Frage im Vordergrund: „Wer ist innerhalb der EU für die Bekämpfung des Klimawandels verantwortlich?“ (Abbildung 2).

EU-weit wird hier die Verantwortung primär bei den nationalen Regierungen gesehen, dahinter liegen gleichauf Wirtschaft & Industrie und die Europäische Union.

In Österreich, Deutschland und einigen anderen Staaten (CZ, FI, HU, SI, LT, BG, LV) wird dagegen der Wirtschaft & Industrie die Hauptverantwortung zugeschrieben. In Österreich meinen auch wesentlich mehr Menschen als im EU-Durchschnitt, dass sich Umweltschutzorganisationen um das Problem kümmern sollten (dieser Ansicht sind auch viele osteuropäische Staaten).

Abbildung 2. „Wer ist innerhalb der EU für die Bekämpfung des Klimawandels verantwortlich? (Mehrfachnennungen möglich).“ Angaben in % der Befragten (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Interessant erscheint: in Österreich und Deutschland wird ein hohes Maß an Eigenverantwortung angegeben (nur übertroffen von den nordeuropäischen Ländern). Wie die sozial-demographische Analyse der Antworten zeigt, beeinflussen Bildungsgrad und Alter die Bereitschaft Eigenverantwortung zu übernehmen: je früher Personen ihren Bildungsweg beendet hatten und je älter sie waren, desto geringer war ihre Bereitschaft.

Wie weit tragen Sie persönlich zum Klimaschutz bei? Dass sie bereits persönlich Maßnahmen zum Klimaschutz getroffen hätten, gaben im EU-Durchschnitt 49 % der Befragten an. Dabei zeigten sich aber große regionale Unterschiede. Die meisten positiven Antworten- von über 70 % der Befragten - kamen aus Schweden, Slowenien und Luxemburg, die wenigsten – 19 -28 % - aus Bulgarien, Lettland, Estland und Rumänien (Abbildung 3).

Mehr als die Hälfte der Bürger in Österreich (54 %) und Deutschland (66 %) sagten, dass sie im letzten Halbjahr etwas zum Klimaschutz beigetragen hätten

 Abbildung 3.Haben Sie selbst im letzten Halbjahr Maßnahmen zum Klimaschutz getroffen? (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Report [2])

Als nun aber an Hand einer Liste von Handlungen nach den konkreten Maßnahmen gefragt wurde, erwies es sich, dass im EU-Durchschnitt tatsächlich 93 % der Menschen, in Österreich und Deutschland 98 % Beiträge geleistet hatten. Diese Maßnahmen betreffen vor allem

  • die Reduktion von Abfall und Trennung zur Wiederverwertung
  • die Reduktion des Verbrauchs von Wegwerfartikeln
  • die Anschaffung energieeffizienter Haushaltsgeräte
  • die Nutzung umweltfreundlicher Verkehrsmittel
  • der Einkauf lokal produzierter Lebensmittel

Im Vergleich mit dem EU-Durchschnitt wurden nahezu alle Maßnahmen in Österreich und Deutschland bedeutend häufiger ergriffen. Abbildung 4 zeigt die Daten für Österreich, auf die Wiedergabe der sehr ähnlichen Daten für Deutschland wird verzichtet). Abbildung 4. „Welche dieser Handlungen treffen, wenn überhaupt, auf Sie zu? (Mehrfachnennungen möglich).“ Angaben in % der Befragten. (Quelle: European Commission, Special Eurobarometer 435. Climate Change, Fact sheets in national languages- Austria [3])

Themenkreis 3: Einstellung der Europäer zur Bekämpfung des Klimawandels - wer ist verantwortlich?

Hier gibt es eine sehr positive Einstellung der EU-Bürger: die überwiegende Mehrheit in allen Staaten (im Durchschnitt 81 %, Österreich und Deutschland liegen mit 75 % und 79 % knapp darunter) stimmte zu, dass die Bekämpfung des Klimawandels und eine effizientere Energienutzung die Wirtschaft und den Arbeitsmarkt in der EU ankurbeln würden.

Noch beeindruckender war, dass die überwältigende Mehrheit der Befragten (im EU-Durchschnitt 93%) der Meinung war, dass die Bekämpfung des Klimawandels nur wirksam sein wird, wenn alle Länder der Welt gemeinsam handeln.

Etwas differenzierter war die Haltung zu Fragen, die den Import von fossilen Brennstoffen betrafen:

  • Kann die EU wirtschaftlich profitieren, wenn weniger fossile Brennstoffe von außerhalb der EU importiert werden? Dies bejahten im EU-Durchschnitt zwar 55 % (in Österreich 70 %, in Deutschland 63 %), allerdings verneinten dies 30 % der Holländer und 28 % der Schweden.
  • Kann die Sicherheit der Energieversorgung in der EU erhöht werden, wenn weniger fossile Brennstoffe von außerhalb der EU importiert werden? Hier liegt die durchschnittliche Zustimmung bei 65 % (Österreich 74 %, Deutschland 65 %), in Estland, Holland und Lettland unter 50 %.

Themenkreis 4: Ausblick in die Zukunft

Festlegung von Zielen für erneuerbare Energien

Hier herrscht ein weitgehender Konsens in allen EU-Staaten: die große Mehrheit der Befragten – 91 % - hält es außerdem für wichtig, dass ihre Regierung Ziele festlegt, um den Anteil der Nutzung erneuerbarer Energien wie beispielsweise Wind- und Solarenergie zu erhöhen. Abbildung 5.

Abbildung 5. Wie wichtig ist es Ihrer Ansicht nach, dass die Nationale Regierung Ziele festlegt, um die Nutzung erneuerbarer Energien wie beispielsweise Wind- und Solarenergie zu erhöhen? Quelle: European Commission, Special Eurobarometer 435. Climate Change, Report [2])

Verbesserung der Energieeffizienz

Auch zu der Frage ob es wichtig ist, dass die Nationale Regierung die Verbesserung der Energieeffizienz bis 2030 unterstützt - z.B, durch Förderung der Wärmedämmung von Wohngebäuden oder des Kaufs von Energiesparlampen – herrschte weitestgehende Zustimmung (EU-Durchschnitt 92 %; Österreich 86 %, Deutschland 90 %)

Fazit

  • Die Europäer betrachten den Klimawandel als eines der ernstesten Probleme mit denen die Menschheit konfrontiert ist, aber auch als eine große Herausforderung.
  • Sie meinen, dass der Kampf gegen den Klimawandel und eine effizientere Energienutzung zu einem Aufschwung der Wirtschaft und zur Schaffung neuer Jobs führen wird.
  • Ebenso wird eine Reduktion der Importe fossiler Brennstoffe die Wirtschaft beleben und die Sicherung der Energieversorgung erhöhen.
  • Die Bekämpfung des Klimawandels wird aber nur dann wirksam sein, wenn alle Länder der Welt gemeinsam handeln. Allerdings kann jeder dazu persönlich beitragen und der Großteil der Europäer hat auch schon diesbezügliche Maßnahmen gesetzt.

Der eben in Paris erwirkte, erste globale Klimavertrag ist auf der Basis erdrückender wissenschaftlicher Erkenntnisse entstanden. Die Wissenschaft konnte die Politik überzeugen und offensichtlich auch Europas Einwohner. Die gegenwärtige EU-Umfrage zeigt, dass das Vertragswerk auch im Sinne der Ansichten unserer Bevölkerung ist.


[1] Adoption of the Paris Agreement. Proposal by the President (12.12.2015). FCCC/CP/2015/L.9/Rev.1 http://unfccc.int/documentation/documents/advanced_search/items/6911.php...

[2] Special Eurobarometer 435. Climate Change (Fieldwork May – June 2015, published: 26. 11.2015) Report http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...

[3] Special Eurobarometer 435. Climate Change, Factsheets in national languages http://ec.europa.eu/COMMFrontOffice/PublicOpinion/index.cfm/Survey/getSu...

inge Fri, 18.12.2015 - 06:55

Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Der Boden – die Lösung globaler Probleme liegt unter unseren Füßen

Fr, 11.12.2015 - 10:28 — Rattan Lal

Rattan LalIcon GeowissenschaftenBöden sind nicht nur die Basis unserer Lebensführung, Nahrungsmittelproduktion und Wasserversorgung. Wie der weltbekannte Bodenwissenschafter Rattan Lal (Ohio State University) zeigt, besitzen Böden auch eine enorme Kapazität zur Kohlenstoffspeicherung und können damit wesentlich zur Regulierung der Treibhausgasemissionen beitragen*. Dieses Potential dürfte bei den Spitzen der Weltpolitik auf Resonanz stoßen: Als das „Internationale Jahr der Böden (IYS)“ im Hauptsitz der FAO am 5. Dezember 2015 feierlich zu Ende ging (die Klimakonferenz COP 21 in Paris läuft noch), appellierte Ban Ki Moon, der Generalsekretär der UNO an die Versammlung: “Wir müssen die nachhaltige Nutzung unseres terrestrischen Ökosystems sicherstellen, während wir den Klimawandel und seine Folgen bekämpfen. Die Speicherung von Kohlenstoff in den Böden bedeutet einen essentiellen Beitrag zur Eindämmung des Klimawandels“. Der nachfolgende Essay ist die Fortsetzung des vor einer Woche erschienenen Artikels:“Der Boden – Grundlage unseres Lebens“**


„Böden sind die Grundlage irdischen Lebens, der Nutzungsdruck durch den Menschen erreicht aber kritische Grenzen. Ein sorgsamer Umgang mit dem Boden ist essentieller Bestandteil einer nachhaltigen Landwirtschaft und bietet auch einen wertvollen Ansatz zur Regulierung des Klimas und einen Weg die Leistungen des Ökosystems und die Biodiversität zu erhalten.“ (Präambel: World Soil Charter, FAO, 2015)

Was ist nachhaltige Bodennutzug?

Meiner Meinung nach bedeutet das:

  • Ersetze, was entfernt wurde – wenn Nährstoffe verloren gingen, ersetze sie.
  • Reagiere umsichtig auf veränderte Bedingungen - wenn die Struktur eines Bodens (die räumliche Anordnung der Bodenteilchen) geändert wurde, ist davon auch seine Wasserbindungskapazität betroffen.
  • Mach Dir bewusst, was anthropogene und natürliche Störungen bewirken können und sei bereit diesen zu begegnen.

Will man eine sichere Ernährungslage für die steigende Weltbevölkerung gewährleisten, muss die nachhaltige Landnutzung gleichzeitig aber auch mit einer nachhaltigen Intensivierung der Produktivität verbunden sein. Wir können ein „Mehr aus Weniger“ produzieren: ein Mehr

  • auf weniger Landfläche
  • pro jeden Tropfen Wasser
  • pro Menge an eingesetztem Dünger und Pestiziden
  • pro Energieeinheit pro Einheit der CO2-Emission

Dazu kommt, dass wir auch weniger verbrauchen und weniger vergeuden dürfen.

Ernterückstände zur Erzeugung von Biotreibstoff?

Die Erzeugung von Biotreibstoff ist zweifellos eine wichtige Strategie, um die Abhängigkeit von fossilen Brennstoffen zu verringern. Ist es ökonomisch vertretbar Ernterückstände dafür einzusetzen? Welche Folgen hat das für den Boden?

Ich möchte dazu von einem Langzeitexperiment berichten, das wir von 1972 bis 1987 in Nigeria durchführten. Die Fragestellung war: was passiert, wenn ein Landwirt nach jeder Ernte die Ernterückstände komplett entfernt (in Afrika wird dieses Material ja für Zäune, Dächer, Einstreu, Brennmaterial, etc. verwendet) oder, wenn er sie am Feld belässt. In beiden Fällen wurden dieselben Pflanzen angebaut und es wurde in derselben Weise gedüngt. Nach 15 Jahren war der Unterschied nur zu deutlich (Abbildung 1).

Der Grund für diesen Unterschied: durch die exzessive Entfernung der Ernterückstände wurde den Mikroorganismen und Tieren, die im Boden leben, die Nahrungsquelle entzogen. Bodenorganismen sind aber der biologische Antrieb der Erde.

Abbildung 1. Was passiert, wenn über längere Zeit die Ernterückstände vom Feld entfernt wurden? Dies war auf dem Maisfeld im Vordergrund 15 Jahre lang der Fall, während auf dem ansonsten gleichbehandelten Feld im Hintergrund die Rückstände belassen wurden.

Sind ähnliche Auswirkungen auch in Gegenden mit gemäßigtem Klima zu erwarten?

Wir starteten dazu einen in gleicher Weise designten Langzeitversuch in Ohio. 8 Jahre nach Beginn der Studie – das war 2012 – gab es in den US ein besonders trockenes Jahr (es fielen 50 % der üblichen Regenmenge). Dort, wo die Ernterückstände immer entfernt worden waren fiel die Maisernte, um 60 % niedriger aus als auf dem Feld, auf dem die Rückstände belassen wurden. Der Verbleib der Rückstände machte den Boden offensichtlich gegen Trockenheit widerstandsfähiger!

Derartige Auswirkungen auf die Produktivität muss man sich überlegen, wenn man Ernterückstände zur Produktion von Bioethanol heranziehen möchte. Biotreibstoff aus Ernterückständen ist nicht gratis! Man zahlt dafür einen sehr hohen Preis.

Man sollte also die Biomasse liegenlassen – für die aktiven Bodenorganismen, die den Boden lebendig erhalten. Da Mikroorganismen die Kohlenstoffverbindungen der Biomasse in ihre eigene Biomasse umwandeln, ist dies eine sehr effiziente Strategie, um organischen Kohlenstoff in den Böden („soil organic carbon“ SOC) zu binden und zu speichern (Kohlenstoff-Biosequestrierung).

Biosequestrierung des CO2 der Atmosphäre

Wieviel CO2 aus der Atmosphäre in Biomasse umgewandelt wird, ist in Abbildung 2 schematisch dargestellt:

Abbildung 2. Die globale terrestrische Bindung und Speicherung von Kohlenstoff. GPP: Bruttoprimärproduktion durch autotrophe Pflanzen. NPP: Nettoprimärproduktion (= GPP minus Abatmung durch autotrophe Pflanzen). NEP: Nettoproduktion des Ökosystem (= GPP minus Zersetzung: Abatmung durch heterotrophe Organismen/mikrobiellen Abbau). NBP: Nettoproduktion aller Ökosysteme (alle natürlichen und anthropogenen Störungen miteingerechnet). Gt: Gigatonne = 1Mrd t.

Von der Sonnenstrahlung, die die Erdoberfläche erreicht, nutzen die Pflanzen nur etwa 0,05 % der Energie, um mittels Photosynthese das CO2 der Luft und Wasser in organische Kohlenstoffverbindungen – insgesamt 123 Gt/Jahr – umzuwandeln. Etwa die Hälfte dieser sogenannten Bruttoprimärproduktion (gross primary production - GPP) atmen die Pflanzen als CO2 wieder ab - die Nettoprimärproduktion (net primary production - NPP) beträgt jährlich also insgesamt 63 Gigatonnen (Gt) organisch fixierten Kohlenstoffs. Davon wird ein Großteil durch heterotrophe Atmung zersetzt – über Aufnahme und Abbau entlang der Nahrungskette und mikrobielle Zersetzung von totem Material – aber auch durch große Flächenbrände: die Nettoproduktion des Ökosystems (net ecosystem productivity - NEP) liegt bei 10 Gt organisch fixierten Kohlenstoffs. Alle durch natürliche und anthropogene Störungen verursachten Verluste zusammengerechnet verbleibt rund 1 Gt organisch fixierter Kohlenstoff (net biome productivity – NBP).

Kohlenstoffspeicherung im Boden

In der Nettoprimärproduktion entstehen jährlich 63 Gt organisch fixierten Kohlenstoffs: in der gleichen Zeit generieren wir 6 x so hohe Emissionen aus dem Verbrauch fossiler Brennstoffe und zusätzlich aus der landwirtschaftlichen Bodennutzung. Wenn wir steuern können, was mit der wichtigen Kohlenstoffquelle der Nettoprimärproduktion geschieht, können wir das Problem des CO2 in der Atmosphäre in den Griff bekommen.

Die Frage ist, wie wir das schaffen.

Wenn wir den globalen Kohlenstoffgehalt im Boden betrachten, so liegen bis zu einer Tiefe von 2 – 3 m rund 6 000 Gt C vor; zwei Drittel bis drei Viertel (in den obersten 30 cm) davon in Form von organisch gebundenem Kohlenstoff.

Wie und wieweit können wir diesen Kohlenstoffgehalt erhöhen?

Hier wird sehr schnell klar: mit dem Zufügen von Biomasse allein – beispielsweise in Form von Ernterückständen - ist es nicht getan. Diese bewirken zwar, dass der Boden seine Feuchtigkeit behält, die biochemische Umwandlung in Humus erfordert aber zusätzliche Nährstoffe. Denn: Im Vergleich zum Humus ist der Gehalt von N, P und Schwefel in den Rückständen stark abgereichert (Abbildung 3).

Abbildung 3. Es werden Nährstoffe gebraucht um Biomasse in Humus umzuwandeln

Ohne den Zusatz der Nährstoffe kann also keine Humusbildung erfolgen – der Kohlenstoff wird bloß als CO2 in die Atmosphäre abgeatmet.

Der Kohlenstoffkreislauf ist eng gekoppelt an die Kreisläufe von Wasser, Stickstoff, Phosphor und Schwefel.

Was kostet die Kohlenstoff-Sequestrierung?

Die Nährstoffe und damit die Kohlenstoff-Sequestrierung sind nicht gratis. Meine Schätzungen gehen dahin, dass der Gegenwert für die Speicherung von 1 t Kohlenstoff etwa 120 $ beträgt. Jemand muss also dafür zahlen. Da Landwirte der gesamten Gesellschaft nützen, wenn den atmosphärischen Kohlenstoff durch Sequestrierung reduzieren, müssen sie dafür entsprechend entschädigt werden.

Wir benötigen solide wissenschaftliche Daten

Die C-Sequestrierung setzt auch eine detaillierte Kenntnis des Kohlenstoffkreislaufs voraus. Dieser ist in groben Zügen in Abbildung 4 dargestellt: Abbildung 4. Der globale Kohlenstoffkreislauf – Kohlenstoffsenken und -emittenten (1Pg = 1Gt)

Der Kohlenstoffpool in der Atmosphäre beträgt zurzeit rund 840 Gt - Jährlich kommen 4 Gt aus der Verwendung fossiler Brennstoffe dazu und 1 Gt aus der Entwaldung. Die Photosynthese der Pflanzen entzieht CO2 der Atmosphäre und atmet die Hälfte davon wieder ab. Emissionen kommen auch aus den Böden, in denen (ohne Permafrostgebiete) etwa 4 000 Gt organischer Kohlenstoff gespeichert sind: Bodenatmung und beschleunigte Erosion führen zur Reduktion des organisch gebundenen Kohlenstoffs. (Aktuell wird der Verlust durch Erosion allerdings kaum diskutiert). Ein Teil des C im Boden geht auch in den Ozean, der das größte Kohlenstoffreservoir ist und Kohlenstoff ebenfalls emittiert.

Wir können dieses Geschehen modellieren, auch die Verweilzeit des Kohlenstoffs in den einzelnen Systemen berechnen – auf globaler Basis, auf nationaler Basis bis hin zur Verweilzeit auf einzelnen Landflächen (siehe Abbildung 4). Die Voraussetzung dazu: um die Modelle, die diesen Berechnungen zugrundeliegen, zu validieren, benötigen wir solide Daten, experimentell erhobene Daten.

Der Verlauf der Kohlenstoffanreicherung

Wenn Wälder oder Grasland in Ackerland umgewidmet werden, sinkt der Kohlenstoffgehalt im Boden auf etwa 50 % und wird durch Erosion weiter reduziert. Wird die Erosion unter Kontrolle gebracht, ist nach etwa 50 Jahren im gemäßigten Klima und nach vielleicht 10 Jahren im tropischen Klima (etwa in Nigeria) ein neuer Gleichgewichtszustand erreicht. Wenn zu diesem Zeitpunkt Maßnahmen ergriffen werden –beispielsweise hinsichtlich der Ernterückstände -, so kann der C-Gehalt über Jahre hinweg wieder ansteigen bis ein neues Gleichgewicht erreicht ist, wobei der so erreichbare C-Gehalt aber niedriger ist als der ursprüngliche. Unter Einsatz weiterer Technologien – etwa Abdecken der Felder, Zugabe von Nährstoffen, Biokohle, Düngemitteln – kann vielleicht auch ein maximaler Kohlenstoffgehalt erreicht werden, der dem des Ausgangszustands entspricht, in manchen Fällen diesen sogar übertreffen kann. Der Unterschied zwischen Minimum und Maximum gibt die Kapazität des Bodens als Kohlenstoffsenke an.

Wie schnell die C-Anreicherung im Boden erfolgt, muss experimentell bestimmt werden. Und es muss auch herausgefunden werden, welche Verfahren sich dazu am besten eignen. Zur Anwendung können u.a. kommen: konservierender Ackerbau, Anwendung von Biokohle, Agrarforstwirtschaft, Aufforstung, Bekämpfung von Wüstenbildung, Wasserspeicherung, unterschiedliche Landwirtschaftssysteme. Es gibt kein einzelnes Verfahren, das für alle Böden der Erde (davon gibt es mehrere hunderttausende verschiedene Typen) taugt.

Für eine nachhaltige Bodenbewirtschaftung - 10 grundsätzliche Regeln

  • 1. Ursachen der Bodendegradation. Die Verschlechterung der Böden ist ein biophysikalischer Prozess, der ökonomische, soziale und politische Ursachen hat. Die Gefährdung der Böden liegt aber eher in dem „wie“ als in dem „was“ kultiviert wird.
  • 2. Verantwortung für die Böden und menschliches Leid. Bevor Menschen für ihre Böden verantworlich gemacht weden können, müssen zuerst ihre existenziellen Grundbedürfnisse gesichert sein.
  • 3. Nährstoffe, Kohlenstoff, Wasser. Ohne die Bodenqualität zu beeinträchtigen ist es unmöglich mehr dem Boden zu entnehmen als man eingesetzt hat. Nur, wenn das Entnommene – Kohlenstoff, Nährstoffe, Wasser - ersetzt wird, bleibt der Boden fruchtbar und lässt sich steuern.
  • 4. Marginalitätsprinzip. Schlechte Böden, die mit marginalem Einsatz bebaut werden, erbringen marginale Erträge und ein marginales Leben. Nur qualitativ gute Böden und gutes Saatgut erzielen gute Erträge und ermöglichen ein gutes Leben.
  • 5. Organische vs. mineralische Nährstoffe. Pflanzen können nicht unterscheiden ob Nitrate oder Phosphate aus Mineraldünger oder organischen Quellen stammen. Es ist eine Frage der Logistik – können wir auf 1 500 Mio ha jährlich 10 Tonnen Stallmist/Jauche aufbringen, transportieren? (Wenn ja, ist dies sicherlich die beste Lösung). Unsere Strategie muss lauten: mehr aus weniger zu erzeugen!
  • 6. Kohlenstoff im Boden und Treibhausgase. Es hat den gleichen Effekt auf das Klima ob nun CO2 aus dem organisch gebundenen Kohlenstoff der Böden emittiert wird oder ob es bei der Verbrennung fossiler Brennstoffe oder der Trockenlegung von Mooren entsteht. Abhängig davon wie er bearbeitet wird, kann der Boden kann eine Quelle oder auch eine Senke von Treibhausgasen sein.
  • 7. Boden und Saatgut. Spitzensaatgut kann nur dort Erfolg haben, wo es unter optimalen Bedingungen wächst. Auch Spitzensorten können Wasser und Nährstoffe nicht aus jedem Boden (beispielsweise aus Felsen).
  • 8. Boden als Senke für atmosphärisches CO2 Böden sind integraler Bestandteil jeder Strategie zur Reduktion der Klimaerwärmung und zum Schutz der Umwelt.
  • 9. Motor der ökonomischen Entwicklung. Nachhaltige Bodenbearbeitung ist Motor der ökonomischen Entwicklung, der politischen Stabilität und des Wandels der Bevölkerung vor allem in den Entwicklungsländern.
  • 10. Moderne Innovationen - tradiertes Wissen. Nachhaltige Bodenbearbeitung bedeutet die Anwendung moderner Innovationen, die auf überliefertem Wissen beruhen. Wir können die Krankheiten von heute nicht mit der Medizin von gestern heilen – wir können aber auf dieser aufbauen!

Ausblick

Wenn ich nächstes Jahr die Präsidentschaft der International Union of Soil Sciences (IUSS) antrete, kommt die schwierige Aufgabe auf mich zu, einen Fahrplan für die Bodenwissenschaften im 21. Jahrhundert zu skizzieren.

Ich beginne also auf dieser Straße zu fahren und sehe ich meinen ersten Halt in der Periode 2015 – 2025. Welche Aufgaben kommen hier auf die Bodenwissenschaften zu? Ich denke es sind dies:

  • Nachhaltige Intensivierung der Produktivität
  • Steuerung des Phytobioms (d.i. alle Faktoren die Pflanzen beeinflussen oder von Pflanzen beeinflusst werden)
  • Entwicklung von Böden, die Pflanzenkrankheiten unterdrücken (sodass keine Pflanzenschutzmittel mehr nötig sind)
  • Urbane Landwirtschaft
  • Weltraum-Landwirtschaft (Versuche auf dem Mond oder Mars)
  • Sequestrierung von Kohlenstoff in Boden und Biosphäre (ich hoffe diese enorm wichtige Aufgabe wird bei der COP 21 Zustimmung finden)
  • Der Nexus Ansatz (die Sicherstellung von Wasser, Energie und Nahrung, die miteinander verknüpft sind).

Wenn ich auf dieser Straße weiterfahre, sehe ich für den nächsten Abschnitt in der Periode 2025 – 2050 weitere Herausforderungen:

  • Entwicklung einer Nährwert-bezogenen Landwirtschaft (wir müssen dem versteckten Hunger den Kampf ansagen, dem Mangel an Vitaminen und Mineralstoffen)
  • Auffinden von pharmazeutisch wirksamen Stoffen(der Großteil derartiger Substanzen sind Naturstoffe)
  • Herstellung synthetischer Böden und von
  • Böden aus extraterrestrischen Komponenten
  • Untersuchung von Bodenprozessen bei verringerter Schwerkraft
  • Bodenumwandlungen und Klimawandel

Als großes Ziel sollte eine Landwirtschaft mit Null Emissionen angestrebt werden.


*Rattan Lal; 27.11.2015 Boden - Der große Kohlenstoffspeicher **Prof. Rattan Lal hat seinen Vortrag „The Solutions Underfoot: The Power of Soil“ (gehalten am 2. November 2015 im Konferenzzentrum Laxenburg) freundlicherweise dem ScienceBlog zur Verfügung gestellt. Mit seinem Einverständnis wurde der Vortrag transkribiert, daraus eine deutsche Version geschaffen und diese geringfügig für den Blog adaptiert. Auf Grund der Länge des Artikels ist dieser in zwei Teilen erschienen (Teil 1 am 4. Dezember 2015). Ein Video-Mitschnitt des Vortrags kann abgerufen werden unter: https://www.youtube.com/watch?v=Uh0TwQyw37A&feature=youtu.be


Weiterführende Links

Artikel zum Thema „Boden“ im ScienceBlog:

inge Fri, 11.12.2015 - 10:28

Der Boden – Grundlage unseres Lebens

Der Boden – Grundlage unseres Lebens

Fr, 04.12.2015 - 07:30 — Rattan Lal

Rattan LalIcon GeowissenschaftenDie vielen miteinander konkurrierenden Nutzungen des Bodens durch die noch immer wachsende Weltbevölkerung machen ihn zur stark gefährdeten Ressource. Der sorgsame, nachhaltige Umgang mit dem Boden und die Wiederherstellung degradierter und verarmter Böden sind daher unerlässlich, sie sind die Lösung wesentlicher globaler Probleme des 21. Jahrhunderts . Rattan Lal (Ohio State University), einer der weltweit führenden Bodenwissenschaftler, zeigt hier die Bedeutung des Bodens und seine Rolle im globalen ökologischen Wandel auf.*

 „Hallo, Ihr Leute. Wisst Ihr wer ich bin, was ich bin?

Ich bin die Geomembran der Erde. Ich bin der Euch schützende Filter, Euer Puffer, Euer Vermittler von Energie, Wasser und biogeochemischen Stoffen. Ich bin der Erhalter Eures fruchtbaren Lebens, bin Quelle der Elemente und Lebensraum für den Großteil der Organismen. Ich bin die Grundlage, die Euch trägt, die Wiege Eurer Mythen und der Staub, aus dem Ihr wiederkehrt. Ich bin ein Boden!“ (Richard Arnold) -

Mit diesen wenigen Worten hat der bekannte amerikanische Bodenwissenschafter Richard Arnold zusammengefasst was der Boden ist, was er vermag und welche fundamentale Rolle er für unsere Existenz spielt.

Der Boden reagiert auf (die von Menschen geschaffenen) globalen Herausforderungen und Probleme. Deren Lösungen finden wir - im wahrsten Sinn des Wortes - unter unseren Füßen.

Auswirkungen des Menschen auf den Boden (Abbildung 1)

Ein zentraler Punkt ist die Zunahme der Weltbevölkerung. Gegenwärtig gibt es 7,3 Milliarden Menschen, im Jahr 2050 werden es 9,7 Milliarden sein - stellen Sie sich vor, es erscheinen zusätzliche 2,4 Milliarden Gäste zum Abendessen - und 11,2 Milliarden im Jahr 2100.

Bodendegradation ist ein Problem, vom dem rund 24 % der Landfläche betroffen sind: durch Wassererosion gingen bereits 1,1 Mrd ha verloren, durch Winderosion 0,55 Mrd. ha. (Unter Bodendegradation versteht man: dauerhafte/irreversible Veränderungen bis hin zum Verlust der Strukturen und Funktionen von Böden durch natürliche oder anthropogene Störungen)

Abbildung 1. Wechselbeziehungen zwischen Mensch und Ökosystem Boden. Mit dem enormen Anstieg der Weltbevölkerung entsteht ein immer stärkerer Nutzungsdruck auf das Ökosystem (Beschreibung im Text).

Sekundäre Versalzung der Böden: diese tritt bei rund 20 % der bewässerten Landfläche - dies sind rund 300 Mio ha - auf.

Die Algenblüte ist Folge von Wasserverschmutzung, von übermäßigem Transport von Phosphor und anderen Elementen aus dem Agro-Ökosystem in das Wasser-Ökosystem. Vom Veralgen sind viele Wasserflächen betroffen, u.a. die großen Seen in den US, der Golf von Mexico.

Problem Urbanisierung: schon heute lebt die Hälfte der Weltbevölkerung bereits in Städten, im Jahr 2050 werden dies 60 – 70 % sein. Stadtgebiete werden bis 2030 um 152 Mio ha zugenommen haben. Dies entspricht 10 % der gesamten gegenwärtigen Ackerbaufläche.

Reduzierung der Biodiversität: mit dem Anstieg der menschlichen Bevölkerung geht ein sehr rascher Verlust an Arten einher – jährlich verschwinden 1000 bis zu 10 000 Spezies (ohne Einwirkung des Menschen wären es gerade 5 Spezies).

Entwaldung insbesondere in den Tropengebieten: in den 1990-er Jahren gingen dadurch jährlich 8 Mio ha verloren, in den 2000-er Jahren 7,6 Mio ha – dies bedeutet, dass jährlich Flächen in der Größe von Sri Lanka entwaldet werden.

Wasserressourcen: extensive Nutzung des - zum Teil fossilen – Grundwassers aus Grundwasserleitersystemen (Aquifere) führt zum drastischen Absinken der Grundwasserspiegel: einige Aquifere (u.a. der Ogallala Aquifer in den US, Aquifere in den Ebenen von Südasien und Nordchina) verzeichnen ein Absinken von bis zu 2 m im Jahr. Die Zahl der in Gebieten mit Wassermangel lebenden Menschen nimmt jedoch zu; waren es 2,3 Mrd im Jahr 2000, so werden es bereits 2025 schon 3,5 Mrd Menschen sein.

Emission von Treibhausgasen: Seit den Anfängen des Ackerbaus vor 10 000 Jahren haben wir aus dem gesamtem Kohlenstoffpool der terrestrischen Biosphäre – d.i. Vegetation und Böden zusammengenommen - bereits 486 Gigatonnen (Gt; 1 Gt = 1 Mrd t) Kohlenstoff in die Atmosphäre verloren. Aus den Böden des Ackerlands waren es nach meinen Schätzungen 80 Gt Kohlenstoff.

Böden sind endliche Ressourcen

Böden entstehen äußerst langsam - es dauert meistens mehrere tausend Jahre bis sich eine dünne fruchtbare Schicht gebildet hat. Böden sind daher in menschlichen Zeitdimensionen nicht erneuerbar. Zum Verbrauch der Ressource Boden tragen sehr, sehr viele Nutzungen bei, die miteinander konkurrieren: Landflächen dienen nicht nur der Landwirtschaft, sie werden der Industrialisierung gewidmet, der Urbanisierung einschließlich der notwendigen Infrastruktur (s.u.), der Schaffung von Erholungsräumen, u.a.m. Insbesondere greift auch die nutzungsbedingte Änderung der Artenvielfalt (der Bodenorganismen) in das System Boden ein. Dazu kommen viele weitere Öko-Dienstleistungen des Bodens, die wir noch sehr wenig verstehen.

Haben wir den „Peak Soil“ bereits überschritten?

Für viele knappe Ressourcen kann der Zeitverlauf der Gewinnung in Form einer glockenförmigen Kurve, wie der sogenannten „Hubbert Kurve“ dargestellt werden (benannt nach dem Geophysiker MK Hubbert, der mit dieser Kurve erstmals die Erdölförderung beschrieb): Am Beginn nimmt die Förderungsrate zu, bis ein Maximum – der Peak - erreicht ist. Dadurch werden die noch vorhandenen, endlichen Vorräte immer rascher aufgebraucht - ein exponentielles Abklingen der Förderrate ist die Folge. Es gibt einen „Peak Öl“, „Peak Phosphor“, „Peak Wasser“.

Ein derartiger Kurvenverlauf mit einem „Peak Soil“ erscheint auch für die Ressource Boden plausibel (Abbildung 2), der Peak dürfte hier aber schon überschritten sein. Nicht nur die Landwirtschaft, auch sehr viele andere Nutzungen konkurrieren ja um die endliche Ressource Boden (siehe oben). Naturschutz, die Erhaltung unserer Böden sind von unabdingbarer Wichtigkeit: „Peak Soil“ bedeutet gefährdete oder bereits tote Böden - ebenso wie gewisse Arten von Vögeln und Tieren können auch Böden gefährdet oder schon vernichtet sein. Als Beispiel sind hier weite Flächen der Sahel-Zone zu nennen – es sind tote Böden, die bereits fast einen halben Meter Dicke und ihre ursprüngliche Charakteristik eingebüßt haben. Ein hoffnungsloses Bild: Die Bodenerosion wird in Afrika besonders gravierend ausfallen: Schätzungen gehen davon aus, dass bis 2090 dort 36 % des Bodens von Erosion betroffen sein werden, während es im globalen Mittel 14 % sein werden.

Abbildung 2. Haben wir den „Peak Soil“ bereits überschritten? Hypothetischer Zeitverlauf der endlichen Ressource Boden. Rechts unten: der tote Boden in der Sahel Zone.

Das Problem der steigenden Urbanisierung

Um für 1 Million Menschen Unterkunft und Infrastruktur zu schaffen werden 40 000 ha Land benötigt. Bei dem aktuellen Anstieg der Weltbevölkerung um 75 Millionen Menschen im Jahr bedeutet das, dass jährlich 3 Mio ha landwirtschaftlich nutzbare Flächen dafür umgewidmet werden müssen.

Mit der zunehmenden Verstädterung ist auch ein Wachsen der Megacities – d.i. von Städten mit mehr als 10 Millionen Einwohnern - verbunden: gibt es davon heute 28, werden es 2030 bereits 41 sein. Dies wirft enorme logistische Probleme auf. Eine Megacity mit 10 Mio Einwohnern benötigt täglich 6000 t Nahrungsmittel, die in die Stadt geliefert werden und nicht mehr an ihren Ursprungsort zurückkehren, die Abfälle verursachen und Umwelt und Gesundheit gefährden. In ausgedehnten Regionen, wo es wenige Bäume und Steine gibt – beispielsweise in Teilen NW-Indiens –wird zudem Boden abgetragen, um daraus Ziegel für den Hausbau zu produzieren.

Inwieweit können sich Böden erholen?

Die Fähigkeit eines Systems nach exogenen Störungen wieder zu seiner ursprünglichen Funktion zurückzukehren, wird als Resilienz (resilire = „zurückspringen“) bezeichnet. Der Boden verändert sich laufend. Als Folge von Störungen kann er eine Reihe von stabilen Zuständen einnehmen, in denen er seine Funktion (Produktivität) noch beibehält oder sich wieder erholt. Dies ist in Abbildung 3 vereinfacht dargestellt. Diese Resilienz ist gegeben, solange die Störungen mäßig ausfallen. Überschreiten sie aber einen kritischen Schwellenwert, so kann der Boden nicht in seinen vorherigen Status zurückkehren, sich nicht mehr erholen – sein Charakter und seine Funktion sind verloren gegangen (wie es beispielweise bei den erwähnten toten Böden in der Sahel Zone der Fall ist), er ist irreversibel degradiert.

Abbildung 3. Die Resilienz des Boden-Ökosystems. Der funktionsfähige Boden - hier durch eine graue Kugel gekennzeichnet- behält bei mäßigen Störungen die Funktion bei. Bei Überschreiten des kritischen Schwellenwertes kann das System nicht mehr in einen funktionsfähigen Zustand zurückkehren, sein Charakter ist verloren gegangen (rote Kugel).

Was sind nun die wesentlichen Eigenschaften der Böden? und Was sind die Schwellenwerte? Hier müssen wir erst die zugrunde liegenden wissenschaftlichen Prinzipien verstehen, um geeignete Maßnahmen treffen zu können, bevor der kritische Schwellenwert überschritten wird, der zur irreversiblen Degradation führt.

Die landwirtschaftliche Bodennutzung

Analysiert man die gegenwärtige Landnutzung, so

  • beansprucht die Landwirtschaft - das heißt Ackerbau und Viehzucht - rund 40 % der globalen Landflächen. Davon sind 75 % - rund 3,7 Mrd ha – der Viehzucht gewidmet (teilweise kann auf diesen Flächen auch nichts anderes gemacht werden),
  • werden für die Bewässerung dieser Flächen rund 70 % des globalen Süßwassers verbraucht,
  • werden 30 – 35 % der globalen Treibhausgas-Emissionen durch die landwirtschaftliche Nutzung hervorgerufen.

Dennoch: für 1 von 7 Menschen – d.i. für mehr als 1 Mrd Menschen - ist die Ernährungslage unsicher und, 2 – 3 von 7 Menschen gelten als mangelernährt.

Der Nahrungsmittelbedarf in der Zukunft

Wie kann der Ernährungsbedarf beispielsweise im Jahr 2050 – bei einem Zuwachs von rund 2,4 Mrd Menschen - sichergestellt werden?

Die häufige Antwort darauf: indem wir die landwirtschaftlich genutzten Flächen erweitern. Natürliche Ökosysteme – seien es nun Wälder, Steppen oder Feuchtgebiete – in Ackerbau- und Viehzuchtsgebiete umwandeln.

Diese Anschauungen kann ich nicht teilen! Ich meine, wir müssen andere Wege ins Auge fassen und die Natur vor weiterer Ausbeutung schützen. Es gibt dazu eine Reihe von Möglichkeiten. Vorauszuschicken ist dabei, dass global gesehen bereits ausreichend Nahrungsmittel produziert werden, um auch 10 Mrd Menschen zu ernähren. Eine sichere Ernährungslage kann gewährleistet werden, indem

  • Abfälle drastisch (um 30 – 50 %) reduziert werden,
  • der Zugang zu Nahrungsmitteln erleichtert wird – Maßnahmen gegen Armut, Ungleichheit, politische Instabilitäten und Konflikte ergriffen werden,
  • die Verteilung von Nahrungsmitteln global verbessert wird,
  • mehr pflanzlich basierte Nahrung zum Einsatz kommt (dies bedeutet nicht den Verzicht auf Nahrung tierischen Ursprungs, sondern, dass vielleicht nicht alle drei Mahlzeiten täglich vom Tier kommen),
  • persönliche Verantwortung übernommen wird, nichts als selbstverständlich vorausgesetzt wird. Jeder von uns ist „Täter“ und „Opfer“. Wenn jeder auch nur eine geringfügige Verbesserung bewirkt: bei 7,3 Mrd Menschen kann dies eine enorme Auswirkung haben,
  • die Produktivität der bereits landwirtschaftlich genutzten Flächen erhöht wird, degradiertes Land wiederhergestellt wird. Mit den gegenwärtigen etablierten Technologien kann in vielen Regionen Afrikas (wo ich 20 Jahre lang gearbeitet habe) und auch in Südasien der Ertrag des Ackerlands um das Doppelte ja sogar um das Vierfache gesteigert werden.

Warum sollte man also die vorhandenen Ressourcen nicht in angemessener Weise nutzen, bevor man daran denkt ursprüngliches Land in Kulturland umzuwandeln?

Ernährungssicherheit zu erreichen, Landökosysteme zu schützen, wiederherstellen und eine nachhaltige Landwirtschaft zu fördern: diese Ziele gehören auch zu den „Sustainable Development Goals“ (SDGs; „Zielen nachhaltiger Entwicklung“), welche die Vereinten Nationen im September 2015 verabschiedet haben. Es sind dies 17 Hauptziele mit 169 Unterzielen, die für alle Staaten Gültigkeit haben und - mit einer Laufzeit von 15 Jahren - am 1.Jänner 2016 in Kraft treten.


*Prof. Rattan Lal hat freundlicherweise seinen Vortrag „The Solutions Underfoot: The Power of Soil“ (gehalten am 2. November 2015 im Konferenzzentrum Laxenburg) dem ScienceBlog zur Verfügung gestellt. Mit seinem Einverständnis wurde der Vortrag transkribiert, übersetzt und geringfügig für den Blog adaptiert. Auf Grund der Länge des Artikels erscheint dieser in zwei Teilen (Teil 2 am 11. Dezember 2015). Ein Video-Mitschnitt des Vortrags kann abgerufen werden unter: https://www.youtube.com/watch?v=Uh0TwQyw37A&feature=youtu.be.


Weiterführende Links

Artikel zum Thema „Boden“ im ScienceBlog:

inge Wed, 04.02.2015 - 07:30

Boden - Der große Kohlenstoffspeicher

Boden - Der große Kohlenstoffspeicher

Fr, 27.11.2015 - 11:41 — Rattan Lal

Rattan LalIcon GeowissenschaftenIn drei Tagen treffen 25 000 Delegierte aus mehr als 190 Ländern zur diesjährigen UN-Klimakonferenz (COP 21) in Paris zusammen. Deren Ziel ist es ein globales Klimaschutzabkommen zustande zu bringen, welches die drohenden katastrophalen Auswirkungen des Klimawandels verhindert aber dennoch ein Wirtschaftswachstum in gefährdeten Entwicklungsländern ermöglicht. Der renommierte Bodenexperte Rattan Lal (Ohio State University) hat in bahnbrechenden Untersuchungen das Potential des Bodens zur Kohlenstoffspeicherung aufgezeigt und darauf basierende, effiziente Verfahrensweisen, um dem globalen Wandel entgegenzuwirken. Von diesen Konzepten überzeugt, wird der französische Landwirtschaftsminister Stephane Le Foll diese unter die empfohlenen Maßnahmen der COP 21 aufnehmen. Im nachstehenden Artikel* gibt Rattan Lal einen summarischen Überblick über die Kohlenstoffspeicherung in unterschiedlichen Bodentypen. Dies ist als Einleitung zu weiteren Artikeln des Autors zu sehen, in denen er über die anthropogenen Auswirkungen auf Boden und Klima berichten und Lösungsvorschläge geben wird.

Wenn Böden richtig behandelt werden, nehmen sie aus der Atmosphäre Kohlenstoff auf – ein wichtiger Beitrag gegen die Erderwärmung. Doch die industrielle Landwirtschaft nimmt darauf keine Rücksicht.

Boden und Klima

Das Klima trägt aktiv dazu bei, wie sich der Boden ausbildet, ist untrennbar mit seiner Qualität verbunden. Der Boden wiederum beeinflusst in erheblichem Maße das Klima. Beide befinden sich in einem dynamischen Gleichgewicht.

Gräbt man mit einem Spaten ein rund 50 cm tiefes Loch und glättet dessen Wände, so sieht man eine Reihe verschiedener Schichten. Die oberste Schicht ist wahrscheinlich schwarz, es folgen braune oder graue Farbtöne, vielleicht mit schwarzen oder roten Bändern dazwischen. Diese Schichten werden „Horizonte“ genannt und sind charakteristisch für bestimmte Klimazonen. In den Nadelwäldern, die sich in den nördlichen Breiten ausdehnen, findet sich ein typisches graues Band, das wie Asche aussieht und „Podsol“ genannt wird. Viele Böden der Feuchttropen sind rot oder gelb wegen des darin enthaltenen Eisens oder Aluminiums. Sie heißen „Ferralsole“.

Die Schichten werden vom Klima verursacht. Regen löst bestimmte Mineralien und Salze und führt diese im durchsickernden Wasser nach unten. Verdunstung und Kapillarwirkung befördern sie wieder nach oben, wo sie sich in charakteristischen Schichten oder eben auf der Oberfläche ablagern. Feinpartikel können sich in einer bestimmten Tiefe ansammeln und eine wasserstauende „Ortstein“-Schicht bilden. Wasser und Säure nagen am Fels, brechen ihn auf und bilden neuen Boden. Durch das Zusammenspiel aus Klima, dem Grundgestein und der Topografie sowie durch menschliche Eingriffe wie Pflügen oder Bewässerung entstehen Böden, die entweder sandig, schluffig oder lehmig sind, sauer oder basisch, wassergesättigt oder gut entwässert, fruchtbar oder unfruchtbar.

Das Klima beeinflusst den Boden auch durch die Vegetation, die auf ihm wächst, und die Tiere und Mikroorganismen, die in ihm leben. Pflanzenwurzeln und Pilzmyzelien binden die Erde und ziehen Wasser und Nährstoffe heraus; Regenwürmer, Maulwürfe und Insekten wühlen und graben darin und sorgen für Durchlüftung und Kanäle für die Wasserabfuhr. Wenn Pflanzen absterben, werden sie zu Humus zersetzt, dieser schwarzen Schicht an der Oberfläche vieler Böden. Diese organischen Substanzen sind für die Fruchtbarkeit des Bodens von entscheidender Bedeutung. Sie halten die Bodenpartikel zusammen und schließen Wasser und Nährstoffe ein, die somit erreichbar für Wurzeln sind.

Wächst nichts oder zu wenig – zum Beispiel nach dem Pflügen oder in trockeneren Gebieten – ist der Boden den Elementen ausgesetzt. Regentropfen brechen Klumpen auf und waschen Partikel fort. Wenn starker Regen auf die Oberfläche prasselt, können sich Krusten bilden, die verhindern, dass Wasser rasch einsickern kann. Es läuft auf der Oberfläche ab und spült dabei den wertvollen Mutterboden mit weg, lässt Flüsse braun werden und Rückhaltezonen verlanden. In Trockenzeiten kann der Wind Staub und Sand aufwirbeln und hunderte Kilometer weit tragen.

Der Boden ist eine gewaltige Kohlenstoffsenke

Klima beeinflusst also den Boden – und umgekehrt wirkt sich die Beschaffenheit des Bodens auch auf das Klima aus. Kohlendioxid und andere Treibhausgase spielen hier eine besonders wichtige Rolle. Der Boden ist eine gewaltige Kohlenstoffsenke: Er enthält mehr Kohlenstoff als die Atmosphäre und die gesamte Erdvegetation zusammen(Abbildung 1). Vergleichsweise geringe Verluste der Menge organischer Substanzen im Boden können eine große Wirkung auf die Atmosphäre und damit auf die Erwärmung der Erde haben.

Abbildung 1. Kohlenstoff in Boden und Vegetation. In Europa sammelt sich der Kohlenstoff mehr in den Böden als in den Pflanzen – in Afrika ist es umgekehrt.[1].

Ackerland, das rund 1,5 Milliarden Hektar der Erdoberfläche ausmacht, enthält im Allgemeinen weniger organische Substanzen als Böden mit natürlicher Vegetation. Das Pflügen von landwirtschaftlichen Nutzflächen und das Ernten von Feldfrüchten beschleunigt die Freisetzung von Kohlendioxid in die Atmosphäre. Der Reisanbau setzt Methan frei, ein 25-fach stärkeres Treibhausgas als Kohlendioxid. Stickstoffdünger führt zur Emission von Distickstoffmonoxid (N2O), einem noch schädlicheren Gas. Bessere Bewirtschaftungsmethoden wie beispielsweise eingeschränktes Pflügen, Erosionsschutz, Gründüngung oder Kompost und Dung können dem Boden wieder Kohlenstoff zuführen.

Rund 3,5 Milliarden Hektar weltweit sind Weideland. Rinder und andere Wiederkäuer sind große Verursacher von Treibhausgasen: Durch Aufstoßen, Blähungen und Dung werden Methan und N2O abgegeben. Weideland in Trockengebieten nimmt relativ wenig Kohlenstoff pro Hektar auf. Da es sich jedoch über große Flächen erstreckt, kann es insgesamt sehr viel Kohlenstoff absorbieren, wenn es gut bewirtschaftet, also zum Beispiel kontrolliert beweidet wird, wenn Brände vermieden, Bäume gepflanzt, Boden und Wasser bewahrt werden, wenn erodiertes und versalztes Land sich erholen kann und Feuchtgebiete wiederhergestellt werden.

Abbildung 2. Gespeicherter Kohlenstoff nach Ökosystemen [2]. Die Renaturierung von Mooren und Feuchtgebieten lohnt sich besonders. Aber kein Ökosystem darf vernachlässigt werden.

Wälder bedecken rund 4 Milliarden Hektar Fläche auf der Erde. Die Böden, auf denen tropischer Regenwald wächst, sind erstaunlich unfruchtbar: Regen schwemmt die Nährstoffe schnell fort. Die meisten Pflanzennährstoffe und Kohlenstoffe im Regenwald sind in der Vegetation selbst enthalten. Sterben die Organismen, so zersetzen sie sich rasch in dem heißen, feuchten Klima, und die Nährstoffe werden in neuen Pflanzen wiederverwertet. Wenn Bäume gefällt oder verbrannt werden, dann werden große Mengen Kohlenstoff in die Atmosphäre abgegeben. Die Böden unter den ausgedehnten nördlichen Wäldern Nordamerikas, Skandinaviens und Nordrusslands hingegen enthalten riesige Mengen Kohlenstoff, insbesondere in Torfmooren (Abbildungen 2, 3).

Abbildung 3. Kohlenstoffgehalt des Bodens [3]. Europa emittiert viel mehr Treibhausgase als es bindet, Zudem sinkt die Qualität der Böden. Doch je weniger er lebt, umso weniger speichert er.

Vorausgesetzt, er wird richtig bewirtschaftet, ist der Boden grundsätzlich in der Lage, reichlich Kohlenstoff aufzunehmen und so zu helfen, dass die Erde sich nicht weiter erwärmt.

Entscheidend wird sein, ob es gelingt, die Fähigkeit des Bodens zur Speicherung des Kohlenstoffes wiederherzustellen.


[1] FAO, Global Forest Resources Assessment 2005, nach Atlas der Globalisierung spezial: Klima,2008 S. 35, http://bit.ly/1vZlQqi
[2] EC, Soil organic matter management across the EU, Technical Report 2011-051, S. 20, http://bit.ly/1yQrKct.
[3] JRC Topsoil Organic Carbon Content, 2003, http://bit.ly/1DcY51f


*Der Artikel stammt aus: Bodenatlas - Daten und Fakten über Acker, Land und Erde (Kooperationsprojekt zum internationalen Jahr des Bodens von Heinrich-Böll-Stiftung, IASS, BUND, Le Monde diplomatique, 2015. Alle Grafiken und Texte stehen unter der offenen Creative Commons Lizenz CC-BY-SA ) https://www.bund.net/fileadmin/bundnet/publikationen/landwirtschaft/1501...  

In den nächsten Wochen werden zwei weiteren Artikel des Autors folgen, in denen er über die anthropogenen Auswirkungen auf Boden und Klima berichten und Lösungsvorschläge geben wird.


Weiterführende Links

Zum Thema Boden und Klima sind zahlreiche Artikel im ScienceBlog, vor allem im Themenschwerpunkt ›Klima & Klimawandel‹, erschienen:

Weitere Artikel zum Thema:

inge Fri, 27.11.2015 - 11:41

Comments

Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Fr, 20.11.2015 - 11:23 — Christian Hallmann

Christian HallmannIcon BiologieDas Leben auf der Erde ist erstaunlich alt. Nach ihrer Entstehung vor ca. 4,5 Milliarden Jahren war die Erde ein äußerst lebensfeindlicher Ort – ohne verfestigte Kruste, ohne Wasser und mit häufigen Meteoriteneinschlägen. Sobald die Umweltbedingungen sich erstmalig stabilisierten und flüssiges Wasser vorkam, sollte es nicht lange dauern, bis erstes Leben in Form primitiver einzelliger Bakterien erschien. Christian Olivier Eduard Hallmann, Leiter der Forschungsgruppe Organische Paläobiogeochemie (MPI Biogeochemie, Jena) erforscht, wie sich das Leben auf der Erde zwischen seinem ersten Aufkommen und den heutigen komplexen Ökosystemen entwickelt hat.*

Die ältesten Spuren des Lebens

Die ältesten Spuren irdischen Lebens befinden sich fernab der Zivilisation im Westaustralischen Outback (Abbildung 1). In einer geologischen Formation, welche als Warrawoona-Gruppe bekannt ist, enthält teilweise verkieseltes 3,5 Milliarden Jahre altes Karbonatgestein kleine, jedoch regelmäßige konische Strukturen, sogenannte Stromatolite, deren Entstehung unverkennbar auf Mikroorganismen zurückzuführen ist.

Mikrobiell gebildete StromatolitenAbbildung 1. Mikrobiell gebildete Stromatoliten in der ca. 3,5 Milliarden Jahre alten Warrawoona-Gruppe (Westaustralien) bilden den zurzeit ältesten anerkannten Nachweis für die Existenz von Leben auf der Erde © C. Hallmann

Dies allein ist allerdings kein Indiz für den Ursprung des Lebens.

Sedimentäres Gestein, welches sich als Sand, Ton und Karbonat in Meeresbecken und Seen ablagert, durchläuft mitsamt den Kontinenten, auf denen sich die Gesteine befinden, sogenannte Wilson-Zyklen. Durch die tektonische Bewegung der Kontinentalplatten werden Gebirge wie Falten aufgeworfen und im Laufe der Zeit wieder abgetragen. Vulkanische Aktivität bricht das umgebende Gestein auf und wenn eine Platte sich unter ihre Nachbarplatte schiebt, schmilzt diese langsam auf und Ihre Gesteinsinformation fließt in das große Mantelreservoir ein. So ist es nicht verwunderlich, dass im Laufe der Zeit immer weniger ursprünglich abgelagertes Sedimentgestein vorhanden ist. Die Warrawoona-Gruppe enthält die ältesten Sedimentgesteine auf der Erde, welche nicht unter hohem Druck und hohen Temperaturen umgewandelt wurden.

Das Leben auf der Erde könnte also noch älter sein, doch diese Information ist durch die gesteinsverändernden Prozesse für immer verloren gegangen.

Parallelentwicklung von Leben auf dem Mars

Falls das Leben sich gleichzeitig auf Erde und Mars entwickelt hat (es gibt die Hypothese, dass die notwendigen organischen Moleküle des Lebens mit Meteoriten auf die Erde gekommen sind – diese wären somit ebenfalls auf dem Mars gelandet), wäre es möglich, weitere Einblicke zum frühesten Leben auf unserem Nachbarplaneten zu finden. Dort hat die Aktivität der Plattentektonik irgendwann aufgehört und wesentlich älteres Gestein ist noch unverändert vorhanden. Die technischen und methodischen Anforderungen an die Mars-Forschung, welche aktuell von der NASA mit dem Curiosity Rover durchgeführt wird, sind allerdings viel höher als auf der Erde und die Fragestellung ist höchst spekulativ.

Fragen zur frühen Evolution

Zeitbalken der 4,5 Milliarden Jahre irdischer Entwicklung mit den bedeutendsten Übergängen und EreignissenAbbildung 2. Zeitbalken der 4,5 Milliarden Jahre irdischer Entwicklung mit den bedeutendsten Übergängen und Ereignissen: (1) flüssiges Wasser, (2) Warrawoona-Gruppe Stromatolite, (3) bis vor kurzem die ältesten vermuteten Biomarker, (4) Schwefelisotope deuten auf steigende atmosphärische Sauerstoffkonzentrationen, (5) älteste eindeutige cyanobakterielle Mikrofossilien, (6) möglicher Ursprung der Eukaryonten nach Molekular-Uhr Studien, (7) älteste eindeutige Mikrofossilien eukaryontischer Algen, (8 ) älteste unangefochtene reguläre Steroidbiomarker eukaryotischen Ursprungs. Der Sauerstoffgehalt der Atmosphäre (‘atmospheric oxygen’) stieg zum ersten Mal während des GOE (Great Oxidation Event) und erreichte möglicherweise 1% des heutigen Atmosphärengehalts (PAL: present atmospheric level). Starke Schwankungen in sedimentären Kohlenstoffisotopen (‘carbon isotopes’) deuten auf eine Instabilität des marinen Kohlenstoffzyklus‘.© C. Hallmann

Doch zurück zur Erde – über Jahrmilliarden entwickelten sich die Mikroben der Warrawoona-Gruppe zu dem Leben, welches uns heute umgibt – unter anderem Insekten, Fische, Vögel, Säugetiere und den Menschen. Diese Entwicklung nahm sehr viel Zeit in Anspruch und die mechanistischen Details der Evolution gehören immer noch zu den großen Fragestellungen der Molekularen Geobiologie – dem höchst interdisziplinären Forschungszweig an der Grenze der Chemie, Biologie und Geologie, mit dem sich die Max-Planck Forschungsgruppe beschäftigt. Eines der größten verbleibenden Rätsel ist der Faktor Zeit, denn die Evolution verlief nicht linear (Abbildung 2). Die ältesten Lebensspuren sind 3,5 Milliarden Jahre alt. Komplexere Lebensformen erschienen allerdings erst vor etwa 500 Millionen Jahren – dann allerdings in rapidem Tempo während der Kambrischen Explosion.

Stellen wir uns den Ablauf der gesamten Erdgeschichte an einem 24-stündigen Tag vor, so liegt die Warrawoona-Gruppe mitsamt Ihrer mikrobiell-gebildeten Stromatolite bei ungefähr 5:15 Uhr morgens. Das erste komplexe Leben entstand allerdings erst um etwa 21:05 Uhr abends (kleine Anmerkung: Homo sapiens erschien irgendwann in den letzten 5 bis 7 Sekunden).

Die große Frage ist: Was geschah tagsüber auf der Erde?

Makrofossilien, Mikrofossilien und molekulare Fossilien

Chromatogramme aus der gekoppelten Analyse von Gaschromatographie und MassenspektrometrieAbbildung 3. Chromatogramme aus der gekoppelten Analyse von Gaschromatographie und Massenspektrometrie zeigen ein „modernes“ Steroidverteilungsmuster (oberes Chromatogramm), und eines, das typisch ist für die Zeit vor der Kambrischen Explosion (unteres Chromatogramm)© C. Hallmann

Aus dem traditionellen Blickwinkel der Paläontologie würde man fossile morphologische Überreste einstiger Lebensformen zunächst miteinander vergleichen. Das Problem dabei ist allerdings, dass komplexes Leben erst mit der Kambrischen Explosion – vor etwa 550 Millionen Jahren oder in unserem Bild um 21:00 Uhr abends – anfing, die Erde zu besiedeln. Alle skelettragenden Lebensformen entstanden nach dieser Zeit. Zwar hinterlassen Bakterien und einzellige Algen auch Überreste ihrer Zellwände, jedoch sind diese Mikrofossilien, oder Akritarchen im Falle von eukaryotischen Algen, taxonomisch sehr schwer innerhalb der modernen Organismen einzuordnen. Die Lösung ist, die paläontologische Herangehensweise auf die Ebene der Moleküle zu übertragen, da die molekulare Zusammensetzung eines jeden Organismus die größte Menge an phylogenetischer Information trägt. Nukleinsäuren sind sehr instabil und zerfallen rapide, nachdem die tote Biomasse von Bakterien und Algen im Sediment eingebettet wurde, weshalb genetische Analysen für unseren Ansatz nicht in Frage kommen. Glücklicherweise gibt es aber mehrere Fette, die unter bestimmten Umweltbedingungen nicht nur sehr stabil sind, sondern sich zusätzlich durch eine hohe taxonomische Spezifität auszeichnen. Zwar verändern sich die Moleküle leicht während der Jahrmillionen, die sie unter erhöhten Temperaturen und Drücken im Sediment verbringen, aber das verbleibende Kohlenwasserstoff-Gerüst ist dem Ausgangsprodukt in bestimmten Fällen so ähnlich, dass anhand dieser analogen Struktur und manchmal aufgrund der Zusammensetzung aus Kohlenstoffisotopen eine eindeutige Verbindung zu einem Vorgängermolekül und daher einem Mutter-Organismus erstellt werden kann.

Mithilfe unseres Wissens über den Aufbau komplexer organischer Verbindungen in modernen Organismen kann so die einstige Organismenvielfalt mit dem molekularen Inventar alter Gesteine rekonstruiert werden.

Kontamination und Beprobung

SchwarzschieferAbbildung 4. Schwarzschiefer, wie in diesem 2,8 Milliarden Jahre alten Gesteinskern, der 2012 unter beispiellos sauberen Bedingungen erbohrt wurde, hat man bis vor kurzem als Lagerstätte für die ältesten molekularen Überbleibsel mariner Algen angesehen.© C. Hallmann

Lange Zeit gab es wenig Beachtung für die Tatsache, dass die winzigen Mengen solcher Biomarker-Moleküle in uraltem Gestein höchst anfällig für Verunreinigungen sind. Biomarkersignaturen aus Gesteinen, die eine halbe, eine und zwei Milliarden Jahre alt sind, zeigten häufig ein Verteilungsmuster, das dem in sehr jungem Gestein stark ähnelte (Abbildung 3) – das Leben hätte sich demnach sehr früh sehr schnell entwickelt und aufgefächert. Zusammen mit amerikanischen und australischen Kollegen erbohrte Hallmann sehr altes Gestein unter äußerst sauberen Bedingungen. Seine Analysen ergeben ein leicht anderes Bild: Die ältesten molekularen Überreste von marinen Algen, zum Beispiel, stammen nicht aus der Zeit um 2,5 Milliarden Jahren, sondern sind lediglich 750 Millionen Jahre alt (Abbildung 2), was darauf hindeutet, dass eukaryotische Algen erst dann eine ökologisch relevante Rolle einnahmen. Außerdem unterscheidet sich das Verteilungsmuster von Steroiden – Moleküle, welche hochspezifisch für alle Eukaryonten sind, sowohl für marine Algen als auch für uns Menschen – zu dem Zeitpunkt stark vom Verteilungsmuster, welches in Gesteinen der letzten 550 Millionen Jahre, also nach der Kambrischen Explosion, vorherrscht (Abbildung 4). Somit ändert sich allmählich das Bild der frühen Evolution des Lebens und in kleinen Schritten wird deutlich, was in den fehlenden 16 Stunden passierte.


* Der im Jahrbuch der Max-Planck Gesellschaft 2015 erschienene Artikel http://www.mpg.de/8896172/MPI-BGC_JB_2015?c=9262520 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne (die im Link angeführten) Literaturzitate.


Weiterführende Links

Von und über Christian Hallmann

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur

inge Fri, 20.11.2015 - 11:23

Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.

Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC.

Fr, 13.11.2015 - 07:00 — Manfred Jeitler

Manfred JeitlerIcon physik

Calibri (Textkörper)Wenn Pakete hochenergetischer Elementarteilchen am Teilchenbeschleuniger „Large Hadron Collider“ (LHC) des CERN zur Kollision gebracht werden, können neue Teilchen entstehen (z. B. das Higgs-Teilchen) und daraus fundamentale Erkenntnisse über den Aufbau der Materie gewonnen werden. Um derartige Prozesse aus einer ungeheuren Datenflut verlässlich herauszufiltern zu können, wurden – unter entscheidender Mitwirkung des Instituts für Hochenergiephysik (HEPHY) der ÖAW – elektronische Triggersysteme entwickelt. Der daran beteiligte Hochenergiephysiker Manfred Jeitler (HEPHY/CERN) veranschaulicht hier die Funktionsweise derartiger Trigger.

 

Wenn Forscher kleine Objekte untersuchen, so macht das die Arbeit nicht unbedingt einfacher. Die erforderlichen Instrumente werden oft nicht nur komplizierter, sondern auch größer. Je kleiner die Mikroben, Bazillen, Viren sind, desto größer und teurer werden die Mikroskope, mit denen man sie untersuchen kann. Die Bausteine von Atomen, die so genannten Elementarteilchen, sind noch eine Milliarde Mal kleiner. Zu ihrer Untersuchung verwendet man Teilchenbeschleuniger.

Warum viele Ereignisse?

Hat man so einen großen Teilchenbeschleuniger gebaut, reicht es jedoch noch lange nicht, einfach ein paar „Fotos“ der gesuchten Elementarteilchen zu schießen. Warum? Wir können ja Elementarteilchen gar nicht „sehen“, wir können nur aus indirekten Signalen auf sie schließen. In einem Kollisionsbeschleuniger können wir Teilchen miteinander zusammenstoßen lassen – so stark, dass sie sich dabei verändern, und wir nach dem Zusammenstoß andere Teilchen feststellen. Diese neu geschaffenen Teilchen sind meistens nicht stabil, sondern zerfallen wiederum in andere Teilchen, in manchen Fällen auf viele verschiedene Weisen. Manche dieser Kollisions- und Zerfallsprozesse sind häufiger, manche aber sehr selten. Dass sie selten sind, heißt aber nicht, dass sie unwichtig wären. So, wie Biologen manchmal hartnäckig nach einer Art suchen, deren Existenz sie aus irgendeinem Grund vermuten, so sagen auch die physikalischen Theorien manchmal Teilchen oder Prozesse mit diesen vorher, die man dann finden kann – oder auch nicht. Man kann die Theorie also verifizieren oder falsifizieren.

Wenn man zum Beispiel zwei Protonen mit großer Energie aufeinander schießt, kann das zu den verschiedensten Prozessen führen. Unter anderem kann z.B. auch ein so genannten „Higgs-Teilchen“ entstehen. Das wurde von Theoretikern vor über 50 Jahren vorhergesagt, und seine Existenz ist für unsere Theorien von entscheidender Bedeutung. Erst 2012 hat man dieses Teilchen dann endlich am Teilchenbeschleuniger des CERN in Genf gefunden. Der Grund für diese lange Suche war vor allem, dass man früher Protonenstrahlen ausreichender Energie nicht zur Verfügung hatte. Aber selbst, als der Beschleuniger bereits bei der entsprechenden Energie lief, musste man noch Jahre lang suchen! Wieso? Weil die Produktion eines Higgs-Teilchens selbst bei diesen Energien so selten ist! Zehn Milliarden Mal passiert bei einer Protonenkollision etwas anderes, und nur einmal entsteht das, was man wirklich sucht! Stellen Sie sich vor, Ihre Tochter (oder Schwester, oder sonst wer) hat einen chinesischen Freund, und den wollen Sie bei Ihrer Chinareise natürlich kennen lernen. Sie wissen aber nicht, wo er wohnt und wie er heißt, kennen seine Handynummer nicht, Sie haben ihn nur einmal etwas verzerrt auf Skype gesehen. Sie müssen also ganz China abklappern und jeden Chinesen genau anschauen. Das wird mühsam! Dabei gibt es ja eh nur eine Milliarde Chinesen ... beim Higgs-Teilchen müssen Sie noch zehn Mal länger suchen!

Abbildung 1. CMS Event Display: Bei diesem in der Computer-Rekonstruktion dargestellten Ereignis könnte es sich um den Zerfall eines Higgs-Teilchens in zwei Photonen handeln. Erst aus vielen ähnlichen Ereignissen aber kann man die Eigenschaften dieses Teilchens ableiten.

In Wirklichkeit kommt es noch schlimmer: Das Higgs-Teilchen kann man, so wie die anderen Elementarteilchen, nicht wirklich „sehen“. Sie können nur gewisse Zerfälle in andere Teilchen beobachten, die Sie vom Higgs-Teilchen erwarten (Abbildung 1). Sie lassen zum Beispiel zwei Protonen kollidieren und suchen nach Ereignissen, bei denen Sie nachher zwei Photonen (also hochenergetische Lichtteilchen) sehen (die können wir in unseren Geräten, den Teilchendetektoren, feststellen). Es gibt aber noch viele andere Prozesse, die zwei Photonen produzieren. Nur, wenn diese bestimmte Energien und Flugrichtungen haben, könnten sie auf den Zerfall eines Higgs-Teilchens zurückzuführen sein. So, jetzt haben wir also das Kochrezept:

Man nehme: zehn Milliarden Protonzusammenstöße, suche alle Ereignisse, bei denen zwei Photonen entstehen, und messe deren Energien und Impulse. Im Durchschnitt wäre darunter jetzt vielleicht ein Higgs-Zerfall. Aber von einem wissen wir noch nichts - wir müssen uns das viele Male ansehen, um festzustellen, ob wir wirklich Higgs-Teilchen sehen, weil sich bestimmte Verhältnisse von Energien und Impulsen immer wieder wiederholen. Um das halbwegs genau zu wissen, müssen wir das wenigstens tausend Mal wiederholen. Also: „Herr Ober, bitte zehntausend Milliarden Protonenkollisionen!“

Wie kann man diese vielen Ereignisse untersuchen?

Solche unglaublichen Mengen an Zusammenstößen zwischen Protonen kann uns tatsächlich der „Large Hadron Collider“, kurz LHC am CERN liefern. (Protonen und auch alle anderen, aus so genannten „Quarks“ bestehenden Teilchen, werden in der Physik als „Hadronen“ bezeichnet, daher der Name dieses Beschleunigers.) Aber irgendwer muss sich dann ja auch diese Unmengen an Daten ansehen! Für jeden Zusammenstoß von zwei Protonpaketen – an die 40 Millionen Mal pro Sekunde – muss man alle „Kanäle“, also alle einzelnen Sensoren des Detektors, auslesen, und von denen gibt es an die 100 Millionen (Abbildung 2). Das ist nicht nur für uns Menschen ein bisschen zu viel, das schaffen nicht einmal die modernsten Computer so leicht.

Abbildung 2. CMS Detektor: Will man zu einem Ereignis alle Informationen sammeln, die der CMS-Detektor aufgenommen hat, so muss man an die hundert Millionen Kanäle berücksichtigen.

Wenn man genug Geld hat, kann man sich viele Computer kaufen und parallel arbeiten lassen. Damit ist es aber noch nicht getan: man muss zuerst die Daten aus dem Detektor herausholen, und auch das ist keineswegs trivial. Um so viele Daten so rasch „herauszuschaufeln“, braucht man viele Datenleitungen und auch viel elektrische Leistung. Die dafür erforderlichen Stromleitungen, die Datenleitungen und die bei so viel Leistung erforderlichen Kühlanlagen würden dann aber kaum mehr Platz für die eigentlichen Detektoren lassen, die die Teilchen wahrnehmen sollen. Wie kann man sich aus dieser Zwickmühle befreien?

Arbeit machen - oder Arbeit vermeiden?

Am besten wäre es, gar nicht alle Informationen aus dem Detektor herausholen zu müssen. Wie wir oben gesehen haben, suchen wir ja eigentlich recht seltene Ereignisse, das meiste, was bei den Protonenkollisionen passiert, ist für uns nur störender „Untergrund“. Es geht uns ein bisschen wie einem Astronomen in einer Großstadt: er will die Sterne beobachten, hauptsächlich sieht er aber nur das Licht der Straßenbeleuchtung. Man müsste das irgendwie filtern können, irgendwie schon vorher wissen, welche Ereignisse nun interessant sind und welche nicht. Wie soll man das anstellen?

Die Lösung nennt sich „Trigger“, also „Auslöser“. Ausgelöst werden soll hier aber natürlich nicht der Schuss eines Revolvers, wie bei irgendwelchen „trigger-happy cowboys“, sondern die Aufzeichnung der Daten. Die Idee ist, dass man sich an Hand von wenigen Informationen ein erstes Bild von einem Ereignis macht und damit bereits viele Untergrundereignisse, die einen nicht interessieren, verwerfen kann. Stellen Sie sich vor, Sie sind eine Dame auf einem Ball und suchen einen Tänzer. Leider sind ja viele junge Männer tanzfaul, und auf den Bällen herrscht dann manchmal Damenüberschuss und Herrenknappheit. Wenn Sie einen männlichen Tanzpartner haben wollen, werden Sie zuerst einmal alle Damen ausfiltern. Wer also im Abendkleid daherkommt, wird gar nicht erst näher angesehen. Erst, wenn Sie Beine in einer schwarzen Anzughose sehen, brauchen Sie den Blick zu heben und genauer untersuchen: ist es wirklich ein Herr oder vielleicht eine Dame in einem Hosenanzug? Sieht er halbwegs attraktiv aus? Kann er einigermaßen tanzen?

Der Trigger

Ähnlich gehen die Physiker mit dem „Trigger“ vor, der natürlich, auf Grund der vielen Untergrundereignisse, automatisch funktionieren muss. Zuerst werden auf Grund grober Kriterien schon viele weniger interessant erscheinende Ereignisse verworfen, dann bleiben schon weniger über, und man kann sich den Rest immer genauer ansehen. Dafür liest man die Informationen zuerst rasch, aber mit grober Auflösung aus. Dadurch bekommt man einen ersten Eindruck davon, in ungefähr welche Richtung Teilchen davonfliegen, und mit ungefähr welchem Impuls. Dann wissen wir im Nachhinein, welche Ereignisse vielleicht interessant gewesen wären und eine genauere Untersuchung verdient hätten. Aber ist es jetzt nicht schon zu spät dafür? Nein! Alle Teile des Detektors sind mit „memories“, mit Kurzzeitgedächtnissen ausgestattet, und wenn das Triggersignal nur rasch genug in den Detektor zurückkommt, können von dort noch alle Detailinformationen abgeholt werden. Wenn das Triggersignal zu spät kommt, dann hat der Detektor bereits „vergessen“, was gesehen wurde: genauer gesagt, die entsprechenden Einträge im Speicher wurden bereits überschrieben, also durch andere ersetzt.

So können die Physiker also der ungeheuren Datenmengen Herr werden:

  • alles mit hoher Präzision lokal auf kurze Zeit abspeichern;
  • ein grobes Bild an das rasche elektronische Triggersystem schicken (das sind spezielle elektronische Geräte, normale Computer wären hier zu langsam);
  • wenn dieses das Ereignis für interessant wertet und ein entsprechendes Signal zurückschickt, die Daten mit voller Präzision aus dem Speicher holen und an eine Computerfarm weiterschicken;
  • viele Computer können sich nun die Arbeit teilen und an Hand der genauen Daten, die ihnen zur Verfügung stehen, nochmals viele Ereignisse als doch nicht so interessant verwerfen; diese Computerfarm bezeichnet man dann auch als „zweite Triggerstufe“ oder „High-Level Trigger“.

Das Triggersystem erinnert ein bisschen an die Tauben im Aschenputtel (Abbildung 3): alleine hätte es die arme Physikerin Aschenputtel nie geschafft, alle Erbsen zu prüfen, aber die vielen Tauben haben ihr dabei geholfen, die guten herauszulesen: „Die guten ins Töpfchen, die schlechten ins Kröpfchen.“

Abbildung 3. Aschenputtel: So wie die Tauben dem Aschenputtel beim Erbsensortieren helfen, so hilft der Trigger den Physikern bei der Auswahl der interessanten Ereignisse.

Bei Experimenten am LHC-Beschleuniger des CERN müssen so die elektronischen Triggersysteme 40 Millionen Mal in der Sekunde eine erste Entscheidung liefern (der Techniker sagt, sie laufen mit 40 MHz – Megahertz). Sie dürfen höchstens 100 000 Mal in der Sekunde eine positive Entscheidung treffen, sonst geht es sich nicht aus, alle Daten aus dem Detektor herauszuholen (d.h. sie schicken Daten mit 100 kHz – Kilohertz – an die Computerfarm weiter). Die Computer wählen dann nochmals aus dieser Zahl zwischen 100 und 1000 Ereignissen pro Sekunde aus, die wirklich so interessant scheinen, dass die Physiker sie auf Dauer abspeichern und genau analysieren.

Kann sich der Trigger irren?

Wichtig ist es natürlich, hier nicht das Kind mit dem Bade auszuschütten und womöglich auch eine Menge interessanter Ereignisse zu verwerfen. Wie kann man überprüfen, ob das nicht passiert? Hierfür akzeptiert man zusätzlich einen kleinen Teil der weniger interessant scheinenden Ereignisse, also z.B. nur jedes hundertste oder jedes tausendste. Die kann man sich dann getrennt anschauen und prüfen, ob hier wirklich nur uninteressante Ereignisse sind, ob man vielleicht bei irgendeiner Auswahlbedingung zu streng war (dann wäre der Trigger „ineffizient“). Umgekehrt prüft man natürlich in den ausgewählten Daten, ob man auch nicht zu viele uninteressante Ereignisse irrtümlich doch aufgezeichnet hat (ob der Trigger „sauber“ genug ist).

Nur so ist es möglich, aus der Unmenge von Daten schlussendlich doch die wenigen, hochinteressanten Ereignisse herauszufiltern, die es uns dann ermöglichen, unsere physikalischen Theorien zu überprüfen und weiter zu entwickeln. Einen ganz entscheidenden Beitrag hat dabei das Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften geleistet, von dessen Mitarbeitern einige sehr wesentliche Teile der Triggerelektronik am LHC-Experiment „CMS“ („Compact Muon Solenoid“) entwickelt und gebaut wurden (Abbildung 4).

Wenn Sie uns in Genf besuchen, werden wir Ihnen das gerne zeigen und noch genauer erklären!

Abbildung 4. CMS Globaler Trigger: Ein Teil der von Wien entwickelten Triggerelektronik für das CMS-Experiment am CERN in Genf.


Weiterführende Links

Artikel von Manfred Jeitler im ScienceBlog:

07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?

23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.

CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire). Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.

Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)

Publikumsseiten des CERN: http://home.cern/about

Large Hadron Collider (LHC) http://home.cern/topics/large-hadron-collider

HEPHY (Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften) http://www.hephy.at/. HEPHY liefert signifikante Beiträge zum LHC Experiment CMS am CERN, Genf, sowie zum BELLE Experiment am KEK in Japan.

Der CMS Trigger: http://www.hephy.at/forschung/cms-experiment-am-lhc/trigger/ , http://www.hephy.at/de/innovation/elektronikentwicklung/


 

inge Fri, 13.11.2015 - 07:00

Klimaschwankungen, Klimawandel – wie geht es weiter?

Klimaschwankungen, Klimawandel – wie geht es weiter?

Fr, 06.11.2015 - 12:20 — Peter Lemke

Peter LemkeIcon KlimaSeit dem Beginn der Industrialisierung ist der CO2-Gehalt der Atmosphäre sprunghaft angestiegen und verstärkt damit den natürlichen Treibhauseffekt: es wird wärmer, die (polaren) Eisschilde schmelzen und der Meeresspiegel steigt. Peter Lemke, ehem. Leiter des Fachbereichs Klimawissenschaften am Alfred-Wegener-Institut in Bremerhaven und dzt. Leiter der Klimainitiative REKLIM der Helmholtz-Gemeinschaft, beschreibt an Hand von Klimaprojektionen das in den nächsten Jahrzehnten zu erwartende Szenario und mögliche Lösungswege.*

Reflektivität (Albedo) und Treibhauseffekt sind mitbestimmend für die Oberflächentemperatur eines Planeten (siehe: „Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt“ *). Unter Albedo versteht man die Helligkeit, mit der der Planet nach außen hin erscheint, d.h. mit der er die Sonnenstrahlung reflektiert. Der Treibhauseffekt beruht darauf, dass die Wärmeabstrahlung der Planetenoberfläche mit den Gasteilchen der Atmosphäre wechselwirkt und diese dabei erwärmt. Dem natürlichen Treibhauseffekt verdanken wir, dass die Oberflächentemperatur unserer Erde von -18 °C (die tatsächlich am äußeren Rand der Atmosphäre gemessen wird) auf lebensfreundliche +15 °C gestiegen ist.

Unser Einfluss auf den Treibhauseffekt

Der Treibhauseffekt wird im Wesentlichen durch Wasserdampf und CO2 verursacht. Auch andere Gasemissionen, beispielsweise von Methan (CH4) und Lachgas (N2O) aus der Landwirtschaft, tragen bei, bewirken in Summe genommen aber einen geringeren Effekt, als das in hohen Konzentrationen vorliegende CO2.

Auf den Wasserdampf haben wir keinen Einfluss, Wasserdampf ist physikalisch geregelt: wenn zu viel davon in der Luft ist, dann regnet es.

Beim CO2 ist das nicht so. Es bleibt mehrere Jahrhunderte in der Atmosphäre.

Wie Oberflächentemperaturen und atmosphärische CO2-Konzentrationen schwanken

Aus den Luftblasen, die in den Eisbohrkernen der polaren Eisschilde eingeschlossen sind, können die atmosphärischen Gaskonzentrationen quantitativ bestimmt werden (Abbildung 1). Mittels chemischer Analyse lassen sich die CO2-Konzentrationen (und auch die Konzentrationen anderer Gase wie Methan oder Stickoxyde) bis 860 000 Jahre zurückverfolgen. Informationen zu den entsprechenden Temperaturen kann man u.a. aus den Verhältnissen der Isotope des Wasserstoffs (2H : 1H)und Sauerstoffs (18O : 16O) ableiten.

Aus diesen Untersuchungen an den Bohrkernen ist eine periodische Abfolge von Eiszeiten auf Warmzeiten erkennbar – Eiszeit folgte auf Warmzeit, auf Eiszeit, auf Warmzeit, usw. Die letzte Eiszeit liegt 20 000 Jahre zurück, die letzte Warmzeit 120 000 Jahre. Die Periodizität dieser Abläufe spiegelt die Änderungen der Sonneneinstrahlung auf Grund periodisch geänderter Erdbahnparameter – der Neigung der Erdachse (41 000 Jahre), Präzession (19 000 und 23 000 Jahre) und Exzentrik der Erdbahn (100 000 Jahre) – wider. Dieselbe Periodizität ist für die CO2–Konzentrationen der Luft ersichtlich: diese lagen in den Eiszeiten durchweg bei 180 ppm (ppm: parts per million = millionstel Volumenanteile), in den Warmzeiten typischerweise bei 280 ppm (Abbildung 1).

Abbildung 1. Bestimmung der atmosphärischen CO2-Konzentrationen aus Eisbohrkernen. CO2Bestimmungen über eine Zeitskala von 800 000 Jahren (links) lassen eine Abfolge von Eiszeiten und Warmzeiten erkennen, die durch unterschiedlich hohe CO2-Konzentrationen charakterisiert sind. Der enorme CO2-Anstieg in den letzten 200 Jahren ist rot eigezeichnet. Rechts: Luftblasen in einem Bohrkern aus einem polaren Eisschild.

Erst in den letzten 200 Jahren – seit dem Beginn der Industrialisierung - ist der CO2-Gehalt sprunghaft auf nahezu 400 ppm angestiegen – d.h. um mehr als die bis dahin beobachtete, natürliche Schwankungsbreite zwischen Warmzeiten und Eiszeiten betragen hat. Während die Natur aber typischerweise 20 000 Jahre gebraucht hat, um vom CO2-Minimum in den Eiszeiten zum Maximum in den Warmzeiten zu gelangen, haben wir den rasanten Anstieg in nur 200 Jahren bewirkt.

Abbildung 2. CO2-Gehalt der Atmosphäre am Mauna Loa (Hawaii) von 1958 - 2013. Die Reduktion von CO2 infolge des Aufbaus von Biomasse in den Frühjahr/Sommer-Phasen macht den jährlichen Anstieg nicht wett. Seit dem Beginn der Messungen im Jahr 1958 ist das CO2 der Luft von 315 ppm auf 398,8 ppm angestiegen (September 2015; http://co2now.org/) und die Emissionsrate steigt weiter an (rote Pfeile).

Das Problem dabei ist, dass das System Erde das CO2 nicht schnell genug aufnehmen/umsetzen kann – es hinkt hinterher und als Folge steigt der CO2-Gehalt der Atmosphäre kontinuierlich an. Dies zeigt sich beispielsweise in den direkten CO2- Messungen am Mauna Loa (Hawaii), die seit 1958 durchgeführt werden. Wenn im Frühjahr auf der Nord-Halbkugel Biomasse mittels Photosynthese aufgebaut wird, sinkt der CO2-Gehalt der Atmosphäre, um im Herbst/Winter wieder anzusteigen. Das Absinken im nächsten Frühjahr geht aber nicht bis zum Ausgangswert des Vorjahrs zurück. So kommt es zu einer fortlaufenden Steigerung der CO2-Emissionsrate (Abbildung 2). Grund dafür sind die Emissionen der Menschen durch Nutzung fossiler Brennstoffe.

Es ist wärmer geworden,…

Abbildung 3. Die globalen Temperaturen an der Erdoberfläche steigen deutlich an. Oben: Globale Lufttemperaturen im Vergleich zu dem über 3 Dekaden – 1951 -1980 – gemittelten Wert. Der Trend ist von natürlichen Schwankungen überlagert, u.a. durch das El Niño Phänomen oder Oszillationen im Nordatlantik. Unten: globaler Trend seit 1963. (GISS 1963 – 2012).

Verfolgt man den Verlauf der jährlichen Mitteltemperaturen seit rund 150 Jahren (d.h. seit dem Beginn weltweit geregelter Temperaturmessungen), so wird ersichtlich, dass seit der Mitte des vorigen Jahrhunderts eine globale Erwärmung stattfindet, insbesondere in den letzten 3 Dekaden (Abbildung 3).

Jede dieser Dekaden war wärmer als die vorhergegangene. Der Zeitraum 2001 – 2010 war überhaupt die wärmste Dekade seit Beginn der Aufzeichnungen.

Flacht dieser Temperaturanstieg in den letzten Jahren jetzt ab? Die Antwort ist: die Energie, die durch den zusätzlichen Treibhauseffekt entstanden ist, ist nicht nur in der Atmosphäre stecken geblieben: 93 % davon wurden benutzt, um die Ozeane zu erwärmen, 3 % um Eisschilde zu schmelzen, 3 % um die Kontinente zu erwärmen und nur 1 % um die Atmosphäre zu erwärmen (Abbildung 4).

Abbildung 4. Die globale Erwärmung ist eindeutig. Die durch den Treibhauseffekt erhaltene Energie hat insbesondere die Erwärmung der Ozeane bedingt, in geringerem Ausmaß das Abschmelzen der polaren Eismassen und den Anstieg der Lufttemperatur. Links: beobachtete Änderung der globalen Oberflächentemperatur zwischen 1850 und 2012; oben: Jahresmittel, unten: dekadische Mittelwerte. Rechts oben: Meereisbedeckung der Arktis im Sommer (in Millionen km2) Rechts unten: Änderung des mittleren Wärmegehalts in oberen Ozeanschichten (0–700m) verglichen mit dem Mittelwert von 1970

…die Eismassen schmelzen, die Meeresspiegel steigen

Die letzten drei Dekaden waren die wärmsten, die wir seit 1952 zu verzeichnen haben, der Wärmeinhalt des Ozeans ist gestiegen und das arktische Meereis gewaltig geschrumpft. Es kommt in den letzten Jahren zu einem verstärkten Anstieg des Meeresspiegels, den sowohl Meeresstationen als auch Satellitenfotos dokumentieren. War im vergangenen Jahrhundert ein mittlerer Anstieg von 1,7mm/Jahr zu verzeichnen, so liegt der gegenwärtige Anstieg bei 3,2mm jährlich.

Abbildung 5.Die Gletscher gehen weltweit zurück und tragen zum Anstieg der Meeresspiegel bei. Nicht nur der Morteratsch-Gletscher in der Berninagruppe (Schweiz) ist so stark geschrumpft, sondern alle Gletscher weltweit.

Auch die Gletscher gehen weltweit zurück, vor allem seit dem Beginn der 1990er Jahre. Aktuell trägt dieser Rückgang jährlich bereits 0,8mm zum Meeresspiegelanstieg bei (Abbildung 5). Besonders hoch ist auch das Abschmelzen der Eisschilde – in der Dekade 2003 – 2012 übertreffen die Eismassenverluste in Grönland (0,6mm/Jahr) und in der Antarktis (0,4mm/Jahr) zusammen schon die Summe der Schmelzmasse aller Gletscher.

Was bringt die Zukunft? Klimamodelle

Wie sich das Klima entwickeln wird, lässt sich an Hand von Computermodellen simulieren. Diese sind zwar noch nicht perfekt, stellen jedoch die besten Vorhersagemodelle dar, die unsere Gesellschaft heute besitzt (besser als beispielsweise Modelle für Marktprognosen oder die Steuerschätzung).

Die Klimamodelle berechnen die Wechselwirkungen und Rückkopplungen der verschiedenen Komponenten des komplexen Klimasystems – Atmosphäre, Ozeane, Eismassen und Biosphäre am Land und in den Meeren. Von der physikalischen Seite her sind die Ansätze eigentlich simpel. So basieren funktionierende Klimamodelle für das System Atmosphäre – Ozean – Eis

  • auf etablierten, einfachen physikalischen Grundgleichungen, nämlich dem Massenerhaltungssatz, dem Energieerhaltungssatz und dem Impulserhaltungssatz, und
  • auf Messdaten von sechs grundlegenden Zustandsvariablen - Temperatur, Salzgehalt, Feuchte, Druck, Strömung, Wind (dies sind regelmäßig von Bodenstationen, Flugzeugen, Satelliten, Forschungsschiffen, driftenden Bojen etc. erhobene Daten), mit denen die Modelle validiert werden. Zusätzlich werden noch andere Variablen, wie z.B. Wolkenbedeckung und Niederschlag einbezogen.

Um Simulationen des sehr komplexen globalen Klimasystems zu ermöglichen, wird ein dreidimensionales Gitternetz über den Globus gelegt und für jede der so entstehenden Boxen (horizontale Abstände > 100km, vertikal 1km) mit Hilfe der genannten Gleichungen z.B. die Energiebilanz berechnet: d.i. wie viel Wärme geht in die Box, wie viel Wärme kommt heraus und wie viel bleibt drin und verändert dort die Temperatur (Abbildung 6).

Abbildung 6. Das Klimamodell berechnet die Wechselwirkungen zwischen den Komponenten Atmosphäre und Ozean mit Hilfe einfacher physikalisch-chemischer Grundgleichungen und einer Reihe von Variablen. (3D-Gitter: SNAP - Scenarios Network for Alaska and Arctic Plannin. Creative Commons Attribution 3.0 License)

Klimaprojektionen

Um an Hand der Klimamodelle Prognosen über langfristige künftige Entwicklungen des Klimas erstellen zu können, werden Szenarien durchgespielt, die auch ökonomische und soziale Entwicklungen (Wachstum der Bevölkerung, Ressourcenverbrauch) berücksichtigen und darauf basierend unterschiedliche Emissionen von CO2 und anderen Treibhausgasen in Rechnung stellen. (Im 5. Sachstandsbericht des IPPC - Intergovernmental Panel on Climate Change – treten diese Szenarien als sogenannte „Repräsentative Konzentrationspfade“ (Representative Concentration Pathways - RCPs) in Erscheinung).

Alle diese Prognosen zeigen: wenn wir – im günstigsten Fall – versuchen, die Emissionen schon jetzt zu drosseln, in der zweiten Hälfte dieses Jahrhunderts auf Null herunterzufahren und die CO2 Konzentration bis 2100 durch negative Emissionen (Carbon Capture and Storage) auf 400 ppm zu reduzieren (Szenario RCP 2.6), können wir bis zum Jahr 2100 unterhalb eines Temperaturanstiegs von 2 °C bleiben. Auch dann wird aber das arktische Meereis um ca. ein Drittel schrumpfen und der Meeresspiegel um rund 0,4m ansteigen. Wenn wir aber wie gehabt weitermachen, den Ausstoß von Treibhausgasen nicht bremsen, werden wir eine Erwärmung von bis zu 6 °C verursachen (RCP 8.5). Das arktische Meereis im Sommer könnte dann bereits 2070 verschwinden, der Meeresspiegel um bis zu einem Meter ansteigen. (Abbildung 7)

Abbildung 7. Klimaprojektionen für 4 RCP-Szenarien (RCP: repräsentative Konzentrationspfade). RCP 2,6 bedeutet, dass die aktuelle CO2- Konzentration von 400 ppm nicht weiter ansteigt, RCP8,5 berücksichtigt den steigenden Energieverbrauch und die entsprechenden Emissionen bei einem Anstieg der Weltbevölkerung auf 12 Milliarden im Jahr 2100. (5. Sachstandsbericht IPPC)

Die globale Erwärmung verändert auch die Kapazität der unteren Atmosphäre für Wasserdampf. Wie nun Wetterextreme eintreten werden, Niederschläge sich entwickeln werden, ist insbesondere für die Landwirtschaft von Interesse. Hier stimmen alle Projektionen dahingehend überein, dass in Mitteleuropa die Sommer heißer und trockener werden und sich die Trockenzone im Mittelmeergebiet nach Norden ausdehnen wird. Ein heißer Sommer, wie beispielsweise im Jahr 2003, wird 2050 wahrscheinlich bereits als normal und 2070 schon als kühl angesehen werden. Die Winter werden dagegen nasser werden – das bedeutet, dass zwar genügend Grundwasser vorhanden sein wird, die Bauern die Felder im Sommer aber bewässern werden müssen.

Der zu erwartende Anstieg des Meeresspiegels von bis zu einem Meter wird vor allem dichtbesiedelte, flache Küsten ohne geeignete Schutzvorrichtungen bedrohen – zig Millionen Menschen in Entwicklungsländern können davon betroffen sein.

Was kann getan werden?

Die Wissenschaft hat das Problem des Klimawandels und seiner Ursachen erkannt und Lösungswege ermittelt. Diese Lösungswege benötigen politische, sozio-ökonomische aber auch persönliche Umsetzung und können zusammengefasst unter den Begriffen Anpassung und Vermeidung subsummiert werden.

Anpassung bedeutet, dass wir

  • dem Anstieg des Meeresspiegel durch den Bau höherer Deiche begegnen,
  • verbesserte Schutzvorrichtungen gegen Überschwemmungen errichten,
  • Katastrophenschutz gegen extreme Wettersituationen einplanen,
  • uns vor Hitzewellen schützen müssen.

Vermeidung bedeutet, dass wir

  • Energie einsparen,
  • alternative Energietechnologien anwenden,
  • und vor allem Emissionen von Treibhausgasen zu vermeiden versuchen,

Unsere Herausforderung ist es, unseren sich stetig wandelnden Planeten nachhaltig zu nutzen.


*Der Artikel basiert auf dem zweiten Teil des Vortrags, den Peter Lemke anlässlich der Tagung „Diversität und Wandel - Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm . Der erste Teil des Vortrags: „Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt“, ist bereits am 30. Oktober erschienen.


Weiterführende Links

inge Fri, 06.11.2015 - 00:20

Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Fr, 30.10.2015 - 06:30 — Peter Lemke Peter LemkeIcon Klima

Das Klima auf unserer Erde ist das Resultat einer über Milliarden Jahre dauernden Entwicklung, in der die Wechselwirkungen zwischen Atmosphäre, Kryosphäre, Ozeanen und Biosphäre einen relativ stabilen Gleichgewichtszustand geschaffen haben. Peter Lemke, ehem. Leiter des Fachbereichs Klimawissenschaften am Alfred-Wegener-Institut in Bremerhaven und dzt. Leiter der Klimainitiative REKLIM der Helmholtz-Gemeinschaft, beschreibt hier natürliche Ursachen für Klimaschwankungen, die sich auf von Monaten bis hin zu Jahrmillionen reichenden Zeitskalen abspielen.

Unser Klima wird in einem sehr komplexen System geschaffen, dessen Hauptkomponenten Atmosphäre, Ozean, Eismassen und Biosphäre auf dem Land und in den Meeren sind. Dieses System wird von der Sonne angetrieben, wobei die Sonnenenergie durch die Drehung der Erde und die Strahlungseigenschaften der Atmosphäre dann global verteilt wird.

Die Komponenten des Klimasystems wechselwirken miteinander und es finden zwischen ihnen permanent Austauschprozesse statt (Abbildung 1). Es sind dies:

  • ein Austausch von Masse: es regnet – Wasser gelangt von der Atmosphäre in den Ozean – Wasser verdunstet,
  • ein Austausch von Wärme,
  • ein Austausch von Impuls: der Wind streicht über den Ozean, die Reibung regt die Ozeanzirkulation an.

Abbildung 1. Das Klimaproblem ist multidisziplinär. Zwischen den Komponenten des Klimasystems – Atmosphäre, Biosphäre, Land, Ozean und Eismassen – findet ein permanenter Austausch von Wärme, Impuls und Masse statt (grün, blau). Natürlicher Einfluss auf das Klima: lila Pfeile, anthropogener Einfluss: rot schraffierte Pfeile.

Die Randbedingungen für das Klimasystem werden von der Sonne geprägt, inzwischen aber auch von der Einmischung des Menschen – dadurch, dass er die Landoberflächen und die Gaszusammensetzung der Atmosphäre verändert.

Das in diesem System entstehende Klima weist Schwankungen um einen relativ stabilen Gleichgewichtszustand auf. Diese Schwankungen spielen sich auf Zeitskalen ab, die von Monaten bis hin zu Jahrmillionen reichen – dies wird durch geologische Bestimmungen in marinen Sedimenten und Eisbohrkernen, durch Analysen von Baumringen, historische Aufzeichnungen und moderne Messmethoden belegt.

Was sind die treibenden Kräfte von Klimaänderungen?

Natürliche Ursachen von Klimaschwankungen, die von außen kommen:

  • Erst einmal sind dies Änderungen der Sonneneinstrahlung, welche ja die Temperatur auf der Erde bestimmt. Die Sonnenstrahlung ist zurzeit allerdings sehr konstant, selbst der 11-Jahreszyklus („Sonnenzyklus“) ist nur wenig ausgeprägt und reicht energetisch nicht aus, um die aktuellen Klimaschwankungen zu erklären. Andere Änderungen, welche die Sonneneinstrahlung beeinflussen, beruhen auf einem unterschiedlichen Abstand der Erde von der Sonne, Neigungen der Erdachse und Umlaufbahnen: diese Änderungen erfolgen aber auf Zeitskalen von 20 000 Jahren und länger.
  • Kurzfristige Ursachen von Klimaänderungen durch große Vulkanausbrüche erleben wir dagegen immer wieder. So hat in den folgenden ein bis zwei Jahren nach dem Ausbruch des Pinatubo auf den Philippinen (1991) die herausgeschleuderte Asche zu einer Absenkung der mittleren Temperatur um 0,5 °C auf der Nord-Hemisphäre geführt. Derartige Ursachen sind nicht vorhersagbar.

Den Großteil der natürlichen Veränderungen bewirken aber interne Ursachen

Primär entstehen natürliche Klimaschwankungen dadurch, dass die Erde eine Kugel ist, und die Sonneneinstrahlung an den unterschiedlichen Breitegraden unterschiedlich ankommt:

  • Die Tropen empfangen viel mehr Energie als die Polargebiete, dadurch entstehen Temperaturgradienten.
  • Temperaturgradienten können – in Wasser und Luft – nicht stabil nebeneinander bestehen: kalte Luft rutscht sofort unter die warme – es kommt dadurch zu einer Zirkulationsänderung. Die Temperaturgradienten erzeugen Bewegung in der Atmosphäre und im Ozean, die Wärme wird dann polwärts transportiert (Abbildung 2). Beispielsweise transportiert der Golfstrom 1 Petawatt (1015 W) – in Strompreis umgerechnet wären das 31 Millionen €/Sekunde.
  • Die durch die Temperaturunterschiede entstehende Bewegung in der Atmosphäre und im Ozean ist turbulent, laminare Strömungen treten kaum auf. In der Atmosphäre treten Hoch-und Tiefdruckgebiete auf, im Meer Wirbel. (Beispielsweise zeigt der Golfstrom warme Wirbel in einer kalten Umgebung und kalte Wirbel in warmer Umgebung, Abbildung 2.)

Abbildung 2. Temperaturunterschiede erzeugen Bewegungen in Atmosphäre und Ozean (Bilder: oben: ESA, unten: NASA).

Natürliche Klimaschwankungen sind auch eine Folge der Neigung der Erdachse: Dadurch, dass diese schief steht, gibt es Jahreszeiten und damit eine zeitlich unterschiedliche Einstrahlung der Sonne.

Durch die Gravitationseinwirkung der anderen Planeten ändern sich die Neigung der Erdachse und auch die anderen Erdbahnparameter (Präzession, Exzentrizität) und somit ändert sich die Energie, die pro Breitengrad auf der Erde ankommt. Die entsprechenden Perioden von 41 000, 23 000 und 100 000 Jahren findet man auch in allen Klimadaten wieder.

Die Komponenten des Klimasystems sind nicht unabhängig, sie wechselwirken miteinander in komplexer Weise. Diese Wechselwirkungen sind durch vielfältige Rückkopplungen geprägt, die verstärkende oder abschwächende Wirkungen haben (Abbildung 1). Ein Beispiel dafür ist das Eis – Albedo – Temperatur System: Wenn Eisflächen schrumpfen, werden die hellen Flächen kleiner, auf den dunklen Flächen wird mehr Sonnenenergie absorbiert, es wird wärmer und in Folge werden die weißen Eisflächen weiter reduziert. Dieser Prozess kann auch umgekehrt verlaufen.

Dazu kommt, dass die Komponenten des Klimasystems unterschiedliche Reaktionszeiten haben: Die Atmosphäre reagiert schnell – der Durchzug eines Tiefdruckgebiets dauert wenige Tage. Der Ozean reagiert dagegen langsam. Für Änderungen an seiner Oberfläche braucht es einige Monate, in seiner Tiefe tausende Jahre.

  • Veränderungen der Landoberfläche. Dabei hat die Infrastruktur – Städte, Straßen etc. – die wir auf der Erde gebaut haben, nur einen kleineren Anteil an unserem Einfluss. Der größere Teil kommt von den riesigen Flächen, die wir für die Landwirtschaft angelegt haben. Ein Feld reflektiert die Sonnenstrahlung anders als ein Wald.
  • und steigende CO2-Emissionen. Die erwähnte Flächenänderung in den Ökosystemen trägt zum CO2 Anstieg nur 22 % bei. Rund 78 % kommen dadurch zustande, dass wir fossile Energie – Kohle, Öl, Gas – nutzen. Verwenden wir dagegen Holz in dem Ausmaß, in dem es wieder nachwächst, ist das ein Nullsummenspiel: Bäume nutzen das CO2 aus der Luft zur Photosynthese ihrer Biomasse, bei deren Verbrennung wird es wieder freigesetzt. Gemessen an der Zeitskala, die die Natur gebraucht hat, um aus Biomasse fossile Brennstoffe zu generieren, verbrennen wir diese viel zu rasch.

Zur Energiebilanz der Erde

Die Energiebilanz wird durch die Aufnahme der Sonnenenergie und die Wärmeabstrahlung der Erde bestimmt (Abbildung 3).

Abbildung 3. Strahlungsbilanz der Erde. Im thermischen Gleichgewicht wird ebenso viel Sonnenenergie (gelb) aufgenommen, wie Wärmeenergie auch wieder abgestrahlt wird (rot). (Die Strahlungstemperatur T wird in Kelvin (K) – absoluter Temperatur – angegeben; der absolute Nullpunkt 0K liegt bei –273,15 °C)

Energieaufnahme

Wir bekommen von der Sonne am oberen Rand der Atmosphäre 1368 W/m2 (S, Energieflussdichte) geliefert. Davon nimmt die Erde aber nicht alles auf. Was von den Strahlenbündeln der Sonne ausgeschnitten wird, entspricht dem Kreisquerschnitt der Erde multipliziert mit der Energieflussdichte (πr2×S), wobei einiges an Energie, nämlich 30 % durch Wolken, reflektiert wird (α ist die Albedo).

Wärmeabstrahlung

Die Physiker Josef Stefan & Ludwig Boltzmann haben um 1879 herausgefunden, dass die Wärmeabstrahlung eines Körpers proportional zur 4. Potenz seiner absoluten Temperatur und zu seiner Oberfläche erfolgt. Die Proportionalitätskonstante σ ist eine Naturkonstante.

Im thermischen Gleichgewicht wird ebenso viel Energie abgegeben, wie aufgenommen wurde.

Berechnet man nun die Strahlungstemperatur T eines Planeten (Abbildung 4), so sieht man, dass dessen Größe dabei keine Rolle spielt. T ist nur vom Energieangebot der Sonne S und von der Reflektivität α des Planeten abhängig, d.h. von der Helligkeit mit der der Planet nach außen hin erscheint, mit der er die Sonnenstrahlung reflektiert.

Abbildung 4. Strahlungstemperatur T für die Planeten Venus, Erde und Mars.

Wie gewaltig der Einfluss der Reflektivität ist, lässt sich am Vergleich der Abstrahlungstemperatur der drei Planeten Venus, Erde und Mars aufzeigen (Abbildung 4).

  • Für die Erde errechnet man -18 °C, ein Wert, der in der Space-Station mit dem Strahlungsthermometer tatsächlich gemessen wird. Es ist dies die Temperatur mit der die Erde mit dem Weltraum kommuniziert, zum Glück nicht ihre Oberflächentemperatur (s.u.). Selbst, wenn die Erde ganz schwarz wäre, d.h. alle Sonnenenergie absorbierte, kämen wir nur auf eine Strahlungstemperatur von 5 °C. Für die Entwicklung des Lebens, wie wir es heute sehen, eine etwas niedrige Temperatur – ohne den natürlichen Treibhauseffekt wäre das Leben auf der Erde sicher nicht so geworden, wie es heute ist.
  • Die Venus ist dichter an der Sonne, bekommt doppelt so viel Energie, wie die Erde, sie ist aber nach außen hin viel kälter, weil sie ganz hell ist, bewölkt ist . (Innen ist sie aber sehr heiß).
  • Der Mars ist ähnlich hell wie die Erde, aber weiter weg und erhält nur die Hälfte unserer Sonnenenergie; er ist deswegen kalt (-62 °C).

Was ist der Treibhauseffekt?

Wie bereits erwähnt, ist die Abstrahlungstemperatur der Erde nicht gleich der Temperatur am Erdboden: wir haben hier eine Gasschicht (Wasser, CO2, Methan,.. ), die transparent ist für die Sonneneinstrahlung, nicht aber für die langwellige, nach oben gerichtete Wärmeabstrahlung der Erdoberfläche. Diese wechselwirkt mit den Gasteilchen und erwärmt die Lufthülle, die dann Wärme nach oben und unten abstrahlt und damit der Oberfläche einen Teil der Wärmestrahlung zurückgibt (Abbildung 5). Die Atmosphäre absorbiert also einen Teil der thermischen Ausstrahlung der Erdoberfläche.

Abbildung 5. Der Treibhauseffekt der Erde. 38 % der Wärmeabstrahlung (rot) wird in der Gasschichte der Atmosphäre absorbiert und erwärmt diese.

Dieser Anteil (1-β) – der Treibhauseffekt – ergibt sich aus der Oberflächentemperatur von 15 °C und der Strahlungstemperatur am oberen Rand der Atmosphäre von –18 °C: er beträgt 0,38, d.h. 38 % der Abstrahlung, die von der Erdoberfläche ausgeht, wird in der Atmosphäre absorbiert und teilweise wieder zurückgestrahlt.

Im Falle des Planeten Venus kennen wir die Strahlungstemperatur nach außen (-46 °C) und die Oberflächentemperatur (487 °C). Der Treibhauseffekt ist hier 99 %, verursacht durch eine Atmosphäre, die zu 99,2 % aus CO2 besteht.

Schlussfolgerungen

Reflektivität (Albedo) und Treibhauseffekt eines Planeten haben einen enormen Einfluss auf seine Oberflächentemperatur. Hätte die Erde nur eine Wasseroberfläche – ein Ozeanplanet ist dunkel, hat nur 10 % Reflexion -, so kämen wir bei gleichem Treibhauseffekt auf eine Oberflächentemperatur von 32 °C.

Wäre die Erde dagegen völlig vereist (dies soll nach Ansicht einiger Geologen ja einmal der Fall gewesen sein), so wäre die Rückstrahlung des dann weißen Planeten 80 %, die Oberflächentemperatur läge bei gleichem Treibhauseffekt bei -62 °C.

Zurzeit lassen wir die weißen Flächen schrumpfen, weil die Temperaturen durch die erhöhten Treibhausgase in der Atmosphäre steigen. Die Erde wird dunkler, absorbiert mehr Sonnenenergie und wird zusätzlich wärmer.


*Der Artikel basiert auf dem ersten Teil eines Vortrags, den Peter Lemke anlässlich der Tagung „Diversität und Wandel - Leben auf dem Planeten Erde“ gehalten hat, die am 13. Juni 2014 im Festsaal der ÖAW in Wien stattfand. Ein Audio-Mitschnitt und die von ihm gezeigten Bilder finden sich auf der Seite: http://www.oeaw.ac.at/kioes/wandel.htm

Der zweite Teil des Vortrags: „Klimaschwankungen, Klimawandel – wie geht es weiter?“ wird in der folgenden Woche online gestellt.


Weiterführende Links

inge Fri, 30.10.2015 - 06:30

Wissenschaftskommunikation

Wissenschaftskommunikation

Fr, 23.10.2015 - 07:24 — Redaktion

Redaktion

Icon Politik & Gesellschaft

 

Wissenschaft und Gesellschaft – Themenschwerpunkt Wissenschaftskommunikation

„Wissenschaft und Technologie beeinflussen fast alle Bereiche unseres täglichen Lebens. Trotzdem kann die Haltung zur Wissenschaft in der Gesamtgesellschaft sich als zwiespältig erweisen, und frühere Untersuchungen haben gezeigt, dass nicht immer ein breites Verständnis für Wissenschaft oder wissenschaftliche Methoden vorhanden ist.“

Mit diesem Satz beginnt der Bericht „Spezial Eurobarometer 401: Verantwortungsvolle Forschung, Innovation, Wissenschaft und Technologie“ [1]. Wie die detaillierten Ergebnisse dieser, v on der Europäischen Kommission in Auftrag gegebenen Umfrage zeigen, trifft dieses Statement auf viele Staaten – nicht nur in Europa – zu, in besonderem Maß aber auf Österreich. Was den Grad des Interesses und Informationsstandes an naturwissenschaftlichen Themen betrifft, nimmt unser Land die untersten Plätze der Skala ein. Mehr als die Hälfte unserer befragten Mitbürger gibt an über naturwissenschaftliche und technologische Wissensgebiete weder informiert noch daran interessiert zu sein und diesbezügliche Kenntnisse für das tägliche Leben auch nicht zu brauchen.

Naturwissenschaft ist unpopulär

Für das fehlende Verständnis und die daraus folgende Ablehnung naturwissenschaftlicher Bildung gibt es mehrere Gründe. Diese beginnen in den Schulen, wo man den Naturwissenschaften geringe Bedeutung zumisst – es sind bloß Nebengegenstände, für die (noch) keine Bildungsstandards existieren –, und setzen sich im Erwachsenenleben fort. Ja, man ist gebildet, kann vielleicht Goethes Lebensabschnittspartnerinnen aufzählen, die aus der Schulzeit stammenden, bestenfalls rudimentären naturwissenschaftlichen Kenntnisse aber kaum mehr verbessern. Man bezieht nun die Informationen aus den Medien: vorzugsweise aus dem Fernsehen, in zweiter Linie aus den Printmedien und – was die jüngere Generation betrifft - aus dem Internet. Keines dieser Medien vermittelt zurzeit Laien in befriedigender Weise Information.

Wissenschaftsmeldungen in den Medien – bringt das Quote?

Sowohl im TV als auch in den Zeitungen werden Naturwissenschaften als wenig quotenbringend angesehen und rangieren zumeist an unterster Stelle.

  • Das öffentlich-rechtliche österreichische Fernsehen hat von 2009 bis jetzt die Sendezeit für Wissenschaft (+ Bildung) um 30 % reduziert (zugunsten Unterhaltungs- und Sportsendungen) – es bleiben jetzt in beiden Programmen nur mehr magere 1,2 % der Gesamtsendezeit (216 von 17 637 Stunden – etwa die Hälfte der Zeit, die der Werbung gewidmet wist)[2]. Dass davon nur ein Teil naturwissenschaftliche Inhalte hat und auch hier auf Quoten geschielt wird (herzige Viecherln, interessante Landschaften), sollte nicht unerwähnt bleiben.
  • Was die Zeitungen betrifft, weisen nur wenige eine eigene Wissenschaftsrubrik auf (Zeitungen mit der höchsten Reichweite fallen nicht darunter). Es ist offensichtlich wenig Bedarf dafür da, keine Lobby, die sich über mangelnde wissenschaftliche Information beklagt. Ein Problem ist auch, dass Wissenschaftsjournalisten kaum Zeit haben, um in diversen Gebieten komplexe Sachverhalte ausreichend zu recherchieren und zu verstehen (und dafür auch nicht angemessen entlohnt würden). So resultieren dann Artikel, die für Laien wenig verständlich sind (manchmal Fehler enthalten) und damit deren Interesse nicht steigern können. Natürlich, gibt es auch Meldungen mit hohem Unterhaltungswert: wirkliche oder vermeintliche Skandale – beispielsweise Fälschungen, die genussvoll ausgewalzt werden. Oder Jubelmeldungen, die von PR-Büros wissenschaftlicher Institutionen stammen („Krebs besiegt“, „ Alzheimer geheilt“). Viele dieser „Durchbrüche“ enden kurz darauf im Nichts.

Wissenschaft im Internet

Kann der Mangel an naturwissenschaftlicher Bildung durch das ungeheure Wissensangebot im Internet wettgemacht werden? Man kann ja googeln, Wikipedia schmökern, Videos auf Youtube sehen, etc. Leider ist für interessierte Laien seriöse, leicht verständliche Information nur schwer zu finden.

Googeln führt zu enorm vielen Resultaten und es erscheint schwierig hier die unseriöse Spreu vom seriösen Weizen zu trennen. Seriös ist natürlich (zumindest meistens) die eigentliche Fachliteratur, in ihrem „Fachchinesisch“ jedoch weitestgehend unverständlich.

Auch Wikipedia-Artikel sind meistens seriös, erweisen sich aber in vielen Fällen als zu schwierig: wenn bereits im ersten Absatz zu zehn weiterführenden Erklärungen verlinkt wird, wirft der Leser bald entnervt das Handtuch.

Videos schließlich eignen sich hervorragend zur Wissenschaftsvermittlung. Es gibt vor allem im anglikanischen Sprachraum didaktisch großartig aufgebaute Videos. Ein Großteil der Videos auf Youtube, aber auch viele Diskussionsplattformen und auf den ersten Blick seriös wirkende Webseiten erweisen sich bei näherem Ansehen als zu wenig verständlich oder krass pseudowissenschaftlich.

Aus eigener Erfahrung gesprochen: für die Links, die wir hier zwecks weiterer Information den einzelnen Artikeln des ScienceBlog zufügen, bedarf es oft eines tagelangen Suchens , Ansehens und Aussortierens eines zum überwiegenden Teil unbrauchbaren Materials.

Die Kommunikation zwischen Wissenschaft und Öffentlichkeit

Der Mangel an naturwissenschaftlicher Bildung ist erkannt. Es ist zweifellos nicht mehr nur die Bringschuld der Wissenschafter. Viele von ihnen möchten mithelfen das Interesse an ihren Wissenszweigen zu wecken, Wissen zu vermitteln und die Faszination der Forschung erlebbar zu machen. Die Frage ist dabei: wie kann Wissenschaft so effizient als möglich kommuniziert werden und möglichst viele Menschen erreicht werden? Wie kann man die zwischen Wissenschaft und Öffentlichkeit stehende Mauer von Ignoranz und Desinteresse durchbrechen?

Vielleicht kann hier unser ScienceBlog einige Anregungen geben. Eine Reihe von Wissenschaftern, Experten in ihren speziellen Fächern, äußern sich hier zur Rolle der akademischen Institutionen in der Gesellschaft, zum Stand der Wissenschaft in der Gesellschaft, zur Kommunikation Wissenschaft – Gesellschaft und schließlich auch zu negativen Aspekten der Kommunikation.

Artikel zum Themenschwerpunkt:

Forschungsträger/Wissenschaftspolitik

Naturwissenschaften und Gesellschaft

Wissenschaftskommunikation


inge Fri, 23.10.2015 - 07:24

Heiße Luft in Alpbach? 70 Jahre wissenschaftlicher Diskurs

Heiße Luft in Alpbach? 70 Jahre wissenschaftlicher Diskurs

Fr, 16.10.2015 - 09:24 — Peter C. Aichelburg

Peter Christian AichelburgIcon Politik & Gesellschaft

Seit 1945 findet alljährlich im August das Europäische Forum Alpbach statt. In dem kleinen Tiroler Dorf treffen Experten aus Politik, Wirtschaft und Wissenschaft und auch Studenten zusammen, um über wesentliche (globale) Fragen zu diskutieren und Lösungsansätze zu erarbeiten. Der wissenschaftliche Teil der Konferenz – die Seminarwoche – wird von einem hochrangigen wissenschaftlichen Kuratorium gestaltet, dessen Vorsitzender in den letzten 15 Jahren der theoretische Physiker Peter C. Aichelburg (emer. Prof. Universität Wien)war. Diese interdisziplinären Seminare und Diskurse mit Spitzenwissenschaftern und Tagungsteilnehmern finden in den Medien allerdings nicht die gebührende Beachtung.

In einer der Ausgaben des Magazins des Wissenschaftsfonds (FWF) findet sich eine Karikatur, die einen Heißluftballon über dem Kongresshaus in Alpbach zeigt, versehen mit dem Text „ Wenn österreichische Wissenschaft ein Heißluftballon wäre, würde sie durch Alpbach einen enormen Auftrieb erfahren“ (Abbildung 1)

Karikatur AlpbachAbbildung 1. Auftrieb der österreichischen Wissenschaft in Alpbach? (Copyright: FWF/scilog/Raoul Nerada)

Das EUROPÄISCHE FORUM ALPBACH hat dieses Jahr sein 70 jähriges Bestehen gefeiert. Grund genug um sich der Frage zu stellen, wie es um die „heiße Luft“ in Alpbach steht.

Ist es tatsächlich so, dass es beim alljährlich im August stattfindenden Forum hauptsächlich darum geht, sehen und gesehen zu werden? Und wie steht es mit der Wissenschaft in Alpbach? Was war die ursprüngliche Idee und wo steht das Forum heute?

„Der andere Zauberberg“

Erstmals, am 25. August 1945 trafen etwa 80 Personen, Österreicher, Franzosen, Schweizer, Amerikaner – sowohl Wissenschaftler, Künstler, Offiziere der Besatzungstruppen als auch Studenten- in dem kleinen Bergdorf Alpbach zusammen, um, wie es Otto Molden, einer der beiden Gründer in seinem Buch „ Der andere Zauberberg“ beschreibt, an den „Internationalen Hochschulwochen des Österreichischen College “ teilzunehmen. Und dies nur wenige Wochen nach der Kapitulation der deutschen Wehrmacht und wenige Tage vor der japanischen Kapitulation. Otto Molden , damals Student der Staatswissenschaften und Geschichte, und der junge Philosophiedozent Simon Moser, hatten die Idee, das durch den Weltkrieg isolierte Österreich intellektuell zu öffnen. Diese Idee eines intellektuellen Austausches über Grenzen hinweg, war so fruchtbar, dass daraus eine Institution geworden ist. Eine Institution, die im Laufe ihres Bestehens große Geister nach Alpbach bringen konnte:

Theodor Adorno, Ernst Bloch, Sir John Eccles, Viktor Frankl, Friedrich A. Hayek, Konrad Lorentz, Erwin Schrödinger , Sir Karl Popper und Hans Albert, um nur einige der bekanntesten Namen zu nennen.

Unterschiedliche Vorstellungen über die Ausrichtung des Forums

Nun ist die Frage berechtigt, ob eine Veranstaltung, die alljährlich über Jahrzehnte immer wieder stattfindet, sich nicht überlebt. Zumindest aber kann man nach der heutigen Funktion bzw. dem Sinn eines solchen Unternehmens fragen. Der frühere Präsident Heinrich Pfusterschmid stellte anlässlich des 50. Jubiläums die rhetorische Frage, ob das Forum nicht mit einem Geburtsfehler behaftet sei. Denn schon in den Anfängen waren die Vorstellungen der beiden Gründer über die Ausrichtung unterschiedlich:

Während Otto Molden ein politisch vereintes Europa im Auge hatte und in Alpbach dafür die Diskussionsbasis schaffen wollte, ging es Simon Moser darum das Forum zu einem Ort der wissenschaftlich-philosophischen Diskussion zu machen.

In gewissem Sinn finden sich die Auswirkungen dieser Auffassungsunterschiede in der Ausrichtung noch heute im Selbstverständnis des Europäischen Forums. Denn wie kann eine Veranstaltung, zu der während der zweieinhalb Wochen über 4000 Teilnehmer anreisen, auch Ort des wissenschaftlichen Diskurses sein?

Alpbacher Gespräche

Auf der einen Seite ist Alpbach mit seinen „Gesprächen“ Treffpunkt für Politiker, Repräsentanten aus Wirtschaft und Industrie, sowie von Entscheidungsträgern der Verwaltung und den öffentlichen Institutionen. Diese Gespräche sind zum Teil Großveranstaltungen, wie etwa die Technologiegespräche, zu der mehr als 900 Teilnehmer für zwei Tage anreisen, darunter einige Nobelpreisträger.

Natürlich hat sich in den letzen Jahren viel geändert. Die schon unter dem Präsidenten Erhard Busek erfolgreiche Initiative mehr Jugend nach Alpbach zu bringen findet eine Kontinuität unter dem jetzigen Präsidenten Franz Fischler. Es gibt heute über 30 assoziierte Alpbach Clubs in ganz Europa und darüber hinaus. Diese Clubs bemühen sich nicht nur lokal um Stipendien für die Teilnahme am Forum, sondern bilden untereinander ein Netzwerk mit zahlreichen Aktivitäten. Über 700 Stipendiaten aus mehr aus 40 Ländern treffen sich beim Forum, tauschen Ansichten aus und knüpfen Freundschaften. Wohl ein Betrag zu einem besseren europäischen Verständnis. Neben den traditionellen Gesprächen sind unter der neuen Geschäftsleitung erfolgreiche Formate hinzugekommen, die das Forum interaktiver und flexibler gestalten.

Wo aber bleibt die Wissenschaft? Die Seminarwoche

Ich behaupte der wissenschaftliche Schwerpunkt des Forums (Abbildung 2) war und ist immer noch die Seminarwoche.

Peter Christian Aichelburg, Vorsitzender des wissenschaftlichen Kuratoriums, bei der Eröffnung des Europäischen Forums Alpbach 2013Abbildung 2. Peter Christian Aichelburg, Vorsitzender des wissenschaftlichen Kuratoriums, bei der Eröffnung des Europäischen Forums Alpbach 2013 (Photo: Philipp Naderer, Copyright - Luiza Puiu / European Forum Alpbach)

Sie bildet sozusagen jenen Teil den Simon Moser bei der Gründung im Auge hatte. Es gibt zwar andere Formate bei denen renommierte Wissenschaftler zu Wort kommen, wie etwa bei den Technologiegesprächen oder in den Gesundheitsgesprächen. Aber über 6 Halbtage hindurch ein bestimmtes Gebiet der Wissenschaft zu analysieren mit aktiver Teilnahme der jungen Stipendiaten, findet nur in den Seminaren statt.

Die Seminarwoche, die ein breites Spektrum an Themen anbietet, soll weder eine Fachtagung ersetzen, noch soll sie eine Sommerschule mit festem Lehrplan und Prüfungscharakter sein. Ziel ist es, den Teilnehmern die Möglichkeit zu bieten über das eigenes Studienfach hinaus zu blicken und damit Orientierung und Kompetenz zu aktuellen gesellschaftlichen Fragen zu vermitteln. Im Vordergrund steht nicht die Wissensvermittlung sondern der interdisziplinäre Diskurs. Eines der Grundprinzipien des Forums ist die Freiheit für die Teilnehmer bei der Wahl des Seminars. Seminarleiter sind mit einer heterogenen Zusammensetzung von Stipendiaten konfrontiert und gefordert sich thematisch und auch sprachlich darauf einzustellen. Es sei auch nicht verheimlicht, dass Alpbach aus „allen Nähten platzt“. Wegen der stark gestiegenen Zahl an Teilnehmern wurde die Anzahl der Seminare in den letzten Jahren auf 16 verdoppelt.

Mag sein, dass der philosophische Diskurs in den letzten Jahren etwas zu kurz gekommen ist und die Tradition von Karl Popper und Hans Albert in Alpbach nicht seine adäquate Fortsetzung gefunden hat. Dafür sind andere Schwerpunkte entstanden. Davon seien zwei herausgegriffen: Die Seminare zu aktuellen Fragen der Neurowissenschaften haben eine festen Platz in den letzten Jahren gefunden, ebenso die Seminare über Evolutionsbiologe.

Schwerpunkt Neurowissenschaften So z.B. hat der berühmte französische Neurobiologe Jean-Pierre Changeux ein Seminar über „Gehirn und neuronale Netzwerke“ geleitet oder der Neurobiologe Hans Flohr, zusammen mit dem Philosophen Ansgar Beckermann ein Seminar über „Theorien des Bewusstseins“ oder der Philosoph und Bewusstseins Forscher Thomas Metzinger ein Seminar mit dem Titel „Was ist ein bewusstes Subjekt?“ Zu erwähnen wäre auch der Rechtsphilosoph Reinhard Merkel, der ein viel beachtetes Seminar über „Verantwortung und rechtliche Schuld“ geleitet hat. Schwerpunkt Evolutionsbiologe Zur Evolutionsbiologie sei das Seminar mit dem ungarischen Biochemiker und Koautor von John Maynard Smith, Eörs Szathmáry und der israelischen Genetikerin vom Cohen Institut in Tel Aviv, Eva Jablonka, bekannt für ihre Forschung über epigenetische Vererbung, genannt.

Gut in Erinnerung sind die Laute die der japanische Primatenforscher Tetsurō Matsuzawa von der Universität in Kyoto durch den vollbesetzten Schrödingersaal erschallen ließ, als er die Lockrufe seiner Schützlinge, den Bonobos, nachahmte. Dies im Rahmen eines Seminars über „How do animals think? Animal cognition in human context" Ein weiterer Höhepunkt auf diesem Gebiet war das Seminar "Evolutionäre Wurzeln von Konflikten und Konfliktlösungsstrategien" mit dem renommierten niederländischen Verhaltensforscher Frans de Wall, aber auch das Seminar über „Molecules and Evolution“ mit dem theoretischen Chemiker und ehemaligen Präsidenten der österreichischen Akademie der Wissenschaften, Peter Schuster. Dies nur beispielhaft für die zahlreichen Seminare auf den unterschiedlichsten Gebieten. Man kann also nicht behaupten, dass die Wissenschaft in Alpbach vernachlässigt wurde.

Wissenschaft stößt auf wenig mediales Interesse

Es sei aber nicht verheimlicht, dass es immer schwieriger wird Personen für eine Seminarleitung zu gewinnen. Geht es doch darum für 16 Seminare nach Möglichkeit Spitzenleute einzuladen, die bereit sind in der Urlaubszeit für eine Woche nach Alpbach zu kommen.

Der Philosoph Hans Albert, der seit 1955 jedes Jahr am Forum teilgenommen und die Philosophie in Alpbach maßgeblich geprägt hat, wurde anlässlich 50 Jahre EFA gebeten einen Beitrag über die Rolle der Wissenschaft beim Forum zu schreiben:

„… der Schwerpunkt verschob sich damit in Richtung auf Vermittlung zwischen Wissenschaft und Praxis. Aber die wissenschaftlichen Arbeitskreise, die Seminare, blieben stets ein Kernbereich der Alpbacher Aktivitäten. Von Journalisten wurden sie allerdings nur selten beachtet, was zu außerordentlich irreführende Darstellungen der Alpbacher Veranstaltungen in der Presse führt“

Leider behält diese Aussage bis heute ihre Gültigkeit. Die mediale Unterbelichtung mag Anlass für die eingangs erwähnt Karikatur gewesen sein.


Weiterführende Links

Europäisches Forum Alpbach: http://www.alpbach.org/de/

Maria Wirth: A Window to the World. The European Forum Alpbach 1945 to 2015 (Kurzfassung, englisch) http://www.alpbach.org/wp-content/uploads/2013/04/%C3%9Cbersetzung-Maria...

inge Fri, 16.10.2015 - 09:24

Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin

Naturstoffe, die unsere Welt verändert haben – Nobelpreis 2015 für Medizin

Fr, 09.10.2015 - 09:11 — Redaktion

Redaktion

Icon Medizin

 

Der diesjährige Nobelpreis für Physiologie oder Medizin wurde für Durchbrüche in der Behandlung parasitärer Erkrankungen verliehen. Der halbe Preis ging an die Chinesin YouYou Tu “für die Entdeckung einer neuen Therapie der Malaria”. Die andere Hälfte erhielten zu gleichen Teilen der aus Irland stammende US-Amerikaner William C. Campbell und der Japaner Satoshi Ōmura "für ihre Entdeckung einer neuen Therapie der durch Fadenwürmer hervorgerufenen Infektionen“. Das Nobelkomitee begründete die Entscheidung: „Diese Entdeckungen haben der Menschheit wirksame Mittel zur Bekämpfung dieser verheerenden Krankheiten zur Verfügung gestellt, die jährlich hunderte Millionen Menschen befallen. Die Auswirkungen – verbesserte Gesundheit, verringertes Leiden – sind unermesslich groß“.*

 

Naturstoffe spielen seit jeher eine dominierende Rolle in der Behandlung von Krankheiten; die ältesten dazu bekannten Aufzeichnungen stammen aus Babylon (vor rund 4400 Jahren) und Ägypten (Ebers Papyrus , 1534 a.C.). Allerdings handelte es sich dabei um vorwiegend pflanzliche Tinkturen und Extrakte, deren Zusammensetzung und Gehalt an wirksamen Naturstoffen sehr stark variieren konnte. Erst ab Ende des 19. Jahrhunderts ermöglichte eine immer leistungsfähigere analytische Chemie die Isolierung, Reindarstellung und Charakterisierung der wirksamen Substanzen (wie beispielsweise von Salizylsäure – Aspirin - aus Weidenextrakten). Die synthetische Chemie wandelte diese dann ab (Derivierungen) zu immer potenteren und nebenwirkungsärmeren Arzneistoffen.

Der Großteil der heute am Markt vorhandenen Medikamente sind Naturstoffe oder von Naturstoffen abgeleitete Substanzen. Für die Entdeckung von zwei dieser Substanzen wurde der Nobelpreis 2015 verliehen. Der Wirkstoff einer jahrtausendealten Rezeptur und ein in Bodenbakterien entdeckter Naturstoff haben, wie das Nobelkomitee es ausdrückte, die Behandlung einiger der verheerendsten, durch Parasiten hervorgerufenen Erkrankungen – Malaria, Flussblindheit und Elephantiasis - revolutioniert und Millionen Menschen vor Siechtum und verfrühten Tod gerettet.

Parasitäre Erkrankungen

betreffen gut 1/3 der Weltbevölkerung, insbesondere Menschen, die in armen Regionen südlich der Sahara, in Südostasien und Lateinamerika leben. In diesen Gebieten werden von Insekten Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariose) übertragen (Abbildung 1). Risikogebiete für Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariasis)

Abbildung 1. Risikogebiete für Malaria, Flussblindheit (Onchocerciasis) und Elephantiasis (lymphatische Filariasis) (Quelle: World Health Organization – WHO)

Malaria wird durch Plasmodien hervorgerufen, das sind einzellige Parasiten, welche von damit infizierten Stechmücken (Anopheles) übertragen werden. Im Jahr 2010 erkrankten mehr als 200 Millionen Menschen an Malaria, ca. 655 000 Menschen starben an der Krankheit. Die meisten Opfer waren Kinder unter fünf Jahren [1].

Ebenfalls von infizierten Mücken übertragen werden Fadenwürmer (Filarien), die Elephantiasis und Flussblindheit verursachen. Rund 120 Millionen Menschen sind gegenwärtig an Elephantiasis erkrankt [2]. Deren Erreger (größtenteils Wuchereria bancrofti) reifen im menschlichen Organismus heran, verbreiten sich im Lymphsystem und schädigen es. Es entstehen Ödeme, die vor allem die Beine extrem anschwellen lassen und monströs deformieren. Schmerzen und Stigmatisierung der Betroffenen sind die Folge. Der Erreger der Flussblindheit (Onchocerca volvulus) wird von Mücken übertragen, die an Fließgewässern leben. Diese infizieren Menschen mit Fadenwürmern im Larvenstadium, die dann unter der Haut zu adulten Würmern reifen, dichte Knäuel von Mikrofilarien bilden und schwere Entzündungen hervorrufen (Abbildung 3). Eine besondere Affinität haben diese Parasiten zu den Augen und verursachen Erblindung.

Artemisinin, die Nummer 1 im Kampf gegen Malaria

Die Entdeckung von Artemisinin durch die chinesische Wissenschafterin Youyou Tu liegt bereits mehr als 4 Jahrzehnte zurück und zeigt den langwierigen Weg von der Entdeckung bis zum Einsatz eines neuen Arzneimittels.

Im Vietnamkrieg war China Verbündeter der Nordvietnamesen. Als die Malaria bereits mehr Opfer forderte als der Krieg – das Malariamittel Chloroquin wirkte nicht mehr -, startete die chinesische Regierung unter Mao tse tung 1967 ein Geheimprojekt, das nach Mitteln gegen diese Krankheit suchen sollte, nach synthetischen Wirkstoffen ebenso wie nach Wirkstoffen in Heilkräutern. Insgesamt 500 Wissenschafter wurden eingesetzt, darunter Youyou Tu, eine ausgebildete Pharmazeutin, die am Pekinger Akademieinstitut für chinesische Medizin kräutermedizinische Forschungen betrieb.

Im Zuge ihrer Suche durchforstete Youyou Tu rund 2000 alte chinesische Rezepturen, die Wirksamkeit gegen malariatypische Symptome versprachen. Zum Ziel führte schließlich eine fast 1600 Jahre alte Vorschrift, die einen Extrakt aus dem einjährigen Beifuß Artemisia annua (einem Verwandten unseres Wermutkrauts) - qinghao – beschrieb (Abbildung 2). Nach einigen Schwierigkeiten konnte Youyou Tu einzelne biochemisch aktive Komponenten aus der Pflanze isolieren und an infizierten Mäusemodellen testen (das war 1972). Die in der westlichen Welt nun als Artemisinin bezeichnete, neuartige Substanz erwies sich zu 100 % aktiv.

Die Testungen gingen weiter, es sollte aber noch lange Jahre dauern bis man im Westen auf Artemisinin aufmerksam wurde. Von der WHO erhielt die Substanz im Jahr 2000 Unterstützung, allgemein verfügbar wurde sie erst 2006.

Artemisia annuaAbbildung 2. Aus dem einjährigen Beifuß – Artemisia annua – wird das hochwirksame Malariamittel Artemisinin gewonnen. Dies ist ein Sesquiterpen mit einem Endoperoxid, das Radikale bildet und vermutlich damit die Parasiten zerstört.

Nach WHO Aussagen ist Artemisinin in den letzten 15 Jahren zur tragenden Säule der Malariatherapie geworden (es gab in diesem Zeitraum mehr als 1 Milliarde Behandlungen). Die Fortschritte in Therapie und begleitenden Maßnahmen haben in vielen Ländern die Zahl der Malariaerkrankungen um mehr als 50% reduziert, die Todesrate auf 20 % gesenkt. Da gegen die Monotherapie mit Artmisinin bereits beginnende Resistenzen bemerkt werden, wird heute eine artemisininhaltige Kombinationstherapie (ACT) angewandt, die hochwirksam ist und von Patienten gut vertragen wird.

Die noch immer sehr hohe Zahl an Erkrankten bedeutet natürlich einen enormen Bedarf an reinem Wirkstoff. Schwankende Wirkstoffgehalte der Pflanze und Ernteerträge führen jedoch zu Lieferengpässen. Um davon unabhängig zu sein wurden auf Basis von genmanipulierter Bäckerhefe semi-synthetische Verfahren zur Produktion von Artemisinin entwickelt - es sind Paradebeispiele der synthetischen Biologie [3].

Interessanterweise zeigt Artemisinin auch gegen unterschiedliche Tumoren vergleichbare Wirkung wie herkömmliche Krebsmittel. Das Interesse der Pharmaindustrie den billigen und nicht patentierbaren Wirkstoff zu einem massentauglichen Krebsmedikament zu entwickeln ist endenwollend [4].

Ivermectin - eine Revolution in der Therapie der durch Fadenwürmer (Filarien) hervorgerufenen Infektionen

Wie im Falle des Artemisinin wurde auch die Wirkstoffklasse der Avermectine - Ivermectin ist ein Derivat - bereits in den 1970er Jahren entdeckt.

Der japanische Mikrobiologe Satoshi Ōmura hatte neue Stämme von Bakterien der Gattung Streptomyces aus Bodenproben isoliert und in Zellkultur gebracht, um möglicherweise neue hochwirksame Antibiotika zu finden (derartige Bakterien produzieren ja eine Reihe wichtiger Antibiotika , wie z.B. Streptomycin). Aus rund 1000 unterschiedlichen Kulturen testete er dann 50 auf ihre Wirkung gegen fremde, krankmachende Keime. Er sandte Bakterienkulturen zur Untersuchung auch an William C. Campbell, einen Experten in der Parasitenforschung.

Als Campbell Extrakte aus diesen Kulturen gegen verschiedene Parasiten testete, zeigte sich einer davon hochaktiv gegen Parasiten in Nutz- und Haustieren. Der daraus isolierte Wirkstoff erhielt die Bezeichnung Avermectin , eine geringfügige Derivatisierung führte zum noch wirksameren Ivermectin, das zum Standard in der Therapie von Wurmerkrankungen des Menschen wurde (Abbildung 3). Ivermectin ist nun seit 1987 auf dem Markt und wird weltweit eingesetzt. Laut WHO hat dieses Medikament das Leben von Millionen Menschen mit Elephantiasis oder Flußblindheit enorm verbessert. Die Wirksamkeit, die sich spezifisch auf die Parasiten richtet, ist so hoch, dass eine Ausrottung dieser Krankheiten plausibel erscheint.

Lebenszyklus des Erregers der Flußblindheit (Onchocerca volvulus) und Strukturformel des IvermectinAbbildung 3. Lebenszyklus des Erregers der Flußblindheit (Onchocerca volvulus) und Strukturformel des Ivermectin (Quelle des Lebenszyklus: Giovanni Maki, derived from a CDC image at http://www.dpd.cdc.gov/dpdx/HTML/Filariasis.htm)


Ausblick

Der heurige Nobelpreis für Physiologie oder Medizin hat die Bedeutung der Naturstoffforschung ins zentrale Blickfeld gerückt und ihr weiteren Auftrieb gegeben. Pharmafirmen, die in den letzten Jahren von dieser Strategie der Wirkstoff-Entdeckung abgerückt sind, könnten diesen erfolgversprechenden Weg wieder einschlagen. Die ungeheure Biodiversität der Lebensformen im Wasser und an Land bietet ja ein schier unerschöpfliches Reservoir an neuartigen, biologisch wirksamen Substanzen und die Suche nach diesen hat erst begonnen.

Ein wesentlicher Punkt wurde noch nicht angesprochen: wer finanziert Programme, welche die globale Ausrottung von Krankheiten zum Ziel haben, beispielsweise die Ausrottung der in Entwicklungsländern endemischen parasitären Erkrankungen?

Hier gibt es in zunehmendem Maße gemeinsame Anstrengungen von Regierungen, WHO, UNITAID, Weltbank und anderen multilateralen Organisationen. Besonders hervorzuheben ist die von Bill Gates und seiner Frau Melinda eingerichtete Stiftung, die sich sowohl der Therapie als auch der Ausrottung (nicht nur) der genannten parasitären Krankheiten verschrieben hat. Diese Stiftung stellt großzügigste Ressourcen zur Entwicklung von Diagnosetests und Behandlungsmethoden (mit Medikamenten ebenso wie mit Impfstoffen) bereit und ebenso zur Bekämpfung der übertragenden Stechmücken und Schaffung der benötigten Infrastrukturen [1,2]. Allein den Kampf gegen die Malaria hat die Gatesfoundation bis 2014 mit 2 Milliarden Dollar gefördert. Der Mäzen und Philanthrop Bill Gates sieht die grundlegende Aufgabe der Philanthropie darin, vielversprechende Lösungswege zu testen, die sich Regierungen und Unternehmen finanziell nicht leisten können.


* * Nobel Prize in Physiology or Medicine 2015. http://www.nobelprize.org/nobel_prizes/medicine/laureates/2015/

[1] Bill and Melinda Gates Foundation: Der Kampf gegen Malaria http://scienceblog.at/kampf-gegen-malaria

[2] Bill and Melinda Gates Foundation: Der Kampf gegen Vernachlässigte Infektionskrankheiten http://scienceblog.at/vernachlaessigte-infektionskrankheiten#

[3] Rita Bernhardt Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie http://scienceblog.at/cytochrom-p450

[4] Peter Seeberger, Rezept für neue Medikamente http://scienceblog.at/rezept-fuer-neue-medikamente

inge Fri, 09.10.2015 - 09:11

Gottfried Schatz (1936 – 2015) Charismatischer Brückenbauer zwischen den Wissenschaften, zwischen Wissenschaft und Kunst, zwischen Wissenschaft und Öffentlichkeit

Gottfried Schatz (1936 – 2015) Charismatischer Brückenbauer zwischen den Wissenschaften, zwischen Wissenschaft und Kunst, zwischen Wissenschaft und Öffentlichkeit

Fr, 02.10.2015 - 13:45 — Inge Schuster

Inge SchusterIcon Wissenschaftsgeschichte„Wissenschaft ist keine Hüterin von Stabilität und Ordnung, sondern eine unverbesserliche Revolutionärin, die unablässig kreative Unruhe stiftet. Sie macht unser Leben nicht ordentlicher oder ruhiger, sondern freier und interessanter. Innovative Wissenschaft missachtet Dogmen und verunsichert, ebenso wie innovative Kunst.“ (G. Schatz [1]) Das letzte Mal habe ich Jeff Schatz am 23. Juni dieses Jahres getroffen. Er war nach Wien gekommen, um hier am renommierten Institut für Molekulare Pathologie (IMP), aus seinem Roman „Postdoc“ zu lesen. Seine Tochter Kamilla, eine großartige Violinistin, begleitete ihn, umrahmte die Lesung musikalisch. Es war eine Veranstaltung, die Jeff in vielen seiner Facetten zeigte. Die Textstellen demonstrierten sein hohes literarisches Talent, seinen Reichtum an farbigen Details und seine meisterhafte Beherrschung sprachlicher Ausdrucksformen, die Inhalte sein immerwährendes Plädoyer für die Naturwissenschaften, aber auch ein Aufzeigen der Gedanken- und Gefühlswelt des Forschers. Die Brücke von der Wissenschaft zur Kunst – ein besonderes Anliegen von Jeff Schatz, der ja selbst ein virtuoser Musiker war - schlug seine Tochter Kamilla.

Jeff und Kamilla SchatzAbbildung 1. Jeff und Kamilla Schatz bei der Lesung aus dem „Postdoc“ am 23.6.2015 am IMP

Wer war Jeff Schatz? (Fast leichter zu beantworten wäre: wer war er nicht?) Er war vor allem ein höchst renommierter Wissenschafter, ein Vollblutforscher; um es in seinen eigenen Worten auszudrücken: Seine „Heimat war nicht das gesicherte Wissen, sondern dessen äusserste Grenze, wo Wissen dem Unwissen weicht“[1]. Wir verdanken ihm fundamentale Erkenntnisse vor allem im Gebiet der Mitochondrien. Bereits früh, als Postdoc (wie die Zentralfigur seines Buches verbrachte er diese Zeit in einem Labor in New York) hatte er im wahrsten Sinn des Wortes Feuer gefangen: er untersuchte mechanistische Details zur oxydativen Phosphorylierung in Mitochondrien, des wesentlichen energieliefernden „Verbrennungs“-Prozesses aller höheren Lebewesen [2]. Berühmt wurden vor allem seine Arbeiten zur Biogenese von Mitochondrien und die Entdeckung der in diesen enthaltenen DNA, ebenso wie auch die Aufklärung des Transports von Proteinen in diesen Zellorganellen.

Von besonderer Wichtigkeit war für Schatz immer die Wissenschaftskommunikation, eine Brücke zu bauen: als akademischer Lehrer zur Jugend, als charismatischer Redner und Essayist zur Öffentlichkeit, als Forschungspolitiker zu den Regierenden. Schatz hat es verstanden Jung und alt mit dem Feuer zu infizieren, das in ihm brannte, zu überzeugen, dass „es Menschen braucht, die sehen, was jeder sieht, dabei aber denken, was noch niemand gedacht hat. Es braucht Menschen, die intuitiv erkennen, dass der von allen gesuchte Weg von A nach C nicht über B führt - wie jeder vermutet - sondern über X oder Z. All dies erfordert intellektuellen Mut. Er ist die wichtigste Gabe eines Forschers.” [1]. Schatz bei seiner Festansprache

Abbildung 2. Schatz bei seiner Festansprache anlässlich des Jubiläums 650 Jahre Universität Wien (Quelle: Universität Wien)

Wir sind dankbar, dass wir Jeff Schatz kennen und von ihm lernen durften.


[1] Gottfried Schatz: Universitäten – Hüterinnen unserer Zukunft . Rede anlässlich des Festaktes 650 Jahre Universität Wien. http://scienceblog.at/universitaeten-hueterinnen-unserer-zukunft#.

[2] Diesen Werdegang hat Gottfried Schatz in einer Autobiographie beschrieben, die er dem berühmten Biochemiker Efraim Racker, dem Betreuer seiner Postdoc Zeit in New York, widmete: Feuersucher. Die Jagd nach dem Geheimnis der Lebensenergie (2011). Wiley-VCH Verlag & Co KGaA.


Wer Jeff Schatz näher kennenlernen möchte: 

Er ist der Hauptautor von ScienceBlog.at; Sein Lebenslauf findet sich unter: http://scienceblog.at/gottfried-schatz

Er hat uns 37 Essays zur Verfügung gestellt, die links zu diesen finden sich ebenso unter http://scienceblog.at/gottfried-schatz

Eine Rezension des Postdoc ist nachzulesen unter: Postdoc – eine Suche nach dem Ich http://scienceblog.at/postdoc.

inge Fri, 02.10.2015 - 14:50

Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Verringerung kurzlebiger Schadstoffe – davon profitieren Luftqualität und Klima

Fr, 25.09.2015 - 09:48 — IIASA

IIASAIcon GeowissenschaftenEin internationales Forscherteam hat untersucht, welche Auswirkungen die Reduktion kurzlebiger Luftschadstoffe auf Luftqualität und Klimawandel hat. Wissenschafter am Internationalen Institut für Angewandte Systemanalyse (IIASA) haben Szenarios für die analysierten Schadstoffe entwickelt, Maßnahmen zur Reduktion der kurzlebigen, klimatreibenden Stoffe identifiziert und abgeschätzt, wie sich diese auf die Gesundheit in Europa und Asien auswirken würden. *

Verglichen mit CO2 haben Ozon (O3), Methan (CH4) und Aerosole zwar eine kürzere Verweilzeit in der Atmosphäre, können aber sowohl die Luftqualität als auch das Klima beeinträchtigen. Dennoch pflegt die Umweltpolitik beide Sparten getrennt zu betrachten – in der Folge wirken sich Maßnahmen, welche die Luftverschmutzung bekämpfen, nicht immer günstig auf das Klima aus und umgekehrt. Ein aus mehreren europäischen Staaten und China stammendes Forscherteam hat sich nun mit dem Problem der kurzlebigen Luftschadstoffe befasst; die Ergebnisse wurden gestern publiziert [1]. Daraus können Maßnahmen für staatliche Schritte abgeleitet werden, die sowohl der Verbesserung der Luftqualität als auch dem Kampf gegen den Klimawandel dienen.

Das ECLIPSE Projekt

Im Rahmen des Europäischen Projekts ECLIPSE [2] hat das internationale Forscherteam die Emissions-Szenarien verschiedener kurzlebiger Substanzen untersucht, die nicht nur zur Klimaerwärmung beitragen, sondern Luftschadstoffe sind oder in der Atmosphäre zu Schadstoffen umgewandelt werden. Dazu zählen Methan, Kohlenmomoxyd (CO), Ozon, Stickoxyde, Schwefeldioxyd (SO2), Ammoniak (NH3), nicht-Methan flüchtige oganische Verbindungen, Partikel unterschiedlicher Größe (< 2,5µm, < 10µm), Ruß, u.a.m. (siehe [3]).

Methan, beispielsweise, liefert nach CO2 den zweitstärksten Beitrag zur Klimaerwärmung. Während auch Ruß-Aerosole zur Erwärmung beitragen, haben andere Aerosole, wie die von Schwefeldioxyd (SO2) gebildeten, einen abkühlenden Effekt (SO2-Emissionen entstehen u.a. bei Vulkaneruptionen und bei Kohlekraftwerken).

Forscher des IIASA um Markus Amann (Leiter des Programms zur Minderung von Luftschadstoffen und Treibhausgasen) haben wesentlich zu dem Projekt beigetragen. Sie haben Szenarios für die in der Studie analysierten Schadstoffe und Treibhausgase entwickelt, Maßnahmen zur Reduktion der kurzlebigen, klimatreibenden Stoffe identifiziert und abgeschätzt, wie sich diese auf die Gesundheit in Europa und Asien auswirken würden.

Verbesserte Luftqualität erhöht die Lebenserwartung

Im Jahr 2010 hat die Luftverschmutzung im EU-Raum eine Reduktion der Lebenserwartung von 7,2 Monaten verursacht. Bereits geltende Rechtsvorschriften zur Verbesserung der Luftqualität sollen bis 2030 diese Reduktion auf 5,2 Monate verringern. Nach Berechnungen des Forscherteams sollten die Maßnahmen zur Verringerung der kurzlebigen Schadstoffe (ECLIPSE-Maßnahmen) die Luftqualität steigern und damit auch die Lebenserwartung: um rund ein Monat in Europa, zwei Monate in China und ein Jahr in Indien (Abbildung 1).

Abbildung 1. Luftschadstoffe verkürzen die Lebenserwartung: in der EU (oben links) um 7,5 Monate (dunkelblau). Die geltenden Rechtsvorschriften zur Verbesserung der Luftqualität werden zu einem geringeren Verlust an Lebenszeit führen, der mit der Reduktion der Luftschadstoffe (ECLIPSE Maßnahmen: hellblau) noch weiter abnimmt. Oben rechts: in den Nicht-EU-Ländern erhöhen die ECLIPSE –Maßnahmen die Lebenserwartung um einen Monat. Auf Grund der hohen Luftschadstoffe ist die Lebenserwartung in China und Indien (unten) viel stärker verkürzt. Dazu kommt in Indien ein rasch wachsender Energieverbrauch, bei fehlender Kontrolle der Emissionen. ECLIPSE –Maßnahmen (hellblau) könnten die Lebenserwartung in China um 1,8 Monate, in Indien um bis zu 1 Jahr steigern. Steigerung der Lebenserwartung bei Anwendung der EU-Rechtsvorschriften (hellgrün) (Bild: aus [1] Creative Commons Attribution 3.0 License)

Methan ist auch in die Entstehung von Ozon in der Troposphäre involviert, eines Schadstoffes, der erhebliche Gesundheitsrisiken mit sich bringt. „Wir haben festgestellt, dass die Maßnahmen zur Reduktion von Methan und anderen „Ozon-Vorläufern“ auch die Ozon- Luftqualität wesentlich verbessern würden, insbesondere über den nördlichen Ländern. Dies würde unserer Gesundheit nützen und die Ernteerträge steigern –zusätzliche positive Effekte einer Schadstoffreduktion“, meint William Collins (University Reading, UK) einer der Koautoren der Studie.

Reduktion der kurzlebigen Schadstoffe wirkt der Klimaerwärmung entgegen

Die Verringerung kurzlebiger Schadstoffe sollte sich auch vorteilhaft auf das Klima auswirken: Prognosen an Hand von vier unterschiedlichen globalen Klimamodellen ergaben, dass diese Maßnahme im Jahr 2050 eine Reduktion des globalen Temperaturanstiegs um 0,22oC mit sich bringen würde. In der Arktis sollte - mit nahezu 0,5oC – die Reduktion noch stärker ausfallen.

Im südeuropäischen Raum würden nicht nur die Temperaturen niedriger ausfallen, es würde auch feuchter werden - der Regen um etwa 15 mm/Jahr – etwa 4 % des gesamten Niederschlags – zunehmen (Abbildung 2). „Dies könnte zu einer Milderung der zukünftig erwarteten Trockenheit und Wasserknappheit im Mittelmeerraum beitragen“ meint der Erstautor der Studie, Andreas Stohl (Norwegisches Institut für Luftforschung).

Abbildung 2. Mittlere jährliche Unterschiede in der Oberflächentemperatur (oben) und in den Regenmengen (unten), wenn das Szenario geltende Rechtsvorschriften mit dem Szenario zusätzliche ECLIPSE-Maßnahmen verglichen wird. Positive Werte bedeuten höhere Temperaturen (oben) und höhere Regenmengen (unten). (Bild: aus [1] Creative Commons Attribution 3.0 License)

Insgesamt gesehen würden durch die neuen(ECLIPSE-) Maßnahmen die globalen anthropogenen Emissionen von Methan um 50 % gesenkt werden und die Ruß –Aerosole um 80%.

ECLIPSE-Maßnahmen

Die wichtigsten Maßnahmen betreffen die Erdöl- und Gasindustrie. Wird beispielsweise verhindert, dass bei der Extraktion von Ölschiefern undichte Stellen auftreten, so verringert dies die Emission von Methan. Wenn das Abfackeln des Begleitgases während der Förderung von Erdöl eingestellt wird, bedeutet dies niedrigere Emissionen von Russ.

„Andere wesentliche Maßnahmen betreffen beispielsweise die Reduktion von Methanemissionen beim Kohlebergbau, die kommunale Abfallbeseitigung, ebenso wie die Verminderung der Rußemissionen durch eine Abkehr von stark emittierenden Fahrzeugen, die Verwendung umweltfreundlicher Biomasse für Koch- und Heizzwecke, den Ersatz von Petroleumlampen durch LED-Lampen, usw.“ ergänzt Zbigniew Klimont, der den Beitrag des IIASA zur Studie geleitet hat.


Die Wissenschafter hoffen nun, dass die ECLIPSE- Maßnahmen von Seiten der Politik eingeführt werden, meinen aber dazu, dass die kurzlebigen Luftschadstoffe nur ein Teil des Problems sind und, dass deren Reduktion keineswegs die Reduktion der CO2-Emissionen ersetzen kann:, „Es besteht kein Zweifel, dass CO2-Emissionen die Hauptursache der Klimaerwärmung sind und diese daher auch das primäre Angriffsziel unserer Klimapolitik sein müssen. Dennoch sollte man die anderen Klimatreiber nicht außer Acht lassen, welche – insbesondere in den nächsten Dekaden – auf die Geschwindigkeit der Erwärmung einen Einfluss haben können,“ meint Stohl. „und was möglicherweise noch mehr zählt: Wenn man gegen diese Schadstoffe vorgeht, wird dies auch zu einer massiven Verbesserung der globalen Luftqualität führen.“


*Die IIASA-Presseaussendung “Curbing short-lived pollutants: win-win for climate and air quality” vom 24.September 2015 wurde von der Redaktion aus dem Englischen übersetzt und geringfügig für den Blog adaptiert. IIASA ist freundlicherweise mit Übersetzung und Veröffentlichung ihrer Nachrichten in unserem Blog einverstanden. Die Abbildungen wurden von der Redaktion zugefügt und stammen aus der dem Bericht zugrundeliegenden Publikation [1].

[1] Stohl A. et al., (2015) Evaluating the climate and air quality impacts of short-lived pollutants. Atmos. Chem. Phys., 15, 10529-10566, 2015. www.atmos-chem-phys.net/15/10529/2015/

[2] ECLIPSE (Evaluating the Climate and Air Quality Impacts of Short-Lived Pollutants): the initiative is a EU 7th Framework Programme Collaborative Project. Further information on ECLIPSE, including a policy brochure, is available from the ECLIPSE website: http://eclipse.nilu.no/

[3] Global emissions data developed through the ECLIPSE project are available on the IIASA Web site: Global emission fields of air pollutants and GHGs

inge Fri, 25.09.2015 - 09:48

Das Erdbeben in Nepal – wie ein Forschungsprojekt ein abruptes Ende fan

Das Erdbeben in Nepal – wie ein Forschungsprojekt ein abruptes Ende fan

Fr, 18.09.2015 - 08:13 — Viktor Bruckman Viktor BruckmanIcon Wissenschaftsgeschichte

Am 25. April 2015 ereignete sich in Nepal ein verheerendes Erdbeben (nach der Momenten-Magnitudenskala Stärke 7,8) in einer Tiefe von rund 15 km. Das Epizentrum lag rund 70 km westlich von der Hauptstadt Kathmandu. Der Forstwissenschafter Viktor Bruckman (Kommission für interdisziplinäre ökologische Studien, OEAW) war an diesem Tag mit seinem Team in ein entlegenes Tal des Gaurinshakar Schutzgebietes im Nordosten Nepals aufgebrochen, um im Rahmen eines internationalen Projektes die Landnutzung und Forstbewirtschaftung dieses Gebietes zu studieren. Das Beben machte diesen Plan zunichte. Bruckman beschreibt, wie er diesen Albtraum erlebte.

„Möglichkeiten für eine integrierte Forstwirtschaft im Gaurinshankar Schutzgebiet“

Dies ist der Titel eines meiner laufenden Projekte, in welchem Partner aus Nepal, China und Österreich zusammenarbeiten. Das Gaurinshankar Schutzgebiet (GCA) - 2010 von der Nepalesischen Regierung ausgerufen - hat eine Fläche von 2'179 km2 und liegt im Nordosten Nepals. Im Osten grenzt es an den Mt. Everest National Park, im Westen an den Langtang National Park und im Norden an die autonome Chinesische Region Tibet (Abbildung 1).

35% der Fläche des GCA sind von Wäldern bedeckt. Bedingt durch die gebirgige Region mit Höhen zwischen 1'000 und 7'000 m liegt ein komplexes Ökosystem vor mit 16 wesentlichen Vegetationstypen und einer hohen Diversität von Fauna und Flora. Auch die etwa 60'000 in dieser Region lebenden Menschen weisen auf Grund einer langen und komplexen Besiedlungsgeschichte eine außergewöhnliche kulturelle Vielfalt auf und gehören unterschiedlichen Ethnien und Religionen an. Die gesamte Region ist reich an Wasservorkommen und Einzugsgebiet mehrerer Flüsse- einige größere Wasserkraftwerksprojekte laufen bereits oder sind in Planung.

Gaurinshankar SchutzgebietAbbildung 1, Das Gaurinshankar Schutzgebiet. Grün: die kleinsten politischen Verwaltungseinheiten (Village Development Committees: VDCs). Die in dem Bericht genannten Örtlichkeiten sind eingezeichnet.

Das Ziel unseres Projektes

war es die Landnutzung und Waldbewirtschaftung in einer der entlegensten Gegenden des seit kurzem bestehenden Gaurinshankar Schutzgebietes zu untersuchen. In einem Zweistufenprogamm wollten wir zuerst einen Einblick in die Wechselbeziehung Mensch und Ökosystem gewinnen. Dies sollte partizipativ aus Einzel- und Gruppen-Interviews mit der Landbevölkerung hervorgehen (Fragen hinsichtlich Landnutzung und Existenzgrundlagen, Erhebung von wirtschaftlichen Möglichkeiten und Aktivitäten). Im zweiten Schritt planten wir entsprechend den lokalen Gegebenheiten und den im ersten Schritt gewonnenen Erkenntnissen eine Reihe von Beobachtungsplots einzurichten. Von Anfang an wollten wir auch lokale Interessensvertreter in das Projekt mit einbeziehen: unsere Ergebnisse sollten ja schließlich der lokalen Bevölkerung und nicht nur der Wissenschaft zugutekommen.

Insgesamt ist dieses Konzept ein gutes Beispiel für eine interdisziplinäre Fragestellung, die nötig ist, um den Komplex lokale Energieerzeugung, Ressourcen und Auswirkungen auf die Umwelt und das soziale Gefüge zu verstehen.

Unser Projekt startete am 22. April 2015 mit einem Workshop in Kathmandu. Wir hatten dazu einige wichtige Interessenvertreter der Regierung und lokaler Nichtregierungsinstitutionen (NGO’s) eingeladen und ihnen das Projekt und dessen Ziele vorgestellt. Es ging uns auch darum, einen Überblick zu bekommen, wie sich die seit Gründung des Schutzgebietes bestehenden Auflagen zur Landnutzung bereits auf die reale Nutzungssituation auswirkt.

Ein kurzer Einblick zur Landnutzung und Existenzgrundlage

Tags darauf begannen wir mit den ersten Interviews. Wir erfuhren, dass von dem am oberen Tamakoshi-Fluss in Bau befindlichem Wasserkraftwerk große Auswirkungen auf Bevölkerung und Landnutzung erwartet werden. Mit einer Kapazität von 456 MW soll es das größte Wassserkraftwerk Nepal s werden. Eine dieser Auswirkungen betrifft die neu geschaffene Infrastruktur: Um die Zufahrt zur Baustelle des Staudamms im Ort Lamabagar (etwa 7 km von der Grenze zu Tibet entfernt) zu erleichtern, wurde eine Straße gebaut. Nun sind ehemals abgelegene Siedlungen an das Straßennetz angeschlossen und es wurde von Verbesserungen in Gesundheitsbereich, Ausbildung und Vermarktung lokaler Produkte berichtet.

Zur Landnutzung

In niedrigeren Lagen des Schutzgebietes dominieren Terrassen-Ackerbau und Tierhaltung. Bodenstreu wird in den Wäldern gesammelt und zusammen mit Stallmist kompostiert. Dies dient als natürlicher Dünger für die Landwirtschaft. In höheren, für Ackerbau bereits ungeeigneten Lagen herrscht Tierzucht mit Yaks und Chauri (Hybride von Yaks und lokalen Rindern) und Ziegen vor. In der ganzen Gegend ist es aufgrund des Mangels an Weideflächen üblich, grüne Zweige und Äste aus dem Wald – vor allem von Eichen – als Tierfutter zu verwenden. Terrassen-Ackerbau und die regelmäßig beschnittenen „Futterbäume“ kommen in tieferen Lagen gemeinsam vor und sind ein gutes Beispiel für Agrarforstwirtschaft (Abbildung 2).

In den entlegenen Teilen des Tales stromaufwärts von Lamabagar sind die Wälder weitgehend intakt, die Forstwirtschaft wird offenbar seit Jahrhunderten nachhaltig betrieben: Produkte sind Tierfutter, Bodenstreu, Kräuterpflanzen und medizinische Pflanzen, Brennholz und in gewissem Umfang auch Bauholz. Die Baumgrenze liegt bei etwa 3600 – 3700 m. In einigen vorangegangenen Studien konnte gezeigt werden, dass eine Kreislaufwirtschaft im Sinne des Nährstoffumsatzes die Basis der nachhaltigen Nutzung ist, die ohne industrielle Düngemittel auskommt. Die Bodenbewirtschaftung muss in diesen Gegenden sehr sorgsam und überlegt betrieben werden, denn Erosion ist aufgrund der Topographie ubiquitär und kann zur vollständigen Degradation der Böden führen.

Gaurinshankar SchutzgebietAbbildung 2. Der imposante Gaurishankar (7'134 m), an der Grenze zu China gelegen, ist namensgebend für das Schutzgebiet. Das Bild zeigt die typische Bodenbewirtschaftung: Terrassen und Bäume, die Futtermittel liefern, also eine Art Agrarforstwirtschaft, in der das volle Potential der Böden ausgeschöpft werden kann.

Zur Existenzgrundlage

In diesen abgelegenen Gebieten ist das Leben hart. Die Versorgung mit Lebensmitteln aus eigener Produktion reicht laut dem “Gaurishankar Conservation Area Management Plan” von 2013 je nach Gegend für 3,4 bis 8,7 Monate im Jahr. Um Nahrungsmittel für die restliche Zeit kaufen zu können, benötigen Familien zusätzliche Einkommen.

Die männlichen Familienmitglieder suchen daher Arbeitsmöglichkeiten in der Hauptstadt Kathmandu oder auch weiter weg oft in Indien, Qatar oder Malaysia. Die Frauen kümmern sich um Landwirtschaft und Tierhaltung. Eine einzigartige Einkommensquelle in dieser Region ist das Sammeln von Yartsa Gunbu, dem Fruchtkörper eines Pilzes (Ophiocordyceps sinensis), der auf Weiden oberhalb der Baumgrenze Schmetterlingsraupen im Boden befällt, die dann absterben und mühsam gesucht und ausgegraben werden müssen (Abbildung 3). Speziell in der traditionellen Chinesischen Medizin besteht große Nachfrage nach diesem Pilz, dem man heilende Wirkung bei Krebserkrankungen zuschreibt und sein Verkauf kann bis zu 60 % zum jährlichen Familieneinkommen beitragen. Üblicherweise sammeln Jugendliche den Pilz und verbringen dazu einige Tage in den Bergen. Die Yartsa Gunbu Saison ist kurz: als wir in Lamabagar ankamen, war dies gerade der Fall – 1'500 – 4'000 Jugendliche waren zu den erhofften Fundplätzen aufgestiegen.

Frisch gesammelter Yartsa GunbuAbbildung 3. Frisch gesammelter Yartsa Gunbu; zu sehen sind die abgestorbenen Schmetterlingsraupen und der stielförmige Fruchtkörper des Pilzes, der aus der Erde ragt.

Die Expedition startet

Lambagar, auf 2'000 m Seehöhe, war der Ausgangspunkt unserer Expedition. Hier endet die Straße an der Baustelle des Wasserkraftwerks. Wir brachen am Morgen des 25. April auf und hatten vor das Lapchi Kloster an der Grenze zu Tibet am 27. April zu erreichen (siehe Abbildung 1). Das Lapchi Kloster liegt auf 3'800 m Höhe und gilt als einer der wichtigsten spirituellen Orte in der gesamten Tibetanischen Region. Auf dem Weg dahin wollten wir in kleineren Ansiedlungen weitere Interviews führen und auch geeignete Plätze für die geplante Errichtung von Beobachtungsflächen markieren, die am Rückweg installiert werden sollten. Wir planten eine Inventarisierung von Biomasse und des Bewuchses durchzuführen, Bodenprofile zu erstellen und entsprechende Proben zur organisch chemischen Analyse zu entnehmen.

Am Morgen des 25. April regnete es leicht, einerseits eine eher ungünstige Situation für den anstrengenden Aufstieg, andererseits würde es nicht zu heiß werden und wir könnten schneller als geplant vorankommen. Unsere drei Träger stießen zu uns und wir übergaben ihnen den Großteil unserer Verpflegung und auch einen Teil der wissenschaftlichen Ausrüstung. Die Verpflegung für den zweiten Teil der Expedition (Abstieg und Installation der Beobachtungsflächen) war bereits per Hubschrauber zum Kloster geflogen worden. Von dort sollten Träger diese zu vorher festgelegten Stationen im Tal bringen. Gewohnt Lasten von 30 kg und darüber zu tragen, forderten die Träger uns auf, sie mehr zu beladen. Ich entschloss mich ihnen einige sperrige Ausrüstungsgegenstände - wie Schlafsack und aufblasbare Luftmatratze – mitzugeben, behielt aber das tragbare Wasserfiltergerät: Ich hatte nur einen Liter Trinkwasser mitgenommen – zweifellos zu wenig für eine Tagestour.

Die Träger wollten vorerst noch frühstücken, bevor sie nachfolgten. Sie würden uns, wie sie meinten, vor Mittag leicht eingeholt haben. Wir brachen also zu unserem ersten Tagesziel, der kleinen Siedlung Lumnang, auf. Es handelt sich dabei um die letzte in diesem Tal permanent bewohnten, aus etwa 15 Gebäuden bestehenden Ansiedlung. Alle anderen flussaufwärts gelegenen Siedlungen – mit Ausnahme des Lapchi Klosters – werden nur in den Sommermonaten von Hirten genutzt.

Auch wenn es ununterbrochen leicht regnete oder nieselte, waren wir von der Schönheit der Landschaft überwältigt. Steile Felswände aus metamorphen Gesteinen begleiteten uns während der ersten Stunden unseres Aufstiegs. Urtümliche gemischte Laubwälder von hoher Diversität fanden sich entlang der Flusstäler und auf den Bergrücken (Abbildung 4).

Frisch gesammelter Yartsa GunbuAbbildung 4. Auf dem Anstieg zur ersten (und letzten) Etappe unserer Expedition. Oben: Nach etwa 2 Stunden Aufstieg: Blick zurück nach Lambagar. Unten: der Albtraum bricht los; Gerölllawinen stürzen herab.

Um etwa 11:30 befanden wir uns in dem vermutlich schwierigsten Abschnitt, einem Gelände mit einer Reihe kraftraubender Steilstufen. Auf der Höhe angekommen, konnten wir eine Stupa sehen, die am Zusammenfluss (von hier an Tamakoshi Fluss genannt) des Lapchi Flusses und eines weiteren Flusses aus Tibet liegt.

Nach einer kurzen Rast stiegen wir dann zum Eingang des Lapchi Flusstales hinab. Dieses ist durch steile, 300 – 400 m hohe Felswände an der Ostseite des Flusses und dicht bewaldete Abhänge an seiner Westseite charakterisiert, der Pfad verläuft in etwa 10 – 50 m Entfernung vom Fluss. Der Regen hatte nun aufgehört und es gab erste, kurze sonnige Momente.

Der Albtraum beginnt

Die friedliche Aussicht endete abrupt um 12:05 Lokalzeit. Der Boden unter unseren Füßen, die Sträucher und Büsche um uns herum begannen zu vibrieren und das Wasser von den uns umgebenden Bäumen ergoss sich plötzlich wie Starkregen über uns. Nach einigen Sekunden wurde aus dem Vibrieren ein Beben und die ersten Felsbrocken - groß wie ein Fußball – stürzten auf unserer Seite den Hang hinab. Zu diesem Zeitpunkt befand ich mich neben meinem nepalesischen Kollegen Mohan Devkota, sein Student Puskar war irgendwo oberhalb von uns in etwa 50m Entfernung und Klaus Katzensteiner von der BOKU ebenfalls vor uns.

Als wir begriffen hatten, dass wir gerade ein Erdbeben erlebten, suchten wir nach einem sicheren Standort, während immer mehr und größere Felsbrocken hinabfielen. Das Unterstellen unter einen Baum bot nur wenig Schutz, der Steinschlag wurde immer heftiger. Jenseits des Flusses beobachteten wir, wie haushohe Felsen und Erdrutsche unter enormen, explosionsartigen Getöse über die Wände in den Fluss stürzten und dort sofort in Trümmer barsten (Abbildung 4). Die in alle Richtungen zerstiebenden Trümmer warfen teils ganze Bäume um.

Einige dieser Felsen fielen genau in das Bachbett vor dem wir in einigen Metern Entfernung standen, nur geschützt durch einen schmalen Streifen Bewuchs. Eingehüllt in eine Wolke von Staub, der markant nach Schwefel roch, dem ohrenbetäubenden Lärm von fallenden Bäumen und der surrealen Situation war ich überzeugt, dass dies die letzten Eindrücke in meinem Leben sein würden. Aber Devkota und ich hatten Glück – wir kamen davon ohne einen Kratzer abbekommen zu haben. Sofort begannen wir nach unseren Kollegen zu suchen, fanden aber nur Katzensteiner, der unter einem überhängenden Felsen Schutz vor dem anhaltenden Steinschlag (die Folge weiterer, konstant auftretender Nachbeben) gesucht hatte. Er erzählte uns, dass ein Mönch (Lama) in unsere Richtung abgestiegen wäre und vermutlich den Studenten getroffen hätte. Allerdings fehlte von beiden jede Spur, unser Rufen war bisweilen ohne Ergebnis. Wir warteten etwa fünf Minuten unter dem überhängenden Felsen, da kamen glücklicherweise die Gesuchten, offensichtlich unverletzt. Sie waren bei Beginn des Steinschlags bergauf gelaufen, um den Steingeschossen aus dem Flussbett zu entgehen. Der Lama hatte unserem Studenten das Leben gerettet, der von einem großen Felsbrocken bereits gestreift wurde (welcher bloß die außen am Rucksack angebrachte Wasserflasche zerstörte).

Wir suchen Zuflucht

Der Lama führte uns nun zu einer vom Fluss ausgewaschenen, heiligen Höhle, nur wenige hundert Meter von dem Platz entfernt, wo wir das Beben erlebt hatten. Wir dachten an Erdrutsche, die flussaufwärts den Wasserlauf möglicherweise blockiert hatten und an die verheerenden Folgen einer Springflut. Unsere Beunruhigung wuchs zunehmend und wir starrten auf den Wasserspiegel des Flusses, der inzwischen eine dunkelbraune Farbe angenommen hatte. Nach einer Stunde entschlossen wir uns zusammen mit dem ortskundigen Lama das Tal schnellstmöglich zu verlassen. Als wir nun aber wieder den Taleingang am Zusammenfluss des Lapchi erreicht hatten, sahen wir, dass es hier kein Weiterkommen gab. Der Weg war völlig zerstört und es bestand keine Möglichkeit einer Umgehung, auch nicht für unseren erfahrenen Führer. Dieser empfahl uns daher flussaufwärts zu einem Meditations-Zentrum zu steigen, wo sich etwa 20 Lamas unterhalb einer überhängenden Felswand in Zelten aufhielten.

Der Weg zu diesem Platz erwies sich als etwa 2 Stunden Fußmarsch von der Ansiedlung Lumnang - unserem eigentlichen Tagesziel – entfernt und war durch Erdrutsche sehr schwer passierbar geworden. Wir querten einige gefährliche Abschnitte, während weitere Nachbeben erfolgten, und erreichten schließlich den Meditationsplatz (Abbildung 5).

Der Meditationsplatz der LamasAbbildung 5. Der Meditationsplatz der Lamas bietet uns Schutz.

Die Lamas boten uns Tee mit Milch und Speisen an und einen Schlafplatz – in unserer Lage ein unwahrscheinliches Glück! Wir hatten ja nur wenig Verpflegung für maximal einen Tag mit, nur eine ganz leichte Ausrüstung, keine Schlafsäcke, keine Matten…

Die Lamas meinten am nächsten Tag, dass wir - mit viel Glück - an einer bestimmten Stelle in den Bergen eine Funkverbindung bekommen könnten – auf Grund der lokalen Gegebenheiten und der langjährigen Erfahrung der Mönche wäre das aber nur zwischen 10 – 12 Uhr vormittags möglich. Wir hatten Glück: einige Sekunden lang. Die Zeit reichte, um mitzuteilen, dass wir in Sicherheit wären, aber nur mit einem Hubschrauber aus dem Tal herauskommen könnten. In diesem Moment wussten wir noch nicht, dass dies der einzige Zeitpunkt sein würde, um Kontakt mit der Außenwelt aufzunehmen. Trotz verzweifelter Bemühungen gelang es in den folgenden Tagen nicht eine Funkverbindung herzustellen. Wir hatten keine Ahnung, wann wir aus dem Tal herausgeholt würden, wir sorgten uns um unsere Familien, die vermutlich nichts über unsere Lage wussten. Von einem alten Radio, das uns den Empfang eines indischen Senders ermöglichte, erfuhren wir, dass das erlebte Beben ein besonders schweres war, und nicht nur lokale Auswirkungen hatte.

Tatsächlich waren bereits Alle an unserer Rettungsaktion beteiligt: unsere Familien, Vertreter unserer Institutionen, Ministerien, Botschaften und die örtlichen Militärlager. Wir hatten davon bloß keine Ahnung.

Die Rückkehr

Nach fünf Tagen war der Albtraum für uns zu Ende. Ein Hubschrauber kam und brachte uns nach Charikot ins Armeelager (Abbildung 6). Er flog dann noch einmal zurück, um die Bewohner von Lumnang mit Nahrung und Medikamenten zu versorgen. Wie wir aus Berichten von Lamas und Einwohnern erfuhren, war diese Ansiedlung komplett zerstört worden. Es gab auch Tote – deren Zahl wäre zweifelhöher gewesen, hätte das Erdbeben nicht zu einer Zeit stattgefunden, zu der sich der Großteil der Menschen im Freien aufhielt.

Der Meditationsplatz der LamasAbbildung 6. Glücklich entkommen: Puskar, Mohan Devkota, Viktor Bruckman, Klaus Katzensteiner (von links nach rechts).

Auf dem Flug sahen wir erst das Ausmaß der Katastrophe. Etwa 80 % der Gebäude waren komplett zerstört, große Abschnitte des Weges durch Erdrutsche völlig verwüstet - unsere Chancen zu Fuß zu entkommen, wären minimal gewesen. Später erfuhren wir, dass einer unserer Träger bei einem Erdrutsch umgekommen war, ein anderer wurde schwer verletzt. Nur einer schaffte es sicher nach Lamabagar zurückzukehren. Einige Gruppen von Leuten, die gleichzeitig unterwegs waren –darunter Wasserkraft-Techniker, die nach Lamabagar wollten und andere Personen, die wir am Weg nach Lapchi überholt hatten -, wurden vermisst. Lokale Berichte sprachen von vielen Toten im Flußbett des Tamakoshi , von den Yartsa Guma sammelnden Jugendliche werden Hunderte vermisst.

Wir haben überlebt. Unser Mitgefühl ist mit den Opfern der Katastrophe, insbesondere dem Opfer unseres Teams, und ihren Angehörigen. An eine Fortsetzung unseres ursprünglichen Projekts ist nicht zu denken. Nach sorgfältiger Analyse der aktuellen Situation, wollen wir ein neues Konzept zur langfristigen und nachhaltigen Unterstützung der in den entlegenen Gebieten lebenden Menschen erstellen.


Weiterführende Links

Viktor Bruckman. Projekthomepage: IFM-GCA: Options for integrated forest management in Gaurishankar Conservation area (GCA), Eastern Nepal Himalayas.

European Geosciences Union

Kommission für interdisziplinäre ökologische Studien

Auf der Suche nach dem Raupenpilz Video 6:49 min.

inge Fri, 18.09.2015 - 08:13

Modelle – von der Exploration zur Vorhersage

Modelle – von der Exploration zur Vorhersage

Fr, 11.09.2015 - 14:46 — Peter Schuster Peter SchusterIcon MINTWissenschaftliches Rechnen (computational science) ist neben Theorie und Experiment zur dritten Säule naturwissenschaftlicher Forschung geworden. Computer-Modelle erlauben Gesetzmäßigkeiten komplexer unerforschter Systeme zu entdecken, Vorhersagen für komplexe dynamische Systeme zu erstellen und reale Vorgänge in einer Präzision zu simulieren, die experimentell erreichbare Genauigkeiten bereits übertreffen kann. Der theoretische Chemiker Peter Schuster ist seit den frühen 1960er Jahren auf dem Gebiet der Modellierungen tätig. An Hand einiger typische Beispiele zeigt er hier Wert und Aussagefähigkeit von Computer-Modellen auf.*

Bis in die zweite Hälfte des vorigen Jahrhunderts schritten die Naturwissenschaften auf zwei Beinen voran – auf der Theorie und auf dem Experiment. Dies waren auch die beiden Säulen, auf denen Karl Popper 1935 seine Erkenntnistheorie der modernen Naturwissenschaft, die „Logik der Forschung“ aufbaute. Auf eine kurze Formel gebracht, besagt diese:

  • etablierte Theorien spiegeln den aktuellen Stand der Naturwissenschaften wider,
  • neue experimentelle Daten falsifizieren die Theorien,
  • daraus erwachsen neue Theorien, welche in der Lage sind die neuen Befunde zusammen mit dem vormaligen Wissensstand zu erklären.

Für Poppers Erkenntnistheorie gibt es zwei klassische Paradebeispiele: i) Einsteins Relativitätstheorie und ii)die Quantenmechanik.

Eine dritte Säule der Forschung

Als Mitte des 20. Jahrhunderts die ersten elektronischen Rechner aufkamen, änderte sich die Situation – das wissenschaftliche Rechnen betrat die Bühne der Forschung und spielt seitdem entscheidend mit. Die frühen Computer boten allerdings noch sehr bescheidene Möglichkeiten, sie waren äußerst langsam, die Speicherkapazitäten sehr begrenzt. Dementsprechend konnten damals nur sehr einfache Modelle und das auch nur „so ungefähr“ behandelt werden; über die daraus getätigten Prognosen rümpfte jeder hartgesottene Experimentator die Nase.

Seitdem haben sich die elektronischen Rechenanlagen mit atemberaubendem Tempo weiterentwickelt und es liegt heute eine völlig veränderte Situation vor. Wissenschaftliches Rechnen (computational science) ist zur dritten Säule, zum fest etablierten Werkzeug der Forschung geworden. Der enorme Zuwachs zu unserem Wissensstand fußt auf dieser Säule. Nichtsdestoweniger gibt es auf einigen Gebieten Fehlschlüsse und falsche Erwartungen, die in die Aussagefähigkeit der Ergebnisse von Computer-Modellen gesetzt werden. Einige von den allgemeinen Schwierigkeiten sollen im Folgenden beleuchtet werden.

Modelle basieren auf Vereinfachungen

Vorausschicken möchte ich zwei Zitate: i) die moderne, üblicherweise Einstein zugeschriebene Version von Ockhams Razor: „Alles sollte so einfach wie möglich gemacht werden, aber nicht einfacher“ und ii) die Charakterisierung von Modellen durch den amerikanischen Statistiker George Box: „Alle Modelle sind falsch, aber einige sind nützlich.“

Abbildung 1. Wilheln von Ockham. Das nach diesem Mönch benannte erkenntnistheoretische Prinzip „Occam’s Razor“ hat dieser nie so formuliert, wohl aber dem Sinn nach in seinen Schriften verwendet. (Quelle: Wikipedia;. aus Ockham's Summa Logicae, 1341)

Um praktisch anwendbar sein zu können, müssen Theorien und Modelle die Natur vereinfachen. Dabei erhebt sich die Frage, wieweit eine Vereinfachung noch zulässig ist, ohne dass dabei die eigentliche Aussage verzerrt wird. Es ist trivial, wird aber häufig vergessen: die Zulässigkeit von Vereinfachungen hängt stark vom Kontext ab, in dem das Modell angewandt werden soll. Dies mag das folgende Beispiel erläutern:

Newtons Gravitationsgesetze gelten korrekt in der Himmelsmechanik solange relativistische Effekte vernachlässigbar klein sind. Im Alltag wird ein Fehler des Newtonschen Gesetzes aber sofort augenfällig, wenn man zu Boden fallende Körper beobachtet und die Ursache dafür sind definitiv nicht relativistische Effekte. Sieht man, wie ein Papierblatt, eine Feder und ein Stein zu Boden fallen, erscheint die Voraussage, dass alle Körper gleich schnell fallen, absurd. Der Fehler liegt in der Vernachlässigung des Luftwiderstands, der – in der Himmelsmechanik nicht existent – im Kontext der Erdatmosphäre das Modell zu stark vereinfacht hat.

In diesem Sinne erscheint es angebracht die oben erwähnte Aussage von George Box umzuformulieren:

„Zwangsläufig sind alle Modelle falsch, denn ohne Vereinfachungen sind sie unbrauchbar, aber mit Vereinfachungen wird es immer Umstände geben, unter denen diese zu komplett falschen Vorhersagen führen.“

Es ist die hohe Kunst erfolgreicher Modellierungen, dass die Vereinfachungen auf den Kontext abgestimmt werden, unter denen das Modell angewendet werden soll. In den Naturwissenschaften wird vorausgesetzt, dass Modelle validiert sind oder zumindest validiert werden können. Dies ist nicht immer der Fall in Politik oder bei Systemanalysen – unter gewissen Vorsichtsmaßnahmen erscheint es hier aber legitim auch unzureichend validierte Modelle anzuwenden.

Modell ist nicht gleich Modell

Entsprechend ihren Zielen lassen sich Modelle in 3 Typen einteilen:

1. Exploratorische Modelle. Der Informatiker Steve Banks definiert diese knapp und präzise als „eine Forschungsmethode, die Computer-Simulationen benutzt, um komplexe und unbekannte Systeme zu analysieren“. Der Zweck exploratorischer Modelle ist es daher neue Gebiete für die wissenschaftliche Forschung zu erkunden und vorzubereiten. Das primäre Ziel ist es Gesetzmäßigkeiten zu entdecken, nicht aber Vorhersagen zu machen.

2. Prädiktive Modelle. Diese basieren auf bereits gesicherten wissenschaftlichen Grundlagen und werden erstellt, um Voraussagen für zukünftige Entwicklungen zu erhalten. Im Allgemeinen sind die Informationen über ein System aber unvollständig und komplexe Dynamik und chaotisches Verhalten fügen noch weitere Unsicherheiten dazu. Die Vorhersagekraft eines derartigen Modells hängt daher sowohl von der Qualität der vorhandenen Daten als auch von der Verlässlichkeit des Modells ab.

3. Präzise Simulation. Diese dritte Klasse rechnerischer Modelle strebt an, experimentelle Daten präzise simulieren/reproduzieren zu können. Quantitative Eigenschaften werden hier mit hoher Genauigkeit bestimmt, entsprechen den genauesten experimentellen Messungen oder übertreffen diese sogar.

Validierung und Verifizierung

Alle rechnerischen Modelle werden dem Prozess der Validierung und Verifizierung unterworfen (oder sollten dies zumindest werden). Die Validierung bestimmt dabei inwieweit das Modell das reale System aus der Perspektive der beabsichtigten Anwendungen widergeben kann. Die Verifizierung prüft die Qualität der Aussagen des Modells, beispielsweise den Grad korrekter Aussagen.

Im Folgenden sollen einige typische Beispiele für diese drei Klassen an Modellen in Physik, Chemie, Ingenieurwissenschaften und Lebenswissenschaften aufgezeigt werden.

Ursprung des Lebens – ein Fall für das Design exploratorischer Modelle (Typ 1)

Überflüssig darauf hinzuweisen: in diesem Forschungsgebiet ist das zu modellierende System sowohl komplex als auch durch unsichere und unvollständige Daten charakterisiert. Ein typisches Beispiel dafür ist das sogenannte GARD-Modell (graded autocatalysis replication domain), das Doron Lancet (Weizmann Institute of Science, Rehovot) entwickelt hat.

Lancet beschäftigt sich mit der Frage, wie kleine Moleküle – solche, die unter präbiotischen Bedingungen entstehen konnten - spontan Aggregate (er bezeichnet diese als „Composome“) bilden, ihre chemische Information weitergeben und einem Selektions-und Evolutionsprozess unterliegen können. Soweit es die Rechnungen betrifft, hat das Modell eine solide mathematische Basis: Differentialgleichungen zur Beschreibung der autokatalytischen Aggregationsprozesse, stochastische Simulationen für den Selektions-/Evolutionsprozess. Allerdings fehlen Versuchsanordnungen, welche die rechnerischen Ergebnisse experimentell verifizieren könnten. Validation und Verifikation des Modells beziehen sich nur auf dessen interne Konsistenz und die nummerische Richtigkeit der Berechnungen. Nichtsdestoweniger können auf dieser Basis wichtige Eigenschaften des Modells diskutiert werden, beispielsweise ob derartige Composome überhaupt einen Evolutionsprozess durchlaufen können.

Wettervorhersage – ein bestens untersuchtes und populäres prädiktives Modell (Typ 2)

In diesem Fall sind beide Voraussetzungen für ein prädiktives Modell erfüllt: i) die Dynamik der Atmosphäre basiert auf der Physik von Flüssigkeiten und ist wohlverstanden, und ii) eine Unmenge an empirischen Daten wird täglich erhoben. Dies geschieht aus leicht nachvollziehbaren Gründen: eine verlässliche Wettervorhersage stellt ja einen enorm wichtigen Faktor in der globalen Ökonomie, Soziologie und im Katastrophenmanagement dar.

Abbildung 2. Wetter(Klima)vorhersagen sind prädiktive Modelle. Sie basieren auf etablierten physikalischen/chemischen Gesetzen. Die Erde wird in ein dreidimensionales Gitter eingeteilt und die atmosphärischen/terrestrischen Prozesse in jedem Abschnitt und in den Wechselwirkungen benachbarter Abschnitte modelliert. (Bild: Wikipedia; NOAA)

Nichtsdestoweniger bleiben Ungewissheiten zurück und die Vorhersage beruht auf Wahrscheinlichkeitsannahmen. Für diese Unsicherheiten gibt es zwei wesentliche Gründe: i) die Erdoberfläche weist eine zu komplizierte klein- und mittelräumige Strukturierung auf, als dass dies mir ausreichender Genauigkeit berücksichtigt werden könnte, und ii) die Dynamik von Flüssigkeiten nimmt bereits bei mäßigen Geschwindigkeiten einen turbulenten Verlauf - dies führt zu den all den Problemen, die mit einer Vorhersage bei einem deterministischen Chaos einhergehen.

Versuche das Wetter auf der Basis von Berechnungen vorherzusagen, nahmen bereits im frühen 20. Jahrhundert ihren Anfang. Die Daten dazu kamen ausschließlich von der Erdoberfläche und von Wetterballons, die rechnerischen Möglichleiten waren bescheiden. Effektive Rechner-basierte Vorhersagen starteten 1966 in Westdeutschland und den US, England folgte 1972, Australien 1977. Seitdem ist die Geschwindigkeit der Computer enorm gestiegen und noch wesentlich mehr hat sich die Effizienz der Algorithmen verbessert. Sicherlich gibt es hier noch weitere Steigerungsmöglichkeiten. Dennoch bleiben die oben genannten Einschränkungen – Turbulenzen in der Atmosphäre, komplizierte kleinräumige Strukturierung der Erdoberfläche – bestehen und Wettervorhersagen werden auch weiterhin auf Wahrscheinlichkeitsannahmen beruhen.

Quantenchemie – präzise Simulation chemischer Problemstellungen (Typ 3)

Simulationsmodelle bauen auf physikalischen Gesetzen oder auf etablierten empirischen Gesetzmäßigkeiten auf. Wie erwähnt erreichen derartige Modelle eine numerische Präzision, die sogar über die der experimentell en Messungen hinausgehen kann.

Die Quantenchemie - die Anwendung der Quantenmechanik auf chemische Problemstellungen – blieb bis in die 1960er Jahre weitgehend chancenlos. Es fehlten ja ausreichend große Rechnerkapazitäten und man setzte grobe Näherungsmethoden ein, um Lösungen der Schrödingergleichung für Moleküle zu finden. Diese waren so ungenau, dass sie von Experimentatoren bestenfalls milde belächelt wurden. Chemiker rasteten aus als Paul Dirac – Mitbegründer der Quantenphysik und Nobelpreisträger konstatierte:

„Die zugrundeliegenden physikalischen Gesetze, die für die mathematische Theorie eines großen Teils der Physik und der gesamten Chemie benötigt werden, sind vollständig bekannt. Die Schwierigkeit besteht ausschließlich darin, dass eine präzise Anwendung dieser Gesetze zu Gleichungen führt, die für Lösungen viel zu kompliziert sind. Es wird daher wünschenswert praktische Näherungsmethoden zur Anwendung der Quantenmechanik zu entwickeln, die – ohne ein Übermaß an Rechnerleistung - zu einer Erklärung der wesentlichen Eigenschaften komplexer atomarer Systeme führen.“

Tatsächlich erfüllte sich Diracs Traum sechsachtzig Jahre später. Moleküle mit nicht zu vielen Atomen und im idealen Festkörperzustand können nun berechnet werden. Allerdings: der im Nebensatz geäußerte Wunsch „ohne ein Übermaß an Rechnerleistung“ erfüllte sich nicht. Die für die numerische Quantenmechanik benötigte Rechnerleistung ist enorm hoch. 1998 wurden Walter Kohn und John Pople mit dem Nobelpreis ausgezeichnet für „die Entwicklung von Rechenverfahren, die Näherungslösungen der Schrödingergleichungen für Moleküle und Kristalle erzielen“. Heute werden die meisten spektroskopischen Eigenschaften von kleinen Molekülen berechnet: dies ist einfacher und genauer als die experimentalle Bestimmung.

Computational Mechanics – präzise Simulierungen im Bauingenieurwesen (Typ 3)

diese neue Fachrichtung beschäftigt sich mit einer enormen Vielfalt von Problemen, die in verschiedensten Ingenieurbereichen auftreten (beispielsweise in Strömungslehre, Statik und Materialwissenschaften). Um nur einige Anwendungen herauszugreifen:

  • Im Flugzeugbau reduziert die Simulation von Windkanälen die Anzahl realer Experimente und erspart damit Millionen Dollars.
  • Modelle, die Materialwissenschaften und Statik kombinieren, lösen Konstruktionsprobleme vom Errichten von Gebäuden über den Brückenbau zum Tunnelbau (ei n Beispiel ist hier die Berechnung der Strukturen von Beton). Ein besonders spektakulärer Erfolg ist der Rechner-unterstützte Abbruch alter Bauwerke.
  • Schlussendlich ist auch das große Gebiet der Industriemathematik zu erwähnen, das ausgefeilte mathematische Modelle und Computer-Simulationen anwendet, um Optimierungsprobleme in Industrieverfahren zu lösen. Ein Beispiel ist die Bestimmung der Temperaturprofile im Innern von Hochöfen.

Schlussfolgerungen - Ausblick

An Hand einiger willkürlich herausgegriffener Beispiele wird offensichtlich, wie interdisziplinär einsetzbar wissenschaftliche Modellierung und Simulation sind. Ausgezeichnete Ergebnisse in Physik, Chemie und Technik machen wissenschaftliches Rechnen zum unentbehrlichen Werkzeug in diesen Fächern. Darüber hinaus findet man Anwendungen des Rechner-unterstützten Modellierens im nahezu gesamten Spektrum aller Disziplinen: in der Theoretischen Ökonomie ebenso wie in der Soziologie, in den Lebenswissenschaften und auch in Medizin und der Pharmakologie – um nur einige Beispiel zu nennen.

Wissenschaftliches Rechnen ist tatsächlich zu einer dritten Säule geworden, gleichberechtigt mit Theorie und Experiment in Physik, Chemie und Technik. In den Lebenswissenschaften und in weiteren Disziplinen ist die Einstellung zu Computermodellen allerdings eine andere. Die Modell-basierte Theoretische Biologie hat einen schlechten Ruf bei experimentell arbeitenden Biologen ebenso wie bei Mathematikern.

Warum ist dies so? Die Gründe sind mannigfach:

einer davon ist zweifellos die inhärente Komplexität lebender Systeme, die bedingt, dass ein Großteil der Modelle exploratorischen Charakter hat. Man sollte nie vergessen, dass das Ziel exploratorischer Modelle die Entdeckung von Gesetzmäßigkeiten in den untersuchten Vorgängen ist und dass dies ein sehr wertvolles Ziel in unbekanntem Neuland darstellt. Meiner Meinung nach werden viele dieser exploratorischen Modelle oft falsch interpretiert und als prädiktiv missbraucht. Hier gilt: Falsche Prognosen sind schlimmer als keine Prognosen!

Ein zweiter Grund für den schlechten Ruf ist eher von psychologischer Art. Theoretische Biologen tendieren häufig dazu ihre Modelle über deren Wert zu verkaufen. Wenn beispielsweise ein Forscher eine interessante Regelmäßigkeit bei einem irregulären Zellwachstum errechnet hat, so verkündet er üblicherweise, dass er das Krebsproblem gelöst hat. Man sollte sich hier an ein Faktum halten, das zwar trivial ist, häufig aber übersehen wird und das (sinngemäß übersetzt) der britische Chemiker und Lesley Orgel so kommentiert:

„Wenn wir nahezu nichts über einen Term in einer Kette wissen, so wissen wir auch nahezu nichts über die Summe der Terme, auch, wenn wir die Werte der übrigen Terme kennen.“


Literatur

(unvollständige Liste) Popper, K. Logik der Forschung. Zur Erkenntnistheorie der modernen Naturwissenschaft. Verlag von Julius Springer, Wien 1935.

Box, G.E.P., Draper, N.R. Empirical model-building and response surfaces. John Wiley & Sons. Hoboken, NJ 1987. Bankes, S. Exploratory modeling for policy analysis. Operations Research, 1993, 41, 435-449.

Segré, D., Ben-Eli, D., Lancet, D. Compositional genomes: Prebiotic information transfer in mutually catalytic noncovalent assemblies. Proc.Natl.Acad.Sci.USA, 2000, 97, 4112-4117.

Orgel, L.E. The origin of life – How long did it take? Orinigs of Life and Evolution of the Biosphere, 1998, 28, 91-96.


*Die (leicht unterschiedliche) englische Version des Artikels ist eben in der Zeitschrift Complexity erschienen, deren Herausgeber der Autor ist. Dort ist auch eine vollständige Liste der Literaturangeben zu finden. Die meisten der zitierten Arbeiten sind allerdings nicht frei zugänglich, können aber auf Wunsch zugesandt werden Peter Schuster. Models – From exploration to prediction. Bad reputation of modeling in some disciplines results from nebulous goals. Complexity, Article first published online: 9 SEP 2015 | DOI: 10.1002/cplx.21729


Weiterführende Links

Artikel von Peter Schuster zu verwandten Themen im ScienceBlog

inge Fri, 11.09.2015 - 14:46

Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

Superauflösende Mikroskopie zeigt Aufbau und Dynamik der Bausteine in lebenden Zellen

Fr, 04.09.2015 - 16:33 — Redaktion

Redaktion

Icon MINT

Vor einer Woche ist im Fachjournal Science eine Studie erschienen*, die weltweites Aufsehen erregt. Mittels neuer fluoreszenzmikroskopischer Methoden gelang es Forschern um Eric Betzig (Howard Hughes Medical Institute, Janelia Farm) den inneren Aufbau lebender Zellen und darin ablaufende Prozesse in hoher räumlicher Auflösung – bis hin zur Sichtbarmachung einzelner Proteine - und zeitlicher Auflösung (Millisekundenbereich) zu filmen. An Hand von Beispielen - u.a. dem Aufbau/Umbau des Zytoskeletts oder der Entwicklung von Mitochondrien – lässt sich das ungeheure Potential dieser superauflösenden Mikroskopie erahnen, die in unterschiedlichsten Labors leicht implementierbar sein dürfte und damit eine Revolution der biologischen, biomedizinischen (Grundlagen)Forschung verspricht.

Jeder biologisch arbeitende Forscher wünscht sich wohl biochemische Prozesse nicht nur unter mehr oder weniger artifiziellen Bedingungen im Reagenzglas - in vitro - untersuchen zu können. Vielmehr möchte er direkt verfolgen, wie die Vorgänge ablaufen, wie Biomoleküle in ihrer komplexen natürlichen Umgebung, der lebenden Zelle, reagieren, wie dort Strukturen auf- und umgebaut werden, wie Organellen entstehen und funktionieren.

Die Grenzen des Lichtmikroskops

Der zellbiologisch arbeitende Forscher verbringt meistens sehr viel von seiner Zeit über das Mikroskop gebeugt, in die Beobachtung seiner wachsenden, sich teilenden, verändernden, sterbenden Zellen vertieft. Für Untersuchungen auf molekularer Ebene erweisen sich herkömmliche Lichtmikroskope allerdings kaum geeignet. Auch wenn sie mit den denkbar besten Optiken ausgestattet sind, können Lichtmikroskope Objekte nur dann getrennt, scharf wahrnehmen, wenn diese mindestens 200 – 300 Nanometer (nm - Milliardstel Meter) voneinander entfernt vorliegen. Diese Grenze der Auflösung wird physikalisch durch die Beugung der Lichtwellen bestimmt und hängt im Wesentlichen von der Wellenlänge des verwendeten Lichts (der Wellenlängenbereich des für Menschen sichtbaren Lichtspektrums erstreckt sich von etwa 380 nm bis 780 nm) und dem Öffnungswinkel des Objektivs ab. Diese – nicht nur auf Lichtwellen beschränkte - Erkenntnis hat der deutsche Physiker Ernst Carl Abbe um 1870 in dem berühmten, nach ihm benannten Gesetz formuliert (Abbildung 1).

Dass man mit dem Lichtmikroskop Strukturen unterhalb einer Größe von 200 nm nicht sehen kann, wurde zu einem über 100 Jahre streng geltenden Dogma. Damit erschien eine direkte Betrachtung essentieller Zellbausteine in ihrem natürlichen Umfeld ausgeschlossen. Als Beispiele sind Proteinmoleküle zu nennen, deren durchschnittliche Abmessungen im niedrigen Nanometerbereich liegen. Auch viele gerade noch erkennbare Zellorganellen (beispielsweise Mitochondrien, Endosomen) sind zu klein für detailliertere Untersuchungen zu Aufbau und Funktion.

Abbe’sche FormelAbbildung 1. Die Auflösung in der Mikroskopie – die Abbe’sche Formel. Der Wellenlängenbereich des für Menschen sichtbaren Lichtspektrums erstreckt sich von etwa 380 nm bis 780 nm. Daraus berechnet sich ein Grenzwert der Auflösung von 200 – 300 nm. (Objektiv: olivgrün, Objekt: rot)

Sichtbarmachung von Nanostrukturen

Die Abbe’sche Formel zeigt: eine höhere Auflösung kann erreicht werden, wenn i) der Öffnungswinkel des Objektivs und/oder der Brechungsindex des Mediums, welches das Objekt umgibt, vergrößert wird und/oder ii) Strahlung mit niedrigerer Wellenlänge und damit höherer Energie angewendet wird.

  1. Im ersteren Fall wird das Objekt näher an das Objektiv herangebracht - dies führt aber (ebenso wie eine Erhöhung des Brechungsindex) nur zu mäßiger Zunahme der Auflösung (sin 45o = 0,707 bis hin zu sin 90o = 1).
  2. Die zweite Möglichkeit wird unter anderem in Methoden der Röntgenstreuung, Neutronenstreuung und insbesondere der Elektronenmikroskopie realisiert: es sind dies Standardtechniken der modernen Biowissenschaften, welche die Grundlage unserer Kenntnisse über den Aufbau von Biomolekülen geschaffen haben. Diese Methoden bieten die zur Analyse von Nanostrukturen – Molekülen bis hin zu Atomen - benötigte Auflösung. Die eingestrahlte Energie ist aber so hoch, die Versuchsbedingungen so lebensfeindlich – z.B. Arbeiten im Vakuum, bei sehr tiefen Temperaturen -, dass Messungen unter lebensnahen Bedingungen, direkte Beobachtungen biologischer Prozesse in lebenden Zellen nicht möglich sind.

Die Umgehung der Abbe‘schen Beugungsgrenze: Das Lichtmikroskop wird zum Nanoskop

In den letzten beiden Jahrzehnten wurden Methoden entwickelt, welche die bislang für absolut gehaltene, Abbe‘sche Grenze der optischen Auflösung in der Lichtmikroskopie - speziell in der in Biologie und Biomedizin sehr häufig verwendeten Fluoreszenmikroskopie - umgehen und Nanostrukturen und deren Dynamik sichtbar machen. Dies haben die US-Amerikaner Eric Betzig (Howard Hughes Medical Institute, Janelia Farm) und William Moerner (Stanford University, CA) und der Deutsche Stefan Hell (Max-Planck Institut für Biophysikalische Chemie/Göttingen) voneinander unabhängig und mit unterschiedlichen Strategien erreicht. Sie wurden dafür 2014 mit dem Nobelpreis für Chemie ausgezeichnet.

Prinzipiell werden in der Fluoreszenzmikroskopie Moleküle der Zelle mit fluoreszierenden Farbstoffen markiert. Ein Lichtstrahl (Laserlicht) einer bestimmten Wellenlänge regt diese Moleküle an –schaltet sie an –, sodass sie leuchten. Üblicherweise leuchtet dann die gesamte Probenoberfläche, sodass die Abstände zwischen den einzelnen angeregten Molekülen unter dem Abbeschen Grenzwert liegen und Strukturen unter 200 nm nicht mehr gesehen warden können.

Die STED-Mikroskopie

Stefan Hell hat hier mit der von ihm entwickelten STED-Mikroskopie (STimulated Emission Depletion, „stimulierte Emissions-Löschung“) einen Ausweg gefunden. Dem Lichtpuls, der die Fluoreszenzmoleküle anschaltet, schickt er sofort einen zweiten Lichtpuls – den STED-Puls – hinterher, der gezielt bis auf einen winzigen Ausschnitt alle angeregten Moleküle „abschaltet“ (d.h. zwingt ein Photon abzugeben = stimulierte Emission), sodass sie nicht mehr leuchten. Nur der winzige (Nanometer-kleine) leuchtende Ausschnitt wird detektiert – je kleiner dieser ist, desto höher wird die erzielte Auflösung. Nach diesem Anregung-Abschaltung Schema scannen die beiden Lichtpulse die gesamte Probenoberfläche. Aus den einzelnen detektierten Lichtpunkten wird dann via Computerprogramm das gesamte Bild zusammengesetzt. Mit dieser Technik werden Auflösungen von wenigen Nanometern, d.i. von der Größenordnung von Proteinen, erreicht.

Neben der enorm hohen räumlichen Auflösung wird auch eine sehr rasche zeitliche Auflösung erzielt. In einer eben erschienen Untersuchung** demonstriert die Hell-Gruppe die Dynamik von Vesikeln in der Nervenzelle einer lebenden Fliegenlarve und die Aufnahme von Viruspartikeln in lebende Zellen mit einer zeitlichen Auflösung von 5 – 10 Millisekunden.

Die SIM-Mikroskopie („Strukturierte Illuminationsmikroskopie“)

Auch die von Eric Betzig und William Moerner unabhängig entwickelten Strategien basieren auf der Fluoreszenzmikroskopie. Moerner, der als erster die Lichtabsoption an Einzelmolekülen gemessen hatte und Betzig experimentierten mit einem damals neu entdeckten, aus Quallen stammenden Protein, dem sogenannten Green Fluorescent Protein (GFP), dessen Fluoreszenz sich durch entsprechende Lichtpulse gezielt ein- und ausschalten lässt. GFP (aber auch andere fluoreszierende Proteine) können in Zellen eingeschleust und an andere Proteine gekoppelt werden: die Position und Dynamik dieser Proteine in der Zelle kann dann an Hand der angekoppelten anregbaren Fluoreszenz verfolgt werden.

Der Trick zur Umgehung der Abbe’schen Beugungsgrenze: die Probe wird mit einem sehr schwachen Lichtimpuls angeregt, welcher nur einen so kleinen Teil der Moleküle zum Fluoreszieren bringt, dass deren Abstände voneinander größer als 200 nm sind. Nach dem Ausbleichen dieser Moleküle wird die nächste kleine Untergruppe belichtet, dann die nächste, usf. Die resultierenden Bilder werden von Kameras aus verschiedenen Richtungen registriert und über Computeralgorithmen zu superaufgelösten Bildern zusammengesetzt und mit hoher zeitlicher Auflösung zu kurzen Videos. Mehr als lange Beschreibungen vermögen, zeigen diese Videos erstmals faszinierende Einblicke in die Vorgänge lebender Zellen in Echtzeit und auf molekularem Niveau (Video 1, Video 2).


Video 1. Dynamik der Verankerung des Zytoskeletts. Das fadenförmige Strukturprotein Aktin (violett fluorezierend: mApple-F-tractin) interagiert mit den bipolaren Kopfgruppen (EGFP, grün) des verankernden Proteins Paxillin . Aufnahmen:81 Zeitpunkte in Intervallen von 20 sec. (Movie 1, High NA SIM of actomyosin dynamics von HHMI NEWS PRO Mo 17. August 2015; weitere Details unter*)


Video 2. Dynamik von Mitochondrien in einer COS-7 Zelle. Markierung mit einem fluoreszierenden Membran-Marker (Skylan-NS-TOM20) Man kann beobachten, wie einzelne Mitochondrien sich kontrahieren, teilen und auch fusionieren, Aufnahmen: 20 Zeitpunkte in Intervallen von 2 min, der Farbcode zeigt die Entfernung vom Sunstrat. (Movie 10, 3D nonlinear SIM of mitochondrial dynamics von HHMI NEWS PRO vor 2 Wochen; weitere Details unter*)

Ausblick

Die faszinierenden neuen Techniken der „Nanoskopie“ stellen einen außerordentlichen Durchbruch dar für Grundlagen- und angewandte Forschung, dem weltweit Mit der Möglichkeit einzelne Biomoleküle in ihrem natürlichen Umfeld - auch in der Dynamik ihrer Wechselwirkungen - zu erfassen, wird die Basis zu einer wesentlich aussagekräftigeren systembiologischen Behandlung „Komplexer biologischer Systeme“ geschaffen. Die Pioniere in diesem Gebiet selbst wenden ihre Techniken an, um Einblicke in fundamentale biologische/pathologische Mechanismen zu gewinnen: Stefan Hell in die Mechanismen in Nervenzellen und an ihren Synapsen, W. E.Moerner in die Entstehung der Huntigton’schen Erkrankung und Eric Betzig in die Zellteilung in Embryonen.


*Dong Li e al., Extended-resolution structured illumination imaging of endocytic and cytoskeletal dynamics. Science (28. August 2015) 349 (6251)

** Jale Schneider et al., Ultrafast, temporally stochastic STED nanoscopy of milliseconds dynamics. Nature Methods, 12 (9) September 2015.


Weiterführende Links

How the optical microscope became a nanoscope. Populäre Information zum Nobelpreis in Chemie 2014 (PDF-Download; englisch)

Pushing the Envelope in Biological Fluorescence Microscopy. Distinguished Lecture by Dr. Eric Betzig (das Video zeigt großartige Bilder; in English) Video 36:45 min.

Nanoscopy with focused light. Stefan W. Hell: Nobel Lecture at Uppsala University (2014). Video 47:48 min.

Sehr weitreichende Informationen zu den Techniken der Superauflösenden Mikroskopie sind von den homepages der 3 Nobelpreisträger abrufbar:

Eric Betzig: http://janelia.org/lab/betzig-lab

Stefan W. Hell: www3.mpibpc.mpg.de/groups/hell

William W. Moerner: http://web.stanford.edu/group/moerner

inge Fri, 04.09.2015 - 16:33

Der Kampf gegen Poliomyelitis

Der Kampf gegen Poliomyelitis

Fr, 28.08.2015 - 07:51 — Bill & Melinda Gates Foundation

Bill & Melinda Gates FoundationIcon MedizinNoch im Jahr 1947 erkrankten in Österreich über 3500 Personen – überwiegend Kinder – an Poliomyelitis (Kinderlähmung, „Polio“), ein Großteil trug schwere Lähmungen davon, rund 10 % starben. Seit 1988 Impfkampagnen zur Ausrottung von Polio (Global Polio Eradication Initiative - GPEI) begannen und weltweit ca. 2,5 Milliarden Kinder geimpft wurden, konnte die Anzahl neuer Polio-Fälle um mehr als 99 Prozent gesenkt werden. Kürzlich meldete die Weltgesundheitsorganisation (WHO), dass auf dem gesamten afrikanischen Kontinent bereits seit einem Jahr kein neuer Polio Fall mehr aufgetreten ist, das Polio-Virus nur mehr zwei Ländern- Pakistan und Afghanistan – endemisch ist [1]. Da aus diesen Ländern eingeschleppte Krankheitserreger sich rasch ausbreiten können, sind lückenlose Impfungen gegen Polio weiterhin erforderlich. Die Gates-Stiftung ist einer der Hauptunterstützer der GPEI, die von Landesregierungen, der WHO, Rotary International, der US-Gesundheitsbehörde (CDC) und UNICEF geleitet wird. Der folgende Artikel wurde mit freundlicher Zustimmung der Gates Foundation der Website der Stiftung[2] entnommen.

Ausrottung von Polio – eine globale Initiative

In den letzten beiden Jahrzehnten wurden große Fortschritte bei der Ausrottung von Polio gemacht. Als sich die Weltgesundheitsversammlung 1988 die Ausrottung der Krankheit zum Ziel setzte und die Global Polio Eradication Initiative (GPEI) gestartet wurde, war das Poliovirus in 125 Ländern noch endemisch vorhanden und es kam jährlich zu 350.000 Lähmungen durch Polio, hauptsächlich bei kleinen Kindern. Seither konnte durch weltweite Impfkampagnen die Anzahl der Poliofälle um mehr als 99 Prozent gesenkt werden und es konnten mehr als 10 Millionen Kinder weltweit vor Lähmungen geschützt werden (Abbildung 1, eingefügt von Redaktion). Polio ist nur noch in drei Ländern endemisch vorhanden: Nigeria (siehe [1]; Red.), Pakistan und Afghanistan. Im Jahr 2012 wurden weniger als 250 Fälle gemeldet. Im Vergleich dazu gab es 2011 noch 650 Fälle.

Abbildung1. Seit dem Beginn der weltweiten Impfkampagnen „Global Polio Eradication Initiative (GPEI)“ im Jahr 1988 ist die Verbreitung von Polio massiv zurückgegangen. Im vergangenen Jahr war in Afrika keine Polioinfektion festgestellt worden. (Bilder: http://www.polioeradication.org/Polioandprevention/Historyofpolio.aspx; © Copyright World Health Organization (WHO). Insert: Polioviren.TEM-Aufnahme; Balken: 50 nm (Quelle: F.P. Williams, http://www.epa.gov/nerlcwww/polio.htm; gemeinfrei)

Allerdings sind die Erfolge, die durch effektive und sichere Impfstoffe und Impfkampagnen, eine globale Partnerschaft und ein globales Mandat zur Ausrottung von Polio erreicht wurden, ständig bedroht. Seit 2008 ist Polio in mehr als 20 Ländern aufgetreten. Die Krankheit wurde teilweise mehrfach aus endemischen Ländern eingeschleppt. Versuche, ungeimpfte Kinder zu erreichen, werden oft durch Sicherheitsrisiken sowie geografische und kulturelle Barrieren verhindert. Die hohen Kosten der Impfkampagnen, die sich jährlich auf 1 Milliarde US-Dollar belaufen, können nicht langfristig getragen werden. Wenn wir diese höchst ansteckende Krankheit im nächsten Jahrzehnt nicht ausrotten, könnte das pro Jahr 200.000 neue Fälle dieser Krankheit zur Folge haben.

Strategien zur Ausrottung von Polio

Bei der Weltgesundheitsversammlung im Jahr 2012 erklärten 194 Mitgliedstaaten die völlige Ausrottung von Polio zu einem „programmatischen Notfall für die Weltgesundheit“. Durch gemeinsame Anstrengungen zur Ausrottung von Polio können alle Kinder weltweit für immer vor der Kinderlähmung geschützt werden. Schätzungen zufolge wird die GPEI in den 20 Jahren nach der Ausrottung Nettogewinne von 40 bis 50 Milliarden US-Dollar erwirken, von denen rund 85 Prozent aus Ländern mit geringem Einkommen stammen. Bei dieser Zahl wurden keine weiteren gesundheitlichen Verbesserungen durch die GPEI beachtet, wie die Versorgung mit Vitamin A, oder die höheren Nettogewinne der Ausrottung in Ländern, die Polio bereits vor Beginn der GPIE ausgerottet haben.

Indien, das im Februar 2012 als poliofrei erklärt wurde,

ist vielleicht das beste Beispiel dafür, wie erfolgreich ein vollfinanziertes Programm mit engagierten Verantwortlichen und Mitarbeitern sein kann. Indien wurde lange als das Land bezeichnet, in dem aufgrund der hohen Bevölkerungsdichte, der hohen Migrationszahlen, der schlechten sanitären Einrichtungen, der hohen Geburtenrate und der geringen Anzahl von Routineimpfungen die Ausrottung von Polio am schwierigsten zu bewerkstelligen sein würde.

Abbildung 2. Die Polio-Impfteams holen sich Impfstoffe am Bahnhof im Staat Bihar in Nordindien ab.

Nach mehrjähriger Arbeit haben zahlreiche Faktoren zur Ausrottung von Polio in Indien beigetragen. Dazu gehörten u. a. eine sehr zielgerichtete, datengestützte Planung, gut geschulte und motivierte Mitarbeiter, gründliche Überwachung, wirksame Kommunikation, Zusammenarbeit mit zuverlässigen Gemeinde- und Religionsführern, der politische Wille auf allen Ebenen und ausreichende Finanzierung. Indien stellt den Ländern Nigeria, Afghanistan und Pakistan technische Hilfe und Beratung über bewährte Vorgehensweisen bereit.

Durch globale Zusammenarbeit und Innovationen sind neue Maßnahmen und Ansätze entstanden, die bei der Logistikplanung für die Ausrottung von Polio helfen können. Verbesserungen am Polio-Impfstoff haben zu einer besseren Immunreaktion auf die verbleibenden Typen der Krankheit geführt. (Der Wildtyp 2 des Polio-Erregers wurde 1999 eliminiert.) Neue Diagnoseverfahren, Überwachungen, Kartierungen und Modelle ermöglichen eine schnellere und präzisere Verfolgung von Poliofällen und Übertragungsmustern.

Um die Übertragung in ihren Ländern schneller zu stoppen

haben die Regierungen in Nigeria, Pakistan und Afghanistan nationale Notfallpläne ausgearbeitet, die von den entsprechenden Regierungsoberhäuptern kontrolliert werden und die die Zuverlässigkeit und Qualität der Polio-Impfkampagnen von der nationalen bis zur lokalen Ebene verbessern. Die WHO bietet diesen Ländern eine wesentliche technische Hilfe und verbesserte Strategien für Impfkampagnen, mit denen sichergestellt werden kann, dass mehr Kinder erreicht werden können. Bessere Planung und Modellansätze stellen den besseren Einsatz der Ressourcen sicher.

Durch diese Verbesserungen konnte Pakistan die Anzahl der Poliofälle von 198 im Jahr 2011 auf 56 im Jahr 2012 senken. Afghanistan konnte die Anzahl der Fälle im gleichen Zeitraum von 80 auf 35 senken. In Nigeria stieg die Anzahl der Fälle von 62 im Jahr 2011 auf 119 im Jahr 2012 (seit einem Jahr ist keine Neuinfektion mehr aufgetreten: [1] Red.).

Die GPEI arbeitet an der Entwicklung einer Sechsjahresstrategie bis 2018,

die zur Grundlage für alle Aktivitäten zur Eindämmung der Polio-Übertragung werden und zu einer poliofreien Welt führen wird. Dazu gehört die Nutzung und gründliche Analyse von Daten zur Festlegung spezifischer landesweiter Impfziele sowie der Einsatz neuer Hilfsmittel und Ansätze, die eine effektivere und effizientere Programmumsetzung ermöglichen werden. Die Kosten für die Vollfinanzierung dieses Projekts werden sich auf schätzungsweise 1 Milliarde US-Dollar pro Jahr belaufen.

Eine weltweite erfolgreiche Ausrottung von Polio würde zu ähnlichen Programmen führen, um Kinder in den ärmsten und am wenigsten zugänglichen Gegenden vor Krankheiten zu schützen, die sich durch Impfung verhüten lassen. Die Ausrottung von Polio ist auch ein wichtiger Meilenstein der Initiative „Decades of Vaccines“ und gemeinsames Ziel von fast 200 Ländern, um bis 2020 allen Menschen dieser Erde die Vorteile von Impfstoffen zu bieten.

Polio: eine der Top-Prioritäten der Bill & Melinda Gates Foundation

Als einer der Hauptunterstützer der GPEI konnten wir unseren GPEI-Partnern technische und finanzielle Ressourcen bieten, damit diese ihre Bemühungen zur Ausrottung von Polio beschleunigen konnten Viele dieser Strategien sind bewährt, wie zum Beispiel zielgerichtete Impfkampagnen, Einbindung von Gemeinden und verstärkte Routineimpfungen. Wir arbeiten auch gemeinsam mit Partnern an innovativen Möglichkeiten zur besseren Überwachung von Polio und schnelleren Reaktion auf Epidemien, zur Beschleunigung der Entwicklung und des Einsatzes sicherer und wirksamerer Polioimpfstoffe. Darüber hinaus bemühen wir uns um die finanzielle und politische Unterstützung der Ausrottungsbemühungen seitens der Geberländer und der von Polio betroffenen Länder.

Die Stiftung hat hier die ganz besondere Chance, einen Beitrag zur Ausrottung von Polio zu leisten, indem sie große Risiken eingeht und alternative Investitionen vornimmt, die zu wertvollen Programmverbesserungen führen können. Beispiele hierfür sind unsere Finanzierung der Kartierung durch das Geographic Information System (GIS), die bisher per Hand gezeichnete Karten ersetzt und zur Planung von Kampagnen dient, die Verfolgung der Aktivitäten der Impfkampagnen-Teams mittels GPS und Investitionen in Polio-Impfstoff-Forschung.

Polio-Impfkampagne

Durch die Ausweitung der Polio-Impfkampagne, einen besseren Mitarbeiterstab, technische und Programminnovationen, sowie eine Verbesserung in den Bereichen Datenerfassung und -analyse, kann die erforderliche Durchimpfungsrate erzielt werden, um die GPEI-Ziele zu erreichen. Dabei konzentrieren wir uns vor allem darauf, die Qualität der Kampagnen in Nigeria, Afghanistan und in Pakistan zu verbessern.

Ein Eckpfeiler der GPEI-Strategie zur Polioausrottung ist das Ziel, in den Ländern mit dem höchsten Risiko alle Kinder im ersten Lebensjahr durch mehrere Dosen Schluckimpfung zu immunisieren. Dazu sollen nationale und lokale Impfkampagnen eingesetzt werden. Dazu wird in Gegenden, in denen der Polio-Erreger vorkommt oder in denen ein Verdacht auf Polio-Infektionen besteht, in Gebieten, in denen ein Risiko für eine erneute Einführung von Polio besteht und Regionen mit begrenztem Zugang zu Gesundheitsdienstleistungen, hoher Bevölkerungsdichte und Mobilität, schlechten sanitären Einrichtungen und geringen Routineimpfungen per Hausbesuch geimpft.

Wir möchten verstehen, welche lokalen, sozialen, kulturellen, politischen und religiösen Gründe eine Steigerung der Durchimpfungsrate verhindern und wie diese überwunden werden können. Wir möchten die Zusammenarbeit mit und Unterstützung durch die politischen Verantwortlichen und Mitarbeiter des Gesundheitswesens, einschließlich niedergelassener Ärzte und ärztlicher Vereinigungen, fördern. Zu unseren Prioritäten zählen auch das Einstellen zusätzlicher Mitarbeiter und die Schulung von Impfteams sowie bessere technische Unterstützung. W

ir wollen den Einsatz moderner Kartierungs- und Verfolgungs-Tools fördern, damit wir Haushalte in Dörfern finden können, in denen Kinder noch keine Schluckimpfung erhalten haben. Diese Tools helfen Impfteams dabei, Nomaden zu folgen, um sie zu impfen.

Routine-Impfsysteme

Gemeinsam mit unseren Partnern möchten wir die umfassenden Routineimpfprogramme verstärken. Dazu gehören Impfprogramme gegen Polio und andere vermeidbare Krankheiten, wie Diphtherie, Tetanus, Keuchhusten und Masern. Derzeit bleiben weltweit 20 Prozent der Kinder ungeimpft.

Um alle Gemeinden mit Routineimpfungen zu erreichen, müssen wir wissen, wie wir lokale Hindernisse überwinden können, und anspruchsvolle Hilfsmittel zur Verfolgung und Planung einsetzen. Ein starkes, koordiniertes Immunisierungssystem kann auch als Plattform für andere wichtige Gesundheitsprogramme dienen. Andere Teams der Stiftung arbeiten an der Zusammenstellung aller notwendigen Komponenten eines solchen Systems und suchen nach Möglichkeiten, Poliomaßnahmen und Schulungsprogramme zu erweitern und so zu zuändern, dass diese für Routineimpfungen gegen eine Vielfalt von Krankheiten verwendet werden können.

Überwachung und Monitoring

Es ist wichtig herauszufinden, wo und wie der Wildtyp des Polio-Erregers noch zirkuliert, und die erfolgreiche Ausrottung des Virus zu bestätigen. Ein starkes und empfindliches Überwachungssystem ist wichtig, um zielgerichtete Kampagnen auszuführen, Programmänderungen rechtzeitig und effizient vorzunehmen und um Epidemien schnell zu erkennen und darauf zu reagieren.

Die Überwachung von Polio ist vor allem deshalb problematisch, weil nur ein kleiner Prozentsatz der Infektionen in klinisch erkennbaren Lähmungen resultiert Eine Infektion mit dem Polio-Erreger kann durch Stuhlproben von Personen mit Verdacht auf eine Infektion bestätigt werden. Diese Proben werden im Labor auf die Anwesenheit des Poliovirus untersucht.

Wir bewerten und verbessern aktuelle Überwachungsprogramme und konzentrieren uns dabei auf die Gegenden mit dem höchsten Risiko. Ein Verbesserungsbereich ist die Überwachung der Umwelt, einschliesslich der Entnahme und des Testens von Wasserproben aus Abwassersystemen und anderen Wasserquellen. Diese Proben können Aufschluss über eine Polio-Infektion in den umgebenden Gemeinden geben. Wir haben in eine Technologie investiert, die eine empfindlichere Diagnose mit kleineren Proben sowie eine hygienischere Probenentnahme ermöglichen soll. Außerdem unterstützen wir die Entwicklung günstigerer und zuverlässigerer Diagnosetests für das Labor. Wir arbeiten an einem Diagnosetest, mit dem kleinere Labors vor Ort schnell negative Proben ausschließen und positive Proben zur Bestätigung an größere Referenzlabore schicken können.

Produktentwicklung und Marktzugang

Obwohl die aktuellen Impfstoffe und Diagnosetests bei der Beseitigung des Wildtyps des Polio-Erregers in den meisten Ländern sehr wirksam waren, eignen sie sich möglicherweise nicht für eine komplette Ausrottung der Krankheit. Wir arbeiten gemeinsam mit Partnern daran, die Wirksamkeit der existierenden Hilfsmittel zu verbessern und die Entwicklung sichererer Impfstoffe, besserer Diagnosemittel, neuer antiviraler Medikamente und anderer Produkte zu beschleunigen. Wir arbeiten auch mit Partnern, Lieferanten und Regierungen daran, eine ausreichende Versorgung mit Impfstoffen sicherzustellen und die Konkurrenz auf dem Markt zu fördern.

Wir unterstützen die Entwicklung neuer Impfstoff-Formulierungen für die Schluckimpfung (die aus lebenden, abgeschwächten Erregern besteht), sowie Alternativen zur Polio-Schluckimpfung. Wir setzen uns dafür ein, dass die Kosten des inaktivierten Impfstoffs, der regelmäßig in den meisten Industrieländern verwendet wird, der aber aufgrund der hohen Kosten nicht weit verbreitet ist und von geschultem medizinischem Personal injiziert werden muss, verringert werden und die erforderlichen Schulungen, Lieferungen, Versorgungsmöglichkeiten und die Kommunikationsinfrastruktur geschaffen werden.

Wir investieren auch in die Entwicklung besserer Hilfsmittel, um die Immunität gegen Polio zu messen. die derzeit nur mit einer Blutprobe bestimmt werden kann. Bluttests unter größeren Bevölkerungsgruppen werden jedoch dadurch behindert, dass bei der Entnahme von Blutproben eine Zustimmung der Regierung erforderlich ist.

Datengestützte Entscheidungen

Die Erfassung und Weitergabe von Daten ist wichtig für die Ausrottung von Polio. Wir möchten den Zugang zu und die Nutzung von Daten verbessen, um bessere Entscheidungen in Bezug auf Programme treffen, Fortschritte verfolgen, die Überwachung der Umwelt verbessern sowie die Entwicklung von Impfstoffen und Diagnosetests vorantreiben zu können. Wir arbeiten mit einer Gruppe von Modellierern unter Leitung der University of Pittsburgh über die Vaccine Modeling Initiative zusammen, um einen allgemein gültigen Entscheidungsrahmen für die Kampagnen zur Ausrottung von Polio zu entwickeln.

Gemeinsam mit den GPEI-Partnern möchten wir erreichen, dass zur Berechnung des Fortschritts und des Risikos nicht mehr länger die aufgetretenen Poliofälle verwendet werden, sondern die Immunität der Bevölkerung. Wir unterstützen Kid Risk, eine gemeinnützige Organisation mit umfassender Erfahrung in der Polio-Risikomodellierung, die ein System entwickelt hat, mit dem die Immunität der Bevölkerung kontinuierlich eingeschätzt werden kann.

Um den Zugang zu Daten und deren Weitergabe zu verbessern, entwickeln wir bei der Weltgesundheitsorganisation eine Datenzugangsplattform mit wichtigen Daten zu Polio, die standardisiert und qualitätsgeprüft sind und für die Auswertung und Entscheidungsfindung zur Verfügung stehen.

Eindämmungspolitik

Die Eindämmung und endgültige Ausrottung der Polio-Erreger vom Wildtyp in Laboren ist ein wichtiger Schritt, um zu vermeiden, dass das Virus freigesetzt wird und die Krankheit wieder ausbricht.

Wir unterstützen unsere GPEI-Partner dabei, umgehend eine internationale Vereinbarung zu treffen, die regelt, wie übrig gebliebene Polio-Erreger, die für die Impfstoffproduktion, für die Forschung und für die diagnostische Reagenzproduktion verwendet werden, sicher gehandhabt werden. Wir benötigen auch Vorgehensweisen zur Lagerung und Zerstörung von Viren sowie Kriterien und Methoden für möglicherweise wieder eingeführte oder neu auftretende Polio-Erreger.

Bisherige Planung

In den 20 Jahren des Bestehens der Initiative wurden im Rahmen der GPEI Millionen Mitarbeiter und Freiwillige geschult und mobilisiert, es wurden Haushalte und Gemeinden erfasst und erreicht, die von anderen Initiativen nie erfasst worden waren, und es wurde ein zuverlässiges globales System zur Überwachung und Reaktion eingeführt.

Durch die Polio-Ausrottungsbemühungen haben die GPEI-Partner gelernt, wie man logistische, geografische, soziale, politische, kulturelle, ethnische, geschlechterspezifische, finanzielle und andere Hindernisse überwindet und wie man mit den Menschen in den ärmsten und am schwierigsten zugänglichen Gegenden zusammenarbeitet. Der Kampf gegen Polio hat zu neuen Möglichkeiten geführt, die Gesundheit der Menschen in den Entwicklungsländern zu verbessern – sei es durch politisches Engagement, Spenden, Planungs- und Managementstrategien oder Forschung. In der Folge hat die GPEI eine Reihe nützlicher Ressourcen entwickelt. Dazu zählen die genaue Kenntnis der hochriskanten Gruppen und der Migrationsmuster, wirksame Planungs- und Überwachungsmethoden, gut geschulte Mitarbeiter, lokale und regionale technische Berater sowie politisches und organisatorisches Engagement. Das letztere muss auf erfolgreichen Partnerschaften zwischen globalen, nationalen, religiösen und lokalen Führungspersönlichkeiten beruhen. Diese Ressourcen wurden bereits für andere gesundheitliche Bedrohungen und bei Notfällen eingesetzt, wie bei Fällen von Meningitis in West- und Zentralafrika, der H1N1-Grippe in Afrika südlich der Sahara und auf dem asiatischen Subkontinent sowie bei Hochwasser- und Tsunami-Katastrophen in Südasien.

Gemeinsam mit der GPEI möchten wir erforschen, wie die Polio-Infrastruktur, z. B. die Versorgungsketten, Überwachungs- und Laborsysteme sowie die sozialen Mobilisierungsnetzwerke, langfristig für andere Gesundheitsinitiativen und Immunisierungsprogramme genutzt werden kann, vor allem nachdem Polio erfolgreich ausgerottet wurde.

Interessengruppen und Kommunikation

Gemeinsam mit unseren GPEI-Partnern arbeiten wir an der Geldmittelbeschaffung und einer nachhaltigen globalen und nationalen politischen Unterstützung im Kampf für die Ausrottung von Polio. Dazu gehört auch, dass wir Regierungen davon überzeugen für Maßnahmen gegen Polio zu spenden und neue Spender aus anderen Bereichen suchen. Wir suchen auch weitere Mitstreiter im Kampf gegen Polio. Dabei denken wir an einflussreiche Mitglieder der Gemeinschaft wie Religionsführer, Freiwilligenorganisationen und Arbeitgeber. Mit unseren Partnern, wie Rotary International, der UNICEF und dem Global Poverty Project, nutzen wir traditionelle und soziale Medien, um in der Öffentlichkeit Bewusstsein zu wecken für die Unterstützung bei der Ausrottung von Polio, die Unterstützung von Immunisierungsprogrammen in Geberländern sowie in den Ländern, in denen Polio noch existiert, bzw. in Ländern, in denen es zu einem erneuten Auftreten von Polio kommen könnte. Wir möchten unsere Kommunikation spezifischen sozialen, kulturellen und politischen Gegebenheiten anpassen, um die Nachfrage nach Impfungen zu steigern und um Missverständnisse in Bezug auf die Sicherheit und Wirksamkeit von Impfstoffen auszuräumen


[1] World Health Organisation (WHO), August 2015: Highlight: Africa advances toward a polio-free continent

[2] Gates Foundation: Polio - Strategischer Überblick http://www.gatesfoundation.org/de/What-We-Do/Global-Development/Polio . (Der im Original sehr lange Artikel erscheint geringfügig modifiziert und leicht gekürzt; Redaktion)


Weiterführende Links

Herwig Kollaritsch, Marta Pauke-Korinek: Poliomyelitis. ÖAZ 22 (25. November 2014): 24 -33. PDF-Download. Hervorragender, leicht verständlicher Übersichtsartikel.

Global Polio Eradication Initiative

inge Fri, 28.08.2015 - 07:51

Comments

Bill Gates auf LinkedIn: »I traveled to Pakistan with the Bill & Melinda Gates Foundation's polio team to learn from their country’s polio program leaders.
 
Thanks to dedicated health workers, partners, and government, Pakistan has made tremendous progress — it has been over a year since wild polio paralyzed a child in Pakistan, presenting an incredible opportunity to stop this disease for good.
 
Polio cases have been reduced by 99% globally and I am optimistic that if everyone remains vigilant, we can reach every child with a polio vaccine and end polio.


Gates Foundation https://www.gatesfoundation.org/ideas/articles/eradicating-polio-in-pakistan-with-vaccine-data?utm_source=BG&utm_medium=LI&utm_campaign=polio«


 

Paul Ehrlich – Vater der Chemotherapie

Paul Ehrlich – Vater der Chemotherapie

Fr, 21.08.2015 - 14:21 — RedaktionIcon Gebiet

Am 20. August jährt sich der Todestag von Paul Ehrlich (1854 – 1915) zum hundertsten Mal. Ehrlich war Mediziner ebenso wie Biologe und Chemiker, ein Ausnahmewissenschafter, der wesentliche Grundlagen der modernen Medizin geschaffen hat.

 

Abbildung 1. Paul Ehrlich um 1905 – 1910 (Quelle: KRUIF, Paul de. Mikrobenjäger. Orell Füssli, Zürich, 1927; Public domain)

So hat er neue Färbemethoden entwickelt und mikroskopische Verfahren verbessert und mit diesen Krankheiterreger, unterschiedliche Zellarten und Gewebe untersucht. Abgesehen von der Entdeckung einer neuen Form der Leukozyten, der Mastzellen, ist ihm damit eine differenzierte Darstellung der weißen und auch der roten Blutzellen gelungen – dies war die Basis der modernen Hämatologie.

Mit der Erkenntnis, dass bestimmte Zellen unterschiedlich mit Farbstoffen reagieren, spezifisch angefärbt werden können, wandte er sich einem elementaren therapeutischen Thema zu: er suchte nach (synthetisch) chemischen Substanzen – Zauberkugeln, wie er sie nannte -, die spezifisch auf einen Krankheitserreger wirkten, ohne die Körperzellen des Wirtes zu beeinträchtigen. Diese Strategie bezeichnete er als Chemotherapie. Mit dem Salvarsan entdeckte er eine derartige Zauberkugel – es war das erste wirksame, leicht zu verabreichende Medikament gegen Syphilis. Auf ihn gehen auch u.a. die Begriffe „Rezeptor“ (Andockstelle an/in einer Zelle), „Pharmakophoren“ (Teile von Substanzstrukturen, die die Wirkung vermitteln) und grundlegende Überlegungen zur Verteilung von Substanzen im Organismus zurück. Auch hinsichtlich der Wirksamkeitsprüfung von Substanzen an Tieren war Ehrlich ein Pionier – er führte die Testung an relevanten Krankheitsmodellen ein..

Man kennt Ehrlich aber nicht nur als Vater der Chemotherapie, sondern auch (als einen der Väter) der Immunologie. In diesem Gebiet hat er u.a. eine erste umfassende Theorie der spezifischen Immunabwehr formuliert, die- etwas abgeändert- die Basis des modernen Antikörperkonzeptes darstellt. Ehrlichs „Seitenkettentheorie“ besagt, dass an bestimmten Körperzellen kettenförmige Molekülstrukturen – Rezeptoren – sitzen, an welche Fremdstoffe oder Infektionserreger in spezifischer Weise (d.i. nach dem „Schlüssel-Schloss-Prinzip“) andocken. Derartige Seitenketten ins Blut abgegeben, neutralisieren dann die Erreger/Gifte. Für diese fundamentalen Arbeiten wurde Ehrlich im Jahre 1908 mit dem Nobelpreis ausgezeichnet [1], gemeinsam mit Elias Metschnikow, der die Phagozytose entdeckt hatte.

Eine weitere Aufzählung der vielen bedeutenden und enorm einflussreichen Arbeiten Paul Ehrlichs würde den Rahmen dieser kurzen Vorstellung sprengen. Details dazu und zu seinem Lebenslauf finden sich am Ende des Artikels unter „Weiterführende Links“. Im Folgenden soll vielmehr Paul Ehrlich selbst zu Wort kommen und zwar mit einer Rede, die er 1906 anlässlich der Eröffnung des Speyer-Hauses hielt [2]. Mit der Gründung dieses chemotherapeutischen Forschungsinstituts i n Frankfurt [3]– ermöglicht durch eine großzügige Stiftung der Bankierswitwe Franziska Speyer – war ein Wunschtraum Ehrlichs wahr geworden; es war eine ihm gewidmete Forschungsstätte, deren erster Direktor er war und an der er u.a. mit der Entdeckung und Entwicklung des Salvarsan „seiner“ Chemotherapie zum Durchbruch verhalf.

Die Rede „Die Aufgaben der Chemotherapie“ [2] erscheint geringfügig für den Blog adaptiert (d.i. es wurden Untertitel und Abbildungen eingefügt) und durch eine Passage aus einer späteren Rede [4] ergänzt. Die einzelnen Themen, die Ehrlich anspricht – ob es sich nun um Prinzipien von Struktur-Wirkungsbeziehungen, um kausale anstelle symptomatischer Therapien, um geeignete Tierversuche oder auch um die erforderliche Zusammenarbeit von akademischer und industrieller Forschung zur Entwicklung neuer Pharmaka handelt - sind nach wie vor von brennender Aktualität.

Die Aufgaben der Chemotherapie [2]

"Es handelt sich heute nicht nur um die Eröffnung eines neuen wissenschaftlichen Instituts, sondern auch um die Schöpfung einer neuartigen Stätte wissenschaftlicher Forschung. Die neue Schöpfung stellt die Verwirklichung meiner schon in den frühen Jugendjahren gehegten Wünsche und Hoffnungen dar."

Abbildung 2. Georg-Speyer-Haus zur Einweihung am 3.September 1906 und Paul Ehrlich im Labor, in welchem er – nach Aussagen von Kollegen- alle 7 Tage der Woche verbrachte (Quelle: http://wellcomeimages.org/i)

Zur Verteilung von Substanzen

"Von Anfang an ist es mein Bestreben gewesen, Beziehungen zwischen der organisierten Materie und bekannten Stoffen der Chemie aufzufinden und auf diese Weise Einblick in den feinsten Bau der lebenden Ideen und Organe und deren Beeinflussung zu erhalten. Einmal kann man aus der Verteilung der von außen eingeführten Substanzen im lebenden Organismus gewisse Rückschlüsse ziehen auf die chemische Konstitution der einzelnen Organe. So werden z.B. durch Injektion von Methylenblau die peripheren Nervenendungen blau gefärbt und man muss daher annehmen, dass das Methylenblau gerade zu den Nervenendungen eine besondere Verwandtschaft hat. Man sagt, das Methylenblau ist neurotrop. Die Mehrzahl der Farbstoffe färbt eine größere Zahl von Geweben, sie sind „polytrop“. Dass das Studium der Verteilung aber von besonderer Wichtigkeit ist, liegt auf der Hand, da ja die Substanzen im Organismus an den Stellen ihre Wirkung entfalten können, an die sie gelangen an denen sie gespeichert werden." (Heute wird dies mit „Bioverfügbarkeit“ bezeichnet; Redaktion)

"Die Verteilungsgesetze zu kennen, ist daher die wichtigste Vorbedingung eines rationellen therapeutischen Handelns. Was nützt es, wenn wir Arzneimittel in Händen haben, denen zwar auf Grund ihrer chemischen Konstitution eine Fähigkeit der Heilwirkung zugeschrieben werden kann, die aber an das erkrankte Organ oder an den Feind. Der im lebenden Körper weilt, nicht herangelangen können und darum versagen! "

"Natürlich genügt die einfache Speicherung noch nicht zur Wirkung".

"Es muss noch ein zweites determinierendes Moment in der chemischen Substanz hinzukommen, welches die spezifische Wirkung vermittelt. Man muss also bei der Konstitution zwei verschiedene Faktoren unterscheiden:

  1. die Verteilung regulierenden distributiven Bestandteile und
  2. die die spezifische Wirkung veranlassende pharmakophore Gruppe. Erst die Resultante beider Faktoren erlaubt Schlüsse auf die Beziehungen zwischen Konstitution und Wirkung.

Den markantesten Ausdruck finden diese Beziehungen bei den von lebenden Organismen selbst produzierten toxischen Substanzen, welche die Immunitätslehre kennengelehrt hat. Es handelt sich hier um Gifte, an denen man ohne weiteres einen die Verteilung beherrschenden Komplex, die haptophore Gruppe, und die Giftigkeit bedingende toxophore Gruppe unterscheiden kann. Bei einer besonderen Klasse diese Gifte sind sogar haptophore und toxophore Gruppe an zwei trennbare Substanzen gebunden, durch deren Zusammentritt erst die Wirkung hervorgebracht wird."

"Eine wesentliche Aufgabe des neuen Instituts wird es nun sein, Substanzen und chemische Gruppierungen aufzufinden, welche eine besondere Verwandtschaft zu bestimmten Organen besitzen (organotrope Stoffe). Von besonderer Wichtigkeit wird es aber sein, solche gewissermaßen als Lastwagen fungierende Substanzen (heute sagt man „Carrier“ dazu; Redaktion) mit chemischen Gruppierungen von pharmakologischer oder toxikologischer Wirkung zu versehen, so dass sie gleichzeitig die ihnen anvertraute wirksame Last an die geeigneten Stellen befördern."

"Wenn auch der Nutzen dieser Art pharmakologischer Forschung evident ist und die schönen Erfolge, welche die Pharmakologie gezeitigt hat, von größter praktischer Bedeutung sind, so lässt sich doch nicht verkennen, dass die Mehrzahl der in den Arzneischatz übergegangenen Substanzen reine Symptomatika sind, die gewissen Krankheitssymptome günstig beeinflussen, aber nicht gegen die Krankheit selbst oder ihre Ursache gerichtet sind. Es wird sich jetzt aber darum handeln, wirkliche Heilstoffe, organotrope oder ätiotrope wirksame Substanzen zu gewinnen."

"Voraussetzungen dieser Untersuchungen ist die Möglichkeit, bestimmte Krankheiten an Tieren zu erzielen und daran die therapeutischen Versuche vorzunehmen, und in dieser Richtung hat die medizinische Wissenschaft bereits auf dem Gebiet der Infektionskrankheiten die schönsten Erfolge gehabt. "

Abbildung 3. Mitarbeiter von Paul Ehrlich mit Versuchstieren. (Quelle: Wellcome Images Keywords: Paul Ehrlich Gallery: http://wellcomeimages.org/indexplus/image/M0013269.html)

"Hier ist aber nun der lebende Organismus die Retorte, die ohne unser Zutun automatisch spezifische ätiotrope Heilstoffe, Antitoxine usw. darstellt, die noch dazu ausschließlich gegen die Krankheitsursache gerichtet, also monotrop sind. Ist und bleibt das Studium dieser Stoffe die Aufgabe des Instituts für experimentelle Therapie, so werden die Ziele des Speyerhauses dahin gehen, solche Heilsubstanzen in der Retorte des Chemikers entstehen zu lassen."

"Die Aufgabe einer derartigen „Chemotherapie“

erscheint schwierig, aber andererseits sind bei einer Reihe von Erkrankungen, bei denen die Immunisierung außerordentlich schwer und unvollkommen vor sich geht, gerade der Chemotherapie viel bessere Chancen des Erfolgs geboten. Verheißungsvolle Anfänge bestehen schon, wenn auch die Grundlagen rein empirisch sind (Behandlung der Syphilis durch Quecksilber, der Malaria durch Chinin, usw.). Ein weiterer Fortschritt kann aber nur durch systematische Heranziehung der zahlreichen Stoffe der Chemie erzielt werden. So ist es bereits gelungen einen Farbstoff (Trypanrot) aufzufinden, der es ermöglicht, Mäuse von der Infektion durch eine bestimmte Art von Trypanosomen, nicht durch alle Arten, zu heilen und sie von dem Tode zu erretten. Der Körper dieser Mäuse wird also durch den Farbstoff in Bezug auf die in ihm weilenden Parasiten vollständig sterilisiert. Laveran hat weiter gezeigt, dass man durch kombinierte Behandlung mit Trypanrot und Arsenik besonders günstige Heilerfolge erzielen kann, und es hat sich fernerhin ergeben, dass das Atoxyl das geeignetste Arsenpräparat darstellt. Der Erfolg ist nicht nur an kleinen Versuchstieren erzielt, sondern durch Lingard auch in Heilversuchen an großen infizierten Tieren, Pferden, an den die Trypanosomenkrankheit große Verwüstungen anrichtet, bestätigt."

"Dieses sehr ermutigende Beispiel kennzeichnet zugleich die Arbeitsrichtung des Speyer-Hauses. "


Nachsatz aus der 4 Jahre später gehaltenen Rede „Die Grundlagen der experimentellen Chemotherapie“ [4]:

"Wenn ich den Zweck eines chemotherapeutischen Institutes in kurzen Worten klarlegen soll, so besteht derselbe darin, durch systematische und ausgiebige Tierversuche für bestimmte Krankheiten "wirkliche" Heilmittel auffindig zu machen und nicht bloße Symptomatika, die ein oder das andere Symptom, wie Fieber, Neuralgie, Schlaflosigkeit, günstig beeinflussen. Ein solches Institut muss mindestens zwei Abteilungen besitzen, nämlich eine biologisch-therapeutische und eine chemisch-synthetische, die über den Aufbau neuer Arzneimittel zu wachen hat. Außerdem glaube ich aber nicht - und ich muss das besonders betonen -, daß ein derartiges Institut allein seinen Weg machen kann, wenn es ihm nicht gleich mir vergönnt ist, sich auf die erfolgreiche Beihilfe der chemischen Großindustrie mit ihren hervorragenden Köpfen und ihren großen Hilfsmitteln. zu stützen. "


[1] Nobelpreis 1908 http://www.nobelprize.org/nobel_prizes/medicine/laureates/1908/ehrlich-b... und Nobelvortrag „Partial cell functions” (englisch) http://www.nobelprize.org/nobel_prizes/medicine/laureates/1908/ehrlich-l...

[2 Paul Ehrlich (1906): Die Aufgaben der Chemotherapie. Frankfurter Zeitung und Handelsblatt:Zweites Morgenblatt 51.

[3] Chemotherapeutisches Forschungsinstitut Georg-Speyer-Haus (heute: Institut für Tumorbiologie und experimentelle Therapie) http://www.georg-speyer-haus.de

[4] Die Grundlagen der experimentellen Chemotherapie (1910) Vortrag gehalten in der ersten allgemeinen Sitzung der Hauptversammlung zu Frankfurt. Zeitschrift fuer angewandte Chemie und Zentralblatt fuer technische Chemie 23: 2-8.


Weiterführende Links

inge Fri, 21.08.2015 - 14:21

Evolution der Immunsysteme der Wirbeltiere

Evolution der Immunsysteme der Wirbeltiere

Fr, 14.08.2015 - 08:59 — Thomas Boehm & Jeremy Swann A

Thomas BoehmJeremy SwannIcon BiologieAlle Wirbeltiere besitzen eine erworbene (adaptive) Immunantwort und der Thymus ist ein zentrales Organ dieser Immunabwehr. Hier entwickeln sich Immunzellen, die Eindringlinge und entartete Körperzellen vernichten können. Das Team um Thomas Boehm, Direktor am Max-Planck Institut für Immunbiologie und Epigenetik (Freiburg), konzentriert sich auf Fragen zur Entwicklung und Funktion des Thymus und der darin heranreifenden Zellen und hat hier bahnbrechende Entdeckungen gemacht. Molekularbiologische Untersuchungen dieser Vorgänge in einer Reihe von Tierarten, von einfachsten Wirbeltieren bis hin zum Menschen, zeigen gemeinsame Merkmale in der Evolution des adaptiven Immunsystems: auf dieser Basis kann die Entwicklung künstlicher immunstimulierender Gewebe in Angriff genommen werden..*

Alle Lebensformen besitzen Immunsysteme, um sich gegen Fremdeinwirkung, besonders gegen Pathogene, zu schützen. Entscheidend dabei ist die Unterscheidung zwischen Selbst und Fremd. Wissenschaftler widmen sich bei ihren Studien zur Evolution und Funktion der Immunsysteme der Wirbeltiere deren gemeinsamen Organisationsprinzipien und artspezifischen Besonderheiten und versuchen, die Immunfunktionen ausgestorbener Tiere zu rekonstruieren. Mit dem daraus entwickelten Verständnis werden die Grundlagen geschaffen, Teile des Immunsystems künstlich herzustellen und für therapeutische Zwecke zu nutzen.

Fremde oder Freunde?

Das Phänomen der Immunität ist in der belebten Welt weit verbreitet. Es findet sich nicht nur bei Pflanzen und Tieren, sondern schon bei einzelligen Organismen und dient dem Erhalt genetischer, zellulärer und bei vielzelligen Organismen auch körperlicher Integrität. Allen Formen der Immunität liegt die Unterscheidung zwischen Selbst und Fremd (Nicht-Selbst) zugrunde, wobei verschiedene Organismen zu diesem Zweck im Laufe der Zeit ganz unterschiedliche Systeme herausgebildet haben.

Bei Studien zur Evolution und Funktion der Immunsysteme verschiedener Tierarten werden deshalb unter anderem die folgenden Fragen bearbeitet:

  • Gibt es grundlegende, allen Wirbeltieren gemeinsame Organisationsprinzipien?
  • Welche artspezifischen Besonderheiten haben sich im Laufe der Evolution herausgebildet
  • Lassen sich Immunfunktionen ausgestorbener Tiere wenigstens in Teilen rekonstruieren?

Mit der Beantwortung dieser und ähnlicher Fragen sollen sowohl ein tieferes Verständnis der Immunität erreicht als auch die Grundlagen dafür geschaffen werden, Teile des Immunsystems für therapeutische Zwecke künstlich herzustellen.

Die Immunsysteme der Wirbeltiere

Im Laufe der Evolution wurden für die Immunabwehr verschiedenste Lösungen gefunden. Ob ihrer Leistungs- und Anpassungsfähigkeit besonders eindrucksvoll sind dabei die Immunsysteme der Wirbeltiere. Diese Tiergruppe entstand vor etwa 500 Millionen Jahren und bevölkert in zwei Grundformen alle Ökosysteme der belebten Welt:

Den etwa 100 Spezies der sogenannten Rundmäuler, deren in unseren Breiten bekannteste Vertreter die Neunaugen sind, steht die weitaus größere Gruppe der Kiefermäuler mit weit über 50.000 Arten gegenüber, zu denen der Hai ebenso gehört wie der Mensch. Vergleichende Studien der letzten Jahre haben überraschende Gemeinsamkeiten in den Organisationsprinzipien der Immunsysteme der beiden Schwestergruppen aufgedeckt.

  • So besitzen alle Wirbeltiere spezielle Zellen für die Antikörperbildung, mit denen Fremdstoffe erkannt und für das Erkennen durch sogenannte Fresszellen markiert werden können.
  • Ein weiterer Typ von Immunzellen ist darauf spezialisiert, kranke oder infizierte Zellen zu erkennen und gezielt abzutöten.

Die für die Differenzierung von Selbst und Nichtselbst genutzten Antigenrezeptoren unterscheiden sich allerdings zwischen Rund- und Kiefermäulern. Dies lässt vermuten, dass sich im Immunsystem eines gemeinsamen Vorfahrens aller Wirbeltiere zunächst die verschiedenen Zelltypen herausbildeten, bevor dann, nach der Trennung in Rund- und Kiefermäuler, in einem zweiten Schritt die Ausprägung strukturell diversifizierter Antigenrezeptoren einsetzte. Diese Zweischritt-Hypothese lässt das Studium der für die Bildung von Abwehrzellen wichtigen Organe als allen Wirbeltieren gemeinsame Grundfunktion besonders interessant erscheinen. In der Abteilung Entwicklung des Immunsystems wird daher versucht, die Evolution eines dieser Organe, des Thymus, zu rekonstruieren, um damit ein vertieftes Verständnis seiner Funktion in heute lebenden Wirbeltieren einschließlich des Menschen zu erlangen.

Funktion des Thymus

Der Thymus ist ein wichtiges Organ des Immunsystems der Wirbeltiere (Abbildung 1). Er ist notwendig, um aus unreifen Zellen des blutbildenden Systems die für die Abwehr von Krankheitserregern notwendigen T (von Thymus)-Zellen zu bilden. Sie töten kranke Zellen entweder direkt ab (daher der Name Killerzellen) oder arbeiten bei der Infektabwehr als sogenannte Helferzellen mit den antikörperbildenden Zellen des Immunsystems zusammen.

Abbildung 1. Der Thymus (das Bries), ein kleines Organ, das bis zur Pubertät wächst und danach schrumpft, liegt oberhalb des Herzens. Er ist in Nischen gegliedert, in welchen T-Zelltypen heranreifen und dann in den Körper entlassen werden. (Bild von der Redaktion zugefügt; Quelle: http://de.slideshare.net/amyottmers/lymphatic-system-31966663)

Funktionell entscheidend für die Immunzellbildung ist die ausschließlich im Thymus vorhandene Mikroumgebung, die sich im Verlauf der Embryonalentwicklung in der Schlundregion ausbildet. Dieser Prozess vollzieht sich unter dem Einfluss eines bestimmten regulatorischen Proteins, des FOXn1 genannten Transkriptionsfaktors. FOXn1 steuert die koordinierte Aktivität einer großen Anzahl von Genen, die in ihrem Zusammenwirken nicht nur für die Anlockung von Vorläuferzellen zum Thymus, sondern auch für deren nachfolgende Differenzierung in reife T-Zellen verantwortlich sind. Aufgrund der zentralen Funktion von FOXn1 führen Mutationen dieses Transkriptionsfaktors bei Säugetieren zu einer schweren Immunschwäche .

Evolution des Thymus

Inzwischen ist bekannt, dass alle Wirbeltiere thymusähnliche Gewebe besitzen. Der vorläufige Schlusspunkt einer über hundertjährigen Forschungsanstrengung konnte in Zusammenarbeit mit einer amerikanischen Arbeitsgruppe kürzlich gesetzt werden, als es gelang nachzuweisen, dass auch die Rundmäuler im Rachenraum thymusähnliche Strukturen, die sogenannten Thymoide, besitzen. Weiterführende Studien zur Thymusfunktion bei Fischen zeigten, dass neben dem FOXn1 Transkriptionsfaktor auch sein evolutionärer Vorläufer, FOXn4, vergleichbare Funktionen in der Mikroumgebung des Thymus übernehmen kann. Dies lässt vermuten, dass beim Übergang von den einfach gebauten wirbellosen Tieren zu den komplexeren Wirbeltieren die Funktion eines ursprünglichen Thymus nicht durch FOXn1, sondern möglicherweise durch FOXn4 gewährleistet wurde. Geleitet von dieser Hypothese, ersetzten die Freiburger Forscher im Thymus von Mäusen die Funktion von FOXn1 mit der von FOXn4, dem ursprünglichen Faktor.

Überraschenderweise zeigte sich dabei, dass eine solcherart gebildete Mikroumgebung nicht nur wie erwartet die T-Zellentwicklung unterstützte, sondern zugleich auch der Entwicklung antikörperbildender B-Zellen Raum bot. Detaillierte Analysen ergaben einen zweiten überraschenden Befund. Die B-Zellen entwickelten sich in einer anatomisch abgegrenzten Region des Thymus, und zwar in der Nähe der den Thymus versorgenden Blutgefäße (Abbildung 2). Diese Strukturen ähneln denjenigen, die die B-Zellen im Knochenmark vorfinden, ihrem eigentlichen Bildungsort.

Abbildung 2: Links: Der normale Thymus einer Maus enthält nur wenige B-Zellen, hier mit einem roten Farbstoff markiert. Das die Blutgefäße umschließende Bindegewebe ist mit einem grünen Farbstoff sichtbar gemacht. Rechts: Wird der üblicherweise im Thymus aktive Foxn1-Transkriptionsfaktor durch seinen evolutionären Vorläufer Foxn4 ersetzt, ist die Struktur des Thymus einer solchermaßen veränderten Maus durch eine hohe Anzahl an B-Zellen gekennzeichnet. Interessanterweise finden sich diese B-Zellen in erweiterten Bindegewebsstrukturen der Blutgefäße, ähnlich ihrer normalen Bildungsorte im Knochenmark. Der Maßstabsbalken entspricht 50 µm. © Max-Planck-Institut für Immunbiologie und Epigenetik/Boehm

In weiteren Studien soll nun geklärt werden, ob evolutionär noch ältere Formen des FOXn4-Faktors gleiche oder ähnliche Funktionen haben. Von besonderem Interesse ist dabei die Frage, ob die aus vergleichenden Studien abgeleitete, schrittweise Entwicklung der T-Zelldifferenzierung rekapituliert werden kann. Damit könnte der entwicklungsgeschichtlichen Sequenz der T-Zellreifung eine evolutionäre Abfolge zugrunde gelegt werden.

Ausblick: Herstellung künstlicher Thymusgewebe

Die Aufdeckung der den Immunsystemen der Wirbeltiere gemeinsamen Merkmale erlaubt es, die Entwicklung künstlicher immunstimulierender Gewebe in Angriff zu nehmen. Diese Anstrengungen haben nicht nur den Zweck, die Richtigkeit der Schlussfolgerungen aus vergleichenden Studien zu bestätigen, getreu dem Feynmanschen Diktum “What I cannot create, I do not understand”, sondern sie stellen auch erste Schritte in Richtung einer klinischen Anwendung dar. Sollte es beispielsweise eines Tages gelingen, dem Thymus nachempfundene künstliche Gewebe zu schaffen, so könnten diese helfen, eine im Alter oder nach Behandlung von Tumorerkrankungen häufig auftretende Immundefizienz zu mildern. Dazu ist es nötig, die das Thymusgewebe auszeichnenden Funktionen auf deren präzise molekulare Grundlagen zurückführen zu können, um sie dann schrittweise und von Grund auf neu aufzubauen.


*Der Artikel Evolution der Immunsysteme der Wirbeltiere ist im Forschungsmagazin 2015 der Max-Planck Gesellschaft erschienen http://www.mpg.de/8847152/MPIIB_JB_2015?c=9262520. Er wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt und erscheint hier geringfügig für den Blog adaptiert, aber ohne Literaturangaben. Diese (nicht frei abrufbar)können im Original nachgesehen und, wenn gewünscht, zugesandt werden.


Weiterführende Links

Max-Planck Institut für Immunbiologie und Epigenetik (Freiburg) www.ie-freiburg.mpg.de Thomas Boehm Labor:

Cells of the Immune System (Howard Hughes Medical Institute)

Das Immunsystem: Schutz durch Wandel (uni-bonn TV) Video 5:58 min.

Das menschliche Immunsystem: Abwehr von Infektionen . Video 7:34 min.

Telekolleg Biologie Immunsystem (sehr allgemeine Darstellung), Video 29:40 min.

inge Fri, 14.08.2015 - 08:59

Ab wann ist man wirklich alt?

Ab wann ist man wirklich alt?

Fr, 07.08.2015 - 06:08 — IIASA

IIASA LogoPolitik & GesellschaftKonventionell gesehen gilt man mit 65 Jahren als alt. Die Bevölkerungsgruppe der über 65-Jährigen nimmt auf Grund einer kontinuierlich steigenden Lebenserwartung und einer gleichzeitig sinkenden Fertilität enorm zu, deren Unterhalt und Pflege bedeuten eine enorme ökonomische Belastung für die Gesellschaft. Tatsächlich bedeutet ein Alter + 65 aber nicht automatisch Abhängigkeit und Krankheit. Forscher am Internationalen Institut für Angewandte Systemanalyse (IIASA) erarbeiten bahnbrechend neue Maßstäbe, die – weg von der Zahl der bereits gelebten Jahre – Alter durch die noch zu erwartende Lebensspanne definieren („prospective age“) und in einem weiteren Schritt die physischen und psychischen Fähigkeiten („characteristics approach“) miteinbeziehen [1].

"Altern ist ein multidimensionaler Prozess. Menschen können in bestimmten Aspekten alt sein, in anderen dagegen ganz jung." Sergej Scherbow

Im Jahr 1877 hat Tschaikowsky in einem Brief den damals 49 jährigen Schriftsteller Tolstoi als einen geschwätzigen alten Mann beschrieben. Im Jahr 2012 hat die damals 46-järige Schwimmerin Dara Torres Dutzende junge Spitzenathleten besiegt und die Qualifikation für die Olympischen Spiele nur knapp verfehlt, nachdem sie zuvor 3 Silbermedaillen von den Olympischen Spielen 2008 nachhause gebracht hatte.

Das Alter ist nicht mehr das, was es früher einmal war, insbesondere nicht in den entwickelten Ländern. Heute leben die Menschen länger und bleiben über viele der zusätzlichen Jahre gesünder. Heute beträgt die durchschnittliche Lebenserwartung in Europa bereits über 80 Jahre, um 1900 lag sie um die 50 Jahre.

Die steigende Lebenserwartung verbunden mit einer sinkenden Fertilitätsrate hat aber in vielen Industriestaaten Beunruhigung über die rapide Alterung der Gesellschaft und die damit verbundenen volkswirtschaftlichen Auswirkungen ausgelöst. Sergei Scherbov, der stellvertretende Leiter des Weltbevölkerungs-Programm am Internationalen Institut für angewandte Systemanalyse (IIASA), sieht dies etwas anders. Er und seine Kollegen schwächen die Befürchtungen ab, weil diese auf überholten und zu starren Definitionen dessen beruhen, was Alter heute bedeutet. Im Rahmen eines Advanced Grant des Europäischen Forschungsrats (ERC) arbeiten sie nun daran neue Messmethoden zu entwickeln, um das Altern der Gesellschaft zu erfassen und die Politik diesbezüglich umfassender beraten zu können.

Wer ist alt? Eine neue Betrachtungsweise

Scherbow und Kollegen wenden in zunehmendem Maße einen neuen Maßstab an, um Personen als alt einzustufen. Anstatt zu sagen „mit 65 Jahren sind Menschen alt“, zählen sie nun von der voraussichtlichen Lebenserwartung einer Person zurück und bezeichnen jemanden als alt, wenn dieser im Mittel nur mehr 15 Jahre Lebensspanne vor sich hat. Mit diesem „vorausschauenden Ansatz“ („prospective approach“) erscheint Altern in einem völlig anderen Licht, als wenn man herkömmliche Maßstäbe ansetzt (Abbildung 1).

Altern in EuropaAbbildung 1. Das Altern in Europa – neu bestimmt. Üblicherweise wird der Beginn des Alters mit 65 Jahren festgesetzt und der Anteil der + 65 Bevölkerung zur Bevölkerung im erwerbsfähigen Alter (meist 20 – 64 Jahre) in Beziehung gesetzt (=old-age dependency ratio (OADR) – gelbe Linien). Der „prospective approach“ stuft dagegen Menschen als alt ein, wenn sie 15 (und weniger) Jahre Lebensspanne vor sich haben. Wird der Bevölkerungsanteil ab diesem Grenzwert in Beziehung gesetzt zur Bevölkerung 20 Jahre - bis zu diesem Grenzwert (= prospective old-age dependency ratio (POADR) – blaue Linien), so fällt die prognostizierte Alterung der Bevölkerung viel schwächer aus als nach der konventionellen fixen Altersfestlegung.(Abbildung von der Redaktion beigefügt; Quelle: European Demographic Data Sheet 2014 [2])

So zeigen Scherbov und sein Kollege Warren Sanderson (IIASA und Stony Brook University, N.Y.) in einer eben erschienenen Studie [3], dass unter Anwendung des neuen „vorausschauenden Ansatzes“ schnellere Anstiege in der Lebenserwartung tatsächlich zu einer langsameren Alterung der Bevölkerung führen. „Der Zeitpunkt, ab dem jemand als alt gilt, ist sehr wichtig“, sagt Sanderson, „weil dieses Alter ja häufig als Indikator für zunehmende Behinderung, Abhängigkeit und verringerte Erwerbsfähigkeit herangezogen wird. Ein Anpassen an das, was wir als Beginn des Alters betrachten, ist unerlässlich – sowohl, um das Altern einer Bevölkerung wissenschaftlich zu verstehen, als auch um Richtlinien auszuarbeiten, die in Einklang mit unserer gegenwärtigen demographischen Situation stehen." (Abbildung 2).

Altersgrenze ab der die verbleibende Lebensspanne (weniger als) 15 JahreAbbildung 2. Die Altersgrenze ab der die verbleibende Lebensspanne (weniger als) 15 Jahre beträgt; 2013 und Prognose für 2050 (Abbildung von der Redaktion beigefügt; Quelle: European Demographic Data Sheet 2014 [2])

Nach Meinung der Wissenschafter müsste eine der Konsequenzen darin bestehen, dass das Pensionierungsalter nicht festgelegt sein dürfte, sondern sich entsprechend der Lebenserwartung und den Fähigkeiten von Personen in den verschiedenen Altersstufen dynamisch ändern sollte.

Paradigmenwechsel – Alter definiert auf Grund von physischen und mentalen Fähigkeiten

Auch dem „vorausschauenden Ansatz“ der Altersbestimmung können wichtige Aspekte fehlen. Wenn Menschen zwar länger leben, dafür aber gegen das Lebensende hin über längere Zeit krank oder behindert sind, hat das andere gesellschaftliche Auswirkungen, als wenn Menschen in höherem Alter gesund und auch noch erwerbsfähig bleiben. Scherbov und Sanderson erarbeiten nun eine Reihe neuer Maßzahlen, die in Summe ein wesentlich umfassenderes Bild des Status der Bevölkerung geben können. Sie bezeichnen dies als „characteristics approach“, eine Methode, bei der messbare physische und mentale Eigenschaften im Mittelpunkt stehen. Ein erstes Set dieser Eigenschaften kann in einem 2013 erschienenen Artikel nachgelesen werden [4]. Im vergangenen Jahr zeigten die Forscher beispielsweise, dass die Kraft eines Händedrucks sehr gut mit anderen Indikatoren des Alterns – zunehmende Behinderung, Verringerung kognitiver Fähigkeiten, Sterblichkeitsrate - korreliert und als Maßstab verwendet werden könnte, um Alterung in verschiedenen Bevölkerungsgruppen zu vergleichen [5].

„Altern ist ein multidimensionaler Prozess. Menschen können in bestimmten Aspekten alt sein, in anderen dagegen ganz jung“ sagt Scherbow. „ Beispielweise ist man mit 20 Jahren bereits zu alt, um anzufangen Geige zu spielen. Andererseits wurden Mitglieder des Sowjet-Politbüros für jung erachtet, wenn sie 60 waren. Es hängt davon ab, was wir von den Menschen erwarten“.

Ausblick

Die IIASA Forscher dehnen ihre Untersuchungen nun auch auf Länder außerhalb Europas aus. Beispielsweise zeigen viele Länder in Asien ähnlich niedrige Fertilitätsraten wie Europa und steigende Lebensspannen. Rund um die demographischen Studien des IIASA wächst die Gemeinschaft der Forscher, die neue Methoden der Altersmessung entwickeln. Von Scherbov und Sanderson organisiert, hat eine erste große internationale Konferenz zu “New Measures of Age and Ageing“ im Dezember 2014 in Wien stattgefunden. Ein Großteil der Präsentationen, die sich auch mit den Auswirkungen der neuen Methoden der Altersbestimmung auf Gesellschaft und Politik befassten, sind online abrufbar [6].

Schlussendlich reagiert dieses Gebiet demographischer Forschung auf die um sich greifenden Änderungen biologischer und sozialer Natur, reflektiert also die reale Welt um uns herum. Das Alter muss dynamisch definiert werden - wie es Scherbov einfach ausdrückt: „Wir können nicht sagen, dass ein 65-jähriger Mensch heute dasselbe bedeutet, wie ein 65-Jähriger vor 100 Jahren oder, wie ein 65-Jähriger in 100 Jahren sein wird.“


[1] Forever joung? Der von der Redaktion aus dem Englischen übersetzte Text stammt aus dem Options Magazin (Juni 2015) der IIASA, die freundlicherweise einer Veröffentlichung in unserem Blog zugestimmt hat. http://www.iiasa.ac.at/web/home/resources/publications/options/150614-fo.... Die Abbildungen wurden von der Redaktion zugefügt und stammen ebenfalls aus IIASA-Unterlagen.

[2] European Demographic Data Sheet 2014 http://www.iiasa.ac.at/web/home/research/researchPrograms/WorldPopulatio...

[3] W.C.Sanderson, S. Scherbov. Faster Increases in Human Life Expectancy Could Lead to Slower Population Aging. PLOSone (2015), DOI: 10.1371/journal.pone.0121922 http://journals.plos.org/plosone/article?id=10.1371/journal.pone.0121922

[4] Sanderson, W. C. and Scherbov, S. (2013), The Characteristics Approach to the Measurement of Population Aging. Population and Development Review, 39: 673–685. doi: 10.1111/j.1728-4457.2013.00633.x

[5] Sanderson, W., and S. Scherbov. (2014) Measuring the Speed of Aging Across Population Subgroups. PLOS ONE. http://dx.plos.org/10.1371/journal.pone.0096289

[6 ] International Conference on New Measures of Age and Ageing , Vienna, 3 - 5 December 2014. http://www.oeaw.ac.at/vid/newage/


Weiterführende Links

"New Measures of Age and Aging" Interview mit Sergej Scherbov Video 8:40 min. https://www.youtube.com/watch?v=aYT-whbRSwQ

Unterschiedliche Aspekte des Themas „Altern“: damit haben sich bereits mehrere Autoren im ScienceBlog auseinandergesetzt: Christian Ehalt, Ilse-Kryspin Exner, Gottfried Schatz, Georg Wick.

inge Fri, 07.08.2015 - 06:08

Feuer und Rauch: mit Satellitenaugen beobachtet

Feuer und Rauch: mit Satellitenaugen beobachtet

Fr, 31.07.2015 - 10:15 — Johannes Kaiser & Angelika Heil Johannes KaiserAngelika HeilIcon GeowissenschaftenDas Abbrennen von Biomasse verändert die Landoberfläche und führt zu massiven Emissionen von Rauchgasen und -partikeln. Johannes Kaiser und Angelika Heil - Wissenschaftler des Max-Planck-Instituts für Chemie in Mainz – zeigen hier Verfahren auf, die sie zur weltweiten Abschätzung von Emissionen aus Wald-, Savannen- und anderen Vegetationsfeuern aus Satellitenbeobachtungen entwickeln. Mithilfe dieser Verfahren berechnet der EU-finanzierte, frei verfügbare Copernicus Atmosphärendienst täglich diese Emissionen und ihren Einfluss auf die globale Atmosphärenzusammensetzung und die europäische Luftqualität. Zudem werden die Berechnungen zur Überwachung des globalen Klimawandels eingesetzt.*

Feuer im Erdsystem

Savannen-, Wald- und andere Vegetationsfeuer sind ein weltweites Phänomen. Sie sind integraler Bestandteil verschiedenster Ökosysteme, in denen sich die Feuer in Abständen von einem Jahr bis zu einigen Jahrhunderten wiederholen. Vegetationsbrände treten natürlich auf, und können mit versteinerten Holzkohlefunden bis zum Devon zurückverfolgt werden. Heutzutage überwiegt die absichtliche oder versehentliche Entzündung durch Menschen, die andererseits auch die Feuerausbreitung bekämpfen. Abbildung 1 zeigt links die globale Feuerverteilung während eines Jahreszyklus.

Abbildung 1: Feinstaubemissionen aus Vegetationsbränden im Jahr 2005 [7]. Die Farbskala bezieht sich auf die Emissionen in Tonnen pro Jahr pro 50 km x 50 km (links). Prozentualer Beitrag von Vegetationsbränden an den gesamten Feinstaubemissionen im Jahr 2005 (rechts). Die Gesamtemissionen beinhalten anthropogene Emissionsquellen plus Vegetationsbrände. © Max-Planck-Institut für Chemie

Feuer verursachen einen jährlichen Kohlenstofffluss von ca. zwei Gigatonnen in die Atmosphäre. Das entspricht etwa 20 Prozent des Flusses aus fossilen Brennstoffen und ist somit ein wichtiger Teil des globalen Kohlenstoffkreislaufs. Zwar wird der Großteil des freigesetzten Kohlendioxids durch erneuten Pflanzenwuchs wieder aufgenommen, aber die Abholzung und Verbrennung tropischer Wälder sowie Torf- und Tundrafeuer sind irreversibel.

Toxische Rauchgase und -partikel beinträchtigen die lokale und regionale Luftqualität. Beispielsweise haben Feuer in Sumatra im Juni 2013 in Singapur zu einer zwölffachen Überschreitung des Feinstaubrichtwertes der Weltgesundheitsorganisation geführt. Die Feuer wurden im Zusammenhang mit der Anlage von Palmplantagen gelegt. Feuer sind eine signifikante Quelle für viele atmosphärische Spurenstoffe. Global tragen sie rund ein Drittel zu den Emissionen von Kohlenmonoxid und Feinstaub bei. Der relative Anteil an den gesamten Feinstaubemissionen ist in Abbildung 1 rechts illustriert.

Rauchpartikel beeinflussen auch das Klima. Sie enthalten Ruß und organisches Material in unterschiedlichen Anteilen. Die beiden Anteile haben entgegengesetzte Wirkungen auf die Energiebilanz der Erde: Dunkler Rauch mit hohem Rußanteil bewirkt eine Erwärmung. Heller Rauch mit niedrigem Rußanteil bewirkt eine Abkühlung. Im globalen Mittel überwiegt der Kühlungseffekt. Auf Eis und Schnee abgelagerte Rußpartikel erhöhen die Absorption von Sonnenlicht und tragen so zu der vermehrten Eisschmelze in der Arktis bei. Die Rauchpartikel fungieren auch als Wolkenkondensationskerne und haben entsprechend komplexe Wirkungen auf Wolken und Niederschlag.

Frühe Feuerquantifizierung

Schon im 19. Jahrhundert berechnete Alexander von Danckelman [1] die Menge der in Afrika südlich des Äquators jährlich verbrannten Biomasse aus Abschätzungen der verbrannten Savannenfläche und der Biomassedichte (kg m-2). Seiler und Crutzen erweiterten den Ansatz 1980 auf die gesamte Erde und die Abschätzung von Spurengasemissionen [2]. Der Berechnungsansatz beruht auf der Multiplikation der verbrannten Fläche, der pro Flächeneinheit verbrannten Biomasse und der Emissionsfaktoren (pro Kilogramm verbrannter Biomasse freigesetzte Spurengase oder Rauchpartikel). Diese Berechnungsgrößen werden jeweils vom Vegetationstyp abhängig parametrisiert. Mangels besserer Alternativen mussten die Berechnungsgrößen mittels Extrapolation von demographischen Statistiken und Landnutzungsdaten abgeschätzt werden.

In den darauffolgenden zwei Dekaden konnte ein Teil der Unsicherheiten durch weiterführende Arbeiten deutlich reduziert werden. So wurden bei gezielt gesetzten Vegetationsbränden in den Tropen und in borealen Gebieten Feldmessungen am Boden und von Flugzeugen aus durchgeführt. Daraus konnten wesentliche Erkenntnisse über das Brand- und Emissionsverhalten gewonnen werden. Abbildung 2 zeigt eines der größten Experimente dieser Art. Parallel wurde der Einfluss der Rauchwolken auf die atmosphärische Umwelt und das Klima erstmalig beleuchtet [3].

Abbildung 2: Höhepunkt des Feuersturms des interdisziplinären „Bor Forest Island Fire Experiment“ im Juli 1993 in der Region Krasnoyarsk, Russische Föderation, durchgeführt und von der Arbeitsgruppe Feuerökologie / Global Fire Monitoring Center des Max-Planck-Instituts für Chemie, Abteilung Biogeochemie. © Max-Planck-Institut für Chemie / Global Fire Monitoring Center

Globale Satellitenbeobachtungen von Feuern

Die Satellitenfernerkundung ermöglicht seit den 1980er Jahren zunehmend genauere Abschätzungen der globalen Verteilung von Brandflächen, einschließlich ihrer zeitlichen Trends und Variabilität. Seit 1999 gibt es mit dem MODIS-Instrument (MODerate-resolution Imaging Spectroradiometer) erstmals einen Satellitensensor mit speziellen Merkmalen für die Beobachtung von Vegetationsbränden [4]. Mit dem Start des zweiten MODIS-Instrumentes wird die gesamte Erde seit 2003 alle sechs Stunden beobachtet, was aufgrund der kurzen Lebensdauer der meisten Feuer wichtig ist.

Die Vegetationsbrände werden auf zwei verschiedene Arten beobachtet:

Die verbrannte Fläche (burnt area) wird nach dem Brand als plötzliche Verringerung der Bodenreflektion registriert. Mit diesen Beobachtungen und dem Ansatz von Seiler und Crutzen werden nun globale Emissionsinventare berechnet [5].

Bereits während des Feuers wird erhöhte Wärmestrahlung registriert (active fire). Aus der Anzahl der detektierten Feuer lässt sich die verbrannte Fläche abschätzen, allerdings mit relativ großer Unsicherheit. Eine quantitative Auswertung ergibt auch die Leistung der Wärmestrahlung, die sog. fire radiative power (FRP). In Laborstudien hat FRP eine Proportionalität zur Verbrennungsrate der Biomasse gezeigt [6]. Wissenschaftler des Max-Planck-Instituts für Chemie (MPIC) haben in der Vergangenheit gezeigt, wie die Feueremissionen auch aus den satellitengestützten FRP-Beobachtungen berechnet werden können [7]: Zunächst werden durch Wolken bedingte Beobachtungslücken überbrückt, um kontinuierliche globale FRP-Abschätzungen zu erhalten. Daraus wird die Menge der verbrannten Biomasse mit einem zu Seiler und Crutzen alternativen, feuertypspezifischen Ansatz berechnet. Schließlich werden die Emissionen der verschiedenen Rauchbestandteile mit Emissionsfaktoren berechnet. Das ermöglicht einerseits eine globale Bestimmung der Feueremissionen in Echtzeit und reduziert andererseits Unsicherheiten, die aus geringer Kenntnis der zum Zeitpunkt des Feuers vorhandenen Biomasse und des davon tatsächlich verbrannten Prozentsatzes entspringen.

Feuerüberwachung im Copernicus Atmosphärendienst

Die Europäische Union finanziert den operationellen Copernicus Atmosphärendienst als Teil des weltweit größten zivilen Erdbeobachtungsprogramms Copernicus. In den Vorläuferprojekten GEMS und MACC-I/-II/-III haben die Forscher des MPIC die neuen, FRP-basierten Emissionsberechnungen als Global Fire Assimilation System (GFAS) entwickelt und implementiert. Derzeit leitet das MPIC die Weiterentwicklung von GFAS in MACC-III.

Der Atmosphärendienst und seine Vorläuferprojekte produzieren mit GFAS seit 2008 tagesaktuelle Emissionsdaten für 44 verschiedene Spurengase und Aerosolkomponenten. Diese sind ein essenzieller Input für die globalen Analysen und Fünf-Tages-Vorhersagen der chemischen Atmosphärenzusammensetzung und der europäischen Luftqualität, die der Atmosphärendienst täglich produziert.

Abbildung 3 zeigt ein Beispiel von interkontinentalem Transport von Rauchpartikeln aus großen Feuern in Sibirien. Dabei stammen die Feuerdaten aus GFAS, während die Aerosoldaten mit dem globalen MACC-Atmosphärenmodell, das auch Information von GFAS und satellitengestützten Aerosolbeobachtungen berücksichtigt, berechnet wurden.

Abbildung 3: Transport von Rauch sibirischer Feuer über den Pazifik. Feuer FRP aus GFAS und Aerosol optische Dicke (AOD) des Rauchaerosols für drei Tage im Sommer 2012. Video auf http://atmosphere.copernicus.eu/news/seattle_haze/seattle_haze_details © European Centre for Medium-range Weather Forecasts Feuer ist eine sogenannte Essential Climate Variable, die durch burnt area, active fire und FRP charakterisiert wird. Deswegen tragen Forscher des MPIC seit mehreren Jahren GFAS-basierte Analysen zum jährlichen State of the Climate Report der US-amerikanischen Wetterbehörde NOAA bei [8].

Abbildung 4 zeigt sowohl die in der Einleitung erwähnten Feuer auf Sumatra als auch, wie die damit vorhergesagte Rauchfahne über Singapur bläst. Beide Grafiken wurden routinemäßig noch während der Brände auf den MACC-Webseiten veröffentlicht. Alle Produkte des Atmosphärendienstes sind frei verfügbar.

Abbildung 4: GFAS-Repräsentation von Feuern auf Sumatra (links) und eine darauf basierende Rauchvorhersage in Einheiten von Aerosol optischer Dicke (AOD) im Juni 2013. © European Centre for Medium-range Weather Forecasts

Abbildung 5 zeigt die GFAS Zeitreihe der globalen monatlichen Feueraktivität im Vergleich zur burnt area-basierten GFED Zeitreihe. Die beiden Datensätze haben unterschiedliche Stärken und Schwächen. Beispielsweise repräsentiert FRP die relativ schwachen Feuer auf abgeernteten Feldern in Osteuropa, Nordamerika und Teilen Asiens besser als burnt area. Dies führt zu den weniger ausgeprägten globalen Minima. Die regionale Variabilität ist deutlich ausgeprägter als die globale. So wurde 2014 eine zweifach überdurchschnittliche Feueraktivität in Nordamerika und im tropischen Asien durch circa 15 Prozent weniger Feuer in Afrika und Südamerika ausgeglichen.

Abbildung 5: Monatlich global verbrannte Biomasse entsprechend der Inventare GFED [5] und GFAS [7]. © Max-Planck-Institut für Chemie

Ausblick

Trotz weltweit aktiver Forschung bestehen noch große Unsicherheiten bei der Abschätzung von Emissionen aus Vegetationsfeuern. Dies drückt sich z. B. in der Streuung der mit verschiedenen Methoden berechneten regionalen Emissionen um bis zu einer Größenordnung aus [9]. Die Analyse von Feuerbeobachtungen weiterer, insbesondere geostationärer, Satelliten wird die Unsicherheit in Zukunft verringern.

Für Feinstaub scheinen die aus Satellitenbeobachtungen der Rauchwolken indirekt bestimmten Flüsse (top-down) systematisch höher zu liegen als die aus Feuerbeobachtungen (bottom-up) bestimmten [7]. Diese Diskrepanz hängt unter anderem mit den beobachteten schnellen chemischen Prozessen in der Rauchfahne zusammen [10]. Diese Prozesse können nur in Modellen mit einer höheren Auflösung adäquat dargestellt werden, als sie derzeitige globale Modelle (40 Kilometer und mehr) verwenden.

Die umfangreiche Validierung der operationell vorhergesagten Rauchverbreitung innerhalb des Copernicus Atmosphärendienstes lässt umfassende Rückschlüsse auf die Genauigkeit der verwendeten Feueremissionen zu. Das MPIC wird diese mit seiner etablierten Expertise in globaler Atmosphärenchemie, Multiphasenchemie, Aerosol- und Wolkenphysik sowie Satellitenbeobachtungen kombinieren, um die Feueremissionen genauer zu bestimmen. Darüber hinaus hat das MPIC den Vorsitz der von der Weltorganisation für Meteorologie mit ins Leben gerufenen Forschungsinitiative Interdisciplinary Biomass Burning Initiative, IBBI).


Literaturhinweise

  1. von Danckelman, A. Die Bewölkungsverhältnisse des südwestlichen Afrikas. Meteorologische Zeitschrift 1, 301-311 (1884)
  2. Seiler, W.; Crutzen, P. J. Estimates of gross and net fluxes of carbon between the biosphere and the atmosphere from biomass burning. Climatic Change 2, 207-247 (1980)
  3. Crutzen, P. J.; Andreae, M. O. Biomass burning in the tropics: Impact on atmospheric chemistry and biogeochemical cycles. Science 250, 1669-1678 (1990)
  4. Justice, C. O.; Giglio, L.; Korontzi, S.; Owens, J.; Morisette, J. T.; Roy, D.; Descloitres, J.; Alleaume, S.; Petitcolin, F.; Kaufman, Y. The MODIS fire products. Remote Sensing of Environment 83, 244-262 (2002)
  5. van der Werf, G. R.; Randerson, J. T.; Giglio, L.; Collatz, G. J.; Mu, M.; Kasibhatla, P. S.; Morton, D. C.; DeFries, R. S.; Jin, Y.; van Leeuwen, T. T. Global fire emissions and the contribution of deforestation, savanna, forest, agricultural, and peat fires (1997–2009). Atmospheric Chemistry and Physics 10, 11707-11735 (2010)
  6. Wooster, M. J.; Roberts, G.; Perry, G. L. W.; Kaufman, Y. J. Retrieval of biomass combustion rates and totals from fire radiative power observations: FRP derivation and calibration relationships between biomass consumption and fire radiative energy release. Journal of Geophysical Research 110, D24311 (2005)
  7. Kaiser, J. W.; Heil, A.; Andreae, M. O.; Benedetti, A.; Chubarova, N.; Jones, L.; Morcrette, J.-J.; Razinger, M.; Schultz, M. G.; Suttie, M.; van der Werf, G. R. Biomass burning emissions estimated with a global fire assimilation system based on observed fire radiative power. Biogeosciences 9, 527-554 (2012)
  8. Kaiser, J. W.; van der Werf, G. R. [Global climate] Biomass burning [in ”State of the Climate in 2013”]. Bulletin of the American Meteorological Society 95, S47-S49 (2014)
  9. Zhang, F.; Wang, J.; Ichoku, C.; Hyer, E. J.; Yang, Z.; Ge, C.; Su, S.; Zhang, X.; Kondragunta, S.; Kaiser, J. W.; Wiedinmyer, C.; da Silva, A. Sensitivity of mesoscale modeling of smoke direct radiative effect to the emission inventory: a case study in northern sub-Saharan African region. Environmental Research Letters 9, 075002 (2014)
  10. Vakkari, V.; Kerminen, V.-M.; Beukes, J. P.; Tiitta, P.; van Zyl, P. G.; Josipovic, M.; Venter, A. D.; Jaars, K.; Worsnop, D. R.; Kulmala, M.; Laakso, L. Rapid changes in biomass burning aerosols by atmospheric oxidation. Geophysical Research Letters 41, 2644-2651 (2014)

*Dieser Artikel ist im Forschungsmagazin 2015 der Max-Planck Gesellschaft erschienen http://www.mpg.de/9177479/mpch_JB_2015?c=9262520 Er wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt und erscheint hier geringfügig für den Blog adaptiert, vom Autor J.W.K. wurde eine zusätzliche Abbildung (Abb. 4) plus Beitext eingefügt. Alle Literaturzitate außer [2] und [3] sind frei aufrufbar.


Weiterführende Links

Max-Planck Institut für Chemie, Abteilung Atmosphärenchemie

Copernicus Atmosphere Monitoring Service

Vincent Henri Peuch, head of the Copernicus Atmosphere Monitoring Service, operated by the European Centre for Medium-Range Weather Forecasts(ECMWF). Video 2:30 min.

Jean Noel Thepaut, head of the Copernicus Climate Change Service, operated by the European Centre for Medium-Range Weather Forecasts (ECMWF). Video 2:00 min.

FIR Global Fire Monitoring

European Centre for Medium-Range Weather Forecasts (ECMWF) (PDF-Download)

inge Fri, 31.07.2015 - 10:15

Die Evolution des menschlichen Gehirns

Die Evolution des menschlichen Gehirns

Fr, 24.07.2015 - 13:53 — Philipp Gunz Philipp GunzIcon Gehirn

Die Evolution der menschlichen Linie ist untrennbar mit der Evolution des Gehirns verknüpft. In einem Projekt am Max-Planck-Instituts für evolutionäre Anthropologie (Leipzig) vergleicht Philipp Gunz die Schädelknochen moderner Menschen mit denen ihrer engsten lebenden und fossilen Verwandten. Ziel ist, Erkenntnisse über die evolutionären Veränderungen der Gehirnentwicklung zu gewinnen.*

Abbildung 1. Schematisierte Darstellung der evolutionären Veränderung des Gehirnvolumens im Laufe der letzten sechs Millionen Jahre. Die Gehirnvolumina unserer fossilen Vorfahren waren mit denen heute lebender Menschenaffen vergleichbar. Vor allem in den letzten zwei Millionen Jahren kam es dann zu einer dramatischen Volumenzunahme. Der aufrechte Gang entwickelte sich allerdings bereits am Beginn unserer evolutionären Linie. © Max-Planck-Institut für evolutionäre Anthropologie

Das Gehirnvolumen heute lebender Menschen ist etwa dreimal so groß wie das von Schimpansen. Die Gehirnvolumina unserer fossilen Vorfahren, wie zum Beispiel der Art Australopithecus afarensis (bekannt durch ihre wohl berühmteste Vertreterin „Lucy“), waren mit denen heute lebender Schimpansen vergleichbar (Abbildung 1). Vor allem in den letzten zwei Millionen Jahren kam es zu einer dramatischen Größenzunahme des menschlichen Gehirns. Diskussionen über die kognitiven Fähigkeiten unserer fossilen Vorfahren oder Verwandten drehen sich daher meist um archäologische Funde und Schädelvolumen.

Das Volumen allein kann aber die herausragenden Fähigkeiten des menschlichen Gehirns nicht hinreichend erklären. Für die kognitiven Fähigkeiten ist die innere Struktur des Gehirns wichtiger als dessen Größe. Diese Vernetzung des Gehirns wird in den ersten Lebensjahren angelegt. Jüngste Forschungsergebnisse betonen daher die Bedeutung des Wachstumsmusters im Laufe der Kindesentwicklung. Wie und wann das Gehirn wächst, trägt entscheidend zur Entwicklung kognitiver Fähigkeiten bei.

Der erste Schritt und seine Folgen

Um das menschliche Gehirn besser zu verstehen, muss man sechs Millionen Jahre zurückblicken, zu dem Zeitpunkt, als die Schimpansenlinie sich von der Linie der menschlichen Vorfahren, der sogenannten Homininen1, trennte. Die ersten Stationen dieser Zeitreise nach Afrika haben aber noch nichts mit dem Gehirn zu tun, sondern mit Beinen und Hüfte. Vor etwa sechs Millionen Jahren entwickelte sich innerhalb der Linie der Homininen eine für Primaten ungewöhnliche Art der Fortbewegung: der aufrechte Gang. Da es nur wenige fossile Fragmente aus dieser Zeit gibt, sind viele Details über diesen entscheidenden Schritt noch unklar und umstritten. Sicher ist, dass die Vertreter der Gattung Australopithecus vor 3,6 Millionen Jahren aufrecht gehen konnten. Dieser Zeitpunkt gilt deshalb als gesichert, weil in den 1970er-Jahren die versteinerten Fußspuren von aufrecht gehenden Homininen in Tansania gefunden wurden. Diese Fußabdrücke haben Individuen der Art Australopithecus afarensis in einer Schicht feuchter Vulkanasche hinterlassen, die sich auf exakt 3,6 Millionen Jahre datieren lässt. Die Evolution des aufrechten Gangs ging also der dramatischen evolutionären Expansion des Gehirnvolumens um bis zu vier Millionen Jahre voraus. Diese Chronologie der Ereignisse ist wichtig, weil die evolutionären Anpassungen an den aufrechten Gang das Skelett dramatisch verändert haben. Unter anderem wurde das Becken schmaler und dadurch der Geburtskanal des knöchernen Beckens kleiner. Im Laufe der Evolution der aufrecht gehenden Homininen musste also bei der Geburt ein Baby mit immer größerem Kopf durch den bereits verengten knöchernen Geburtskanal. Die Geburt wurde zu einem immer größeren Risiko für Mutter und Kind und damit auch zu einem evolutionären Risiko für die gesamte Art. Die evolutionäre Lösung für dieses Dilemma war ein Strategiewechsel mit dramatischen Folgen.

Die Lösung eines evolutionären Dilemmas

Nicht nur bei den Vögeln, sondern im gesamten Tierreich gibt es im Grunde zwei Strategien: Nestflüchter und Nesthocker. Nesthocker sind für einen unterschiedlich langen Zeitraum von der Zuwendung der Eltern abhängig und können sich weder alleine fortbewegen noch ernähren. Primaten sind typischerweise Nestflüchter und bereits nach kurzer Zeit sehr selbstständig.

Menschenkinder hingegen sind Nesthocker und weichen damit von der Strategie der Primaten ab. Bereits bei der Geburt hat das Gehirn eines menschlichen Babys (Abbildung 2A) mit circa 400 ml etwa die Größe eines erwachsenen Schimpansengehirns. Die Speziesunterschiede sind also bereits pränatal eindeutig (Abbildung 3A): Schon in der 22. Schwangerschaftswoche nimmt die Wachstumsgeschwindigkeit des Gehirns beim Schimpansen ab. Bei Menschen verdreifacht sich das Volumen des Gehirns in den ersten Lebensjahren (Abbildung 3B). Auch bei Schimpansen und anderen Menschenaffen wächst das Gehirn noch nach der Geburt, aber bei Menschen findet ein größerer Anteil des Gehirnwachstums und der Gehirnentwicklung nach der Geburt statt. Im Vergleich zu Menschenaffen nimmt das Gehirn des Menschen im Laufe der Kindesentwicklung also deutlich schneller an Volumen zu und wächst über einen etwas längeren Zeitraum. Relativ gesehen bedeutet das aber eine Verlangsamung der Gehirnentwicklung bei Menschen. Menschliche Gehirne zeichnen sich durch besonders hohe Plastizität aus und sie reifen langsamer heran als etwa die der Schimpansen.

Abbildung 2: Die Computertomografie macht es möglich, die Gehirnschädel bei fossilen und lebenden Primaten zu vergleichen. Bereits bei der Geburt unterscheiden sich die Schädel von Homo sapiens (A) und Schimpansen (B) deutlich. Ein virtueller Abguss („Endocast“, rot) des inneren Gehirnschädels (C) gibt Aufschluss über Gehirnvolumen und Gehirngestalt. © Max-Planck-Institut für evolutionäre Anthropologie

Bei Menschen sind zum Zeitpunkt der Geburt zwar alle Nervenzellen bereits angelegt, aber noch kaum miteinander verknüpft. Die ersten Lebensjahre sind entscheidend für die Vernetzung des Gehirns. Klinische Studien haben gezeigt, dass in der frühen Kindheit selbst geringfügige Abweichungen im Muster der Gehirnentwicklung die Struktur des Gehirns und damit Kognition und Verhalten beeinflussen. Dieses dynamische Netzwerk ist das Substrat für Kognition und entwickelt sich besonders beim Menschen unter dem Eindruck der Stimuli außerhalb des Mutterleibes. Die Verbindungen zwischen unterschiedlichen Gehirnregionen, die in den ersten Lebensjahren geknüpft werden, sind bei modernen Menschen wichtig für soziale, emotionale und kommunikative Fähigkeiten. Abbildung 3: Vergleich der Wachstumskurven des Gehirns bei Menschen und Schimpansen vor (A) und nach der Geburt (B). Bereits in der 22. Schwangerschaftswoche nimmt die Wachstumsgeschwindigkeit des Gehirns beim Schimpansen ab. Bei Menschen verdreifacht sich das Volumen des Gehirns in den ersten Lebensjahren. Daten basierend auf. © Max-Planck-Institut für evolutionäre Anthropologie

Versteinerte Gehirnabdrücke

Da Gehirne nicht versteinern, kann man bei Fossilien nur den Innenabdruck des Gehirns und seiner umgebenden Strukturen im Schädel untersuchen. Zuerst werden mittels Computertomografie (CT) hochauflösende dreidimensionale Röntgenbilder der Schädel aufgenommen. Dann wird am Computer ein virtueller Abdruck des Gehirnschädels erstellt (ein sogenannter Endocast). Diese Abdrücke der inneren Schädelkapsel geben Aufschluss über Größe und Gestalt des Gehirns (Abbildung 2C). Mit modernsten Mess- und Analysemethoden ist es möglich, die Gestaltveränderungen des Endocasts im Laufe der Kindesentwicklung zwischen lebenden und ausgestorbenen Arten zu vergleichen. Das erlaubt zusätzliche Einblicke in die Evolution des menschlichen Gehirns.

Gehirnentwicklung bei Neandertalern

Ob es zwischen Neandertalern und modernen Menschen Unterschiede in geistigen und sozialen Fähigkeiten gab, ist eines der großen Streitthemen in der Anthropologie und Archäologie. Da Neandertaler und moderne Menschen ähnlich große Gehirne hatten, gehen einige Forscher davon aus, dass auch die kognitiven Fähigkeiten dieser Spezies ähnlich gewesen sein mussten. Manche archäologischen Befunde deuten allerdings auf Unterschiede im Verhalten zwischen modernen Menschen und Neandertalern hin. So konnten Wissenschaftler nachweisen, dass sich das Muster der endocranialen Gestaltveränderung direkt nach der Geburt zwischen Neandertalern und modernen Menschen unterscheidet. Das wichtigste Indiz dafür waren die fossilen Fragmente der Schädel von zwei Neandertalern, die bei der Geburt oder kurz danach verstorben waren. Bereits 1914 hatte ein Team französischer Archäologen in der Dordogne das Skelett eines Neandertalerbabys entdeckt. Die versteinerten Kinderknochen wurden aber kaum beachtet und schließlich vergessen. Erst neunzig Jahre später wurden die verschollenen Knochen im Lager des Museums von Les Eyzies-de-Tayac-Sireuil in Frankreich wiederentdeckt. Die zerbrechlichen Fragmente wurden daraufhin mit einem hochauflösenden µCT-Gerät gescannt und dann an Computern im Max-Planck-Institut für evolutionäre Anthropologie in Leipzig rekonstruiert. Das gleiche Verfahren wendeten die Forscher an den Fragmenten des Neandertalerbabys von Mezmaiskaya im Kaukasus (Abbildung 4) an. Zur Zeit der Geburt ist das Gesicht eines Neandertalers bereits größer als das eines modernen Menschenbabys. Die gut dokumentierten Unterschiede in der Gehirngestalt zwischen erwachsenen modernen Menschen und Neandertalern entwickeln sich aber erst nach der Geburt. Sowohl Neandertaler als auch Homo sapiens haben bei der Geburt längliche Schädel (Abbildung 2A) mit etwa gleich großen Gehirnen. Erst im Laufe des ersten Lebensjahres entwickelt sich bei modernen Menschen die charakteristisch runde Schädelform. Kurz nach der Geburt sind die Schädelknochen sehr dünn und die knöchernen Nähte sind noch weit offen (deutlich zu sehen zum Beispiel an der Fontanelle). Da sich die knöcherne Gehirnkapsel an das expandierende Gehirn anpasst, bedeutet das, dass die Gehirne von modernen Menschen und Neandertalern von der Geburt bis etwa zum Durchbrechen der ersten Milchzähne unterschiedlich wachsen. Neandertaler und moderne Menschen erreichen also ähnliche Gehirnvolumina im Erwachsenenalter entlang unterschiedlicher Entwicklungsmuster. Abbildung 4. Virtuelle Rekonstruktion eines Neandertalerbabys. Die versteinerten Knochenfragmente wurden mittels Computertomografie digitalisiert und dann in monatelanger Arbeit am Computer zusammengefügt. Sowohl Neandertaler als auch Homo sapiens haben bei der Geburt längliche Schädel mit etwa gleich großen Gehirnen. Im Laufe des ersten Lebensjahres entwickelt sich bei modernen Menschen die charakteristisch runde Schädelform. Neandertaler und moderne Menschen erreichen daher ähnliche Gehirnvolumina im Erwachsenenalter entlang unterschiedlicher Entwicklungsmuster.© Max-Planck-Institut für evolutionäre Anthropologie

Moderne Menschen unterscheiden sich von Neandertalern in einer frühen Phase der Gehirnentwicklung. Sobald die Milchzähne durchgebrochen sind, unterscheiden sich die Wachstumsmuster dieser beiden Menschengruppen allerdings nicht mehr. Diese Entwicklungsunterschiede direkt nach der Geburt könnten Auswirkungen auf die neuronale und synaptische Organisation des Gehirns haben. Erst kürzlich ergaben genetische Studien, dass sich der moderne Mensch vom Neandertaler durch einige Gene unterscheidet, die wichtig für die Gehirnentwicklung sind. Die Ergebnisse der Gestaltanalyse könnten also dazu beitragen, die Funktion jener Gene zu verstehen, die uns vom Neandertaler abheben.


*Der im Forschungsmagazin der Max-Planck Gesellschaft 2015 erschienene Artikel http://www.mpg.de/8953555/MPI_EVAN_JB_2015?c=9262520 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier geringfügig für den Blog adaptiert und ohne (die im link angeführten) Literaturzitate und Danksagung. 1: Hominine: Unterfamilie der Menschenaffen , inkludiert Gorillas, Schimpansen, Menschen einschließlich aller Vorfahren bis zu deren Trennung von der Linie der Orang-Utans


Weiterführende Links

Abteilung für Human Evolution im Max-Planck-Institut für evolutionäre Anthropologie (MPI EVA)http://www.eva.mpg.de/evolution/index_german.htm

Evolution des Gehirns
http://www.geo.de/GEO/natur/tierwelt/das-gehirn-evolution-des-gehirns-57...

Komplexität vor Größe: Altweltaffe hatte ein winziges aber komplexes Gehirn
http://www.mpg.de/9310032/victoriapithecus-affe-gehirn

Fossiler Schädel schließt die Lücke
http://www.archaeologie-online.de/mediathek/videos/fossiler-schaedel-sch...

Great Transitions: The Origin of Humans — HHMI BioInteractive Video
(veröffentlicht Dezember 2014, großartiges Video aus dem Howard Hughes Medical Institute, leicht verständliches Englisch) 19:44 min https://www.youtube.com/watch?v=Yjr0R0jgct4&feature=youtu.be


 

inge Fri, 24.07.2015 - 13:53

Unsere Haut – mehr als eine Hülle. Ein Überblick

Unsere Haut – mehr als eine Hülle. Ein Überblick

Fr, 17.07.2015 - 20:15 — Inge Schuster Inge SchusterIcon BiologieUnsere Haut ist nicht nur unser größtes Organ, sie ist auch ein ungemein komplexes Organ. Sie ist aus mehreren Schichten aufgebaut, die jeweils unterschiedlich strukturiert sind und eine Vielzahl verschiedenartiger Funktionen ausüben. Als Grenzschicht zur Umwelt ist die Haut eine Barriere, die vor schädigenden Einflüssen schützt, uns Sinneseindrücke von außen vermittelt und unser Erscheinungsbild prägt.

Abbildung 1. Unsere Haut ist mehr als seine bloße Hülle. (Bildausschnitt aus der Geburt der Venus, Botticelli)

In erster Linie ist die Haut eine Barriere, die unseren Organismus sehr effizient vor einer gefährlichen Umwelt schützt (Abbildung 1). Sie schützt vor mechanischen Schäden, vor Schäden durch UV-Strahlung, davor, dass möglicherweise toxische Fremdstoffe in den Körper aufgenommen werden, dass pathogene Keime eindringen können. Ebenso verhindert diese Barriere auch einen übermäßige Abgabe von Körperwasser und körpereigenen Substanzen nach außen.

Mit unterschiedlichen Sensoren ausgestattet nimmt die Haut Sinnesreize wahr, lässt uns Wärme und Kälte empfinden und reagiert auch darauf. Sie lässt uns ein Spektrum von Druckempfindungen spüren, die von sanftesten Berührungen bis hin zum Schmerz reichen.

Über alle ihre Funktionen hinaus prägt die Haut aber unser Erscheinungsbild und damit unser Selbstwertgefühl. Emotionen, die zu veränderter Hautdurchblutung führen, lassen uns erröten oder auch erblassen. Wir kommunizieren so Gefühle wie Scham, Wut, Furcht mit der Außenwelt. Wenn man sich „in seiner Haut wohlfühlt“, ist dies synonym mit Lebensqualität zu verstehen.

Was ist die Haut?

Über lange Jahrhunderte hinweg blieben die Haut und die Lehre von ihren Krankheiten, die Dermatologie, ein Stiefkind der Medizin. Erst im 19. Jahrhundert änderte sich die Situation. Unter anderem feierte damals die „Wiener Schule der Medizin“ einen Durchbruch, als Ferdinand von Hebra erstmals Hautkrankheiten auf Grund pathologisch veränderter Hautstrukturen klassifizieren konnte. Die Grundlage dafür waren verbesserte mikroskopische Methoden, welche den Aufbau der Haut im Detail erkennen ließen.

Dies war der Beginn einer Wissenschafts-basierten Dermatologie. Der von Hebra 1856 verfasste „Atlas der Hautkrankheiten“ und das 1878 entstandene „Lehrbuch der Hautkrankheiten“ (zusammen mit seinem Schwiegersohn, dem Dermatologen Moriz von Kaposi) waren für Generationen von Dermatologen richtungsweisend. Wie Kaposi damals seinen Studenten den Aufbau der Haut veranschaulichte, hat auch heute noch Gültigkeit: die grundlegenden Strukturen – Epidermis, Dermis und Subcutis – und die sogenannten Hautanhangsgebilde (Haare, Schweißdrüsen, Talgdrüsen,..) werden in modernen Lehrbüchern in sehr ähnlicher Weise dargestellt (Abbildung 2).

Abbildung 2. Moriz Kaposi: „Architektonischer Aufbau und innere Structur der Haut- aus nach der Natur gezeichneten mikroskopischen Präparaten schematisch zusammengestellt“ in „Pathologie und Therapie der Hautkrankheiten in Vorlesungen für praktische Ärzte und Studierende“ (5. Auflage (1899), Urban & Schwarzenberg, Wien).

Die Frage „Was ist die Haut?“ konnte nun mit der Aufzählung der hauptsächlichen Komponenten der Haut und deren pathologischen Veränderungen bei Hauterkrankungen beantwortet werden. Nicht aber damit, welche Funktionen die einzelnen Komponenten nun besitzen und welche Störungen es sind, die Hauterkrankungen verursachen. Effiziente Therapien gab es für die meisten dieser Krankheiten nicht (und gibt es auch heute noch nicht) - ob es sich nun beispielsweise um Psoriasis, atopische Dermatitis, Hauttumoren (von Aktinischer Keratose bis zum Melanom), bullöse Dermatosen (u.a. „Schmetterlingskinder“) handelt, um Allergien oder auch um Akne. Viele dieser Krankheiten verändern zudem das Erscheinungsbild - der Patient fühlt sich stigmatisiert, die Lebensqualität sinkt nicht nur durch die Krankheit selbst.

Erst in der zweiten Hälfte des 20. Jahrhundert erfolgte ein neuer, ungeheurer Aufschwung der Dermatologie. Das Aufkommen hochsensitiver analytischer und mikroskopischer Methoden, vor allem aber der Siegeszug der Molekularbiologie erlaubte nun die Frage nach der Funktion der Haut in Angriff zu nehmen. Mit neuen zellbiologischen Verfahren konnten die unterschiedlichen Zellen der Haut kultiviert werden, ihre Funktionen und Regulierung unter definierten Bedingungen untersucht werden. Diese neuen Möglichkeiten nutzten akademische Institutionen und ebenso die Pharma-Industrie. Mit dem Ziel Hautkrankheiten zu verstehen und gezielt behandeln zu können, schossen etwa um die 1980er Jahre weltweit dermatologische Abteilungen in die Höhe, in welchen auch massiv Grundlagenforschung betrieben wurde. Dieser weltweite Boom hat einen enormen Anstieg unseres Wissens über die Haut bewirkt. Allerdings konnte dieses Wissen über Ursachen und vielversprechende Angriffspunkte der meisten Hauterkrankungen noch nicht in adäquater Weise in wirksame Therapien umgesetzt werden. Die Ernüchterung darüber hat zum Schließen zahlreicher Institutionen geführt (darunter fiel auch das durchaus erfolgreiche Novartis Forschungsinstitut in Wien).

Zum funktionellen Aufbau der Haut

Insgesamt ist die Haut mit rund 16% des Körpergewichts und einer Oberfläche von 1,6 – 2,0 m² (bei Erwachsenen) unser größtes Organ, allerdings ein sehr dünnes Organ. Aus drei Schichten – Epidermis, Dermis und Subcutis aufgebaut, ist sie an vielen Körperstellen nur einige Millimeter dick.

Die Epidermis (Oberhaut) – die Barriere zur Außenwelt

besteht zum überwiegenden Teil aus einem Zelltyp, den sogenannten Keratinozyten. Diese sind in mehreren verschiedenartigen Lagen angeordnet und bilden zusammen eine sehr dünne Schichte von 0,1 Millimeter bis wenige Millimeter(an den Füßsohlen, s.u.) Dicke (Abbildung 3). Die Epidermis ist nicht von Blutgefäßen durchzogen und muss von der Dermis her mit Nährstoffen und Sauerstoff versorgt werden, die sich durch Diffusion über ihre gesamte Dicke ausbreiten.

An der Basalmembran, die die Grenze zur darunterliegenden Dermis bildet, ist eine Lage Keratinozyten, die sich – aus Stammzellen heraus – kontinuierlich und rasch teilen. Dadurch werden Zellen laufend in die nächsthöheren Schichten gedrängt, wandern nach aussen. Diese hören bereits im sogenannten Stratum spinosum auf sich zu teilen. Sie beginnen ein Programm der Veränderung (der terminalen Differenzierung), in welchem sie Lipid-Organellen – Lamellar Bodies - bilden und sezernieren, alle Zellstrukturen inklusive Zellkern verlieren/abbauen, sich mit Keratinen und einem Gemisch vernetzter unlöslicher Proteine füllen und schlussendlich mit der Bildung von Lagen toter, verhornter Zellen, dem Stratum corneum, enden. Die oberste Schicht dieses Stratum corneum wird laufend in Form von Schuppen abgeschiefert. Es dauert etwa 4 Wochen bis Zellen aus der Basalschicht an die Oberfläche gelangen und dort abgeschiefert werden; täglich sind es 10 - 14 g dieser Schuppen.

Abbildung 3. Querschnitt durch die Epidermis (links, Bild: Wikipedia). Das Stratum Corneum ist wie eine Ziegelmauer aufgebaut (rechts oben): die Ziegel – verhornte Keratinozyten – sind in einen „Mörtel“ von Lipiden eingebettet. So etwa sehen Keratinozyten in der Basalschicht aus (rechts, Keratinozyten aus Humanhaut in Zellkultur; Laborprotokoll, Inge Schuster).

  • Die Hornschicht ist je nach Körperstelle verschieden dick, resultiert aus 10 bis über 200 abgestorbenen Zellschichten (letzteres an den Fußsohlen)und stellt die eigentliche Barriere zur Außenwelt dar. Wie diese Barriere zustandekommt, hat der amerikanische Dermatologe Peter M.Elias in bahnbrechenden Untersuchungen gezeigt:

vereinfacht dargestellt sind die toten Zellen „wie Ziegel in einer Mauer“ in einen „Mörtel“ aus Lipiden – einer aus gleichen Anteilen von Fettsäuren, Cholesterin und Ceramiden bestehenden Mischung - eingebettet. Stoffe, die aus der Außenwelt in die Haut einzudringen versuchen, müssen entweder durch diesen Mörtel und/oder durch die völlig verhornten Zellleichen hindurch. Dies ist für alle Stoffe sehr schwierig – für wasserlösliche Stoffe, Peptide und Proteine fast unmöglich und auch für Lipid-lösliche kleine Verbindungen nur beschränkt möglich. Die Barriere verhindert ebenso, dass wir Körperwasser mit Salzen außer an den dafür vorgesehenen Öffnungen der Schweißdrüsen verlieren.

Die Epidermis hat eine weitere Reihe von Funktionen eingebaut:

  • Im Bereich der Basalzellen finden sich sogenannte Melanozyten (Abbildung 4). Das sind Zellen, die Melanin produzieren, dieses über dendritische Fortsätze an basale Keratinozyten weitergeben und diese damit sehr effizient vor UV-Strahlung schützen.

Abbildung 4. Oben: Zellen der Epidermis aus Humanhaut in Primärkultur. Zwischen den Keratinozyten finden sich zahlreiche Melanozyten. (rote Pfeile) Mit ihren Fortsätzen docken sie an Keratinozyten an und entleeren in dieseden Farbstoff Melanin. Unten: Fibroblasten aus Humanhaut in Zellkultur (Bilder: Laborprotokoll, Inge Schuster).

  • UV-Licht, das in die Keratinozyten dringt, generiert aus einer Vorstufe des Cholesterins das Vitamin D3, ein Prohormon, das von dort in Blutzirkulation des Körpers gelangt, zum aktiven Hormon Calcitriol umgewandelt wird und zahlreiche wichtige Vorgänge im Körper reguliert. Die Keratinozyten können Vitamin D3 aber auch selbst in Calcitriol umwandeln. Dieses hat offensichtlich auf Struktur und Funktion der Haut einen positiven Einfluss: es induziert unter anderem die lokale Synthese von hocheffizienten, körpereigenen antibiotischen Peptiden, reguliert den Prozess der Differentiation und Prozesse der Immunantwort in der Haut.
  • Im Bereich der bereits differenzierenden Zellen treten sogenannte Langerhans-Zellen auf. Dies sind dendritische Zellen, die nach Kontakt mit Antigenen aktiviert werden und eine fundamentale Rolle im Immunsystem der Haut (u.a. in der Entstehung von Allergien) spielen.

Die Dermis (Lederhaut)

ist die nächste Hautschicht. Es ist ein lockeres elastisches Bindegewebe in welchem Fibroblasten der dominierende Zelltyp sind (Abbildung 4). Zum Unterschied zur Epidermis ist die Dermis gut durchblutet (und versorgt auch die Epidermis) und von Lymphbahnen, und Nerven durchzogen (siehe auch Abbildung 2). Das Immunsystem ist hier mit vielen Zelltypen vertreten, welche die Abwehrfunktion der Haut aufzeigen: Lymphozyten, Makrophagen, Monozyten, Mastzellen, Plasmazellen . Der untere Teil der Dermis ist von festen Bindegewebsfasern aus Kollagen und Elastin durchzogen, die der Haut Spannung und Elastizität verleihen (Leider gehen diese positiven Effekte im Alter verloren – es entstehen Falten.)

Die Dermis trägt wesentlich zur Kommunikation mit der Außenwelt bei. Sie enthält eine Reihe von Sinnesorganen. Es sind Rezeptoren, die Druck wahrnehmen (100/cm²) und Schmerz (200/cm²), Kälte und Wärme (12 resp. 2/cm²).

Dazu kommen Schweißdrüsen (100/cm²), die durch Abgabe und Verdunstung von Kühlmittel - Schweiß - der Temperaturregulierung des Körpers dienen (ekkrine Drüsen) und andere Schweißdrüsen, die in den Haarschäften enden (apokrine Drüsen) und den individuellen Geruch – Duftschweiß (u.a. enthält er Metabolite des Testosteron) - des Menschen erzeugen.

Im unteren Teil der Dermis (manchmal auch in der Subcutis) sitzen auch die Haarfollikel. Haare selbst sind linear angeordnete, verhornte Hautzellen, deren Farbe durch Melanin erzeugt wird – die dafür verantwortlichen Melanozyten sitzen in den Haarfollikeln. In diesen Follikeln enden auch die Talgdrüsen (40/cm²). Der produzierte Talg wird über den Haarschaft an die Oberfläche geschoben und über diese verteilt.

Die Subcutis

besteht ebenfalls aus lockerem Bindegewebe und Fettgewebe, die von Blutgefäßen, Lymphgefäßen und Nerven durchzogen sind. Bindegewebsstränge aus der Dermis durchziehen die Subcutis und verbinden sie mit den darunterliegenden Geweben resp. der Knochenhaut. Zwischen diesen Strängen ist Fettgewebe eingelagert, das eine Polsterung bewirkt, als Kälte- und Wärmeisolator dient und ein massiver Energiespeicher des Organismus ist.

Unsere Mitbewohner - das Mikrobiom der Haut

Als Grenzschicht zur Umgebung ist die Haut an ihrer Oberfläche mit einer immensen Diversität von Mikroorganismen - Viren, Bakterien, Archaea, Pilzen – besiedelt, dazu kommen auch Milben. Schätzungen gehen von einer Milliarde Organismen/cm² Haut aus. Die Populationen sind stark variabel, finden unterschiedliche Habitate vor: trockene Haut, feuchte Haut, Stellen unterschiedlicher Temperatur. Sie besiedeln Schweißdrüsen und Talgdrüsen; entlang des Haarschafts dringen sie bis in die Haarpapille vor. Einfluss auf die Zusammensetzung der Populationen haben natürlich auch umweltspezifische Faktoren und wirtspezifische Lebensumstände, beispielsweise Hygieneprodukte oder Kleidung.

Das Mikrobiom der Haut ist zurzeit Gegenstand intensiver Forschung, insbesondere auch in Hinblick auf dessen mögliche Rolle bei Hauterkrankungen wie beispielsweise Psoriasis, Atopischer Dermatitis oder Hauttumoren. Mittels neuer genetischer Methoden („Metagenomik“) werden die Populationen auf gesunder Haut mit denen auf kranker Haut verglichen. Soweit Aussagen bereits möglich sind, dürften unsere Mitbewohner eine wesentlich wichtigere Rolle in der Erhaltung einer gesunden Haut und ebenso auch in der Pathogenese von Hauterkrankungen spielen, als ursprünglich angenommen wurde.

Ausblick

In den letzten Jahrzehnten ist das Wissen um Struktur und Funktionen unserer Haut enorm gewachsen. Aus einem lange weniger beachteten Fach ist ein ungemein spannendes Forschungsgebiet geworden, das noch viele überraschende Entdeckungen verspricht. Es bietet auf der einen Seite Grundlagenforschung pur, auf der anderen Seite ein breites Spektrum an Anwendungsmöglichkeiten. Wie bereits erwähnt, besteht bei den meisten Hauterkrankungen ein dringender Bedarf für effiziente und dabei nebenwirkungsarme Therapien, die zudem noch kostengünstig sein sollen. Die Anwendungen betreffen aber nicht nur Krankheiten, wichtig ist den meisten Menschen auch Ihr Erscheinungsbild. Einige der Fragen sind hier beispielsweise: welche Prozesse können wie reguliert werden, um den Alterungsprozess der Haut zu stoppen, um diesen vielleicht umzukehren? Wie kann man dem Haarausfall oder auch übermäßiger Behaarung wirkungsvoll begegnen?


Weiterführende Links

Atlas der Hautkrankheiten” von F. Hebra aus dem Jahre 1856 Ein von Th.L.Diepgen geleitetes Projekt, das diesen Atlas beschreibt und daraus großartige Bilder zeigt.

Zwei kurze deutsche Videos zum Aufbau der Haut:

FWU - Die Haut. Video 2:28 min.

 

Unsere Haut ist unser grösstes Organ Video 3:04 min.

Hier noch zwei Doppelreferate und ein Interview (bei etwas tiefergehendem Interesse geeignet. Aufnahmebedingt ist der Ton der Referate leider nicht in Studioqualität):

Hauterkrankungen - MINI MED Studium mit Dr. Klemens Rappersberger und Dr. Theresia Stockinger Video 1:00:18

Hauterkrankungen - MINI MED talk mit Univ.-Prof. Dr. Klemens Rappersberger. Video 17:34 min.

Unsere Haut - MINI MED Studium mit Univ.-Prof. Dr. K. Rappersberger und Dr. med. T. Stockinger . Schwerpunkt Nesselausschlag, Juckreiz, Trockenheit und die neuesten Therapiemöglichkeiten. Video 55:30 min.

inge Fri, 17.07.2015 - 20:16

Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Die Erde ist ein großes chemisches Laboratorium – wie Gustav Tschermak vor 150 Jahren den Kohlenstoffkreislauf beschrieb

Fr, 26.06.2015 - 11:26 — Redaktion

Icon GeowissenschaftenGustav Tschermak (1836 – 1927) war im Wien der Donaumonarchie Professor für Mineralogie und Petrographie, einer der prominentesten Vertreter und Begründer einer Wiener Schule dieser Fachgebiete. Tschermaks fachlicher Hintergrund war die Chemie, er wandte deren Methoden zur Untersuchung von Mineralien, Gesteinen und Meteoriten an und hatte damit bahnbrechende Erfolge. In seinen frühen wissenschaftlichen Arbeiten befasste sich Tschermak mit Fragestellungen der Chemie/Geochemie, wie beispielsweise mit dem Kreislauf des Kohlenstoffs.

Gustav Tschermak (Bild: Wikipedia)

Gustav Tschermak hat am 16. Jänner 1865 im Verein zur Verbreitung naturwissenschaftlicher Kenntnisse einen Vortrag über „Der Kreislauf des Kohlenstoffs“ gehalten, der im Folgenden in einer für den Blog adaptierten, leicht gekürzten Form mit einigen zusätzlichen Untertiteln widergegeben wird (die ursprüngliche Schreibweise wurde beibehalten). Der Originaltext kann in [1] nachgelesen werden.

Ein ausführlicher Lebenslauf von Gustav Tschermak findet sich unter [2]

Gustav Tschermak: Der Kreislauf des Kohlenstoffes

Die chemische Geologie, ein neuer Zweig der Naturwissenschaft, beruht auf der Erkenntnis: Die Erde ist ein großes chemisches Laboratorium, in welchem beständig chemische Processe von Statten gehen und so lange von Statten gehen werden, als sie ihre Bahn um die Sonne beschreiben wird.

Doch nicht ein planloses Wirken der chemischen Kräfte in und auf der Erde hat die Wissenschaft erkannt. Vielmehr erscheint uns unsere Erde im Lichte der bisherigen Erfahrung nunmehr wie ein grosser Organismus, in welchem unter beständigem Wechsel der Form, unter beständiger Zerstörung und Verjüngung, unter beständiger Umwandlung ein ewiges Kreisen der Stoffe wahrzunehmen ist nach bestimmten Gesetzen, die wir theils schon erkennen, theils nur ahnen, bis uns die Leuchte der chemischen Forschung die klaren Umrisse des heute Verborgenen erkennen lasst.

Die Erde ist ein großes chemisches Laboratorium.

Das Kreisen der Stoffe, der unaufhörliche Wechsel der Formen und des Ortes wird unserer Phantasie durch das Beispiel näher gerückt, welches uns das Wasser bietet. Wie das Wasser, so finden wir auch andere Stoffe in beständiger Bewegung. Dieselben kehren in kürzerer oder längerer Zeit, nach wenigen oder vielen Zwischenstadien wieder zu demselben Zustande zuweilen auch an denselben Ort zurück, um dann von Neuem die Wanderung zu beginnen. Ich wähle für heute den Kohlenstoff aus, um dessen Schicksale in raschem Ueberblicke zu verfolgen.

Der Kohlenstoff

ist ein einfacher Stoff der Chemie, ein Grundstoff, ein Element. Er bildet zugleich mit dem Wasserstoff, Sauerstoff, Stickstoff, die Grundlage aller Organismen, und ist deshalb so wie diese Stoffe in häufigen und raschen Wanderungen begriffen. Die Formen, in welchen er auftritt, sind unzählige. Wir sehen ihn isolirt, frei von anderen Begleitern als Holzkohle oder Russ, ebenso als Graphit, jener schwarze Körper, den wir zu Schreibstiften verwenden; wir bewundern ihn als Diamant wegen seines prachtvollen Farbenspieles. Alle diese Körper sind brennbar, sie verbinden sich bei der Verbrennung mit Sauerstoff und liefern einen gasförmigen Körper, die Kohlensäure (H2CO3 = CO2 + H2O, Anm. Red.). Diese Luftart, welche Jeder von den schäumenden Getränken her kennt, ist die gewöhnlichste der gasförmigen Verbindungen des Kohlenstoffes.

Weniger häufig sind jene Luftarten, die aus Kohlenstoff und Wasserstoff zusammengesetzt sind, wie das Grubengas oder Sumpfgas, welches als Zersetzungsproduct der Kohlen und Pflanzenstoffe, in Kohlenbergwerken, in Sümpfen und Morasten sich entwickelt.

In fester und flüssiger Form treffen wir Verbindungen des Kohlenstoffes mit Wasserstoff und Sauerstoff im Holze und allgemein in allen Pflanzenstoffen, ebenso in deren Zersetzungsresten im Pflanzenmoder, im Torf, in der Braunkohle und Steinkohle, im Erd- oder Steinöl (Petroleum).

Im Fleische und in den Thierstoffen überhaupt tritt als wesentlicher Bestandtheil der Stickstoff in merklicher Menge hinzu. In allen diesen Verbindungen ist das Schicksal jedes einzelnen Stoffes mit dem der übrigen innig verknüpft. Je mehr sich dabei der Kohlenstoff von seinen Begleitern trennt, desto mehr trotzt er allen Lockungen zur Veränderung, so dass er in dem Stadium der Steinkohle, des Graphites sehr träge erscheint, wenig geneigt, in den allgemeinen Kreislauf wieder einzutreten.

CO2 in der Atmosphäre

Als Anfangspunkt und als Endziel aller grösseren Wanderungen kann man die Atmosphäre betrachten.

Die Luft besteht aus einem Gemenge von Sauerstoffgas, Stickstoffgas, Wasserdampf und Kohlensäuregas.

Von dem letzteren enthält die Luft gleichwohl verhältnissmässig wenig; höchstens 6 Theile in 10.000; wenn man indessen bedenkt, welch grosse Luftmenge die Erde umgiebt, so erscheint die Menge des darin enthaltenen Kohlenstoffes nicht gering. Liebig (Deutscher Chemiker, 1803 – 18773; Anm. Red) schätzt dieselbe auf 2800 Billionen Pfunde. Mit diesem Capital arbeitet die Atmosphäre beständig fort, indem sie auf der Erde das Leben der Organismen erhält, und der geheimnissvollen Werkstätte unter der Erde das Material zu ihren chemischen Processen liefert.

Der kürzeste Kreislauf ist jener, den die Kohlensäure in Gesellschaft des atmosphärischen Wassers ausführt. Dasselbe absorbirt jenes Gas und bringt bei jedem Niederschlage ein gewisses Quantum zur Erde herab. Beim Verdampfen des Wassers und dem Wiederaufsteigen zur Atmosphäre kehrt auch die Kohlensäure wieder zurück. Ein Theil des Wassers aber und mit ihm die Kohlensäure dringen in den Boden ein, um dort die Wanderung fortzusetzen.

Kohlenstoff in der Biosphäre

Von grossem Interesse ist der Kreislauf des Kohlenstoffes in jener Bahn, welche durch das Pflanzen und Thierleben vorgezeichnet ist. Der Boden, in welchem die Pflanzen wurzeln, absorbirt Kohlensäure. Die Pflanzen nehmen diesen Nahrungsstoff durch ihre Wurzeln auf und verarbeiten ihn zu Pflanzensubstanz (die CO2-Fixation durch Photosynthese war noch unbekannt; Anm. Red).

Dabei geben sie indes auch namentlich zur Nachtzeit, Kohlensäure ab, welche wieder zur Atmosphäre zurückkehrt. Im übrigen wird Kohlenstoff in dem Pflanzenleibe aufgespeichert, worauf er einem dreifachen Schicksale entgegen geht. Die Pflanze unterliegt dem Verwesungs- oder Verbrennungsprozesse, ihre Substanz zerfällt in Wasser und Kohlensäure, die letztere kehrt wieder an den Anfangspunkt ihrer Wanderung zurück. Oder der Pflanzenkörper wird von Schlamm und Erdschichten bedeckt und so der raschen Verwesung entzogen. Der dritte Weg führt durch den Thierleib. Die Thiere nähren sich direct oder indirect von Pflanzenstoffen. Von dem so aufgenommenen Kohlenstoff wird ein Theil durch den Athmungsprocess und die Excremente wieder ausgeschieden, ein Theil in dem Thierleibe aufgespeichert. Nach dem Tode unterliegt derselbe so wie der Pflanzenleib entweder einer rascheren Zersetzung und es kehrt der Kohlenstoff in der Form der Kohlensäure zur Atmosphäre zurück oder die Natur conservirt den thierischen Moder in den Erdschichten für ihre ferneren Zwecke.

Beständig senken grosse Massen von Kohlenstoff sich in unsichtbarer Weise aus der Atmosphäre zu uns herab, um die Formen des Pflanzen- und Thierleibes anzunehmen und endlich nach Tagen, Monaten oder Jahren wieder emporzusteigen zu den luftigen Höhen, nachdem sie die verschiedensten Phasen durchgemacht haben.

Nicht immer geht die Wanderung rasch vonstatten, vielmehr bedarf es zuweilen geologischer Zeiträume, bis der Kreislauf vollendet ist. Nicht alle Pflanzen- und Thierstoffe vermodern und verwesen an der Oberfläche der Erde, gar viele werden durch den beständig fortdauernden Absatz der Sand-, Thon und Kalkschichten bedeckt und eingeschlossen, namentlich jene, die von Wasserbewohnern herrühren.

Daher findet man die Gesteinschichten durchwegs mit mehr oder weniger Moder durchdrungen. Die kohligen Theilchen ertheilen dem Stein häufig eine graue, auch schwarze Farbe. Manche Schichten sind vollständig erfüllt von Kohle, Erdharz, Erdöl oder Anthracit, Graphit; sämmtlich Stoffe, die von Pflanzen und Thieren herrühren und stellenweise finden sich selbständige Lager davon. Der auf solche Weise tief in der Erde begrabene Kohlenstoff beträgt gewiss viel mehr als die Menge des in der Atmosphäre enthaltenen.

Wenn man sich die vorhin erwähnte Kohlenstoffmenge; welche in der Atmosphäre als Kohlensäure schwebt, in fester Form auf der ganzen Erdoberfläche vertheilt denkt, so würde dies eine Schicht von kaum einer Linie Höhe geben. Die Quantität des in den Erdschichten vergrabenen Kohlenstoffes hingegen schätzt Bischof (Carl Gustav Bischof, 1792 – 1870, deutscher Pionier der Geochemie; Anm.Red.) so gross, dass derselbe bei gleicher Vertheilung eine 46 Fuss hohe Schicht bilden würde.

Kehrt nun von diesen Kohlenstoffmengen nichts mehr in den allgemeinen Kreislauf zurück?

Vielleicht blos durch das Verbrennen der Mineralkohlen und des Steinöls von Seite des Menschen? Die auf solche Weise wieder empor geschickte Kohlenstoffmenge beträgt verhältnissmässig nur wenig; viel bedeutender ist das Quantum, das auf anderem Wege aufsteigt. Der in den Gesteinschichten enthaltene Moder so wie die Ablagerungen von Kohle sind in einer beständigen Zersetzung begriffen. Die eine Art dieser Zersetzung liefert das früher erwähnte Grubengas und ähnliche luftförmige Verbindungen des Kohlenstoffes mit Wasserstoff, welche aus dem Boden emporsteigen als brennbare Luftarten ähnlich wie das allen wohlbekannte Leuchtgas.

So in Steinkohlenlagern, in Quellen und Bächen, im angeschwemmten Lande. Der grossartigste Process aber, durch welchen der Kohlenstoff, nachdem er lange in den Schichten der Erde geschlummert hat, zu neuer Thätigkeit geweckt wird, ist der Oxydationsprocess, welchen die unterirdischen Wässer vermitteln. Das aus der Atmosphäre niederfallende Wasser bringt nicht blos jene kleine Quantität Kohlensäure, sondern eine viel grössere Menge von Sauerstoff in Auflösung mit herab. Die in den Boden eindringenden Wässer führen daher dem in dem Gesteine eingeschlossenen Kohlenstoffe beständig grosse Mengen von Sauerstoff zu. In solcher Weise entwickelt sich in den vom Wasser durchsickerten Gesteinschichten ein reger chemischer Process, wodurch wieder Kohlensäure gebildet wird. Ein grosser Theil der letzteren wandert in den Wasseradern weiter, um vorzeitig oder zugleich mit dem Wasser zur Erdoberfläche zu dringen. Was wir beim kühlen Brunnen oder am sprudelnden Quell an perlender Kohlensäure im frischen Trunke geniessen, empfangen wir aus dem Schosse einer längst untergegangenen Schöpfung! So werden fortwährend ungeheure Mengen Kohlenstoffes aus den Tiefen der Erde zu Tage gefördert. Die Natur holt hier gleichsam nach, was sie bei der Verwesung der Pflanzen- und Thierkörper versäumte. Seine Neigung zum Sauerstoffe und seine Wanderungen in Gestalt der Kohlensäure haben in der unterirdischen Werkstätte die merkwürdigsten Folgen. Die Bildung der wertvollsten Erzlagerstätten, die Umbildung loser Schutt-, Sand und Thonablagerungen zu festem Gestein, die Umwandlung kalkiger Gesteine in kieslige und umgekehrt, die Auflösung der Schichten und die gleichzeitige Entstehung von unterirdischen Hohlräumen oder von Niveauveränderungen auf der Erdoberfläche — dies sind Erscheinungen, bei welchen ausser dem Wasser der Kohlenstoff als Moder oder Kohlensäure die Hauptrolle spielt.

Das Festland, von dem ich jetzt zumeist gesprochen, umfasst nicht den ganzen Kreislauf des Kohlenstoffes.

Das Reich des Wassers

ist viel grösser und viel mehr belebt als das Landreich. Dort circuliren fortwährend grosse Stoffmengen nach ähnlichen Gesetzen wie auf dem Lande. Als Träger der Kohlensäure fungirt das nasse Element das ebenso auch den zum Leben nöthigen Sauerstoff in Auflösung enthält. Die Aufnahme der Kohlensäure, die Wanderung der Pflanzenstoffe in den Thierkörper, die Athmung, die Verwesung sind wiederum die Hauptmomente des Kreislaufes. Während bei den Lebenserscheinungen kein auffallender Unterschied im Stoffwechsel gegenüber den Verhältnissen auf dem Festlande auftritt, so sind nach dem Absterben der Organismen die Umstände mehr geeignet, die Conservirung der Moderstoffe zu begünstigen. In den Absätzen des Meeres werden viel mehr kohlige Ueberreste eingeschlossen und für den künftigen Oxydationsprocess aufbewahrt, als es bei den Landbildungen der Fall ist. Im Wasserreiche, namentlich im Meere, gibt es noch einen Vorgang, der eine Wanderung grosser Kohlenstoffmengen bedingt. Viele Wasserthiere (aus den Abtheilungen der Mollusken, Radiaten, Rhizopoden) ebenso viele Algen sondern Kalk ab, indem sie Kalkgehäuse oder Kalkinkrustationen bilden. Der Kalk nun besteht aus Kalkerde und Kohlensäure. So wie die Luftthiere Kohlensäure ausathmen, in ähnlicher Weise bilden die Wasserthiere Kalk, indem der zweite Bestandtheil, die Kalkerde aus dem von den Thieren verzehrten Meerwasser hinzukömmt. Aus den unzähligen Kalkgehäusen dieser Thiere bilden sich Ablagerungen und in geologischen Zeiträumen Kalksteinschichten und Kalkgebirge. Aller Kalkstein, den wir sehen hat sich wohl auf diese Weise gebildet.

Welche ungeheuren Massen von Kohlenstoff sind in den Kalkgebirgen fixirt! Hier erscheint dieser Stoff schließlich in fester Form als unbezwinglicher Felsblock, als zackige Gebirgsmasse, scheinbar zu ewiger Ruhe verurtheilt. Und doch gibt es Wege, die ihn wieder zum Leben, zur Bewegung führen. Millionen von Jahren mögen dahingehen, denn nur allmälig wirken die sickernden Gewässer; aber unaufhörlich dringen sie durch die Gesteinschichten und lösen die festen Massen auf. So wird auch kohlensaure Kalkerde fortgeführt durch die Quelle, den Bach in den Strom. Während dieser Reise macht sich eine bedeutende Menge Kohlensäure aus der Verbindung los, und entweicht zur Atmosphäre. Das ins Meer gelangende Wasser enthält im Verhältnis zu den übrigen aufgelösten Stoffen viel weniger Kohlensäure als das Quell- und Bachwasser.

Ausser diesem ist noch ein zweiter Vorgang zu betrachten, welcher sehr grosse Mengen von Kohlensäure an die Atmosphäre zurückgibt. Es ist bekannt, dass in vielen, namentlich in vulcanischen Gegenden warme Kohlensäure führende Quellen emporsprudeln und ebenso, dass dort häufig aus den Spalten der Erde Ströme von Kohlensäuregas empordringen, die sogenannten Mofetten. Man erklärt sich diese Erscheinungen dadurch, dass man annimmt, in Tiefen, wo Siedhitze oder eine noch höhere Temperatur herrscht, komme Kalkstein mit kieselsäurehaltigen Gesteinen und mit Wasser in Berührung. Die Kieselsäure verbindet sich mit der Kalkerde des Kalksteines und vertreibt auf diese Weise die Kohlensäure. Die leztere entweicht und wenn sich eine Spalte findet, die einen Ausweg gestattet, so presst das Kohlensäuregas eine Wassersäule empor, es entsteht eine Sprudelquelle. Im anderen Falle oder wenn die Zersetzung des Kalksteines in der Tiefe ohne die Gegenwart des Wassers stattfindet, dann entweicht Kohlensäuregas allein. Da durch einen einfachen Versuch im Laboratorium gezeigt wird, dass sich Kohlensäure entwickelt, wenn in siedendem Wasser kohlensaure Kalkerde und Kieselsäure zusammen gebracht werden, ebenso, wenn bei höherer Temperatur ohne Beisein von Wasser Kalkstein und kiesliches Gestein sich berühren, so hat diese Erklärung viele Wahrscheinlichkeit für sich. Wir hätten demnach die bedeutenden Mengen von Kohlensäure, welche die Thermen und die Mofetten beständig emporsenden, ebenfalls dem Kalkstein, also indirect jenen Thieren zu verdanken, die vor Aeonen gelebt und Kalkablagerungen gebildet haben.

Der Kohlenstoffkreislauf in einer modernen, vereinfachten Version. Die Zahlen geben die gelagerten/produzierten Mengen Kohlenstoff (C) in Gigatonnen an (Bild:https://eo.wikipedia.org/wiki/Cesare_Emiliani#/media/File:Carbon_cycle-cute_diagram-german.svg)

Diese kurze Ueberschau einiger chemischer Vorgänge auf und in der Erde hat Ihnen gezeigt, wie ein Stoff in mannigfachem Wechsel der Form und des Ortes durch die belebte und unbelebte Natur ewig kreist, in engeren und weiteren Bahnen, in kurzen und in lange dauernden Wanderungen, dass ein Zusammenhang besteht zwischen den heterogensten Erscheinungen.

Wir dürfen das Bild erweitern, ergänzen, denn dasselbe gilt für viele andere Stoffe, für alle Erscheinungen im Getriebe der Natur.


[1] Gustav (Edler von Seysenegg) Tschermak: Der Kreislauf des Kohlenstoffes. Schriften des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse Wien (1866) 5: 197 – 212. http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_5_0197-0212.pdf

[2] Bernhard Fritscher (2004): Mineralogie und Kultur im Wien der Donaumonarchie – Zu Leben und Werk Gustav Tschermaks. Jb. Geol. B.-A.144 (1):67-75 http://www.landesmuseum.at/pdf_frei_remote/JbGeolReichsanst_144_0067-007...


Literatur von Gustav Tschermak.

Gustav Tschermak (1885): Die mikroskopische Beschaffenheit von Meteoriten. Engl. Übersetzung: "The Microscopic Properties of Meteorites" von John A. Wood und E. Mathilde Wood, Smithsonian Institution, Washington D.C. (1964). https://repository.si.edu/bitstream/handle/10088/6641/SCAS-0030.pdf?sequ...

Gustav Tschermak (1897) Lehrbuch der Mineralogie.

inge Fri, 26.06.2015 - 11:26

Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

Die bedrohliche Alzheimerkrankheit — Abschied vom Ich

Fr, 03.07.2015 - 09:49 — Gottfried Schatz Gottfried SchatzIcon Gehirn

Unser Gehirn droht im Alter zu versagen. Die häufigste Form von geistigem Verfall ist die Alzheimerkrankheit, die wegen der Überalterung der Bevölkerung immer häufiger wird. Ihre Ursache ist noch unbekannt. Der renommierte Biochemiker Gottfried Schatz beschreibt die aktuellen Ansätze, welche das Krankheitsbild auf molekularem Niveau zu erklären versuchen, um auf dieser Basis therapeutische Strategien zu entwickeln.

«Ich beginne nun die Reise, die mich zum Sonnenuntergang meines Lebens führt, in der Gewissheit, dass über Amerika immer wieder ein strahlender Morgen heraufdämmern wird.» Mit diesen bewegenden Worten gestand der dreiundachtzigjährige ehemalige US-Präsident Ronald Reagan der amerikanischen Öffentlichkeit seine Alzheimer-Erkrankung, an deren Folgen er zehn Jahre später sterben sollte. Auf seiner tragischen Reise war er nicht allein; zeitgleich mit ihm litten mindestens zwanzig Millionen Menschen an dieser Krankheit.

Der junge Münchner Psychiater Alois Alzheimer beschrieb sie zum ersten Mal am 3. November 1906 vor einer Versammlung südwestdeutscher Irrenärzte und veröffentlichte dann seine Befunde in einem kurzen Artikel mit dem Titel «Über eine eigenartige Erkrankung der Hirnrinde». Der Artikel schloss mit den prophetischen Worten: «Es gibt ganz zweifelsfrei viel mehr psychische Krankheiten, als sie unsere Lehrbücher aufführen.»

Eiweissablagerungen

Die Alzheimerkrankheit lässt sich heute weder heilen noch wirksam behandeln. Versuche, ihr Fortschreiten wesentlich zu verlangsamen, hatten bisher nur mässigen Erfolg. Nach der ersten Diagnose sterben die Patienten im Durchschnitt nach sechs bis zehn Jahren, meist an infizierten Liegewunden oder einer Lungenentzündung. Ihr Gehirn ist durch das massive Absterben von Nervenzellen deutlich geschrumpft. Dies erklärt den geistigen Verfall, der sich gewöhnlich mit einem Verlust des Gedächtnisses und anderer Hirnleistungen ankündigt und schliesslich zu völliger Teilnahmslosigkeit führt.

Abbildung 1. Das Gehirn schrumpft durch das massive Absterben von Nervenzellen (links). Rechts: Unlösliche Proteinablagerungen außerhalb der Nervenzellen – Plaques – und Bildung von verklumpten Tau-Fibrillen in den Zellen (siehe auch Abb. 2), die zu deren Absterben führen. (Bild: modifiziert nach Wikipedia)

Charakteristisch für die Krankheit sind zwei Typen von unlöslichen Proteinablagerungen, eine ausserhalb und eine innerhalb der Nervenzellen des Gehirns. Die äusseren Ablagerungen – die «Plaques» – sind verklumpte, abnormale Spaltprodukte eines Proteins, das fest in der Oberflächenmembran der Nervenzellen verankert ist und wie eine Mobilfunkantenne aus dieser herausragt. Wir wissen noch nicht mit Sicherheit, welche Funktion dieses Protein im gesunden Gehirn erfüllt, vermuten aber, dass es die Vernetzung von Gehirnzellen fördert. Sein offizieller Name ist «Amyloid-Precursor-Protein» – oder kurz «APP». Wie fast jedes Protein wird APP laufend abgebaut und neu gebildet. Der normale Abbau liefert lösliche Spaltprodukte, die von der Zelle schnell entsorgt werden und unschädlich sind. Bei Alzheimerkranken führt der Abbau jedoch zu einem abnormalen Spaltprodukt, dem Beta-Amyloid, das sich zu unlöslichen Plaques zusammenklumpt, die von der Zelle nicht weiter abgebaut werden können und diese schliesslich töten.

Die Proteinablagerungen innerhalb der Gehirnzellen bestehen aus einem Protein, das normalerweise das innere Stützgerüst der Nervenzellen festigt und es den Zellen ermöglicht, lange Ausstülpungen zu bilden und über diese mit anderen Nervenzellen elektrische Kontakte auszubilden. Dieses stützende «Tau-Protein» ist bei Alzheimerkranken chemisch verändert, so dass es sich nicht mehr an das innere Stützgerüst der Zellen anlagert, sondern unlösliche Neurofibrillen im Inneren der Zellen bildet und so deren elektrische Vernetzung verhindert. Abbildung 2. Das Tau-Proteins festigt normalerweise das Stützgerüst (Mikrotubuli) der Nervenzelle (Neuron). Veränderungen im Tau-Protein führen zur Bildung von verklumpten Fibrillen im Zellinneren (Ausschnitte aus dem Axon rechts vergrößert), zum Zerfall der Mikrotubuli, das Neuron stirbt (ganz rechts). (Quelle: http://www.nia.nih.gov/alzheimers/publication/alzheimers-disease-unravel..., gemeinfrei).

Die Ursachen all dieser Veränderungen und des damit verbundenen geistigen Verfalls sind noch nicht mit Sicherheit bekannt. Es mehren sich jedoch die Hinweise, dass die Krankheit von einer Veränderung – einer Mutation – gewisser Gene begleitet ist. Gene sind meist Baupläne für bestimmte Proteine. In Familien, in denen die Alzheimerkrankheit ungewöhnlich häufig und typischerweise bereits im Alter von vierzig bis fünfzig Jahren auftritt, ist mindestens eines von drei Genen mutiert. Eines von ihnen trägt den Bauplan für das erwähnte APP, so dass eine Mutation in diesem Gen zu einem abnormalen APP führt, das offenbar nicht zu harmlosen Spaltprodukten, sondern zu unlöslichen Plaques abgebaut wird. Tatsächlich entwickelt eine Maus, der man dies mutierte menschliche APP-Gen mit gentechnischen Methoden einpflanzt, Lerndefizite und Plaques im Gehirn.

Das Gen für APP befindet sich auf Chromosom 21, von dem etwa 0,1 Prozent aller Menschen nicht die üblichen zwei, sondern drei Exemplare besitzen. Diese Trisomie 21 (auch «Down-Syndrom» genannt) führt wahrscheinlich zu einer Überproduktion und, als Folge davon, zu einem abnormalen Abbau von APP, so dass fast alle vom Down-Syndrom Betroffenen vor ihrem vierzigsten Lebensjahr Alzheimerdemenz entwickeln. Die beiden anderen Gene, die in Familien mit gehäufter und früh einsetzender Alzheimerkrankheit mutiert sind, tragen die Namen «Präsenilin-1» und «Präsenilin-2». Sie bestimmen die Struktur von Proteinen, die im Verein mit anderen Proteinen normales APP abbauen. Wenn sie durch eine Mutation verändert sind, spalten sie APP an den falschen Stellen, so dass die Spaltprodukte wiederum unlösliche Plaques bilden. Plaques können sich also als Folge einer veränderten APP-Struktur, einer Überproduktion von APP oder einer veränderten Abbaumaschine bilden. Derart klare genetische Korrelationen finden sich jedoch nur bei einer sehr kleinen Minderheit von Alzheimerpatienten. In den meisten Fällen sind wahrscheinlich andere Gene, Krankheiten wie Bluthochdruck sowie Lebensstil und Umweltfaktoren beteiligt.

Warum hat die Evolution die Gene, welche Alzheimerkrankheit verursachen oder das Risiko für sie erhöhen, nicht völlig ausgemerzt? Ein Grund ist wahrscheinlich, dass diese Gene in früheren Zeiten ihre Wirkung nur sehr selten entfalten konnten, weil die meisten ihrer Träger vor Ausbruch der Krankheit starben – und heute zeigt sich die Wirkung dieser Gene in den meisten Fällen erst in einem Lebensabschnitt, in dem die Betroffenen keine Kinder mehr zeugen. Damit schlagen diese Gene der biologischen Selektion ein Schnippchen. Ein zweiter Grund könnte sein, dass einige dieser Gene unserem Körper auch nützen können. Die Spaltprodukte von APP zerstören die Zellmembran von Bakterien und wirken deshalb bakterizid. Wahrscheinlich trifft dies nicht nur für die normalen, sondern auch für die abnormalen APP-Spaltprodukte zu. Diese Abbauprodukte könnten also ein Verteidigungssystem sein, mit dem unser Gehirn eindringende Bakterien bekämpft. Sollte diese Vermutung zutreffen, dann wäre eine Alzheimer-Erkrankung die Entgleisung einer Verteidigungsstrategie unseres Körpers, die uns schweren Schaden zufügt. Ähnliches gilt auch für das Immunsystem, das sich gelegentlich nicht nur gegen eindringende Viren und Bakterien, sondern auch gegen uns selbst richtet und lebensbedrohende Autoimmunerkrankungen auslösen kann.

Die abnormalen APP-Abbauprodukte bilden aber nicht nur unlösliche Plaques ausserhalb der Nervenzellen, sondern können vielleicht sogar in diese eindringen und die Funktion der Mitochondrien stören. Mitochondrien sind die Organe der Zellatmung, die unseren Zellen die lebensnotwendige Energie liefern. Ist ihre Funktion beeinträchtigt, kommt es nicht nur zu einer Energiekrise, sondern auch zur Freisetzung stark oxidierender Nebenprodukte der Atmung, die den Zellstoffwechsel hemmen und die Zellen abtöten. Eine solche Störung der Mitochondrien ist aber noch nicht gesichert, und wir wissen auch nicht, ob sie Ursache oder Folge der Alzheimerkrankheit wäre.

Eine eindeutige Früherkennung der Krankheit ist selbst heute noch schwierig. Sie stützt sich auf Auffälligkeiten in neuropsychologischen Tests oder einen verringerten Zuckerverbrauch bestimmter Gehirnregionen. Zunehmend wichtig werden auch der Nachweis abnormaler APP-Spaltprodukte oder veränderter Tau-Proteine im Nervenwasser sowie bildgebende Verfahren, welche die Plaques im Patientengehirn sichtbar machen. Allerdings ist die Frühdiagnose einer unheilbaren Krankheit, deren Verlauf sich nicht wesentlich beeinflussen lässt, grundsätzlich fragwürdig. Eine eindeutige Diagnose ist erst nach dem Tod der Patienten durch eine histologische Untersuchung des Gehirns möglich.

Beunruhigende Fragen

In Europa und den USA ist Alzheimerdemenz eine der kostspieligsten Krankheiten. Die USA geben gegenwärtig für die Betreuung von Alzheimerpatienten jährlich etwa hundert Milliarden Dollar aus. Wenn die Überalterung der amerikanischen Gesellschaft wie erwartet weiter zunimmt und es nicht bald wirksame Waffen gegen Alzheimerdemenz gibt, dürfte diese Summe bis zum Jahr 2050 etwa zehnmal höher sein. Im Durchschnitt litte dann jeder hundertste Amerikaner an Alzheimerdemenz. Rund zwei Drittel der medizinischen Kosten entfallen auf die langfristige Pflege, die das Pflegepersonal bis an seine physischen und psychischen Grenzen belastet. Die psychische Belastung der Pfleger ist bei der Betreuung von Alzheimerpatienten in der letzten Krankheitsphase wahrscheinlich noch höher als bei Patienten, die ohne Hoffnung auf Gesundung völlig gelähmt oder jahrelang bewusstlos sind. In Japan mit seiner stark überalterten Bevölkerung ist die Betreuung von Alzheimerkranken besonders prekär, weil das Land den Mangel an eigenen Pflegern nur ungern durch Fachkräfte aus dem Ausland ausgleicht. Japanische Firmen entwickeln deshalb Pflegeroboter, die in Gestalt eines putzigen Bären oder eines anderen Kuscheltieres Kranke aus ihrem Bett heben und in dieses zurücklegen und auch andere Tätigkeiten menschlicher Pfleger wahrnehmen.

Was aber ist der angemessene Umgang mit Menschen, die ihre Funktionen, welche das Menschsein ausmachen, verloren haben? Worin besteht dieses Menschsein? Und wann hört ein Mensch auf, Mensch zu sein? Diese Fragen führen unmittelbar zu jener nach dem würdigen Ende unseres Lebens und – zumindest für mich persönlich und mit aller Vorsicht gesagt – zu der Möglichkeit, dieses Leben freiwillig beenden zu dürfen. Ich wage es kaum, diese beunruhigenden Fragen zu denken, doch unseren Kindern und Enkelkindern wird es wohl nicht erspart bleiben, sie zu beantworten.


Weiterführende Links

Alzheimer: Eine dreidimensionale Entdeckungsreise. Video 6:28 min. https://www.youtube.com/watch?v=paquj8hSdpc
Tau-Protein gegen Gedächtnisverlust (ohne Ton). Max-Planck Film 1:44 min, http://www.mpg.de/4282188/Tau-Protein_gegen_Gedaechtnisverlust

Planet Wissen - Diagnose Alzheimer .Video 58:17 min, https://www.youtube.com/watch?v=mp9A2esKt-A


 

inge Fri, 03.07.2015 - 09:49

Die großen globalen Probleme der Menschheit: das weltberühmte Internationale Institut für Angewandte Systemanalyse (IIASA) erarbeitet Lösungsansätze

Die großen globalen Probleme der Menschheit: das weltberühmte Internationale Institut für Angewandte Systemanalyse (IIASA) erarbeitet Lösungsansätze

Fr, 10.07.2015 - 11:28 — IIASA IIASA LogoIcon Politik & Gesellschaft

Österreich ist Sitz zahlreicher bedeutender, internationaler Organisationen, deren abgekürzte Bezeichnungen – u.a. UNO, IAEO, OPEC, OSZ E – und jeweilige Aufgaben jedermann in unserem Land (zumindest oberflächlich) bekannt sind. Für das seit bereits mehr als 40 Jahren bestehende, im Schloss Laxenburg angesiedelte, Internationale Institut für Angewandte Systemanalyse (IIASA) ist dies nicht der Fall. Der folgende Artikel gibt einen Überblick über das IIASA und seine fundamentale Rolle in der Erarbeitung von Lösungsansätzen zu den großen globalen Problemen rund um Energie, Klimawandel, Ernährung, Wasser und Armut. Die Texte stammen von der Website der IIASA [1], die freundlicherweise einer Veröffentlichung in unserem Blog zugestimmt hat.

Das Internationale Institut für Angewandte Systemanalyse (IIASA)

Das IIASA wurde im Jahre 1972 gegründet und ist ein internationales Forschungsinstitut, das politisch relevante Forschung in Problembereichen durchführt, die zu umfangreich oder zu komplex sind, um von einem einzelnen Land oder von einer einzigen Disziplin bewältigt zu werden. Dies sind Probleme, wie z.B. der Klimawandel, die eine globale Reichweite haben und nur durch internationale Zusammenarbeit gelöst werden können, oder Probleme, die viele Länder betreffen, und sowohl auf nationalem als auch auf internationalem Niveau in Angriff genommen werden müssen, wie z.B. Energiesicherheit, Bevölkerungsalterung, oder nachhaltige Entwicklung. Finanziert von wissenschaftlichen Institutionen in Nord- und Südamerika, Europa, Asien, Ozeanien und Afrika, ist das IIASA eine unabhängige Institution — völlig frei von politischen oder nationalen Interessen.

Die Aufgabe des IIASA besteht darin mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen [2].

Wie kam es zur Gründung des IIASA?

Howard Raiffa , der erste Direktor des IIASA erinnert sich [3]:

"1966 hielt der amerikanische Präsident Lyndon Johnson eine äußerst bemerkenswerte Rede. Er sagte, es wäre an der Zeit, dass Wissenschafter der Vereinigten Staaten und Russlands zusammenarbeiteten und zwar an anderen Problemen als Militär- und Raumfahrt- Fragen, nämlich an Problemen die alle hochentwickelten Gesellschaften belasten wie Fragen über Energie, unsere Meere, Umwelt und Gesundheit. Und er rief zu einem Zusammenschluss von Wissenschaftern aus Ost und West auf.

Johnson beauftragte seinen (und vorher auch J.F. Kennedy’s) Berater McGeorge Bundy, dieses Vorhaben umzusetzen. Bundy traf sich mit Jermen Gvishiani, dem stellvertretenden russischen Minister für Wissenschaft und Technologie, und war von der Reaktion begeistert. Bundy und Gvishiani erkannten, eine derartige Institution wäre nur dann auf Dauer stabil, wenn sie nicht von Regierungen finanziert und multilateral sein würde. Am ersten Planungstreffen in Sussex (UK) sollten auch England, Italien Frankreich und aus dem Ostblock Polen, die Deutsche Demokratische Republik und Bulgarien teilnehmen. Bemerkenswert daran: diese Verhandlungen spielten sich mitten im kalten Krieg ab, in der Zeit des Vietnamkriegs und des Aufstands in der Tschechoslowakei."

Wie Österreich zum Sitz des IIASA bestimmt wurde [3]

"Ursprünglich dachten wir das IIASA in Großbritannien zu errichten. Als am Beginn der 1970er Jahre an die hundert sowjetische Diplomaten aus England ausgewiesen wurden, erkalteten die Beziehungen zwischen den beiden Staaten und als Alternative wurde das ehemalige Hauptquartier der alliierten Streitkräfte in Fontainebleau ins Auge gefasst. Dies war ein großartiger Platz; massenhaft historische Räume und Wandteppiche. Als wir aber fragten: „Können wir Tafeln aufstellen, Computer installieren, eine Bibliothek errichten?“ war die Antwort „Nein. Ihr müsst alles so lassen, wie es ist.“

"Wir entschlossen uns nach anderen Möglichkeiten zu suchen. Österreich bot das baufällige Schloss Laxenburg (Abbildung 1) an, Einladungen kamen auch aus Italien, Holland und der Schweiz."

IIASA – Laxenburg (bei Wien)Abbildung 1. Das Internationale Institut für angewandte Systemanalyse (IIASA) ist im sogenannten Blauen Hof des Schlosses Laxenburg, einer bis ins 14. Jh. zurückdatierenden Anlage (etwa 15 Kilometer südlich von Wien), untergebracht. Ds Schloss diente über lange Zeit als Frühlingsresidenz der Habsburger. (Bild: https://www.flickr.com/photos/iiasa/sets/72157648154449307)

Österreich war zweifellos die richtige Wahl, passte phantastisch als Symbol. Die Renovierung von Schloss Laxenburg dauerte zwar bis 1975, wir hatten aber schon 1973 den Großteil der Gemächer bezogen. 1975 gab es bereits eine Ansammlung sprudelnder Talente, die an Fragen zu Energie, Ökologie, Wasservorräte und Methodenentwicklung arbeiteten.

Das IIASA heute

Über 300 Mathematiker, Geisteswissenschaftler, Naturwissenschaftler, Wirtschaftler und Technologen aus mehr als 45 Ländern forschen am IIASA in Laxenburg bei Wien, im Herzen Europas. Hier arbeiten sowohl weltbekannte Wissenschaftler — vier Nobelpreisträger waren am IIASA tätig — wie auch junge Wissenschaftler am Anfang ihrer Karriere. Außerdem bezieht das IIASA aus seinem weltweiten Netz von ca. 2500 externen Forschern in 65 Ländern lokale und regionale Daten, die in seine hochentwickelten wissenschaftlichen Modelle integriert werden. Durch diese wissenschaftliche Zusammenarbeit stellt das IIASA auch Verbindungen zwischen den einzelnen Ländern her.

Das IIASA hat 3475 ehemalige Mitarbeiter in über 90 Ländern, unter ihnen führende Persönlichkeiten aus Wissenschaft, Politik und Privatwirtschaft. Seit 1977 nahmen 1772 junge Wissenschaftler aus 84 Ländern am Sommerprogramm für junge Wissenschaftler (Young Scientists Summer Program, YSSP) des IIASA teil.

Das Jahresbudget

betrug im Jahr 2014 €19,4 Millionen, die zu 56% aus renommierten wissenschaftlichen Institutionen, nämlich den nationalen Mitgliedsorganisationen des IIASA (NMOs) in 22 Ländern in Nord- und Südamerika, Asien, Europa, Ozeanien und Afrika stammen. Weitere Mittel stammen aus Verträgen und Subventionen. Zwischen 2006 und 2014 wurden der Forschung des IIASA Subventionen in der Höhe von €69 Millionen gewährt. Dies war ein Teil des Gesamtfinanzierungsaufkommens von €329 Millionen für die externen Projekte, an denen das IIASA in Zusammenarbeit mit seinen Mitgliedsländern beteiligt ist.

Wissenschaftliche Veröffentlichungen

2014war das erfolgreichste Jahr des IIASA. IIASA Wissenschaftler publizierten nahezu 250 Artikel in wissenschaftlichen Zeitschriften und die Forschung des IIASA wurde über 9100 Mal zitiert (Quelle: SCOPUS).

Die Aufgabe

des IIASA besteht darin, mit Hilfe der angewandten Systemanalyse Lösungen für globale und universelle Probleme zum Wohl der Menschen, der Gesellschaft und der Umwelt zu finden, und die daraus resultierenden Erkenntnisse und Richtlinien den politischen Entscheidungsträgern weltweit zur Verfügung zu stellen. Systemanalytische Ansätze werden dazu verwendet, komplexe Systeme — wie z.B. Klimawandel, Energieversorgung, Landwirtschaft, Atmosphäre, Risiko- und Bevölkerungsdynamik — unter besonderer Beachtung ihrer Wechselwirkungen zu erforschen. Das IIASA blickt auf eine lange und erfolgreiche Geschichte bei der Entwicklung von systembezogenen integrierten Lösungen und politischen Richtlinien für die dringendsten Probleme der Welt, wie Energieressourcen, Klimawandel, Umweltverschmutzung, Bevölkerungsdemographie, Landnutzung und nachhaltige Entwicklung, Risiko- und Belastbarkeit zurück.

Das IIASA ist sowohl ein internationales Institut — mit aktiver Zusammenarbeit in über 60 Ländern — wie auch ein unabhängiges Institut, das von seinen nationalen Mitgliedsorganisationen (NMOs) in 23 Ländern, die über 60% der globalen Bevölkerung ausmachen, geleitet und großteils finanziert wird.

Der strategische Schwerpunkt

der Forschung des IIASA liegt im Wesentlichen auf drei Gebieten (Abbildung 2):

Forschung im IIASAAbbildung 2. Forschung im IIASA: die drei Gebiete sind komplex und wechselwirken auch miteinander (Abbildung aus [2] adaptiert)

  • Energie und Klimawandel: untersucht die Wechselwirkungen zwischen Energieerzeugung, Treibhausgasemissionen, Luftverschmutzung, Klimawandel, und die Anwendung und Verbreitung neuer Technologien.
  • Ernährung und Wasserversorgung: ist unter Einbeziehung eines weiten Spektrums von Disziplinen — von der Biologie bis zur Geowissenschaft — darauf ausgerichtet, ein Gleichgewicht zwischen der Erhaltung der Biodiversität und den Erfordernissen der Landwirtschaft und der Nahrungsmittelversorgung herzustellen.
  • Armut und Verteilungsgerechtigkeit: analysiert die menschliche Komponente der Entwicklung, und zwar von der bestmöglichen Anpassung der Bevölkerung der armen Länder der Welt an die Auswirkungen des Klimawandels bis zu den Auswirkungen der Bevölkerungsalterung auf die Bevölkerung der entwickelten Länder.

Die Forschung in diesen drei globalen Problembereichen wird gestützt durch die Erforschung der zentralen Triebkräfte des Wandels, der in unserer Welt stattfindet, und zwar Bevölkerung, Technologie und Wirtschaftswachstum.

Die Forschung des IIASA entspricht den höchsten internationalen wissenschaftlichen Standards, sie ist politisch relevant und auf die Erstellung robuster Lösungen für die politische Entscheidungsfindung auf der internationalen, nationalen und regionalen Ebene ausgerichtet.

Die am IIASA seit seiner Gründung im Jahr 1972 angewandte Methodologie ist die fortgeschrittene Systemanalyse. Sowohl die Methodologie als auch die Daten werden am IIASA laufend aktualisiert und verfeinert, um den neuen Forschungserfordernissen gerecht zu werden.

Die größte Stärke des IIASA liegt darin, dass seine multidisziplinären Forschung problemgesteuert und lösungsorientiert ist, und auf der Grundlage von wissenschaftlicher Exzellenz und politischer Relevanz betrieben wird.

Der Jahresbericht des IIASA gibt einen Überblick über die jüngsten Forschungshöhepunkte in diesen wesentlichen Forschungsbereichen.


[1] Website der IIASA, der Artikel im ScienceBlog enthält Abschnitte aus:

[2] Das Internationale Institut für Angewandte Systemanalyse (IIASA) im Überblick (PDF-Download)

[3] The founding of the Institute - IIASA's first director Howard Raiffa on the negotiations that led to IIASA's creation (die Übersetzung aus dem Englischen erfolgte durch die Redaktion).


Weiterführende Links

Towards a sustainable future. Video 6:10 min. http://www.iiasa.ac.at/web/home/resources/multimedia/Featured-Video-8-Ap...

Interview mit Pavel Kabat, IIASA Director/Chief Executive Officer (2012-present): Pavel talks about IIASA activities and plans for the future. Video 35:17 min. Veröffentlicht am 30.07.2013

inge Fri, 10.07.2015 - 11:28

Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea

Erste Zwischenstufe in der Evolution von einfachsten zu höheren Lebewesen entdeckt: Lokiarchaea

Fr, 19.06.2015 - 12:08 — Christa Schleper Christa SchleperIcon Biologie

“Under the Sea, a Missing Link in the Evolution of Complex Cells” hat die New York Times am 6. Mai 2015 einen Artikel übertitelt, der über eine Entdeckung berichtete, die weltweites Aufsehen erregte: Ein internationales Team um die Wiener Mikrobiologin Christa Schleper (Leiterin der Archaea Biologie und Ökogenomik Division des Dept. für Ökogenomik und Systembiologie, Universität Wien) und aus Forschern in Uppsala und Bergen hat am Meeresboden des Nordatlantik eine neue Gruppe von Mikroben entdeckt. Mit diesen, als Lokiarchaea bezeichneten, Organismen wurde erstmals eine Zwischenstufe in der Evolution von Prokaryoten zu den komplexen Zellen (Eukaryoten) aufgefunden, aus denen alle höheren Lebewesen bestehen*.

Die biologische Evolution hat auf unserem Planeten drei grundsätzlich verschiedene Klassen von Organismen geschaffen. Zwei dieser, als Domänen des Lebens bezeichneten Klassen – Bakterien und Archaea - sind einfachste Lebensformen: Einzeller, die keinen Zellkern oder andere durch Membranen abgetrennte Kompartimente besitzen, sogenannte Prokaryoten. Derartige Zellen lebten bereits vor 3,5 Milliarden Jahren in den Wässern des Urozeans.

Rund 1,5 Milliarden Jahre später ist dann die dritte Domäne des Lebens entstanden. Es sind die sogenannten Eukaryoten: komplexe Zellen mit einem Zellkern, in welchem das Erbmaterial lokalisiert ist und verschiedenartigen Organellen, welche spezifische Funktionen ausüben (Abbildung 1). Aus derartigen Zellen bestehen alle höheren Lebewesen – Protisten, Algen, Pilze, Pflanzen und Tiere.

Abbildung 1. Die 3 Domänen des Lebens und eine stark vereinfachte Darstellung der Zellen. Eukaryotische Zellen sind wesentlich größer als Prokaryoten- bei einem Durchmesser von 10 - 20 µm haben sie ein rund 1000 fach größeres Volumen – und sind im Inneren kompartimentiert (Schema modifiziert nach Wikipedia).

Wie die ersten eukaryotischen Zellen entstanden sind, ist eines der größten Rätsel der biologischen Evolution. Die meisten Hypothesen gehen von einem Übergang von den Prokaryoten zu den Eukaryoten aus. Das Erbmaterial eukaryotischer Zellen enthält ja -neben spezifisch eukaryotischen Genen – Gene der Prokaryoten. Diese stammen sowohl von Bakterien als auch von Archaea. Dabei ist allgemein akzeptiert, dass die Mitochondrien eukaryotischer Zellen bakteriellen Ursprungs sind, also dadurch entstanden sind, dass eine Vorläuferzelle ein Bakterium „geschluckt“ hat.

Was war aber diese Vorläuferzelle? War dies ein Ur-Archaeon, das so zur Mutterzelle aller Eukaryoten wurde?

Was sind überhaupt Archaea?

Diese Mikroorganismen wurden erst in den 1970er Jahren als eigenständige Gruppe entdeckt. Sie können extremste Lebensräume besiedeln und sind rein äußerlich kaum von Bakterien unterscheidbar. Zuerst wurden sie daher auch als eine urtümliche Form der Bakterien angesehen und als Archaebakterien (Arche ist griechisch und bedeutet Anfang) bezeichnet. Der fundamentale Unterschied zwischen Bakterien und Archaea wurde besonders durch biochemische Studien und die Genomforschung in den 1990er Jahren belegt. Im Hinblick auf viele Proteine und viele Schritte, die mit dem Ablesen, Kopieren und Exprimieren der genetischen Information zu tun haben, ähneln Archaea viel mehr den Eukaryoten, als den Bakterien. Offensichtlich gab es also gemeinsame Vorfahren von Archaea und Eukaryoten die diese Funktionen entwickelten.

Hinsichtlich der Verbreitung

dachte man ursprünglich, dass Archaea nur an besonders unwirtlichen Orten, die an die frühen Bedingungen auf unserem Planeten erinnern, zu finden wären. Beispielsweise in heißen Quellen, Black Smokern der Tiefsee oder in sehr salzhaltigen Habitaten. Da die Kultivierung dieser Mikroorganismen im Labor sich als sehr schwierig erwies, waren die auf Reinkultur basierenden Genomanalysen auf nur wenige Spezies beschränkt. Mit neuen Methoden – der Metagenomik - kann nun das Problem der Kultivierung umgangen werden: es zeigt sich, dass Archaea, ebenso wie die Bakterien, weitest verbreitet und an die unterschiedlichsten Lebensbedingungen angepasst sind. Eine enorme Zahl und Vielfalt von Archaea finden sich in allen bis jetzt untersuchten terrestrischen und aquatischen Habitaten: unter arktischen Bedingungen und in Vulkanen, in marinen Sedimenten und in den unterschiedlichsten Böden, in unserem Verdauungstrakt ebenso, wie auf unserer Haut. Die meisten Archaea-Arten leben unter anaeroben Bedingungen, d.h. sie kommen ohne Sauerstoff aus.

Archaea zeigen einzigartige Stoffwechselaktivitäten,

die sie u.a. zu enorm wichtigen Playern in den biogeochemischen Kohlenstoff- und Stickstoff –Kreisläufen machen:

Sogenannte methanogene Archaea können CO2 oder auch (aus Verrottungsprozessen stammende) organische Substanzen in Methan (CH4) umwandeln. Derartige Mikroben werden in vielen anaeroben Habitaten angetroffen, beispielweise in Mooren, Gewässersedimenten aber auch im Pansen der Wiederkäuer und im menschlichen Darm. Schätzungen zufolge erzeugen sie jährlich etwa 1 Milliarde Tonnen Methan. Die negative Seite: Methan ist ein 25 x stärkeres Treibhausgas als CO2. Die positive Seite: ein ungeheures Potential der Archaea liegt in der Weißen Biotechnologie zum gezielten Einsatz in CO2-Bindungsprozessen und darauf basierender Produktion von Bioenergie.

Gegenspieler der methanogenen Archaea sind Methan oxidierende Archaea, die ebenfalls in diversen anaeroben Habitaten gefunden werden. Von besonderer Bedeutung sind solche, in Meeressedimenten lebende Archaea, die 90% des dort von methanogenen Archaea erzeugten Methans konsumieren und damit das Entweichen des Treibhausgases in die Atmosphäre kontrollieren.

Archaea, die Ammoniak (NH3) oxidieren (Thaumarchaeota) wurden relativ spät entdeckt, gehören aber zu den häufigsten und am weitesten verbreiteten Mikroorganismen und sind in allen terrestrischen und aquatischen Habitaten anzutreffen. Mit ihrer Fähigkeit, reduzierten Stickstoff in eine oxidierte Form umzuwandeln, spielen sie zusammen mit den Proteobakterien eine eminent wichtige Rolle im globalen Stickstoffkreislauf. Dabei wird Ammoniak zu Nitrit (NO2) umgesetzt. Andere Mikroorganismen in den Böden oxidieren Nitrit weiter zu Nitrat (NO3), das von Pflanzen leicht aufgenommen wird und für deren Stickstoffversorgung wichtig ist.

Lokiarchaea – Entdeckung der nächsten Verwandten der Eukaryoten

In der Nähe eines unwirtlichen, hydrothermal aktiven Feldes – „Loki’s Castle“ wurde in marinen Sedimenten eine neue Gruppe von Archaea entdeckt. Der Fundort - zwischen Norwegen und Grönland in 3000 m Tiefe auf dem mittelatlantischen Rücken (Abbildung 2) - ist starken geochemischen Veränderungen unterworfen: es driften die eurasische und die nordamerikanische Platte auseinander. Dort existierende Organismen müssen sich fortwährend an die extremen Bedingungen und raschen Umgestaltungen der Habitate anpassen – dies ist eine Antriebskraft der Evolution. Abbildung 2. Der Fundort Loki’s Castle. Links: liegt auf dem arktischen mittelatlantischen Rücken, dem Zusammenstoß der Eurasischen und Nordamerikanischen Platten (roter Kreis). Rechts: Ein Schlot des hydrothermalen Feldes – austretendes Wasser erreicht Temperaturen von 300 °C -, davor ein ferngesteuerter Probennehmer. (Bilder: Wikipedia) Im übrigen: Namensgebend für den unwirtlichen Ort war Loki, ein zwielichtiger Gott der nordischen Mythologie, dessen Kinder Hel, Fenriswolf und Midgardschlange der Welt feindlich gesinnt sind.

In den, nach dem Fundort benannten Lokiarchaea wurden nun zum ersten Mal Charakteristika entdeckt, die diese Zellen als Zwischenstufe in der Evolution von Prokaryoten zu eukaryotischen Zellen erkennen lassen.

Was unterscheidet Lokiarchaea von den bis jetzt bekannten Gruppen?

Wenn Lokiarchaea (Lokis) auch bis jetzt noch nicht in Kultur gebracht und untersucht werden konnten, so erlaubt die Analyse des Genoms einer Spezies wesentliche Aussagen, nämlich:

  1. Lokis sind offensichtlich wesentlich komplexer aufgebaut als alle bis jetzt bekannten Arten der Archaea und
  2. neben Archaea-Genen und solchen, die über „horizontalen Gentransfer“ von Bakterien übertragen wurden, kodiert ein wesentlicher Anteil ihres Erbmaterials für Proteine, die zuvor nur bei Eukaryoten bekannt waren. Es sind dies insgesamt 157 Proteine. Darunter finden sich:
    • Strukturproteine - homologe Formen von Aktin und Gelsolin eukaryotischer Zellen, die in diesen ein Netzwerk (Cytoskelett) bilden und essentielle Rollen u.a. in Prozessen der Zellteilung, Zellmotilität, intrazellulären Transportprozessen und der Aufnahme von Partikeln in die Zelle(Endocytose, Phagocytose) spielen.
    • Proteine, die in eukaryotischen Zellen Schlüsselpositionen in der Signalübertragung innehaben, die zelluläre Prozesse an- oder abschalten, den Transport von intrazellulären Vesikeln bewerkstelligen können. Rund 2 % des Lokigenoms enthält derartige, der Ras-Familie zugehörige G-Proteine.
    • Proteine, die den Membranumbau bewerkstelligen.
    • Proteine, die den Abbau beschädigter oder überflüssiger Proteine bewirken.

Schlussfolgerungen

Lokiarchaea besitzen offensichtlich bereits die Urform einer Maschinerie, die sie möglicherweise dazu befähigen kann Membranen im Zellinneren zu Vesikeln zu formen, d.i. Kompartimente/Organellen zu schaffen und von außen Material aufzunehmen (durch Endocytose, Phagocytose). Dies wäre auch die Voraussetzung, dass u.a. Proteobakterien inkorporiert werden konnten, die sich dann zu Mitochondrien, den Kraftwerken der Zellen, entwickelten.

Mit dem Auffinden von Loki ist die Lücke im Übergang von Prokaryoten zu Eukaryoten kleiner geworden, da sie die nächsten lebenden Verwandten der Eukaryoten sind. Eine wesentliche Erkenntnis hieraus ist auch, dass Eukaryoten als „Schwesterlinie“ der Lokiarchaea direkt aus einem Ur-Archaeon entstanden sind, das bereits wesentliche Merkmale höherer Zellen entwickelt haben könnte. Der Stammbaum des Lebens hätte also 2 Äste (und nicht 3, wie man früher annahm): die der Bakterien und der Archaea; aus den Letzteren sind dann durch Aufnahme von Bakterien die Eukaryoten entstanden (Abbildung 3).

Abbildung 3. Der Stammbaum des Lebens. Ausgehend von der Urzelle hat sich der Ast der Bakterien (grüne Linien) unabhängig vom Ast der Archaea (rote Linien) entwickelt. Eukaryoten (orange), aus denen alle höheren Organismen hervorgingen, sind durch Aufnahme von Bakterien in eine Archaea Mutterzelle entstanden. (Die Buchstaben T, A,C, K und E stehen für: Thaumarchaeota, Aigarchaeota, Crenarchaeota, Korarchaeota und Euryarchaeota.).

Eine ungeheure Fülle und Diversität an Archaea ist bis jetzt noch nicht untersucht worden. Die Methoden stehen nun zur Verfügung. Es erscheint sehr plausibel, dass dabei Stämme entdeckt werden, die noch näher mit Eukaryoten verwandt sind, die es erlauben das Rätsel der Entstehung von Eukaryoten zu lösen.


*A.Spang et al., Complex archaea that bridge the gap between prokaryotes and eukaryotes. Nature 521, 173–179 (14 May 2015) doi:10.1038/nature14447 Homepage: http://genetics-ecology.univie.ac.at/


Weiterführende Links:

Verwandte Themen in ScienceBlog.at:

inge Fri, 19.06.2015 - 00:08

Von der Natur abgeschaut – das Austrian Center of Industrial Biotechnology (acib)

Von der Natur abgeschaut – das Austrian Center of Industrial Biotechnology (acib)

Fr, 12.06.2015 - 07:00 — Thomas Stanzer Thomas StanzerIcon MINTWie macht man industrielle Verfahren umweltfreundlicher und gleichzeitig wirtschaftlicher? Rund 200 Beschäftigte mit bis zu 30 Jahren Erfahrung in industrieller Biotechnologie forschen dazu am Austrian Center of Industrial Biotechnology (acib)*an mehr als 50 Projekten. Der Biochemiker Thomas Stanzer – zuständig für die Unternehmenskommunikation am acib - zeigt an Hand repräsentativer Beispiele, wie Methoden der Natur als Vorbild genutzt und daraus Technologien entwickelt werden, die unser aller Leben lebenswerter machen können.

Biologischer Pflanzenschutz

Das Übel kommt heimlich und ist erst kurz vor der Ernte sichtbar: Bei der späten Rübenfäule befallen Pilze Rüben oder Mais im Wurzelbereich unter der Erde. Die Fäulnis arbeitet sich von unten und innen vor, bis sie im Herbst sichtbar wird. Die Ernte ist dahin. Jahr für Jahr berichten Medien über Ernteausfälle, weil Nutzpflanzen trotz des Einsatzes vom Spritzmitteln von Schädlingen befallen werden. Oder weil Nützlinge wegen der Spritzmittel sterben, wie beispielsweise Bienen durch Neonicotinoide.

Das müsste nicht sein.

acib-Forscherin Christin Zachow arbeitet am biologischen Pflanzenschutz – zusammen mit Gabriele Berg (TU Graz), einer Vorreiterin in diesem Forschungsfeld. Ziel des biologischen Pflanzenschutzes ist es Mikroorganismen (Bakterien) zu Leibwächtern für Nutzpflanzen wie Mais, Raps, Tomate, Hirse oder die Zuckerrübe zu machen. Dazu werden spezielle, an extremen Standorten vorkommende, Bakterien zusammen mit der Pflanzensaat am Acker ausgebracht. Während die Saat keimt, vermehren sich gleichzeitig die Mikroorganismen, versorgen die Pflanze mit Nährstoffen, fördern deren Wachstum, wehren Schädlinge ab, verringern den Stress für die Nutzpflanze und erhöhen deren Widerstandsfähigkeit. Spritzmittel braucht man quasi nicht mehr. Die Lebensmittel wachsen besser und sind auch noch gesünder. Ein sehr positive Nebeneffekt dieser Methode: Die Bakterienmischungen regenerieren belastete Böden.

Biotechnologische Produktionssysteme

Ein Forschungsschwerpunkt in Wien widmet sich dem Verbessern biotechnologischer Produktionssysteme. Die Industrie verwendet Bakterien wie Escherichia coli, Hefen wie Pichia pastoris oder die Eizellen des chinesischen Hamsters (CHO-Zellen) als Fabriken, um verschiedenartigste Produkte herzustellen. Das können Enzyme sein, die später in der chemischen Industrie zum Einsatz kommen, oder auch therapeutische Antikörper und andere Proteine, wie sie beispielsweise in der Behandlung von Krebserkrankungen angewandt werden. Beim acib werden Bakterien, Hefen oder auch Hamsterzellen an die jeweiligen Anforderungen angepasst, denn jedes Produkt braucht sozusagen seine eigene Zelle. In einem dieser Projekte geht es etwa um eine Produktionsplattform zur Herstellung von Enzymen, mit denen sich Pilzgifte – Mykotoxine - abbauen lassen. Das ist beispielweise für die Tierernährung besonders wichtig, weil Futter immer wieder mit derartigen Giften belastet ist. Das kann nicht nur für Nutztiere tödlich enden, die Gifte können über die Nahrungskette auch uns Menschen gefährden. Der Zusatz geeigneter (kostengünstiger) Enzyme zum Futter macht derartige Mykotoxine unschädlich.

Enzymatische Synthesen

Enzyme sind überhaupt ein Schwerpunkt beim acib. Diese Werkzeuge der Natur im Mikroformat zeichnen sich dadurch aus, dass sie chemische Umsetzungen präzise abwickeln und dies bei Raumtemperatur und in wässrigen Umgebungen. Ersetzt man also die klassische chemische Synthese durch enzymatische Biokatalyse, so spart das Energie und problematische Lösungsmittel und verbessert die Ausbeute der Reaktion. Erfolge werden in der Entwicklung neuer (mehrstufiger) biokatalytischer Reaktionswege erzielt: so ist es einem Team in Graz gelungen, Kohlendioxid (CO2) als Rohstoff zu verwenden und daraus biokatalytisch Salicylsäure herzustellen – die Vorstufe der Acetylsalicylsäure, dem Wirkstoff in Aspirin. Das Projekt schlägt quasi zwei Fliegen auf einen Streich, weil einmal das Klimagas CO2 zum Rohstoff wird – recycelt wird - und zum anderen ein wertvolles Produkt entsteht.

Bioreaktoren im LabormaßstabOptimieren eines Produktionsprozesses mit Bioreaktoren im Labormaßstab

Recyceln von Kunststoff

Enzyme sind es auch, die beim Abbau von Kunststoffen helfen. 250 Millionen Tonnen Plastik werden pro Jahr hergestellt. Das meiste ist nicht abbaubar, belastet die Umwelt über Jahrzehnte oder wird verbrannt. Eine Forschungsgruppe am acib hat mit Hilfe von Enzymen den weltweit am häufigsten verwendeten Kunststoff Polyethylentherephthalat (PET) in seine Ausgangsbausteine zerlegt, die als Rohstoffe für die Erzeugung neuer funktioneller Materialien dienen. Mit Hilfe des patentierten Verfahrens lassen sich zB Getränkeflaschen aus PET recyceln.

Ein acib-Team in Tulln arbeitet auch an neuen, biologischen Kunststoffen, die in einer Kläranlage innerhalb eines Tages abgebaut werden können.

Biosprit 2.0

Unter Biosprit im klassischen Sinn versteht man Bioethanol, das aus Getreide gewonnen wird. Das acib beteiligt sich am Entwickeln alternativer Methoden, d.h. Methoden, die ohne den Einsatz von Lebensmitteln auskommen. Basis für „Biosprit 2.0“ sind landwirtschaftliche Abfälle, etwa das fein gehäckselte Stroh, das nach der Getreideernte übrig bleibt. Geeignete Enzyme aber auch intakte Mikroorganismen können daraus Biosprit machen. Eine andere Rohstoffquelle sind Energiegräser wie Miscanthus: diese Pflanze nimmt keiner Kulturpflanze Platz weg, weil sie sehr anspruchslos ist und in Bereichen wachsen kann, in denen Lebensmittelpflanzen kaum noch gedeihen. Nichtsdestoweniger enthält Miscanthus viel wertvolle Cellulose, aus der Zucker und letztendlich Biosprit entstehen kann.

Große Fermenter für große ProduktmengenVom Labor ins Technikum : Große Fermenter für große Produktmengen

Enzym-Google

Enzyme gewinnen immer mehr Bedeutung in industriellen Verfahren und es werden laufend neue, noch nicht beschriebene Enzymfunktionen benötigt. Die Suche nach geeigneten Enzymen für derartige Funktionen war bis jetzt äußerst aufwendig, vergleichbar mit der Suche nach der Nadel im Heuhaufen. acib-Forscher in Graz haben nun eine Internet-Suchmaschine – das Catalophor System – entwickelt, das von den angenommenen Strukturmerkmalen in und um das aktive Zentrum eines gesuchten Enzyms ausgeht. Damit durchforstet dieses „Enzym-Google“ zur Zeit rund 100.000 Datenbankeinträge von Enzymstrukturen nach Ähnlichkeiten und listet mögliche Kandidaten auf. Die vielversprechendsten Kandidaten können dann biotechnologisch hergestellt und auf die gewünschte Funktion experimentell geprüft werden. Die Datenbank erweitert sich selbständig, durchsucht öffentlich zugängliche Datenbanken nach neuen Enzymstrukturen. Das Projekt hat 2014 den Innovationspreis bei der er weltgrößten Messe für die chemische und Pharmaindustrie (CPhI: Convention of Pharmaceutical Ingredients) gewonnen.

Über das acib

Die genannten Beispiele sind eine Auswahl aus mehr als 50 Forschungsprojekten, die derzeit am acib zusammen mit internationalen Partnern aus Wissenschaft und Wirtschaft abgewickelt werden. Das acib

  • gibt es als öffentlich gefördertes Kompetenzzentrum seit 2010 mit dem Ziel, die Forschung in industrieller Biotechnologie in Österreich zu bündeln und ein Zentrum von internationalem Gewicht zu schaffen.
  • entwickelt neue, umweltfreundlichere und ökonomischere Prozesse für die Industrie (Biotech, Chemie, Pharma) und verwendet dafür die Methoden der Natur als Vorbild und Werkzeuge der Natur als Hilfsmittel.
  • beschäftigt rund 200 Personen mit bis zu 30 Jahren Erfahrung in industrieller Biotechnologie.
  • verzeichnet bereits mehr als 1100 Publikationen und Konferenzbeiträge und mehrere Dutzend Patente und Erfindungen.

Mit Standorten in Graz, Wien, Innsbruck, Tulln, Hamburg, Heidelberg und Bielefeld (D), Pavia (I) und Barcelona (E) ist das acib ein Netzwerk von 130+ internationalen Projektpartnern, darunter BASF, DSM, Sandoz, Boehringer Ingelheim RCV, Jungbunzlauer, voestalpine, VTU Technology und Clariant.

Eigentümer sind die Universitäten Innsbruck und Graz, die TU Graz, die Universität für Bodenkultur Wien sowie Joanneum Research.

Öffentliche Fördermittel bekommt das acib von der nationalen Forschungsförderung. Es wird im Rahmen von COMET – Competence Centers for Excellent Technologies - durch das BMVIT, BMWFW sowie die Länder Steiermark, Wien, Niederösterreich und Tirol gefördert. Das Programm COMET wird durch die FFG abgewickelt. In der ersten, bis Ende 2014 laufenden Förderperiode funktionierte das mit einem Budget von rund 60 Mio Euro (die Hälfte davon sind öffentliche Förderungen, die andere Hälfte kommt von den Industriepartnern) so gut, dass das Budget für die zweite, bis Ende 2019 laufende Förderperiode auf 65 Mio Euro aufgestockt wurde.


* Austrian Center of Industrial Biotechnology (acib) homepage: www.acib.at


Weiterführende Links

acib -- Innovationen aus der Natur. Video 3:35 min. https://www.youtube.com/watch?v=_FVa2glNTl4
Take Tech 2014 - ACIB GmbH. Video 2:17 min. https://www.youtube.com/watch?v=8PKu8Vaky80
acib - innovations on video Video 2:02 min https://www.youtube.com/watch?v=fD4hapu0Gwo
Höhepunkte der industriellen Biotechnologie Video 2:45 min. https://www.youtube.com/watch?v=q56-lIr9D-Q

inge Fri, 12.06.2015 - 07:00

Artenvielfalt und Artensterben

Artenvielfalt und Artensterben

Fr, 05.06.2015 - 07:36 — Frank Stollmeier Frank StollmeierIcon MINT

Die heutige Artenvielfalt ist das Resultat eines langen Prozesses aus Entstehung und Aussterben von Arten. Der Verlauf dieses Prozesses lässt sich mithilfe von Fossiliendatenbanken nachvollziehen. Ein neues mathematisches Modell des Netzwerkes von Abhängigkeiten zwischen den Arten hilft, die Mechanismen dieses Prozesses besser zu verstehen. Der Physiker Frank Stollmeier (Max-Planck Institut für Dynamik und Selbstorgansisation) zeigt an Hand des Modells, unter welchen Bedingungen das Aussterben einzelner Arten ein Massenaussterben auslösen kann und weshalb die Artenvielfalt im Meer und auf dem Land einem qualitativ unterschiedlichen Wachstum folgt.*

Etwa 20 bis 40 Prozent der heute bekannten Arten gelten als vom Aussterben bedroht. Ihr Aussterben würde unseren Lebensraum dramatisch verändern. Diese bedrohten Arten leben natürlich nicht jede für sich allein, sondern sind Teil eines komplexen Ökosystems. Das Überleben einer Tierart kann beispielsweise davon abhängig sein, dass es bestimmte Beutetiere gibt, welche wiederum von bestimmten Futterpflanzen abhängen, deren Verbreitung von bestimmten Vögeln oder Insekten abhängt, und so weiter. Es gibt nur wenige Arten, die nicht in irgendeiner Weise von anderen Arten abhängig sind. Das bedeutet, dass zu den 20 bis 40 Prozent bedrohter Arten noch einmal eine unbekannte Zahl indirekt bedrohter Arten hinzukommt. Wie häufig führt das Aussterben einer Art zum Aussterben einer anderen Art? Könnte das Verschwinden einer einzelnen Art eine ganze Kettenreaktion von aussterbenden Arten auslösen?

Wenn wir das ganze Netzwerk von Abhängigkeiten zwischen den Arten kennen würden, ließen sich diese Fragen leicht beantworten. Davon sind wir allerdings weit entfernt. Die allermeisten der heute lebenden Arten sind noch gänzlich unbekannt. Und selbst die wenigen intensiv erforschten Arten sind erst seit Jahren oder einigen Jahrzehnten unter systematischer Beobachtung, was für Aussterbeprozesse ein vergleichsweise kurzer Zeitraum ist.

Um etwas über das Netzwerk von Abhängigkeiten zu lernen sind die bereits ausgestorbenen Arten besser geeignet als die heute lebenden. Es gibt Datenbanken ausgestorbener Arten, die erstellt wurden indem Tausende von Fossilienfunden nach ihrer jeweiligen Familie, Gattung und Art klassifiziert und auf ihre Entstehungszeit datiert wurden. Dies ermöglicht einen Beobachtungszeitraum von mehreren hundert Millionen Jahren. Natürlich sind auch diese Beobachtungen unvollständig, da nur von einem Bruchteil der jemals existierten Arten Fossilien gefunden wurden. Deshalb wird die Anzahl der Familien als ein Indikator für die Anzahl der Arten benutzt. Bei den Familien kann man davon ausgehen, dass diese fast vollständig erfasst sind und ihre Anzahl mit der Anzahl der Arten korreliert.

Aussterbeereignisse

Ein bekanntes Phänomen, das mithilfe der Fossiliendaten untersucht werden kann, sind die Aussterbeereignisse (Abb. 1). Bei den fünf größten Massenaussterben sind jeweils mehr als drei Viertel aller Arten ausgestorben.

Anteil ausgestorbener Gattungen an der gesamten ArtenvielfaltAbbildung 1. Die Grafik zeigt den Anteil ausgestorbener Gattungen an der gesamten Artenvielfalt eines Zeitintervalls in Prozent. Die Markierungen zeigen auf die fünf größten Massenaussterben in der Erdgeschichte. © Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Als naheliegende Erklärung für solche Ereignisse werden oft Naturkatastrophen globalen Ausmaßes genannt, z. B. Vulkanausbrüche, Meteoriteneinschläge oder ein plötzlicher Klimawandel. Allerdings hat es in der Erdgeschichte viele Katastrophen gegeben und nicht jedes Aussterbeereignis lässt sich eindeutig einer bestimmten Katastrophe zuordnen. Eine alternative Erklärung geht davon aus, dass die Anzahl der aussterbenden Arten weniger von der Intensität äußerer Einflüsse als von einer internen Dynamik, also den Abhängigkeiten zwischen den Arten, abhängt. Ein Aussterben einzelner Arten durch veränderte Umweltbedingungen könnte auf die direkt betroffenen Arten beschränkt bleiben oder aber Auslöser eines großen Aussterbeereignisses sein. Die in Abbildung 1 gezeigte Abfolge von Aussterbeereignissen kann demnach als ein Resultat eines Netzwerkprozesses angesehen werden.

In unserer im Juni 2014 veröffentlichten Arbeit**) wurde erstmals ein Modell vorgestellt, das mit nur wenigen, biologisch plausiblen Annahmen mehrere statistische Eigenschaften der Fossiliendaten reproduzieren kann. Das Modell geht davon aus, dass Arten ein bestimmtes Risiko haben durch äußere Umwelteinflüsse auszusterben. Das Aussterben hat zur Folge, dass auch alle Arten aussterben, die von der betroffenen Art abhängig waren. Weiterhin gibt es eine bestimmte Wahrscheinlichkeit, mit der sich aus einer bestehenden Art eine neue Art entwickelt. Eine neu entstehende Art kann von einer der bestehenden Arten abhängig sein. Abbildung 2 zeigt eine schematische Darstellung des Modells.

Schematische Illustration eines Zeitschritts des ModellsAbbildung 2. Schematische Illustration eines Zeitschritts des Modells. Die Punkte stehen für Arten und die Pfeile zeigen die Abhängigkeiten untereinander an. Neu entstehende Arten sind grün und aussterbende Arten rot eingefärbt.© Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Beginnend von einer oder wenigen Arten baut sich in dem Modell mit der Zeit ein immer größeres Netzwerk von Abhängigkeiten auf. Das Interessante an diesem Prozess ist, dass das Netzwerk während es wächst eine bestimmte Form beizubehalten versucht. Wenn es viele Arten gibt, die von wenigen Arten abhängig sind, ist das Netzwerk nicht stabil und häufige große Aussterbeereignisse sind die Folge. Wenn es dagegen wenige Arten gibt, die von vielen verschiedenen Arten abhängig sind, ist das Netzwerk stabil. Die Aussterbeereignisse fallen dann kleiner aus, wodurch das Netzwerk schneller wächst und sich wieder in Richtung instabilen Zustand bewegt. Durch diese entgegengesetzt wirkenden Mechanismen wird sich das Abhängigkeitsnetzwerk unabhängig von den Anfangsbedingungen immer einem bestimmten Zustand annähern, der sich durch ein bestimmtes Verhältnis von abhängigen und unabhängigen Arten auszeichnet. Bemerkenswerterweise geschehen in dem Modell in genau diesem Zustand Aussterbeereignisse deren Häufigkeitsverteilung vergleichbar ist mit den in Abbildung 1 gezeigten Aussterbeereignissen aus den Fossiliendaten.

Das Wachstum der Vielfalt im Meer und an Land

Neben einer Beschreibung für Aussterbeereignisse bietet das Modell auch eine ganz neue Erklärung für eine Beobachtung, die seit Verfügbarkeit der Fossiliendaten für Diskussionen sorgt. Aus den Fossiliendaten lässt sich die Anzahl der zu einer bestimmten Zeit existierenden Familien bestimmen und dadurch die Entwicklung der Artenvielfalt über mehr als 500 Millionen Jahre rekonstruieren (Abb. 3). Lassen sich diese Kurven als einfache Wachstumsprozesse beschreiben?

Aus Fossiliendaten rekonstruierte Entwicklung der Anzahl von Familien auf der ErdeAbbildung 3. Die Grafik zeigt die aus Fossiliendaten rekonstruierte Entwicklung der Anzahl von Familien auf der Erde. Die großen Massenaussterben sind hier nur als kleine Einbrüche zu erkennen, weil bei diesen trotz sehr vieler Arten nur wenige komplette Familien ausgestorben sind. © Max-Planck-Institut für Dynamik und Selbstorganisation / Stollmeier

Die meisten vorgeschlagenen Modelle für das Wachstum lassen sich auf zwei Hypothesen zurückführen. Da neue Arten aus bestehenden Arten entstehen, ist die eine Hypothese ein exponentielles Wachstum. Dem gegenüber steht die Hypothese vom logistischen Wachstum, bei dem die Vielfalt nach anfänglichem Wachstum eine Sättigung erreichen würde, weil der Platz, die Energie und andere Ressourcen auf der Erde begrenzt sind.

Schaut man zunächst nur die Entwicklung der Artenvielfalt auf den Kontinenten an, dann scheint das exponentielle Wachstum dafür eine gute Beschreibung zu sein. Bei der Kurve für die Vielfalt im Meer sieht man aber nach einem anfänglichen Wachstum einen bemerkenswert langen Zeitraum von über 200 Millionen Jahren in dem sich die Vielfalt kaum verändert hat oder sogar leicht gesunken ist. Dies lässt sich mit exponentiellem Wachstum kaum vereinbaren, es passt eher zur Sättigung eines logistischen Wachstums. Dann bleiben aber zwei Fragen ungeklärt: Warum beginnt die Vielfalt im Meer nach diesem Zeitraum der Sättigung wieder zu wachsen? Und was ist der Grund dafür, dass die Vielfalt im Meer von der auf dem Land ein so unterschiedliches Wachstum aufweist?

Mit dem vorgestellten Modell lassen sich beide Kurven erklären ohne zwei voneinander verschiedene Prozesse anzunehmen. Ob die Anzahl der Arten annähernd exponentiell wächst oder ein exponentielles Wachstum durch längere Phasen der Stagnation unterbrochen wird, hängt in dem Modell nur von einem Parameter ab. Dieser Parameter ist die relative Aussterbewahrscheinlichkeit, definiert als das Verhältnis der Wahrscheinlichkeit, dass eine Art ausstirbt, zu der Wahrscheinlichkeit, dass aus einer bestehenden Art eine neue Art entsteht. Ist die Wahrscheinlichkeit auszusterben deutlich kleiner als die Wahrscheinlichkeit neue Arten zu bilden, bleibt das Abhängigkeitsnetzwerk in einem stabilen Zustand und die Artenvielfalt wächst exponentiell. Ist die Wahrscheinlichkeit auszusterben fast so groß wie die Wahrscheinlichkeit neue Arten zu bilden, kann das Netzwerk plötzlich instabil werden. In diesem Zustand sind viele Arten von wenigen abhängig, wodurch es vermehrt zu großen Aussterbeereignissen kommt. Dadurch ist die Aussterberate erhöht und somit das Wachstum gehemmt solange bis das Übermaß an abhängigen Arten abgebaut wurde und das Netzwerk damit in einen stabilen Zustand zurückgekehrt ist.

Diese Erklärung für das unterschiedliche Wachstum im Meer und an Land setzt voraus, dass die relative Aussterbewahrscheinlichkeit im Meer kleiner ist als an Land. Mithilfe der Fossiliendaten konnte dieser Unterschied bestätigt werden.

Mit einem solchen Modell lassen sich weder Aussterbeereignisse noch der weitere Verlauf der Artenvielfalt vorhersagen. Aber es kann dazu beitragen eine Vorstellung davon zu bekommen, wie die Arten voneinander abhängig sind und nach welchen Mechanismen sich dieses Netz entwickelt, was eine notwendige Voraussetzung dafür sein wird, das heute zu beobachtende Artensterben zu verstehen.


*) Der im Jahrbuch der Max-Planck Gesellschaft MPF 4/13 online erschienene Artikel http://www.mpg.de/8880580/MPIDS_JB_2015 wurde mit freundlicher Zustimmung der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel wird hier in voller Länge, aber ohne Literaturzitate wiedergegeben. **) Stollmeier, F.; Geisel, T.; Nagler, J. Possible Origin of Stagnation and Variability of Earth’s Biodiversity. Physical Review Letters 112, 228101 (2014)

inge Fri, 05.06.2015 - 07:36

Der Wiener Kreis – eine wissenschaftliche Weltauffassung

Der Wiener Kreis – eine wissenschaftliche Weltauffassung

Fr, 29.05.2015 - 07:22 — Karl Sigmund

Karl SigmundIcon WissenschaftsgeschichteIm Wien der Zwischenkriegszeit bildete sich ein interdisziplinärer Zirkel aus namhaften Mathematikern, Naturwissenschaftern und Philosophen, deren zentrales Thema eine rational-empirisch geprägte, antimetaphysische Weltsicht war. Dieser „Wiener Kreis“ hatte massiven Einfluss auf das Geistesleben und die Sozialgeschichte des 20.Jahrhunderts und legte ebenso den Grundstein für neue Forschungsbereiche, vor allem in der Mathematik und Informatik. Zum „Wiener Kreis“ findet im Rahmen des 650-Jahre Jubiläums der Universität Wien eine Ausstellung statt [1]. Kurator dieser Ausstellung ist der Mathematiker Karl Sigmund, der sich seit seiner Jugendzeit mit dem Wiener Kreis beschäftigt und darüber ein Buch „Sie nannten sich Der Wiener Kreis“ verfasst hat [2]. Aus diesem, eben erschienenen Buch hat er freundlicherweise den nachfolgenden Artikel dem ScienceBlog zur Verfügung gestellt.

Im Jahr 1924 gründen ein Philosoph, Moritz Schlick, ein Mathematiker, Hans Hahn, und ein Sozialreformer, Otto Neurath, einen philosophischen Zirkel in Wien. Moritz Schlick und Hans Hahn sind Professoren an der Universität Wien, Otto Neurath Direktor des Wiener Gesellschafts- und Wirtschaftsmuseums.

Ab 1924 trifft sich der Zirkel regelmäßig an Donnerstagabenden in einem kleinen Hörsaal in der Boltzmanngasse (Mathematisches Seminar, Universität Wien), um philosophische Fragen zu diskutieren:

Wodurch zeichnet sich wissenschaftliche Erkenntnis aus?

Haben metaphysische Aussagen einen Sinn?

Worauf beruht die Gewissheit von logischen Sätzen?

Wie ist die Anwendbarkeit der Mathematik zu erklären?

„Die wissenschaftliche Weltauffassung“, so verkündet das Manifest des Wiener Kreises, „ist nicht so sehr durch eigene Thesen charakterisiert, als vielmehr durch die grundsätzliche Einstellung, die Gesichtspunkte, die Forschungsrichtung.“ (Abbildung 1)

Der Wiener Kreis erstmals im DruckAbbildung 1. Der Wiener Kreis erstmals im Druck Der Zirkel will wissenschaftlich philosophieren, ohne Gerede von unergründlicher Tiefe und bedeutungsschwangerer Weltabgewandtheit:

„In der Wissenschaft gibt es keine ‚Tiefen‘: Überall ist Oberfläche: Alles Erlebte bildet ein kompliziertes, nicht immer überschaubares, oft nur im einzelnen fassbares Netz. Alles ist dem Menschen zugänglich; und der Mensch ist das Maß aller Dinge.“

Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig Boltzmann, zwei Physikern, die um die Jahrhundertwende an der Universität Wien Philosophie gelehrt haben. Vorbilder des Wiener Kreises sind der Physiker Albert Einstein, der Mathematiker David Hilbert und der Philosoph Bertrand Russell.

Bald werden die Diskussionen des Wiener Kreises durch den kurz zuvor erschienenen Tractatus logico-philosophicus dominiert, ein Büchlein, das Ludwig Wittgenstein während des Ersten Weltkriegs als Frontoffizier geschrieben hat. Wittgenstein hat sich nach dem Krieg von seinem riesigen Erbe getrennt und lebt als Volksschullehrer in Niederösterreich. Durch die Gespräche mit ausgewählten Mitgliedern des Wiener Kreises kehrt er allmählich wieder zur Philosophie zurück.

Aus dem Vorwort des Tractatus logico-philosophicusAbbildung 2. Aus dem Vorwort des Tractatus logico-philosophicus Mit angestaubten philosophischen Lehrmeinungen will der Wiener Kreis nichts zu tun haben:

„Die wissenschaftliche Weltauffassung kennt keine unlösbaren Rätsel. Die Klärung der traditionellen philosophischen Probleme führt dazu, dass sie teils als Scheinprobleme entlarvt, teils in empirische Probleme umgewandelt und damit dem Urteil der Erfahrungswissenschaft unterstellt werden. In dieser Klärung von Problemen und Aussagen besteht die Aufgabe der philosophischen Arbeit, nicht aber in der Aufstellung eigener ‚philosophischer‘ Aussagen.“

Zum Wiener Kreis stößt glänzender Nachwuchs, wie etwa der Philosoph Rudolf Carnap, der Mathematiker Karl Menger oder der Logiker Kurt Gödel, der das Grenzgebiet zwischen Mathematik und Philosophie entscheidend prägen wird. Auch Karl Popper ist eng mit dem Wiener Kreis verbunden, obwohl er nie zu den Sitzungen eingeladen wird. (Abbildung 3).

Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig BoltzmannAbbildung 3. Der Wiener Kreis steht in der Tradition von Ernst Mach und Ludwig Boltzmann

Rasch wird der Zirkel zur Hochburg des Logischen Empirismus. Führende Köpfe in Prag, Berlin, Warschau, Cambridge und Harvard greifen die Themen auf. Ab 1929 tritt der Zirkel an die Öffentlichkeit, über eigene Zeitschriften, Tagungen, Bücher und Vorlesungsreihen. Am Beginn dieser Phase steht ein Manifest:

Die Wissenschaftliche Weltauffassung (Abbildung 1) ist kein Gründungsdokument – den Schlick-Zirkel gibt es bereits seit fünf Jahren –, aber so etwas wie ein Taufschein. Der von Neurath vorgeschlagene Name „Wiener Kreis“ ist neu. Er soll positive Assoziationen wecken (wie „Wiener Wald“ oder „Wiener Walzer“). Die Schrift dient als Manifest, nicht nur für eine philosophische Schule, sondern für eine gesellschaftspolitische Ausrichtung. “Die wissenschaftliche Weltauffassung dient dem Leben und das Leben nimmt sie auf.“

Die Verfasser des Manifests gehören zum linken Flügel der Gruppe und machen kein Hehl aus ihrer Absicht, die Gesellschaft zu reformieren. Der von Mitgliedern des Wiener Kreises im Jahr 1928 gegründete Verein Ernst Mach widmet sich der „Verbreitung der wissenschaftlichen Weltauffassung“ und engagiert sich an der Seite des sozialdemokratischen Roten Wien im politischen Kampf um die Stadt, besonders im Bildungs- und Siedlungsbereich.

Rasch werden der Wiener Kreis und der Verein Ernst Mach zum roten Tuch für die antisemitischen und reaktionären Strömungen an der Universität Wien. Das politische Umfeld wird zunehmend feindselig. In dieser zweiten, öffentlichen Phase kommt es zur schrittweisen Auflösung des Wiener Kreises.

Carnap zieht als Professor nach Prag, Wittgenstein nach Cambridge. Neurath kann nach dem Bürgerkrieg von 1934 österreichischen Boden nicht mehr betreten. Hahn stirbt im selben Jahr unerwartet an den Folgen einer Krebsoperation. Gödel muss sich mehrfach in Nervenheilanstalten zurückziehen. Schlick wird 1936 im Hauptgebäude der Universität von einem ehemaligen Studenten erschossen. Menger und Popper emigrieren bald darauf, angewidert von der öffentlichen Stimmung. Die meisten Mitglieder des Wiener Kreises verlassen Wien, noch bevor es zu den sogenannten Säuberungen nach dem „Anschluss“ kommt. Als Nachzügler gelangt Gödel im Kriegsjahr 1940 über die Sowjetunion und Japan in die USA.

Emigration und Internationalisierung gehen Hand in Hand. Der inzwischen weltbekannte Wiener Kreis verliert seine Wiener Wurzeln.

In der Nachkriegszeit kann der Wiener Kreis in Wien nicht mehr Fuß fassen. Doch bleibt er weiter weltweit wirksam, und ist aus der Geistesgeschichte des zwanzigsten Jahrhunderts nicht wegzudenken. Er hat so diverse Fächer wie die analytische Philosophie, die formale Logik, die Quantenphysik und die Wirtschaftswissenschaften beeinflusst. So lassen sich etwa die Computeralgorithmen, die heute unser Leben bestimmen, in direkter Linie auf die Untersuchungen Kurt Gödels über Logik und Berechenbarkeit zurückführen; und die Symbole, die auf allen Flughäfen der Welt die Besucherströme lenken, leiten sich von Otto Neuraths Bildersprache her.

Mord und Selbstmord, Liebschaften und Nervenzusammenbrüche, politische Verfolgungen und Vertreibung haben alle ihren Platz in der schillernden Geschichte des Wiener Kreises, doch den roten Faden bilden die geistigen Auseinandersetzungen. Der Zirkel verwirklicht keineswegs das von einigen angestrebte „denkerische Kollektiv“. Die handelnden Personen verfolgen gemeinsame Ziele, doch ihre Beziehungen werden von leidenschaftlichen Kontroversen geprägt.

Karl Sigmund führt durch die AusstellungAbbildung 4. Karl Sigmund (im Vordergrund) führt durch die Ausstellung.

Am Anbeginn steht, an der Schwelle zum zwanzigsten Jahrhundert, eine vielbeachtete Auseinandersetzung zwischen Mach und Boltzmann im Sitzungssaal der Wiener Akademie der Wissenschaften zur Frage: „Gibt es Atome?“

Am Ende steht, kurz nach dem zweiten Weltkrieg, ein erbitterter Streit zwischen Popper und Wittgenstein bei einem Kamingespräch in Cambridge um die Frage: „Gibt es philosophische Probleme?“

Im knappen halben Jahrhundert zwischen diesen beiden Disputen spielt Wien in der Philosophie eine ähnliche richtungsweisende Rolle, wie einst in der Musik; und in diesem goldenen Zeitalter der österreichischen Philosophie nimmt der Wiener Kreis eine zentrale Stellung ein.


[1] Im Zusammenhang mit den Feiern zum 650-Jahre-Jubiläum findet im Hauptgebäude der Universität Wien von Mitte Mai bis Ende Oktober 2015 die zweisprachige Ausstellung (dt./engl.) „Der Wiener Kreis“ statt. Kuratoren sind der Wissenschaftshistoriker Friedrich Stadler und der Mathematiker Karl Sigmund (Abbildung 4). https://www.univie.ac.at/AusstellungWienerKreis/

[2] Karl Sigmund, Sie nannten sich Der Wiener Kreis. Exaktes Denken am Rand des Untergangs. Wiesbaden: SpringerSpektrum 2015. ISBN 978-658-08534-6 http://mlwrx.com/sys/w.aspx?sub=dAvsT_2A6MTL&mid=8d03ba11

inge Fri, 29.05.2015 - 07:22

Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Erzeugung und Speicherung von Energie. Was kann die Chemie dazu beitragen?

Fr, 22.05.2015 - 08:30 — Niyazi Serdar Sariciftci

Niyazi Serdar SariciftciIcon ChemieMit dem Umstieg von fossilen auf erneuerbare Energien steht das Problem von Speicherung und Transport dieser Energien im Vordergrund. Als Lösung bietet sich die Umwandlung von Wind- und vor allem von Solarenergie in chemische Energie – u.a. in Form synthetischer Brennstoffe – an. Vorbild hierfür ist im Prinzip die Photosynthese von Pflanzen. Der Physiker Sariciftci - weltweit anerkannter Pionier in diesem Gebiet- sieht darin erfolgversprechende Möglichkeiten für eine Revolution im Energiebereich..*

Im 21. Jahrhundert erleben wir eine Konvergenz mehrerer Krisen: es sind dies die Energiekrise, die Klimakrise der globalen Erwärmung, die demographische Krise der wachsenden Weltbevölkerung und die Wirtschaftskrise. Diese Krisen sind voneinander nicht unabhängig.

Jede dieser Krisen könnte korrigiert werden, wenn wir genug billige Energie zur Verfügung hätten.

Die globale Energieerzeugung liegt heute bei ca. 14-16 TeraWatt (TW) Seriöse Schätzungen gehen davon aus, dass der Bedarf weiter steigen wird, sich in den nächsten 20 Jahren praktisch verdoppeln, aber um mindestens 10 TW erhöhen wird.

Aktuell werden rund 86 % des Energiebedarfs aus fossilen Brennstoffen – dazu gehören Steinkohle, Braunkohle, Erdgas und Erdöl - generiert (Abbildung 1). Das führt zu zwei Hauptproblemen:

Das primäre Problem ist, dass diese fossilen Vorräte nicht ewig halten. In Zukunft wird durchwegs eine geringere Förderung des Erdöls im Vergleich zu heute erwartet – und dies bei einem steigenden Energiebedarf der Welt. Dazu kommt, dass nur wenige Länder und eine noch kleinere Anzahl an Firmen diese Form der globalen Energiewirtschaft kontrollieren. Energie aus den Erdölquellen zu zapfen wird also zunehmend schwieriger, teurer und kann schließlich den Zusammenbruch vieler realer Volkswirtschaften nach sich ziehen.

Das nicht minder gravierende zweite Problem besteht darin, dass fossile Brennstoffe bei Verbrennung CO2 freisetzen. Dieses Gas hat nun bereits Konzentrationen von 400 ppm (400 g /1000 kg) erreicht - derartige Konzentrationen hat es in Millionen von Jahren nicht gegeben - Klimatologen warnen vor schwersten Katastrophen in den nächsten hundert Jahren.

Verbrauch unserer RessourcenAbbildung 1. Verbrauch unserer Ressourcen. Rechts: Weltweiter Energieverbrauch nach Energiearten im Jahr 2013 (Quelle: http://de.wikipedia.org/wiki/Fossile_Energie, basierend auf Statistical Review of World Energy 2014: http://www.bp.com/content/dam/bp/pdf/Energy-economics/statistical-review...)

Wodurch lassen sich fossile Brennstoffe ersetzen?

Derzeit stammen rund 14 % des globalen Energiebedarfs aus nicht-fossilen Quellen, im Wesentlichen aus Kernenergie, Wasserkraft, Geothermie, Windkraft und Sonnenergie. Die Frage ist: inwieweit wird es möglich sein den zukünftigen Energiebedarf aus diesen Quellen decken?

Nukleare Energie ist keine Alternative

Will man den steigenden Energiebedarf – mindestens 10 TW Leistung - mit nuklearer Energie decken, so bedeutet dies, dass wir 10.000 neue 1 GW Nuklearreaktoren - d.i. in der Größe von Fukushima - aufbauen müssten. Wenn wir morgen anfangen und bis zum Jahre 2030 jeden Tag eine neue Nuklearanlage aufbauen, wäre die Zeit trotzdem nicht genug, um eine solche Leistungskapazität zu erreichen. Selbst wenn man solche Kapazitäten aufstellen könnte, wäre die weltweite Verfügbarkeit des nuklearen Brennstoffes in wenigen Minuten aufgebraucht. Dieses einfache Rechenbeispiel zeigt unausweichlich, wie fatal die Argumentationsbasis einer Nuklearwirtschaft als Lösung des Energieproblems der Zukunft auf diesem Planeten ist. Nukleare Energie ist ein Luxus, den sich auch wohlhabende Staaten nur teilweise leisten können. Für die globale Zukunft der Menschheit bietet nukleare Energie keine Lösungskapazität.

Ausbaumöglichkeiten von Wasserkraft sind bereits limitiert,

denn Wasserkraft ist bereits heute weltweit sehr gut ausgebaut. Experten schätzen die zusätzliche Kapazität einer hydroelektrischen Energiewirtschaft auf bloß 1-2 TW.

Chancen für die Geothermie

Hier gibt es in der Tat noch größere ausbaubare Kapazitäten. Geothermie könnte an vielen Orten der Erde bis zu mehreren TW ausgebaut werden. Eine technologische Herausforderung tritt aber auf, welche die geologische Stabilität der Anlagen in verschiedenen Regionen betrifft. Ein großer Vorteil der Geothermie ist hingegen, dass sie delokalisiert eingesetzt werden kann. Die eigenen vier Wände kann man bereits heute mit autonomen Wärmepumpen weitgehend unabhängig heizen. Den dazu benötigten Strom kann man aus Solarenergie beziehen und somit die volle Autonomie erreichen.

Weiterer Ausbau von Windkraft

Windenergie wird bereits heute in großem Maßstab erzeugt und weiter ausgebaut. Eine noch höhere Kapazität wird in den Off-Shore Regionen weit draußen im Meer berechnet. Allerdings wirft die Windenergie wegen ihrer Instabilität viele Sorgen auf, zu ihrer Stabilisierung benötigt sie unbedingt eine große Speichermöglichkeit.

Biomasse

Ein Einsatz von Biomasse der ersten Generation, der Agrarbiomasse, zur Brennstoffherstellung, steht in direkter Konkurrenz zum Ernährungssektor. Es kann doch nicht sein, dass in dieser Welt viele verhungern müssten, damit wir hier in entwickelten Ländern autofahren können.

Biomasse der 2. Oder 3. Generation – mit Algen, photosynthetischen Bakterien – bietet dagegen interessante Ansätze. Trotzdem muss man beachten, dass die natürliche Photosynthese eher ineffizient ist (<1%) und die lebenden Organismen eher zur Fragilität neigen. Dies ist nicht die beste Voraussetzung für einen globalen Ansatz in Terawatt-Skala.

Sonnenenergie – das größte Potential

Die Kapazitäten der Sonnenenergie sind unvorstellbare 120.000 TW! Das heißt: die Einstrahlung in einer Stunde entspricht unserem aktuellen Jahresbedarf an Energie. Wenn wir also nur einen Bruchteil dieser Energie uns nutzbar machen könnten, wäre die Energiezukunft der Erde weitgehend gesichert. Dies klingt wie das Märchen von der schier unendlichen Energie, es könnte aber tatsächlich zur Realität werden. Die verschiedenen Technologien der Solarenergieerzeugung (Abbildung 2) möchte ich hier nicht gegeneinander ausspielen. Alle Wege führen nach Rom und alle Technologien werden für die „solare Revolution“ eifrig beworben. Welche Technologien sich am Ende des Tages als nützlich für diese Revolution erweisen, wird sich mit der Zeit zeigen. Entwicklung verschiedener Typen von SolarzellenAbbildung 2. Die Entwicklung verschiedener Typen von Solarzellen – Silizium-, Organische-, Farbstoff-Solarzellen - führt zu immer höheren Wirkungsgraden (Bild: Wikipedia).

Eine logische Antwort auf die drohende Energiekrise wäre also ein Umstellen der Energieversorgung auf die Basis von Solarenergie und Windenergie, unterstützt durch Geothermie. Die Umwandlung dieser erneuerbaren Energien in Wärme, Elektrizität oder in chemische Energie spielt dabei eine wichtige Rolle.

Wie lassen sich erneuerbare Energien speichern?

Solarenergie und Windenergie unterliegen starken Schwankungen - die Sonne scheint, der Wind bläst, wann sie wollen und nicht, wenn wir dafür Bedarf haben. Diese Energie muss irgendwie gespeichert werden. Wird sie vor Ort verwendet, genügt ein einfacher Speicher. Bei Überland-Transporten geht das nicht. Wir müssen daher ein Medium erzeugen, dass speicherbar und transportabel ist. Flüssige Treibstoffe sind dafür gut geeignet. Ein Beispiel: Ein Liter Benzin enthält etwa 12 bis 15 Kilowattstunden Energie. Der modernste Tesla-Akku kann bei 100 Kilo Eigengewicht ungefähr 10-12 Kilowattstunden speichern. Wenn wir einen Energieüberschuss später und woanders nutzen wollen, benötigen wir entsprechende Möglichkeiten zur Speicherung und auch zum Transport über große Distanzen. Ganz so wie wir es für fossile Energien gewohnt sind: die Erdgasleitung, die in mein Haus führt, hat ihren Ursprung irgendwo in Sibirien – tausende Kilometer entfernt. Aus meiner Sicht ist somit klar, wo die Präferenzen liegen sollten.

Großtechnisch wird heute elektrische Energie derzeit mit Hilfe von Pumpspeicherkraftwerken gespeichert (wie bei uns im Kaprun). Diese nutzen einen Überschuss an elektrischer Energie, um Wasser in einen höher gelegenen Speicher hinaufzupumpen. Bei größerer Stromnachfrage wird das Wasser wieder bergab fließen gelassen und es erzeugt dabei mittels Turbinen und Generatoren elektrischen Strom. Nicht überall ist so ein Pumpspeicherkraftwerk aber möglich.

Deswegen propagieren wir eine neue, besonders wirksame Methode der Speicherung von erneuerbaren Energien: diese direkt in eine Form von chemischer Energie zu überführen. Also CO2 und Wasser mit erneuerbaren Energien zu einem künstlichen Brennstoff umzuwandeln. Gleichzeitig lässt sich damit auch das Problem der zu hohen CO2 Emissionen- wie sie vor allem bei Kraftwerken mit fossilen Brennstoffen auftreten - in den Griff bekommen, das CO2 wieder in einen Kreislauf zu schicken, der von der Sonne und vom Wind getrieben wird.

Umwandlung erneuerbarer Energie in chemische Energie – aus dem Problemstoff CO2 wird neuer Brennstoff

Um CO2 loszuwerden, gibt es zwar andere großtechnische Möglichkeiten, die CO2 einfangen, abtrennen und in tiefe Sedimentschichten oder in die Tiefsee zu pumpen („carbon dioxide capture and storage“ (CCS) ). Dies sind aber teure und komplizierte Verfahren, die nicht ungefährlich sind.

Anstatt CO2 in tiefen Gesteinsschichten zu lagern, kann überschüssige erneuerbare Energie jedoch dazu verwendet werden CO2 zu recyceln („carbon dioxide capture and utilization“ (CCU) ). Nach dem Vorbild der Photosynthese in Pflanzen kann CO2 aus der Luft entnommen und (mittels geeigneter Katalysatoren) zu organischen Verbindungen umgesetzt werden, die dann einerseits als Ausgangsstoffe für chemische Synthesen und andererseits als Brennstoffe dienen. Im letzteren Fall steht heute vor allem die Konvertierung zu Methan (CH4) im Vordergrund. Der Vorteil von Methan, das ja Hauptbestandteil von Erdgas ist: die nötige Infrastruktur in Form des Erdgasnetzes mit enormen Speicherkapazitäten steht heute in Europa und in vielen entwickelten Ländern bereits zur Verfügung.

Basierend auf einem Forschungsprojekt zur Erzeugung von Treibstoffen durch erneuerbare Energie, das wir an unserem Linzer Institut für Organische Solarzellen (LIOS) gemeinsam mit Gregor Waldstein durchführten, ist 2007 die Spinoff-Firma Solar Fuel entstanden. Diese (nun in ETOGAS umbenannte) Firma ist jetzt in Stuttgart tätig. In Zusammenarbeit mit führenden deutschen Forschungsinstitutionen (dem Zentrum für Sonnenenergie- und Wasserstoff-Forschung Baden-Württemberg und dem Fraunhofer-Institut für Windenergie und Energiesystemtechnik) wurde 2013 eine Anlage fertiggestellt, die mit mehreren Megawatt (MW) Anschlussleistung läuft.

Künstliches Erdgas kann also aus erneuerbaren Energien plus CO2-Recycling bereits hergestellt werden (Abbildung 3): In dieser sogenannten „indirekten Reduktion“ wird Energie eingesetzt, um im ersten Schritt Wasser durch Elektrolyse in Wasserstoff (H2)und Sauerstoff zu zerlegen und im zweiten Schritt CO2 mit H2 zu Methan zu konvertieren- das Methan kann dann in das Gasnetz eingespeichert werden. Industrie, Heizkraftwerke, Autos können das erneuerbare Gas nutzen, das CO2-neutral ist. Der Autokonzern AUDI ist bereits Anwender dieser neuen Technologie.

Recycling von CO<sub>2</sub>Abbildung 3. Recycling von CO2: Indirekte Reduktion von CO2 mit durch Elektrolyse hergestelltem Wasserstoff. Eingespeist werden Wasser und ein CO2/Luftgemisch. Erneuerbarer Strom wird zur Elektrolyse des Wassers, der Abtrennung von CO2 aus der Luft, seiner darauffolgenden Desorption und der reduktiven Konvertierung zu Methan (CH4) mit H2 eingesetzt. Unten ist der Prototyp der nun bereits in Stuttgart laufenden Anlage schematisch dargestellt.

Neue Konzepte – direkte Reduktion von CO2 zu Methan

In unserem Institut beschäftigen wir uns nun damit Sonnenstrahlen direkt, in einem sehr komplizierten Mechanismus, in chemische Energie in Form von beispielsweise Methan, Methanol oder Oktan umwandeln, ohne Zwischenprodukte. Für die direkte Reduktion des CO2 zu Methanol werden 6, zu Methan 8 Elektronen benötigt. Wir verfolgen drei unterschiedliche Ansätze (Abbildung 4):

  • die elektrochemische Reduktion: die Elektronen stammen hier aus elektrischer Energie und Metallkomplexe (u.a. Rhenium-, Rhodium-, Rutheniumkomplexe) katalysieren die Reaktionen.
  • Biokatalyse: hier reduziert ein Set von stabilisierten hochspezifischen Enzymen (Dehydrogenasen) CO2 schrittweise zu Formiat, Formaldehyd und Methanol. Elektrische Energie dient zum Recyceln des für die Reaktionen essentiellen Kofaktors (NADH).
  • Photokatalyse: Vorbild ist hier die natürliche Photosynthese, welche Sonnenlicht mittels des Photosensitizers Chlorophyll „einfängt“. Dadurch angeregt werden Elektronen generiert und genutzt, um in einer komplizierten Reaktionsfolge aus CO2 und Wasser Glukose aufzubauen. Die künstliche Photosynthese zur direkten Reduktion von CO2 verwendet Photosensitizer, die häufig organometallische Verbindungen sind und - über die Anregung durch Sonnenlicht hinaus – auch als Katalysatoren für die Reaktionsfolge fungieren.
  •  

Umwandlung der Sonnenenergie in chemische Energie durch direkte Reduktion von CO<sub>2</sub>Abbildung 4. Umwandlung der Sonnenenergie in chemische Energie durch direkte Reduktion von CO2. In jedem dieser Ansätze entsteht Treibstoff, der CO2-neutral ist.

Ausblick

Mit dem Umstieg von fossilen auf erneuerbare Energien steht das Problem von Speicherung und Transport dieser Energien im Vordergrund. Als Lösung bietet sich die Umwandlung von Wind- und vor allem von Solarenergie in chemische Energie – u.a. in Form synthetischer Brennstoffe – an. Vorbild hierfür ist im Prinzip die Photosynthese von Pflanzen. Die Machbarkeit derartiger Konzepte ist gezeigt. Diese Strategien ermöglichen auch das Recycling von CO2 - aus dem Problemstoff wird so ein wertvolles Ausgangsmaterial.

Es erscheint realistisch, dass diese erfolgversprechenden Möglichkeiten zu einer Revolution im Energiebereich führen werden: Länder werden nicht mehr auf Energieimporte angewiesen sein, billige Energie wird dezentralisiert und autonom erzeugt werden können. Systembedingte oder vorsätzliche Verknappung von Energie, wie das heute etwa bei Gas oder Erdöl der Fall ist, wird dann der Vergangenheit angehören. Die Sonne scheint schließlich für alle!


Weiterführende Links

N.S. Sariciftci (2014) Solarenergie: Eine Demokratisierung der Energieversorgung? Niyazi Serdar Sariciftci on Solar Energy Video 3:43 min.

Ein Tank voll Sonne . Video 2:423 min.

Niyazi Serdar Sariciftci on nanostructures for solar energy. Video 6:00 min Vortrag Sariciftci (Redtenbacher Symposium Steyr, 2013) Teil 1 – 3 Videos (a 15 min) Teil 1: Teil 2: Teil 3: Methan aus erneuerbaren Energien. Video 6:38 min. https://www.youtube.com/watch?v=mZbEV8cKdgc Das Zeitalter der Industrie –Energie. http://www.oekosystem-erde.de/html/energie.html


 

inge Fri, 22.05.2015 - 08:30

Postdoc – eine Suche nach dem Ich

Postdoc – eine Suche nach dem Ich

Fr, 15.05.2015 - 12:06 — Inge Schuster

Inge SchusterPolitik & Gesellschaft

Der erste Roman von Gottfried Schatz*

Jahrhundertelang waren Gesellen nach Abschluss der Lehrjahre „auf die Walz gegangen“, hatten in fremden Ländern, bei erfahrenen Meistern neue Techniken gelernt und Lebenserfahrungen gesammelt. Dies ist heute nur noch in der Welt der Wissenschaft üblich. Wenn man Forscher werden möchte, ist es nahezu unabdingbar nach Beendigung des Studiums auf die Walz zu gehen, als Postdoktorand – Postdoc – bei einem möglichst anerkannten Wissenschafter weiter zu lernen.

Der renommierte Biochemiker Gottfried Schatz – selbst geprägt durch seine Postdoc-Zeit – hat mehr als 80 Postdocs betreut. Seine Erfahrungen und Schlussfolgerungen verarbeitet er nun in einem Roman, der aber eine frei erfundene Handlung zum Inhalt hat. Es ist sein erstes Werk in diesem Genre. Dass Schatz ausgezeichnet formulieren kann, weiß man längst aus seinen mehr als 400 wissenschaftlichen Arbeiten und den vielen, auch für ein Laienpublikum leicht verständlichen Essays und Vorträgen. Dennoch erstaunt die Meisterschaft mit der er hier schreibt, fast möchte man sagen komponiert: es entsteht eine bunte Fülle an Geschichten, die (polyphon) miteinander verwoben werden, durchzogen von einem Grundmotiv - der Frage nach dem „Wer bin ich“ und begleitet von Leitmotiven, die den (Gemüts)zustand der handelnden Personen charakterisieren. Der Reichtum an Details, den dieser Roman bietet, ist nicht in wenigen Sätzen wiederzugeben. Jeder Leser wird Passagen finden, Aussagen des Autors, die ihn besonders ansprechen, die zum Nachdenken anregen. s ist ein großartiges, absolut empfehlenswertes Buch!

Die Vorgeschichte

Antal von Nemethy, ein junger Chemiker, hat alles, was ihm eine strahlende Zukunft verheißt. Er ist hochintelligent, talentiert und kreativ und er stammt aus einer wohlhabenden österreichisch-ungarischen Fabrikanten-Familie. Statt unter enttäuschenden Bedingungen in Wien konnte er es sich leisten sein Studium in Paris zu absolvieren – er wurde ein experimentell geschickter und vor allem von der Biochemie faszinierter Chemiker. Eine Zufallsentdeckung, die er dort gemacht hat, verspricht einen fulminanten Durchbruch in der Tumorbehandlung. Es handelt sich dabei um zwei an sich harmlose synthetische Substanzen, die sich in Krebszellen – und nur dort – zu einem „Binärmedikament“, einer tödlichen Waffe gegen diese Zellen verbinden. Leider ist er aber hier nicht der Erste – dasselbe Prinzip ist bereits knapp zuvor zur Veröffentlichung eingereicht worden und zwar von einem aus Ungarn stammenden, renommierten Mediziner, Sandor Cherascu, der in New York ein angesehenes Krebsforschungsinstitut leitet. Um zumindest noch in der Weiterentwicklung dieser bedeutenden Entdeckung mitzuspielen, bewirbt sich Antal um eine Mitarbeiterstelle an diesem Institut und erhält diese auch. Mit einem ansehnlichen Stipendium unterstützt tritt er im Sommer 1975 seine Stelle als Postdoktorand – Postdoc – an.

Der Roman

Manhattan – Midtownspielt zum großen Teil in New York. (Bild: Manhattan – Midtown; Wikipedia)

Die Handlung setzt drei Monate später ein, führt vom Herbst in den Winter, von den Träumen und Hoffnungen Antals in eine bittere, desillusionierende Realität. Mit Antal als Zentralfigur werden auch die ihm nahestehenden Personen überaus plastisch dargestellt. Mit ihren Geschichten, die tief in die Vergangenheit zurückreichen. Wir hören über seinen Vater, über seine Geliebte(n), über seine Kollegen – Postdocs wie er und Studienabbrecher, die nun als Laboranten arbeiten – über den überaus zwielichtigen Institutsleiter Cherascu und über einen Gerichtsmediziner, der Antal schätzt und beschützen möchte. Daraus entwickelt sich eine ungemein facettenreiche Erzählung aus und über die Welt der Wissenschafter, die von Leidenschaft für ihre Forschung und von harter Arbeit berichtet, von exorbitanter Abhängigkeit vom Vorgesetzten, vom Mangel an Privatleben und daraus resultierender Einsamkeit, von kurzen euphorischen Momenten und langen frustrierenden Phasen, von Kameradschaft und Liebe ebenso wie von Betrug und Verrat, von Unsicherheit , Existenzangst, der Scheu etwas völlig Neues zu beginnen und vom Scheitern.

Erkenne Dich selbst

Die Aufforderung, die über dem Eingang zum Apollotempel in Delphi steht, kann auch als Grundmotiv der ineinander verflochtenen Handlungen gesehen werden. Das Erkennen führt nicht nur bei Antal zum Scheitern.

Der Roman beginnt mit dem Selbstmord Ilonas, einer aus Ungarn stammenden, reizvollen und klugen Kollegin Antals, die kurz auch seine Geliebte war. Im Laufe der Erzählung findet Antal den Auslöser von Ilonas Selbstmord: Cherascu. Mit diesem hatte Ilona in Ungarn zusammengearbeitet, ihn als Idol angesehen, ihm voll vertraut. Er hatte nicht nur ihre Forschungsergebnisse gestohlen – sie war die eigentliche Entdeckerin des Binärmedikaments – er hatte auch, um den Alleinbesitz der Daten zu sichern, ihren Fluchtversuch aus Ungarn verraten und sie damit hinter Gitter gebracht. Ilona erfährt erst jetzt von dem Verrat und zerbricht: „Ich bin den falschen Idealen nachgelaufen, habe den falschen Menschen vertraut und mich an falsche Hoffnungen geklammert.“

Auch Antals Vater ist ein Gescheiterter. Selbst erfolgreicher Industrie-Chemiker, der es aber nicht zum Forscher geschafft hat, steht er bereits im höheren Lebensalter. Seine von ihm in der Steiermark aufgebaute Kunststoff-erzeugende Firma ist ins Visier der Umweltschützer geraten: irgendwelche, nicht näher definierte Spuren waren im Trinkwasser nachgewiesen worden. Ein Prozess droht, der vielleicht sogar das Aus der Firma bedeuten könnte. Das mögliche Scheitern seines Lebenswerks löst bei ihm einen tödlichen Herzinfarkt aus. Antal kommt zu spät, um seinem Vater beizustehen.

Ein Scheiternder ist auch der Institutsleiter Cherascu. Getrieben von maßlosem Ehrgeiz nutzt dieser jede Gelegenheit, um sich selbst ins grellste Rampenlicht zu stellen. Gestohlene Ergebnisse sind die Grundlage, seine Mitarbeiter eine von ihm kontrollierte und kommandierte Sklavenkompanie, die ausreichend Daten für seinen Weg auf den Olymp der Wissenschaft liefern soll. Für kurze Zeit gelingt ihm auch der Aufstieg zum Star: er landet auf den Titelseiten der großen Tageszeitungen, wird sogar als möglicher Anwärter auf den Nobelpreis gehandelt. Cherascu ist das Porträt eines Charakters, der leider auch heute noch anzutreffen ist, wie ihn auch Gottfried Schatz selbst kennengelernt hat. Schatz lässt ihn nicht ungestraft davonkommen: er lässt Cherascu plötzlich zusammenbrechen und an einer damals rätselhaften, neuen Krankheit – AIDS – schnell zugrundegehen. Offensichtlich hat Cherascu noch einen Postdoc aus Südkorea, den Sohn eines mächtigen Großindustriellen, angesteckt, der kurz darauf an derselben Krankheit stirbt.

Antals Suche nach dem „Wer bin ich?“

beginnt vorerst mit der Frage nach seiner Herkunft. Sein Vater – offensichtlich unfähig darüber zu sprechen – hat in einem langen Brief ausführlich über die Familiengeschichte berichtet, die ihn als einen zwischen zwei Welten Zerrissenen ausweist. Sein eigenes bitteres Erkennen: „Ich hatte die Intelligenz und den Fleiß für einen erfolgreichen Chemiefabrikanten, aber nicht den Mut für einen echten Wissenschaftler“ verbindet er mit der Hoffnung, dass Antal herausfinden möge „ob er den Mut dazu hat, ob Wissenschaft für ihn das Richtige wäre“. Antal, dem bis jetzt immer alles leicht, zu leicht gefallen ist, wird im Laufe der Handlung zunehmend mit Problemen konfrontiert, die ihn erkennen lassen, dass auch ihm dieser Mut fehlt, dass er unsicher und ängstlich ist. Leitmotivisch für seine Unsicherheit und Angst stehen Ohrensausen (Tinnitus) und starkes Pochen im Kopf. Der Griff zur Whiskyflasche betäubt nur kurzfristig. Der indische Postdoc Haresh hat dagegen erkannt, worauf es für einen Forscher ankommt und führt es Antal vor Augen:

„Wir sollten uns nur Ziele setzen, von denen es kein Zurück gibt. Wenn du dir immer einen Rückweg offen hältst, wirst du bequem leben, dich aber früher oder später fragen, warum du nicht mehr aus deinem Leben gemacht hast.“

Es sind dies die Schlüsselaussagen des Buches. Haresh handelt danach, sein Weg zum erfolgreichen Forscher deutet sich an.

Für Antal beginnt aber ein Abschied von der Wissenschaft. Seine Versuche scheitern und er kann sein Projekt nicht fortsetzen, da das Institut nach Cherascus Tod eine neue Richtung einschlägt – weg von der Krebsforschung, hin zur Umweltforschung. Die Arbeit der letzten Jahre war also umsonst, er steht mit leeren Händen da. Vielleicht kann er die angeschlagene Firma seines Vaters mit einem neuen Produkt noch retten? In der Ungewissheit, wie sein Weg sich wohl weiter entwickeln werde, endet dieser plötzlich auf tragische Weise. Das Buch klingt dennoch sehr leise aus.


*Gottfried Schatz: Postdoc (2015), Herausgeber: Verlagsgruppe Styria GmbH & Co KG


Anmerkungen der Redaktion

Seinen eigenen Werdegang hat Gottfried Schatz in einer Autobiographie beschrieben, die er dem berühmten Biochemiker Efraim Racker, dem Betreuer seiner Postdoc Zeit in New York, widmete: Feuersucher. Die Jagd nach dem Geheimnis der Lebensenergie (2011). Wiley-VCH Verlag & Co KGaA.

Ein beträchtlicher Teil von Schatz's Essays ist bereits im ScienceBlog erschienen. Zwei der 36 Artikel passen zu dem Thema des Romans:

inge Fri, 15.05.2015 - 00:06

Tuberkulose und Lepra – Familienchronik zweier Mörder

Tuberkulose und Lepra – Familienchronik zweier Mörder

Fr, 08.05.2015 - 06:59 — Gottfried Schatz Gottfried SchatzIcon MedizinLepra und Tuberkulose gehören zu den ältesten menschlichen Infektionskrankheiten. Deren Erreger sind miteinander verwandte, langsam wachsende, stäbchenförmige Bakterien aus der Familie der Mycobakterien. Der renommierte Biochemiker Gottfried Schatz erzählt vom Kampf gegen diese Bakterien, der - erst im vergangenen Jahrhundert aufgenommen - zur enormen Reduzierung aber noch nicht zur Ausrottung der Krankheiten führte.

Die Diagnose kam spät: Zwei Jahrtausende lang hatten die Leichen in der Grabhöhle bei Jerusalem geruht, bevor Wissenschafter zeigten, dass fast jede zweite Reste von Tuberkulose- und Leprabakterien in sich trug. Ähnliches fand sich in einem ägyptischen Heiligtum aus dem 4. Jahrhundert, einer ungarischen Grabstätte aus dem 10. Jahrhundert und einem schwedischen Friedhof aus der Wikingerzeit. Lepra war bereits vor 4500 Jahren in Ägypten endemisch und ist eine der ältesten bekannten menschlichen Krankheiten. Begleitet wurde sie meist von der Tuberkulose. Die beiden Krankheitserreger Mycobacterium tuberculosis und Mycobacterium leprae sind aber nicht nur Waffenbrüder, sondern echte Brüder.

Einst friedliche Bodenbewohner

Das mörderische Brüderpaar entstammt der weitverzweigten Familie der Mycobakterien, die als friedliche Bodenbewohner die Überreste anderer Lebewesen verbrennen und so die Fruchtbarkeit der Erde sichern. Als jedoch Menschen vor etwa zehntausend Jahren zur Viehzucht übergingen, dürfte einigen Mycobakterien der Sprung vom schützenden Boden auf ein Rind gelungen sein. Von diesem war es nur ein kleiner Sprung auf den Hirten - und mit der Entwicklung unhygienischer Städte wurde Mycobacterium tuberculosis zur Geissel für Tier und Mensch. Einige der Boden- Auswanderer spezialisierten sich ganz auf Menschen, veränderten ihr Erbgut und ihre Lebensweise und wurden zu Mycobacterium leprae, dem Erreger von Lepra.

Mycobacterium leprae in einer Hautläsion (links), Mycobacterium tuberculosis in einer Sputumprobe (rechts)Abbildung1. Mycobacterium leprae in einer Hautläsion (links), Mycobacterium tuberculosis in einer Sputumprobe (rechts). Die stäbchenförmigen Bakterien sind durch ziegelrote Anfärbung sichtbar gemacht (Quelle: CDC - Center of Disease Control and Prevention; public domain)

Die beiden Brüder sind sich noch in vielem ähnlich.

Sie sehen ungefähr gleich aus (Abbildung 1), teilen sich viel langsamer als die meisten Bakterien und schützen sich mit einer ungewöhnlich aufgebauten Fetthülle. Dennoch ging jeder der Brüder seinen eigenen Weg. Der Erreger von Tuberkulose setzte auf gnadenlose Vernichtung und wurde zum grossen Bruder. Er zerstört die Lunge und andere wichtige Organe, tötete im Europa des 17. und 18. Jahrhunderts ein Viertel der Bevölkerung und hat wahrscheinlich mehr Menschen auf dem Gewissen als jeder andere Krankheitserreger. Gegen die gefürchtete «Schwindsucht» gab es lange keine anderen Waffen als gesunde Ernährung, Ruhe und eine sonnige, trockene und reizfreie Umgebung - Thomas Manns «Zauberberg» beschreibt diese, bis in das 20. Jahrhundert andauernde Situation.

Chemische Wunderwaffen

Nach dem Zweiten Weltkrieg konnten wir mit neuartigen chemischen Wunderwaffen Tuberkulose fast ausrotten - doch nur in reichen Ländern. Weltweit nistet der grosse Bruder immer noch im Körper jedes dritten Menschen. Eine Röntgenaufnahme zeigt, dass er während meiner Kindheit auch in meine rechte Lunge eindrang und dort vielleicht immer noch auf seine Chance lauert. Jedes Jahr gelingt es ihm, acht Millionen Menschen krank zu machen und zwei bis drei Millionen von ihnen zu töten. Vor kurzem hat er auch gelernt, uns im Verbund mit dem Aids-Virus anzugreifen, und einige seiner südafrikanischen Stammesgenossen haben sogar gelernt, allen unseren chemischen Waffen zu trotzen. Der erschreckende Vormarsch von Tuberkulose bewog die Weltgesundheitsorganisation (WHO) im Jahre 1993, den Tuberkulose-Notstand auszurufen. Der grosse Bruder ist noch lange nicht besiegt (Abbildung 2).

 Aktuelle globale Verbreitung von Lepra (oben) und Tuberkulose (unten)Abbildung 2. Aktuelle globale Verbreitung von Lepra (oben) und Tuberkulose (unten). Während Lepra weltweit auf dem Rückzug ist (d.h. die Inzidenz fast überall auf weniger als 1 Infizierter:10 000 Menschen zurückgegangen ist), ist Tuberkulose eine der tödlichsten Ansteckungskrankheiten geblieben. 2013 waren rund 9 Millionen Menschen an TB erkrankt, 1,5 Millionen starben daran. Die Zahl der an Lepra Erkrankten ist dagegen zwischen 1985 und 1912 von rund 5,2 Millionen auf 185 000 gesunken. (Quelle: WHO., Global Tuberculosis Report 2014)

Auch der Erreger von Lepra tötet - doch statt auf rasche Überwältigung setzt er auf langsame Zermürbung. Er zerstört die elektrische Isolation der Hautnerven, entstellt das Antlitz mit grotesken Geschwülsten und lässt schließlich Finger, Zehen, Hände oder Füße abfallen und Augen erblinden. Er macht seine Opfer zu Ausgestoßenen - zu lebenden Toten. Mycobacterium leprae ist der grausame kleine Bruder. Als die beiden Brüder uns noch gemeinsam jagten, kam der kleine Bruder meist zu kurz, weil ihm der große die Opfer zu schnell wegmordete. Unsere Medizin hat auch den kleinen Bruder in die Knie gezwungen, denn eine Mischung dreier Medikamente kann Leprakranke in einem Tag ansteckungsfrei machen und in sechs bis zwölf Monaten heilen. Wenn die Behandlung früh genug einsetzt, verschwinden sogar die entstellenden Geschwülste. Doch in den Elendsregionen unserer Welt überwältigt der kleine Bruder jedes Jahr immer noch viel zu viele Menschen, da sich niemand um die Kranken kümmert und diese aus Angst vor Ächtung ihre Krankheit verheimlichen und so auf andere übertragen (Abbildung 2). Lepra hat bisher noch nicht gelernt, unseren Medikamenten zu widerstehen, versteckt sich vor diesen jedoch hinter Armut und Unwissenheit.

Verschiedene Charaktere

Weshalb sind die beiden Brüder so verschieden? Obwohl sie die ersten Bakterien waren, die unsere Ärzte als Krankheitserreger entlarvten, konnte die Frage lange nicht beantwortet werden. Die Mediziner wussten zwar viel über Tuberkulosebakterien, konnten sie aber nicht sorgfältig mit Leprabakterien vergleichen, da sich diese nicht in genügender Menge rein herstellen ließen. Leprabakterien weigern sich bis heute beharrlich, in einer künstlichen Nährflüssigkeit zu wachsen, und vermehren sich außer in Menschen nur noch in Mäusepfoten, im kühleren Gewebe kleiner Nagetiere und in einigen Gürteltieren. Und selbst dann teilen sie sich nur alle zwei Wochen - etwa tausendmal langsamer als die meisten anderen Bakterien. Seit einigen Jahren kennen wir jedoch die chemische Struktur des gesamten Erbmaterials der beiden Brüder und können endlich ihre unterschiedlichen Charaktere erklären.

Der große Bruder bewahrte sorgsam den Schatz von mehr als 4000 Genen, den ihm seine Vorfahren vererbt hatten. Dank diesem genetischen Reichtum kann er sich an verschiedene Umweltbedingungen anpassen, die meisten seiner Bausteine selbst herstellen, durch Verbrennung von Nahrung Energie gewinnen und Wege ersinnen, um unsere Medikamente zu überlisten. Der kleine Bruder ließ dagegen mehr als die Hälfte seines genetischen Erbes verkommen, so dass sein heutiges Erbgut mit über 2400 verstümmelten Genen übersät ist. In dieser genetischen Schrotthalde finden sich zwar immer noch 1600 intakte Gene, doch diese liefern dem Bakterium bei weitem nicht mehr genügend Information, um Nahrung zu verbrennen, den eigenen Energiebedarf zu decken und unabhängig zu leben. Deshalb kann sich der kleine Bruder nur extrem langsam und nur innerhalb von Menschen- und einigen wenigen Tierzellen vermehren. Sein Informationsdefizit könnte auch erklären, warum er bisher keinen Weg fand, um gegen unsere Medikamente resistent zu werden. Wer einen starken Charakter entwickeln will, muss nicht nur Neues lernen, sondern auch Vertrautes über Bord werfen. Dies gilt nicht nur für uns Menschen. (Die Bereitschaft, Traditionen zu missachten, ist für den Musiker Pierre Boulez ein Maß für die Kraft einer Kultur.) Und die Veränderung oder Zerstörung ererbter Gene ist Teil der Entwicklung jedes neuen Lebewesens. Als das Leprabakterium auf die Hälfte seines genetischen Erbes verzichtete, ging es ein großes Wagnis ein. Doch erst dieses Wagnis schenkte ihm seinen unverwechselbaren biologischen Charakter.

Ist der kleine Bruder dümmer als der große - oder einfallsreicher? Ich weiß es nicht. Für mich ist er interessanter.


Weiterführende Links

WHO Lepra

WHO Global Tuberculosis Report 2014

Vernachlässigte Krankheiten – Multiresistente Tuberkulose (Ärzte ohne Grenzen). Video 6:20 min

Lepra und Tuberkulose in Indien - Hier zählt Erfahrung Video 21:07 min,

Artikel im ScienceBlog

inge Fri, 08.05.2015 - 06:59

Ebola – Herausforderung einer mathematischen Modellierung

Ebola – Herausforderung einer mathematischen Modellierung

Fr, 01.05.2015 - 11:02 — Peter Schuster Peter SchusterIcon MINTBei Ausbruch einer Epidemie mit einem neuen Erreger besteht dringender Bedarf für ein mathematisches Modell, das den Verlauf der Epidemie möglichst verlässlich voraussagen kann, um darauf basierend effiziente Interventionen zum Schutz der Bevölkerung einzuleiten. Der theoretische Chemiker Peter Schuster erklärt, warum Prognosen, die auf in der Anfangsphase n einer Epidemie erhobenen Daten beruhen, wenig Aussagekraft für deren späten Verlauf haben [1].

Lässt sich die Natur unter eine vollständige Kontrolle bringen? Am Beginn der zweiten Hälfte des 20. Jahrhunderts glaubten weite Kreise daran, dass die ungeheuren Fortschritte in den Naturwissenschaften und insbesondere in der Medizin dies erlauben würden. Es erschien absehbar, dass Gesundheitswesen und Pharmakologie bald in der Lage wären praktisch alle Krankheiten zu verhindern oder (zumindest) zu heilen. So war in den 1980er Jahren die Pharma-Industrie fest davon überzeugt diesem Ziel beispielsweise bei den Infektionskrankheiten sehr nahe gekommen zu sein. Man dachte ein mehr als ausreichendes Arsenal an Antibiotika zur Verfügung zu haben, um Infektionen aller Art (wenigstens in der „westlichen Welt“) erfolgreich bekämpfen zu können und stoppte die Suche nach neuen Antibiotika. Man löste also entsprechende Institutionen mitsamt ihrem Know-How und ihren Infrastrukturen auf und wandte sich anderen „erfolgversprechenderen“ Aufgaben zu. Wie sich bald zeigen sollte, war dies ein verhängnisvoller Irrtum:

Erstens, weil Mikroorganismen – Viren, Bakterien, Pilze und Protozoen - enorme Fähigkeiten besitzen, Resistenzen gegen Antibiotika zu entwickeln. Gegen die zunehmend resistent-werdenden Stämme werden heute neue Wirkstoffe dringendst benötigt!

Zweitens, weil Infektionskrankheiten aufgetaucht sind, die bis dahin völlig unbekannt waren oder zuvor nicht genügend Beachtung gefunden hatten. Es waren dies vor allem

  • AIDS -das „acquired immunodeficiency syndrome“ (erworbenes Immunschwäche-Syndrom), das durch HIV - humane immunodeficiency virus – übertragen wird,
  • Ebola, das vom Ebolavirus (EBOV - Ebola ist ein Fluss in der Republik Kongo, wo es 1976 den ersten Ausbruch dieser Infektion gab) und vier verwandten Stämmen von Filoviren übertragen wird,
  • SARS – das schwere akute respiratorische Syndrom – verursacht von einem mutierten Coronavirus (SARS-CoV)
  • die Tierseuche BSE (bovine spongiform encephalopathy) - Rinderwahn- , eine Epidemie in den 1990er-Jahren, die allerdings nicht durch ein Virus sondern Prionen (falschgefaltete infektiöse) Proteine ausgelöst wurde.

Diese und eine Reihe weiterer Epidemien haben die Welt in Angst und Schrecken versetzt. Es war ja keineswegs abzusehen, welchen Verlauf, welches Ausmaß diese neuen Infektionskrankheiten haben würden, wieweit man sie in Kontrolle bringen könnte oder ob sie in einer globalen Katastrophe enden würden.

Dringendst benötigt: verlässliche Modelle zur Prognose des Verlaufs von Epidemien

Wann immer eine Epidemie mit neuen Erregern ausbricht, ist es offensichtlich, dass ein dringender Bedarf für mathematische Modelle besteht, die den Verlauf derartiger neuer Seuchen simulieren und - darauf basierend - möglichst verlässlich voraussagen können. Dies gilt natürlich ebenso für schon besiegt geglaubte Infektionskrankheiten wie Keuchhusten und Masern, die als Folge der Impfgegner-Bewegung nun wieder aufgeflammt sind.

Verlässliche Prognosen sind unabdingbar, weil bereits beim Ausbruch einer Epidemie nur noch sehr wenig Zeit bleibt, um effiziente Interventionen zum Schutz der Bevölkerung und Strategien zur Behandlung der Erkrankten einzuleiten. Es sind dabei ja enorme logistische Herausforderungen zu bewältigen, die vom raschen Bereitstellen eines voraussichtlichen Bedarfs an Behandlungszentren, Labors, Spitalsbetten, Ärzten, Pflegekräften, Diagnostika und Therapeutika, etc. bis hin zu Restriktionen der Bewegungs- und Reisefreiheit reichen. Dazu kommen noch die dafür erforderlichen finanziellen Mittel.

Der Schrecken verbreitende Ausbruch von Ebola, der im Dezember 2013 in West-Afrika seinen Ausgang nahm und eine hohe Letalität verursachte, war Anlass eines Booms in epidemiologischen Modellierungen. Eine Reihe dieser Untersuchungen finden sich In dem neuen Fachjournal PLOS Currents: Outbreaks, das „open access“ ist. Die ersten Modellierungen stammen aus dem Herbst 2014, einer noch frühen Phase der Seuchenausbreitung. Nur drei Monate später war es aber klar, dass die Vorhersagen die Zahl der Infizierten und der Todesfälle um Größenordnungen überschätzt hatten. War man anfangs davon ausgegangen, dass es hunderttausende bis zu mehreren Millionen Infizierte und davon etwa 40 % Todesopfer geben könnte, so zeigte die Epidemie glücklicherweise einen wesentlich „leichteren“ Verlauf: laut aktuellen Daten der WHO sind bis jetzt weltweit 26 083 (bestätigte, wahrscheinliche und vermutete) Fälle von Ebola aufgetreten, davon 26 044 in den Staaten Guinea, Liberia und Sierra Leone, und 10 823 Todesfälle (davon 10 808 in den genannten drei Staaten). In allen drei Staaten treten nur mehr vereinzelte Infektionen auf [1]. (Abbildung 1).

Die Epidemie konnte also in den Griff bekommen werden. Verlauf der Ebola-EpidemieAbbildung 1. Verlauf der Ebola-Epidemie; oben: In den am stärksten betroffenen Staaten Guinea, Liberia und Sierra Leone vom 15.2, - 19.4.2015 und unten: Gesamtverlauf in Liberia vom Ausbruch der Epidemie bis jetzt. (Quelle: WHO)

Wie können aber bessere epidemiologische Vorhersagen erstellt werden, wo weisen Modellierungen gravierende Fehler auf, wo können Fehler vermieden werden?

Dies soll im Folgenden an Hand des häufig verwendeten SEIR-Modells analysiert werden. Insbesondere die Frage nach der Aussagekraft der Prognosen, wenn aus den Anfangsphasen einer Epidemie auf deren späte Phasen extrapoliert wird.

Das SEIR Modell

ist ein relativ einfaches, sehr populäres mathematischen Modells, das den dynamischen Prozess simuliert, wie sich eine Infektion in einer Population aus anfänglich dafür anfälligen Individuen ausbreitet. Die Gesamtpopulation wird dabei aus vier Gruppen zusammengesetzt angenommen: aus Personen, i) die für die Infektion anfällig („susceptible“) sind , ii) die mit dem Erreger in Kontakt gekommen und infiziert aber noch symptomlos/nicht infektiös sind („exposed“), iii) die bereits die Krankheitssymptome zeigen und infektiös („infectious“) sind und iv)solchen, die entweder die Krankheit überstanden haben und nun immun sind oder daran verstarben („removed“). (Abbildung 2).

Das SEIR ModellAbbildung 2. Das SEIR Modell: Die vier Bevölkerungsgruppen und die 3 Prozesse, die den Verlauf der Epidemie beschreiben

Die Ausbreitung findet in drei aufeinanderfolgenden Schritten statt, die mit einfachen Gleichungen der chemischen Kinetik beschrieben werden können. Der Prozess beginnt mit einem (eingeschleppten) infizierten Individuum (I), das auf ein für die Infektion anfälliges Individuum (​S) - trifft und dieses infiziert, wobei dieses noch symptomlos bleibt und auch nicht infektiös ist (E). Nach einer Latenzzeit wird E selbst infektiös (I), steckt andere an und wird im Krankheitsverlauf entweder wieder gesund oder stirbt (R).

Wie schnell sich die Epidemie nun ausbreitet, hängt einerseits von der sogenannten Basisreproduktionszahl und andererseits von der Generationszeit ab:

  • Die Basisreproduktionszahl gibt an wie viele anfällige Personen eine infizierte Person ansteckt. Ist beispielweise die Basisreproduktionszahl 2, so steckt ein Infizierter 2 Anfällige an, diese nach der Latenzzeit insgesamt 4 Personen, in der nächsten Generation sind es 8, dann 16, dann 32, usw. Je höher die Basisreproduktionszahl ist, desto schneller breitet sich die Epidemie aus, je niedriger diese Zahl ist, desto langsamer ist sie. Im Verlauf dieses exponentiellen Wachstums nimmt die Zahl der infizierbaren Individuen laufend ab, damit sinkt die Reproduktionszahl. Kann ein Infizierter im Schnitt nur mehr eine Person anstecken, so steigt die Zahl der Infizierten nicht weiter, wird es weniger als 1 Person, erlischt die Krankheit.
  • Die Generationszeit hängt von der Latenzzeit - der Zeitdauer zwischen Infektion und der Infektiosität – und der Dauer der Infektiosität ab.

Wie ein nach dem SEIR-Modell simulierter Verlauf einer Epidemie aussieht, ist in Abbildung 3 gezeigt. Nach dem SEIR-Modell berechnete Kurven für den Verlauf einer Epidemie

Abbildung 3.Nach dem SEIR-Modell berechnete Kurven für den Verlauf einer Epidemie. Annahme: anfangs gibt es 990 anfällige (R) und 10 infektiöse (I) Individuen und die Basisreproduktionszahl ist hoch (20).Die Kurven liegen in einem Band, das die Standardabweichungen anzeigt.

Warum weichen die Prognosen so stark von der Realität ab?

Das SEIR-Modell ist streng deterministisch, d.h.es gibt vor, dass mit entsprechend gut gewählten Parametern der Verlauf des Infektionsgeschehen realitätsnah simuliert und prognostiziert werden kann (in Abbildung 3 geben die stark eingezeichneten Kurven die Reaktionen (1) – (3) aus Abbildung 1 wider). Es wird damit eine idealisierte Situation beschrieben. Das Modell ignoriert ganz einfach Zufallsprozesse (stochastische Prozesse), wie sie durch variierende demographische Strukturen, räumliche Gegebenheiten und Umweltbedingungen gegeben sind. Stochastische Modelle, welche die Wahrscheinlichkeiten einzelner Vorgänge und Zustände berücksichtigen, sind daher, wann immer es möglich ist, vorzuziehen.

Ein ganz wesentliches Problem entsteht aber, wenn aus frühen Daten einer Epidemie auf deren Ausmaß in späten Phasen geschlossen werden soll. Wie bereits früher ausgeführt wurde, ist der Beginn einer Epidemie durch exponentielles Wachstum gekennzeichnet. Wenn nun die Infektion von wenigen Individuen (vielleicht auch nur von einem einzigen) ausgeht und die Zahl der anfälligen Individuen viel größer ist, ist es für die Anfangsphase unerheblich, wie viele diese sind. Die Ausbreitung wird in allen Fällen ununterscheidbar verlaufen (Abbildung 4) und damit keine Rückschlüsse auf die Zahl der Infizierten zu einem Zeitpunkt erlauben, wenn die Epidemie bereits unter Kontrolle ist.

Anfänglich exponentielles Wachstum (großes Bild), das in eine Sättigung übergeht (Insert)Abbildung 4. Anfänglich exponentielles Wachstum (großes Bild), das in eine Sättigung übergeht (Insert). Für das Wachstum in der Anfangsphase ist es unerheblich, wie viele infizierte Individuen es schlussendlich gibt. (Den Kurven liegt eine Gleichung von P.H, Verhulst zugrunde, der im Jahr 1838 damit ein vergleichbares Problem - das Wachstum einer sich vermehrenden Population bei limitierten Ressourcen - beschreibt.)

Dass dieses Problem nicht auf die Verbreitung von Epidemien beschränkt ist, demonstrieren beispielsweise die Voraussagen des berühmten Clubs of Rome; aus politischer Sicht waren diese vielleicht wünschenswert, wissenschaftlich aber völlig unhaltbar.

Ausblick

Der aktuelle Ausbruch von Ebola bietet theoretischen Epidemiologen ein sehr reiches Datenmaterial und damit eine einzigartige Gelegenheit vorhandene Modelle zu testen und verbesserte neue zu erstellen. Dabei sollte immer berücksichtigt werden, dass Daten, die in den frühen, exponentiell verlaufenden Phasen einer Epidemie erhoben werden, wenig Aussagekraft für deren späten Verlauf bieten können.


[1] Ein ausführlicher Artikel zu diesem Thema ist eben erschienen: Peter Schuster: Ebola – Challenge and revival of Theoretical Epidemiology. Why extrapolations from early phases of epidemics are problematic. Complexity (2015) DOI:10.1002/cplx

[2] WHO: Ebola in West Africa: 12-months on (14 Artikel)


Weiterführende Links

Bill Gates: The next epidemic – lessons from Ebola. N Engl J Med 2015; 372:1381-1384 April 9, 2015 DOI:10.1056/NEJMp1502918

Lars Schade (Robert Koch Institut, Deutschland) Ebola kompakt. Video 5:14 min. (16.7.2014)

Anita Schroven: Ebola-Epidemie - Liberia, Guinea, Sierra-Leone in der Krise Radiointerview 7:19 min (16.2.2015).

Infektionen jetten um die Welt. Video 5:56 min.

inge Fri, 01.05.2015 - 11:02

Wie entstehen neue Medikamente? Pharmazeutische Wissenschaften

Wie entstehen neue Medikamente? Pharmazeutische Wissenschaften

Fr, 24.04.2015 - 06:51 — Redaktion

Icon Medizin Schwerpunktsthema. Unter „Pharmazeutische Wissenschaften“ wird ein neues interdisziplinäres Gebiet an der Schnittstelle von Pharmazie und molekularen Lebenswissenschaften verstanden, dessen Fokus auf Forschung und Entwicklung neuer Therapeutika ausgerichtet ist. Rund 40 Artikel im ScienceBlog befassen sich mit Aspekten dieses Gebiets.

Kenntnisse über Heilmittel und Gifte, deren Herstellung und Anwendung – also pharmazeutisches Wissen und Erfahrung – datieren in die frühesten Kulturen zurück und wurden in Kräuterbüchern und später in Rezeptsammlungen (sogenannten Pharmakopöen) weitergegeben. Die ältesten Aufzeichnungen sind bereits über 5000 Jahre alt, stammen aus China und beschreiben hochwirksame Heilpflanzen, die beispielsweise gegen Malaria (die Alkaloid-haltige Pflanze Dichroa febrifuga) oder gegen Asthma (die Ephedrin-haltige Pflanze Ephedra sinica) Anwendung fanden. Eine lange Liste von Heilmitteln findet sich auch in Papyri aus dem alten Ägypten: diese reichen von Abführmitteln, über Hustenmittel, Mittel zur Behandlung von Hauterkrankungen und Wunden, bis hin zu Rheumamitteln und gegen Parasiten wirkende Medikamente (ein auf Granatapfel basierendes Mittel gegen den Bandwurm war bis vor 50 Jahren in Verwendung).

Ein sehr interessantes Buch aus dem Jahr 1891: J Berendes „Die Pharmacie bei den alten Culturvölkern“(free download: https://archive.org/details/diepharmaciebeid00bere )

In unseren Kulturkreisen wurde das Wissen um die Heilmittel ("Materia medica") und ihre Wirkungen anfänglich von Mönchen und auch von Medizinern weitergegeben. Bereits im Mittelalter trennte sich die Pharmazie aber von der Medizin und es entstanden in der Folge an mehreren Universitäten Lehrstühle für Arzneikunde.

Damals wurde - wie zumeist auch heute - der Pharmazeut mit dem Beruf des Apothekers assoziiert. Dessen Aufgabe ist es Menschen mit Medikamenten zu versorgen und in Gesundheitsfragen zu beraten. Die Behandlung von Krankheiten mit Arzneimitteln ist dann dem Arzt vorbehalten. Die Berufsbilder von Medizinern und Pharmazeuten überlappen also teilweise; demnach sollten Ärzte Grundlegendes über Medikamente und deren Wirkung wissen, Pharmazeuten über Physiologie und Pathologie des menschlichen Organismus. Dennoch erfahren – zumindest in unserem Kulturkreis - beide Berufsgruppen eine unterschiedliche Ausbildung und dringen relativ wenig in das Nachbargebiet ein.

Der Apotheker bedient einen Kunden, sein Gehilfe zerreibt Material im Mörser. (Coloured etching by H. Heath, 1825. Iconographic Collections Keywords: Henry Heath.)

Beginnend mit der steigenden Bedeutung der Naturwissenschaften im 19. Jahrhundert - als die neuen Disziplinen Chemie und Botanik im Pharmaziestudium dazukamen - wurde die Pharmazie mehr und mehr zu einem molekular geprägten Forschungsgebiet. Auf der Suche nach Ansatzpunkten für neue Wirkstoffe mit neuen Wirkmechanismen ist heute ein Verständnis in Gebieten wie der Molekularbiologie, Genetik, Immunologie, Biotechnologie aber auch im Computer-unterstützten Modellieren und der Bioinformatik unabdingbar geworden.

Brauchen wir überhaupt noch neue Medikamente?

Diese Frage muss eindeutig mit Ja beantwortet werden: Für rund zwei Drittel der über 30 000 klassifizierten Krankheiten (laut WHO) gibt es noch keine oder eine nur unbefriedigende Therapie. Dazu gehören häufige Krankheiten wie Tumoren (u.a. des Magen-Darmtrakts, des Pankreas, der Lunge, des Gehirns), Autoimmunerkrankungen, chronischer Schmerz, neurodegenerative/neurologische Erkrankungen, u.v.a., ebenso wie die meisten seltenen Krankheiten.

Was bereits (z.T. schon sehr lange) existierende Arzneimittel betrifft, so ist in vielen Fällen nicht geklärt, wie diese wirken und welche Nebenwirkungen sie auslösen können.

Es besteht also dringender Handlungsbedarf.

Bis vor einem Jahrzehnt hat die Pharmaindustrie praktisch „im Alleingang“ die Forschung & Entwicklung (F&E) neuer Medikamente vorangetrieben. Pharma gehört zwar - nach dem Finanzsektor - zu den größten globalen Industriesektoren, hat seit der Jahrtausendwende ihre Umsätze auf das 2, 5 fache gesteigert und (trotz Wirtschaftskrise) nun nahezu die Marke von 1000 Mrd US $ erreicht. Dennoch steckt sie in einer schweren Krise: das Risiko ein neues Medikament auf den Markt zu bringen ist enorm hoch geworden. Bei explodierenden Kosten und einer übermäßig langen Entwicklungsdauer werden viel zu wenige neue, Gewinn versprechende Produkte zugelassen. Um den zu erwartenden niedrigeren Einnahmen gegenzusteuern, fusionieren die Konzerne und reduzieren ihre Forschungskapazitäten. Hier könnte es nun zu neuen Kooperationen kommen: Grundlagenforschung in akademischen Institutionen könnten therapeutische Lösungsansätze erarbeiten, die in fairer Weise von der Pharmaindustrie übernommen und zur Marktreife entwickelt werden.

Es besteht damit in akademischen, ebenso wie in industriellen Einrichtungen ein Bedarf an Experten, die, über das pharmazeutische Wissen hinaus, Kenntnisse in den für Forschung und Entwicklung notwendigen Fächern besitzen und diese auch anwenden können.

Was sind pharmazeutische Wissenschaften?

Dem Bedarf an transdisziplinär ausgebildeten, pharmazeutisch orientierten Experten wird seit einigen Jahren Rechnung getragen: Studiengänge zu dem neuen Fachgebiet „Pharmazeutische Wissenschaften“ werden an mehreren Orten angeboten. Im deutschen Sprachraum, beispielsweise an der ETH (Zürich), den Universitäten Basel , München und Freiburg.

Kurz umrissen: Pharmazeutische Wissenschaften sind auf Forschung und Entwicklung neuer Therapeutika ausgerichtet. Sie umfassen state-of-the-art Technologien und grundlegendes Wissen über

  • die chemischen, physikalischen und biologischen Charakteristika von Wirk- und Hilfsstoffen,
  • deren Herstellungstechnologien und Nachweisverfahren
  • deren «Schicksal» im menschlichen Körper und
  • deren Wirkungsprinzipien (erwünschte/unerwünschte Wirkungen)

Die Ausbildung in Pharmazeutischen Wissenschaften bereitet vor allem auf eine Forschungs- und Entwicklungstätigkeit an akademischen Einrichtungen oder in der pharmazeutischen Industrie vor. Die Pharmazie-Ausbildung führt meistens zum Beruf des Apothekers.

Das Berufsbild des Pharmazeutischen Wissenschafters unterscheidet sich damit wesentlich von dem des Pharmazeuten. Im ersten Fall liegt der Fokus auf moderner Pharmaforschung, bereitet also auf eine Forschungs- und Entwicklungstätigkeit an akademischen Einrichtungen oder in der pharmazeutischen Industrie vor. Die Pharmazie-Ausbildung führt meistens zum Beruf des Apothekers.


    Pharmazeutische Wissenschaften im ScienceBlog

    Passend zu diesem Schwerpunkt sind bis jetzt 40 Artikel erschienen:

    Pharmazeutische Wissenschaften im ScienceBlog

    Passend zu diesem Schwerpunkt sind bis jetzt 40 Artikel erschienen:

    Pharma-Forschung & -Entwicklung

    Vitamine & Hormone

    Metabolismus

    Bindegewebe

    Entzündung

    Infektionen

    Targets & Strategien


     

    inge Fri, 24.04.2015 - 06:51

    Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?

    Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt?

    Fr, 17.04.2015 - 08:49 — Jens C. Brüning & Martin E. Heß Jens C. BrüningMartin E. HeßIcon Medizin

    Die steigende Zahl übergewichtiger Menschen und die damit einhergehenden Erkrankungen stellen ein immer größeres Problem für die moderne Gesellschaft dar. Lebenswandel und genetische Veranlagung bestimmen die individuelle Anfälligkeit zur Gewichtszunahme. Durch Identifizierung der für Übergewicht prädisponierenden genetischen Veränderungen und die anschließende Beschreibung der betroffenen Gene/Proteine – auch im Mausmodell – erhoffen sich der Endokrinologe und Genetiker Jens Brüning, Direktor am Max Planck Institut für Stoffwechselforschung in Köln und der Genetiker Martin Heß (ebendort) - Einblicke in die komplexe Interaktion zwischen Genom und Umwelt und damit in die Mechanismen, die zu Übergewicht führen können*.

    Übergewicht und Fettleibigkeit stellen für unsere moderne Gesellschaft eine gewaltige Herausforderung dar. Vor einigen Jahren ein Phänomen das vornehmlich in entwickelten Industrienationen zu beobachten war, greift dieser Trend nun auch auf Schwellenländer über. Neueste Schätzungen gehen davon aus, dass rund 1,4 Milliarden Menschen übergewichtig sind und rund ein Drittel dieser bereits als fettleibig gelten (World Health Organization). Viele Begleiterscheinungen der Fettleibigkeit überraschen nicht, z. B. Diabetes mellitus Typ 2, kardiovaskuläre Erkrankungen und Schlaganfälle. Krankhaftes Übergewicht stellt jedoch auch einen Risikofaktor für bestimmte Krebserkrankungen dar und steht sogar im Verdacht, neurodegenerative Erkrankungen wie Alzheimer zu begünstigen. Als Konsequenz sinkt nicht nur die individuelle Lebensqualität, es entstehen darüber hinaus immense Kosten in der Patientenversorgung, die auch in einer großen Volkswirtschaft eine spürbare finanzielle Belastung hinterlassen werden.

    Genetische Veranlagung oder Lebenswandel?

    Worin liegt nun die Ursache für die stetige Zunahme des Übergewichts in der Bevölkerung? Einzelne Veränderungen (Mutationen) in der kodierenden Sequenz bestimmter Gene können zu einem Verlust der Funktion des Proteins, welches in eben diesem Gen kodiert ist, führen (loss of function mutation). So führt der Funktionsverlust von Leptin, einem Hormon, das von Fettzellen sezerniert wird und Sättigungsgefühl auslöst, unweigerlich zu schwerer Fettleibigkeit, die unbehandelt bereits im Kindesalter zum Tode führen kann.

    Könnten solche Formen von monogen (von einzelnen Genen) verursachter Fettleibigkeit verantwortlich für die prozentuale Zunahme übergewichtiger Menschen in der Bevölkerung sein?

    Erhebungen, die seit dem Beginn der 70er Jahre des vergangenen Jahrhunderts in den USA gesammelt wurden, zeigen deutlich, dass der Anteil der Übergewichtigen und fettleibigen Menschen an der Bevölkerung seit Anfang der 80er Jahre stetig steigt (Abbildung 1). Mutationen, die zu monogener Fettleibigkeit führen, liegen jedoch nur äußerst selten der bei Menschen beobachteten Fettleibigkeit zu Grunde. Darüber hinaus werden diese Veränderungen des Genoms bereits seit Generationen vererbt und somit waren die seltenen Fälle von schwerer Fettleibigkeit bereits vor den 70er Jahren des 20. Jahrhunderts bekannt.

    Prozentualer Anteil fettleibiger Menschen (Body-Mass-Index > 30 kg/m²) an der Bevölkerung der USAAbbildung. 1: Prozentualer Anteil fettleibiger Menschen (Body-Mass-Index > 30 kg/m²) an der Bevölkerung der USA. obese: fettleibig © Quelle: CDC/NCHS, National Health and Nutrition Examination Survey

    Das immer häufiger auftretende Übergewicht muss demnach eine andere Ursache haben. Nach heutigen Erkenntnissen sind unsere veränderten Lebensumstände der Kern des Problems. Sesshaftes Leben, Büroarbeitsplatz, automobile Mobilität, fehlende Bewegung und ein ständiges Überangebot an energiereicher und wohlschmeckender Nahrung charakterisieren unsere heutige Gesellschaft. Somit ist es auch nicht überraschend, dass die 1970er Jahre sowohl den Beginn des Siegeszugs der Fastfood-Industrie als auch den Beginn des Gewichtzuwachses in der Bevölkerung markieren.

    Können wir also unserem Genom keine Schuld an unserem Übergewicht geben?

    Und warum beobachten wir dennoch eine breite Variabilität im Erscheinungsbild unserer Gesellschaft, obwohl jedes Mitglied einer definierten Bevölkerungsgruppe den gleichen Umweltbedingungen und Versuchungen ausgesetzt ist?

    Mögliche Antworten werden seit der Entwicklung genomweiter Sequenzierung in Vielzahl geboten. Einzelnukleotid-Veränderungen im menschlichen Genom, sogenannte „single nucleotide polymorphisms“ (SNPs), werden in Verbindung mit bestimmten Krankheitsbildern oder Körpermerkmalen gebracht. Diese Polymorphismen führen jedoch nicht zu einem Funktionsverlust der entsprechenden Gene, vielmehr befinden sich viele dieser Veränderungen in nicht-kodierenden Sequenzen. Wie genau diese Polymorphismen verschiedene Krankheiten oder Funktionen des Körpers beeinflussen, ist meist ungeklärt und stellt eine Herausforderung für die Wissenschaftler dar. Vermutlich wird indirekt die Funktion oder die Expression von Proteinen beeinflusst.

    Innerhalb eines menschlichen Genoms befinden sich nun nicht nur eine, sondern viele solcher Einzelnukleotid-Veränderungen. Manche werden mit nachteiligen, andere mit günstigen Effekten für ein bestimmtes Merkmal oder eine Krankheit, wie z. B. Fettleibigkeit, assoziiert. In ihrer Gesamtheit beeinflussen alle im Genom vorhandenen Polymorphismen die individuelle Anfälligkeit für z. B. Übergewicht und somit spricht man in diesem Fall von polygener (durch das Zusammenspiel mehrerer Gen-Loci bedingter) Fettleibigkeit.

    Gegenwärtig sind mit Hilfe genomweiter Sequenzierungen 52 Gene identifiziert worden, die innerhalb ihrer Sequenz Polymorphismen aufweisen, die wiederum mit Übergewicht in Verbindung gebracht wurden (Abbildung 2).

    Eines dieser Gene kodiert für das fat mass and obesity asssociated protein (FTO).

    Tatsächlich war FTO eines der ersten Gene, welches im Jahr 2007 mit Hilfe neuerer und wirtschaftlicherer Methoden der genomweiten Sequenzierung mit Übergewicht in Verbindung gebracht wurde. Zusammenfassung der bekannten, mit Übergewicht assoziierten GeneAbbildung 2: Zusammenfassung der bekannten, mit Übergewicht assoziierten Gene, anhand signifikant veränderter Körpermerkmale. Während einige Polymorphismen nur mit einem oder wenigen Körpergewichtsmerkmalen assoziiert sind, stehen FTO-Varianten mit erhöhtem BMI, Körperfettanteil, Hüftumfang und generell Fettleibigkeit in Verbindung. (© Max-Planck-Institut für neurologische Forschung/Loos RJF(2012))

    Wie wir nun wissen, befindet sich innerhalb einer (nicht kodierenden) Region des FTO Gens ein Cluster von SNPs, der äußerst signifikant mit einem erhöhten Body-Mass-Index (BMI - bewertet das Körpergewicht in Relation zur Körpergröße) assoziiert ist. Man spricht von Risiko-Allelen (Allel = Genvariante), die für ein erhöhtes Körpergewicht empfänglich machen. Die individuellen Effekte des für ein erhöhtes Körpergewicht prädispositionierenden Risiko-Allels sind hierbei relativ gering. Träger eines FTO-Risiko-Allels haben im Durchschnitt einen um 0.4 kg/m2, Träger von zwei Risiko-Allelen um 0.8 kg/m2 erhöhten Body-Mass-Index im Vergleich zu nicht betroffenen Probanden. Inwiefern eine für Übergewicht prädispositionierende Variation im FTO-Gen mit anderen Risikofaktoren, mit anderen Polymorphismen, die mit Übergewicht assoziiert sind, oder mit Umwelteinflüssen interagiert, ist bis dato nicht bekannt, stellt jedoch einen wichtigen Baustein in der Untersuchung des polygen verursachten Übergewichtes dar.

    Das “fat mass and obesity-associated protein” (FTO)

    Ausgelöst durch die statistisch höchst signifikante und in verschiedensten ethnischen Gruppen reproduzierte Assoziation der Polymorphismen des menschlichen FTO-Gens mit Übergewicht, widmeten sich Wissenschaftler der Untersuchung des FTO-Proteins. Welche molekulare Funktion erfüllt es? In welchen Organen des Körpers wird es exprimiert bzw. in welchem dieser Organe oder Zellpopulationen erfüllt es eine wichtige Aufgabe? Wie wird seine Expression reguliert? Fragen, welche nur durch die gezielte genetische Manipulation des FTO-Gens beantwortet werden können.

    Während der bis jetzt nur wenig beschriebene Verlust des FTO-Proteins in jeder Zelle des menschlichen Körpers verheerende Folgen für die Entwicklung und das Überleben betroffener Patienten hat, führt der Verlust in Mäusen zu einem komplexen Erscheinungsbild (Phänotyp), der unter anderem durch eine erhöhte postnatale Sterberate, geringere Körpergröße, verringerte Fett- und Magermasse, einen erhöhten Energieverbrauch bei reduzierter Bewegung und einen erhöhten sympathischen Tonus charakterisiert ist. Dies bestätigte die Vermutung, dass FTO eine Rolle in dem Gleichgewicht im Energiehaushalt erfüllt. Auf Grund der Komplexität dieses Phänotyps war jedoch eine genauere Einschränkung der molekularen Wirkmechanismen oder involvierten Kontrollmechanismen nicht möglich.

    Die Beobachtung, dass FTO insbesondere im Zentralnervensystem exprimiert ist und sowohl der Verlust der Expression des FTO-Gens als auch der des Dopamin-Rezeptors vom Typ 2 in Mäusen ähnliche Charakteristika hervorrufen, legte die Untersuchung des sogenannten dopaminergen „Belohnungs“-Systems nahe. Dieses System beeinflusst durch Ausschüttung des Botenstoffes Dopamin unsere Motivation, eine vorangegangene Handlung zu wiederholen, z. B. eine schmackhafte Speise erneut zu sich zu nehmen oder sogar zielgerichtet danach zu suchen. Zur Untersuchung des dopaminergen Systems wurden neben FTO-defizienten Mäusen auch Mäuse mit einer konditional gerichteten und spezifischen Deletion von FTO in dopaminergen Neuronen verwendet. Hierbei stellte sich heraus, dass der Verlust von FTO die zellulären Antworten abschwächt, die von Dopamin-Rezeptoren abhängen. In FTO-defizienten Mäusen, in denen jede Körperzelle vom Verlust von FTO betroffen ist, führt dies zu einem nahezu kompletten Verlust der bewegungsstimulierenden Wirkung von Kokain (welches normalerweise zu einer Überaktivierung dopaminerger Signalübertragung führt). Die konditionale Deletion von FTO spezifisch in dopaminergen Neuronen hingegen führt zu einem gegenteiligen Effekt und einer Hypersensitivität gegenüber den stimulierenden Effekten von Kokain. Bedingt durch den räumlich limitierten Effekt des FTO Verlustes betrifft die Abschwächung der Dopamin-Rezeptorabhängigen Antworten nur dopaminerge Neurone. Diese Rezeptoren (auch D2/D3-Autorezeptoren genannt) sind Teil einer Feedbackschleife und stellen durch ihre inhibitorische Wirkung sicher, dass die dopaminerge Transmission ein Ende findet. Somit führt der Verlust von FTO in diesen Neuronen zu einer abgeschwächten Feedbackschleife und damit zu hypersensitiver dopaminerger Transmission.

    Molekulare Funktion von FTO

    Das FTO-Protein ist eine Demethylase und vermag als solche in vitro unterschiedliche Methylierungsmodifikationen verschiedener Nukleotide entfernen. In vivo konnte bis dato N6-Methyladenosin in mRNA (messenger RNA) als Substrat bestätigt werden. Obwohl N6-Methyladenosin bereits seit mehr als 30 Jahren bekannt ist, sind die Konsequenzen, die diese Modifikation hat, weitgehend unbekannt. Kürzlich jedoch konnten Wissenschaftler zeigen, dass N6-Methyladenosin-modifizierte mRNAs von bestimmten Proteinen erkannt, zu sogenannten processing bodies innerhalb einer Zelle transportiert und dort abgebaut werden. Somit beeinflusst die Methylierung die Lebenszeit der Trägermoleküle der genetischen Information, welche als Bauplan zur Herstellung jeglicher Proteine in einer Zelle benötigt werden.

    Im Fto-defizienten Mausmodell scheint dies in der Tat der Fall zu sein. Eine Analyse des Methylierungsstatus in Gehirngewebe zeigte, dass ca. 1500 Transkripte auf Grund der fehlenden Demethylase FTO im Vergleich zu einer Wildtyp-Kontrolle übermäßig methyliert sind. Der größte Teil der betroffenen Transkripte kodierte in diesem Fall für Proteine, welche Aufgaben in neuronaler Signalübertragung übernehmen und teilweise auch wichtige Komponenten der dopaminergen Synapse sind.

    Es bleibt abzuwarten, ob es sich bei dieser molekularen Funktion um die einzige Aufgabe von FTO handelt, ob in unterschiedlichen Zellpopulationen unterschiedliche Transkripte Ziel der Demethylase FTO sind und ob N6-Methyladenosin einzig eine Markierung zum Abbau von mRNA-Transkripten ist.

    Vom Mensch zur Maus und zurück zum Menschen?

    Inwieweit können nun die gewonnenen Erkenntnisse im Mausmodell auf den Menschen übertragen werden? Da die Polymorphismen im humanen FTO-Gen keinen unmittelbaren Einfluss auf die Funktion des FTO-Proteins haben, ist diese Frage schwer zu beantworten. Während genetische Nagermodelle einen meist eindeutigen Zustand beschreiben (Verlust oder übermäßiges Vorkommen eines Proteins), ist bis dato nicht bekannt, ob und wenn ja, welchen Einfluss die Einzelnukleotid-Veränderungen auf mRNA oder Proteinmengen von FTO haben.

    Der große Wert dieser Grundlagenforschung liegt auch noch in anderen Erkenntnissen. Aus dem Wissen, dass FTO in dopaminergen Zellen von Bedeutung ist, ergeben sich neue Forschungsfragen. Fehlfunktionen des dopaminergen Systems sind nicht nur mit Störungen der Essfunktion, sondern unter anderem auch mit Schizophrenie, Depression, Impulsivität und Suchtverhalten assoziiert. Somit sollte die Untersuchung von FTO-Gen-Variationen auch auf diese und ähnliche Krankheitsbilder unter Zuhilfenahme bereits etablierter Verhaltensparadigmen ausgeweitet werden. Ferner ermöglicht es die gleichzeitige Untersuchung der mit Übergewicht assoziierten FTO-Variationen und bekannter, mit Fehlfunktionen des dopaminergen Systems assoziierter Risiko-Allele: Ziel ist die Identifikation möglicher synergistischer oder einander kompensierender Gen-Gen-Interaktionen. Diese Experimente könnten ein erster Schritt hin zu einem Verständnis individueller Anfälligkeit für Gewichtszunahme sein und Hinweise auf den Zusammenhang zwischen unserem Genom und unserer Umwelt geben.


    * Der im Forschungsmagazin der Max-Planck Gesellschaft 2014 erschienene Artikel http://www.mpg.de/7929909/MPInF_JB_2014?c=8236817 wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier geringfügig für den Blog adaptiert und ohne (die im link angeführten Literaturzitate.


    Weiterführende Links

    Max-Planck-Institut für Stoffwechselforschung: Schwerpunktthemen: zerebrale Kontrolle des Energie- und Glukose­stoffwechsels; Zusammenhang von Übergewicht, Insulinresistenz und Typ-2 Diabetes und neurodegenerative Erkrankungen http://www.nf.mpg.de/

    Neurotransmitter – Botenmoleküle im Gehirn (U. Pontes): https://www.dasgehirn.info/entdecken/kommunikation-der-zellen/neurotrans...

    Prof. Jens C. Brüning http://www.young-cecad.de/Prof-Jens-C-Bru-ning.179.0.html Video 0:47 min. Prof. Brüning interessiert an der Alternsforschung zu verstehen, warum der menschliche Organismus altert. Besonders interessiert ihn der sog. Altersdiabetes, eine Erkrankung, die gehäuft im zunehmenden Alter auftritt. Bei diesem Typ 2-Diabetes funktioniert das körpereigene Hormon Insulin nicht mehr richtig. In Folge dessen kommt es zum Anstieg der Blutzuckerkonzentration.

    CECAD (Cellular Stress Responses in Aging Associated Diseases) Exzellenzcluster http://cecad.uni-koeln.de/Home.3.0.html?&L=1

     CECAD - Das Exzellenzcluster für Alternsforschung Video 2:59 min

    CECAD Forschungsbereich F / "Warum entsteht Hunger im Gehirn?" Video 210 min

    Ich esse, also bin ich! Video 3:19 min

    inge Fri, 17.04.2015 - 08:49

    Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?

    Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge?

    Fr, 10.04.2015 - 06:25 — Hartmut Glossmann Hartmut GlossmannIcon Medizin

    Metformin, ein kleines synthetisches Molekül, ist seit über 50 Jahren Nummer 1 in der Behandlung von Typ II Diabetes. Bei sehr hoher Wirksamkeit zeigt Metformin erfreulich wenige unerwünschte Nebenwirkungen und wird jährlich von mehr als 100 Millionen Patienten angewandt. Nahezu zahllose klinische Untersuchungen wurden bis jetzt mit dem Medikament durchgeführt. Der Pharmakologe Hartmut Glossmann – ein Pionier der Biochemischen Pharmakologie – erzählt, wie nun retrospektive Analysen dieser Studien ein überaus breites Potential neuer Wirkungen – u.a. gegen Krebserkrankungen, Entzündungen, bis hin zum Verzögerung des Alterungsprozesses - erkennen lassen.

    Weltweit sind laut WHO 347 Millionen Menschen an Diabetes mellitus erkrankt, davon 90 % an Typ II Diabetes, der nicht Insulin-abhängigen Form der Zuckerkrankheit (früher hieß diese „Alter-Diabetes“) - Tendenz steigend. Der erhöhte Blutzucker (Hyperglykämie) führt langfristig zu schwerwiegenden Schädigungen vor allem des Herz-Kreislaufsystems und des Nervensystems. Nummer 1 in der Behandlung dieser chronischen Erkrankung ist Metformin. Seit über 50 Jahren wird das Medikament erfolgreich angewandt (in Österreich u.a. unter den Handelsnamen Glucophage, Diabetex ) und mehr als 100 Millionen Patienten bekommen es jährlich verschrieben.

    Von der Heilpflanze zum Arzneimittel

    Metformin ist ein kleines, stickstoffreiches stark basisches Molekül, das zur Gruppe der sogenannten Biguanidine (das sind Verbindungen mit 2 kondensierten Guanidinen; Abbildung 1) gezählt wird.

    Abbildung 1. Die Geißraute (links) wurde schon seit dem Mittelalter gegen viele Krankheiten, darunter auch Diabetes, eingesetzt. Als Wirkstoffe wurden in den 1920er Jahren Galegin und Guanidin identifiziert. Metformin leitet sich von diesen Verbindungen ab.

    Wie auch der Großteil anderer Arzneimittel leitet sich Metformin von Naturstoffen her: im konkreten Fall von Inhaltsstoffen in der für Menschen an und für sich giftigen Geißraute (Galega officinalis). Dieses „Kraut“ wurde bereits seit dem Mittelalter als Heilpflanze bei verschiedensten Krankheiten eingesetzt, von Diabetes bis hin zu Infektionen (u.a. Pest, Fleckfieber und Pocken). Sogar zur besseren Milchleistung von Nutztieren wurde Metformin angewandt. Die aufkommende chemische Analytik zu Beginn des 20. Jahrhunderts ermöglichte es in den Pflanzenextrakten antidiabetisch wirksame Prinzipien festzustellen: Guanidin und sein, nach der Pflanze benannter, Metabolit „Galegin“.

    Guanidin selbst erwies sich als zu toxisch für die klinische Anwendung, Galegin wurde an einer Reihe von Diabetes-Patienten – offensichtlich erfolgreich – eingesetzt. Insgesamt suchte man aber nach Guanidin-basierten Verbindungen mit höherer Wirksamkeit und einem verbesserten Sicherheitsprofil. Unter diesen Verbindungen war Metformin. Es war bereits 1923 in Deutschland synthetisiert worden, hatte in Tierexperimenten blutzuckersenkende Wirkung gezeigt und schien überdies anti-entzündliches (anti-inflammatorisches) Potential zu besitzen. Offenbar war die Zeit für seine Entwicklung noch nicht gekommen und es sollte aber noch bis 1957 dauern, bis ein französischer Forscher die antidiabetische Wirkung von Metformin am Menschen nachwies. Damit begann der Siegeszug des Antidiabetikums: es erwies sich nicht nur als ein wirksames, weitgehend sicheres Medikament mit nur geringen Nebenwirkungen, sondern - auf Grund seiner einfachen chemischen Struktur – auch als recht kostengünstig in der Herstellung. Die Wirkung in kurzen Worten zusammengefasst: Metformin reduziert die Neubildung von Glukose (vor allem) in der Leber ohne dabei die Insulinausschüttung zu erhöhen und ohne, dass es zu einer Zunahme des Körpergewichts kommt.

    Vom alten Antidiabetikum zur neuen Panacaea

    In den vergangenen mehr als 50 Jahren sind zahllose Studien an Millionen von Typ2 Diabetikern durchgeführt worden, welche Metformin als Monotherapie oder als Bestandteil einer Kombinationstherapie erhielten. Durch retrospektive Analysen dieser Untersuchungen entdeckt man nun seit etwa 2005 neue Wirkungen, u.a. eine:

    • Anti-Cancer Wirkung: eine rezente Metaanalyse von nahezu 1.5 Millionen Patientendaten kommt zum überraschenden Schluss, dass Metformin die Krebshäufigkeit bei Diabetikern signifikant senkt. Dazu muss man vorausschicken, dass Diabetiker generell ein erhöhtes Risiko haben an Krebs verschiedener Organe – beispielsweise an Brustkrebs, Pankreas-Ca oder Colon-Ca - zu erkranken.
    • Anti-Psoriasis Wirkung: Andere Analysen sprechen dafür, dass Metformin das Risiko für Psoriasis - allerdings nur bei Männern - vermindert.
    • Verzögerte Progression von metabolischem Syndrom zu Diabetes: Hypothesen zur Wirksamkeit von Metformin im Vergleich zu Plazebo und „life-style“ Intervention wurden in (prospektiven) Studien getestet; sie belegen: Metformin kann das Fortschreiten von metabolischem Syndrom zum Diabetes verzögern.
    • Reduktion kardiovaskulärer Ereignisse: Metformin vermindert bei übergewichtigen Diabetikern kardiovaskuläre Ereignisse im Vergleich zu anderen Antidiabetika inklusive Insulin. Mit Hilfe spezifischer Biomarker für Entzündungsprozesse gelingt es anti-inflammatorische Wirkungen bei mit Metformin behandelten Typ 2 Diabetikern nachzuweisen.

    Metformin besitzt also ein vielversprechendes Potential präventiv und therapeutisch in diversesten Krankheiten zu wirken. Derzeit laufen weltweit mehr als 370 klinische Studien mit Metformin, davon befassen sich mehr als 100 kontrollierte Untersuchungen mit der Anti-Cancer Wirkung gegen eine breite Palette von Tumoren (https://www.clinicaltrials.gov/). Zwei kürzlich publizierte Studien mit nicht-Diabetikern belegen, dass Metformin in sehr kleinen, fast homöopathischen Dosen (250 oder 500 mg /Tag), die Entwicklung von als Karzinom Vorstufen bewerteten Foci im Colon (colo-rectalen aberranten kryptischen Foci) verhindert. Diese Organ-selektive Wirkung ist mit hoher Wahrscheinlichkeit auf die Anreicherung von Metformin im Darmtrakt zurück zu führen.

    Worauf beruhen die so verschiedenartigen Wirkungen von Metformin?

    Auch nach jahrzehntelanger Anwendung von Metformin ist noch nicht völlig geklärt, wie und wo überall diese Substanz in Stoffwechselwege eingreift.

    Belegt ist, dass bei oraler ( aber auch bei intravenöser !) Gabe eine extreme Anreicherung des Metformins erfolgt und zwar in den Zellen, die den Dünndarm auskleiden, aber ganz besonders auch in den Zellen entfernterer Darmabschnitte, im Colon. Für diese Anreicherung spielen Transportproteine in der Plasmamembran (Monoamin- (Serotonin-)Transporter) eine entscheidende Rolle.

    Im unteren Dünndarm (Ileum) hemmt Metformin die Wiederaufnahme von Gallensäuren mit nachfolgender Stimulation eine Peptidhormons (Glukagon-Like Peptide 1 im Colon. Dies führt zu gravierenden Stoffwechselveränderungen in den Zellen des Colons, mit verstärkter Aufnahme von Glukose aus der Zirkulation ( erkennbar im Fluor-Deoxyglukose PET)und AMPK Aktivierung( siehe weiter unten).

    Später, beim Eintritt in die (Leber)Zelle – u.a. über das Transportprotein OCT-1 („Organic Cation Transporter“) kommt es zur Konkurrenz mit Substanzen, die denselben Transportweg benutzen. U.a. wird die Aufnahme von Vitamin B1 (Thiamin), welches eine essentielle Rolle in der Lipidsynthese spielt, stark blockiert.

    In den Zellen reichert sich Metformin in Mitochondrien an und baut sich dort spezifisch in eine Komponente (Komplex I) der Atmungskette ein. Dieser zentrale Prozess der zellulären Energiegewinnung ist auf der inneren Mitochondrienmembran lokalisiert und generiert hier die universelle Energiewährung der Zelle, das ATP (Adenosintriphosphat). Der Einbau des Metformins bewirkt eine leichte Hemmung dieses Prozesses und damit eine verminderte Produktion von ATP. Als Folge steigt der zelluläre Spiegel der Vorstufe des ATP, des Adenosinmonophosphat (AMP), an.

    Erhöhtes AMP wird als Signal von Enzymen registriert welche u.a den Glukoseabbau (Glykolyse) und die Glucoseneubildung (Gluconeogenese) kontrollieren (z.B. die AMP-regulierte Phosphofructokinase). Vor allem aktiviert AMP ein Enzym – die AMP-aktivierte Proteinkinase (AMP-Kinase) -, welches als Master Regulator den Energiestatus der Zelle kontrolliert und bei reduzierter verfügbarer Energie von energieverbrauchenden Syntheseprozessen auf energieliefernde Abbauprozesse umschaltet. Dies führt langfristig zu adaptiven Veränderungen im Fettstoffwechsel , im Glukosestoffwechsel und in der Proteinsynthese - eine Vielzahl von Stoffwechselvorgängen ist davon betroffen: so wird u.a. das Entzündungsgeschehen beeinflusst, ebenso der programmierte Zelltod (Apoptose) und wichtige Proteine der Tumorabwehr aktiviert (Abbildung 2).

    Abbildung 2. Wie wirkt Metformin? Stark vereinfachte Darstellung des Angriffspunkts Komplex 1 in Mitochondrien. Metformin gelangt über einen Transporter (OCT-1) in die Zelle, baut in Komplex 1 ein und reduziert die Zellatmung und damit die Entstehung von ATP. Der nun in erhöhter Konzentration vorliegende Vorläufer AMP wirkt als Signal auf mehrere Enzyme, u.a. auf die Phosphofructokinase (PFK) und stimuliert damit den Glukoseabbau. Vor allem aktiviert AMP die AMP-Kinase, einen Masterregulator, der essentielle Syntheseprozesse (e.g. von Glukose, Lipiden, Proteinen,..) „abschaltet“.

    Mit dem Umschalten auf energieliefernde Abbauprozesse imitiert Metformin quasi „Fasten“ bzw. Kalorienrestriktion (es wird deshalb auch als „Calorie Restriction Mimetic“ bezeichnet). Im Tierversuch kann Metformin ebenso wie Einschränkung der Nahrungszufuhr das „Leben“ von Mäusen verlängern und zu weniger mit dem „Altern“ in Verbindung gebrachten Veränderungen wie beispielsweise Katarakten oder Tumoren führen. Dabei zeigt Metformin auch überragende anti-­entzündliche (anti‐inflammatorische) Eigenschaften. Dem ist besondere Bedeutung zuzumessen: Der Entzündungsprozeß steht derzeit im Mittelpunkt der Forschung über kausale Auslöser/Verstärker der Atherosklerose, der Pathogenese des Typ 2 Diabetes und des aggressiven Tumorgeschehens. Für die Anti-Tumorwirkungen des Metformins gibt es viele direkte, experimentelle Belege, die von Verhinderung der durch UVB-Strahlung induzierten Hauttumoren bis hin zur selektiven Abtötung von rasch wachsenden, metastasierenden Krebs Stammzellen reichen.

    Für wie gefährlich sollte man Metformin einschätzen?

    Der Ausspruch des Paracelsus „Alle Dinge sind Gift, und nichts ist ohne Gift; allein die Dosis macht‘s, daß ein Ding kein Gift sei“ gilt für alles, was wir zu uns nehmen. Natürlich auch für Medikamente – es gibt keine Wirkstoffe, die nicht auch unerwünschte Nebenwirkungen haben. Im Falle des Metformin werden Gefahren zweifellos überschätzt, sein Nutzen unterschätzt. Keines der in den letzten Jahren neu eingeführten Antidiabetika hat bislang die gleichen günstigen Wirkungen wie Metformin belegen können, keines hat so wenige und durchaus kontrollierbare Nebenwirkungen gezeigt, wie das an Millionen und Abermillionen von Patienten erprobte Metformin.

    Die Nachteile von Metformin :

    • nach einigen Jahren kann es zu einem Vitamin B12 Mangel kommen (Ursache ungeklärt), der sich leicht korrigieren lässt.
    • Die bei Beginn einer Therapie zu beobachtenden gastro-intestinalen Nebenwirkungen (Durchfall, Übelkeit) können oft durch einschleichende Dosierung umgangen werden und sind gegenüber dem Nutzen vernachlässigbar.
    • Als schwerwiegende unerwünschte Wirkung wird im Beipackzettel die sogenannte Laktazidose zitiert, d.i. ein vermehrter Gehalt an Milchsäure in Blut und Gewebe auf Grund eines gestörten Abbaus von Glukose. Mit dem Risiko einer derartigen Laktazidose wird die Kontraindikation bei Herzinsuffizienz begründet: jedenfalls konnte in klinischen Studien an ausgewählten und überwachten Patienten eine Laktazidose nicht beobachtet werden. Für die Kontraindikation Herzinsuffizienz gibt es also keine gesicherten Belege- das Gegenteil ist eher der Fall: Patienten mit Herzinsuffizienz scheinen von Metformin zu profitieren.
    • Ebenso wird zunehmend bezweifelt, ob das pauschale Verbot von Metformin bei Einschränkung der Nierenfunktion sinnvoll ist. Die Vorteile von Metformin, insbesondere die erwartbaren Langzeitwirkungen, lassen es sinnvoll erscheinen (ähnlich wie bei vielen anderen Medikamenten) eine Nierenfunktions-abhängige Dosierung einzuführen. In unseren Kliniken ist es möglich, die Plasmaspiegel mit Massenspektromie rasch und zuverlässig zu bestimmen. Ein (vor Jahrzehnten zwischen Herstellern und Behörden vereinbarter) „Beipackzettel“ darf nicht dazu führen, dass ärztliches Handeln aufgrund überwältigender wissenschaftlicher Erkenntnisse behindert wird.

    Ausblick

    Die relativ milden Nebenwirkungen des Metformin lassen somit seine Verwendung „off-label“ , d.h. für Indikationen, die über die behördlich zugelassene Indikation Diabetes Typ II hinausgehen, gerechtfertigt erscheinen. Dementsprechend wird dieses Medikament bereits bei Polycystischem Ovarialsyndrom, bei metabolischem Syndrom und Prädiabetes erfolgreich angewandt. Es erscheint durchaus wahrscheinlich, dass weitere Indikationen folgen werden (Abbildung 3).

    Abbildung 3. Neben der etablierten Therapie von Diabetes II, zeigt Metformin ein vielversprechendes Potential in vielen anderen Indikationen.

    Die eingangs erwähnten klinischen Studien prüfen die Wirkung von Metformin gegen eine breite Palette an Krankheiten, die neben Diabetes von diversen Krebserkrankungen über Atherosklerose bis hin zur Fettsucht reichen. Bei entsprechendem Ausgang könnten damit neue Zulassungen von Metformin angestrebt werden. Ein derartiges „Drug-Repositioning“ wird heute auch mit einer Reihe anderer etablierter Medikamente angestrebt.

    Darüber hinaus könnte aber auch die vorbeugende Wirkung des Metformin gegen einige unserer Zivilisationskrankheiten bis hin zum Verzögern von „Alterserscheinungen“ besondere Bedeutung erlangen (Abbildung 4). Abbildung 4. Über Wellness hinausgehend: Gesundheit, Klugheit, Jugend – kann Metformin einen Beitrag leisten? (Bild: Peter Paul Rubens (1638) „Urteil des Paris“; Prado, Madrid)


    Literatur zu einzelnen Punkten dieses Artikels wird auf Wunsch zugesandt.


    Weiterführende Links

    inge Fri, 10.04.2015 - 06:25

    Hormone und Umwelt

    Hormone und Umwelt

    Fr, 03.04.2015 - 07:49 — Michaela Hau

    Michaela HauIcon BiologieHormone steuern durch komplexe Regelkreise die Anpassungen von Organismen an ihre Umwelt. Verändern sich diese hormonellen Regelkreise schnell genug, um mit den weltweit immer schneller werdenden Umweltveränderungen mitzuhalten? Die Biologin Michaela Hau, Gruppenleiterin am Max-Planck Institut für Ornithologie (Seewiesen) und Professorin an der Universität Konstanz zeigt am Beispiel des Hormons Kortikosteron bei Vögeln, dass verschiedene Arten unterschiedliche Konzentrationen aufweisen können – je nach ihrem Fortpflanzungsaufwand und dass auch innerhalb einer Art Kortikosteronwerte zum Fortpflanzungserfolg eines Individuums passen.*

    Die Mehrheit der Organismen lebt in einer Umwelt, die sich ständig verändert – innerhalb eines Tages, zwischen den Jahreszeiten und den Jahren. Hormone sind Signalstoffe des Körpers, die es Organismen ermöglichen, sich auf solche Umweltveränderungen einzustellen. Sie steuern viele Merkmale von Tieren, unter anderem ihr Verhalten, ihren Energiehaushalt und ihre Fortpflanzung. Während die Wissenschaft große Fortschritte in unserem Verständnis der Evolution morphologischer Merkmale erbracht hat – ein berühmtes Beispiel sind die unterschiedlichen Schnabelformen der Darwinfinken – ist unser Wissen über evolutionäre Veränderungen in physiologischen Merkmalen wie Hormonen noch sehr unvollständig. Aufgrund der zur Zeit mit großer Geschwindigkeit voranschreitenden globalen Klimaveränderungen stellt sich nun eine wichtige Frage: Können sich hormonelle Prozesse schnell genug verändern, um Organismen eine rechtzeitige und erfolgreiche Anpassung an veränderte Umweltbedingungen zu ermöglichen?

    Wie könnten sich hormonelle Regelkreise durch Evolution verändern?

    Hormone sind Bestandteile von komplexen Regelkreisen, innerhalb derer Auslöse-, Empfänger- und Rückkopplungsprozesse auf mehreren Ebenen zusammenwirken (Abb. 1). Möglichkeiten der Kopplung zwischen Einheiten hormoneller Regelkreise und Merkmalen des LebensstilsAbbildung 1. Stark vereinfachte Darstellung: Möglichkeiten der Kopplung zwischen Einheiten hormoneller Regelkreise und Merkmalen des Lebensstils, die Auswirkungen auf evolutionäre Veränderungen haben könnten. Kreise stellen evolutionäre Einheiten dar (auf die die Selektion einwirken kann), während Pfeile Teile des Regelkreises darstellen. Die Hypothese der ‚Evolutionären Einschränkung/ Integration’ (a), besagt, dass wichtige Komponenten der Hormonsynthese und -wirkung eng miteinander und mit der Steuerung des Lebensstils verwoben sind. Dadurch bleibt auch die Weise, in der der Lebensstil gesteuert wird, erhalten (z.B. + Erhöhung der Fortpflanzung, - Herabschaltung von Selbsterhaltungsprozessen). Die Hypothese des ‚Evolutionären Potenzials’ (b) nimmt dagegen an, dass die Einheiten des hormonellen Regelkreises weitgehend unabhängig voneinander sind. Dadurch kann auch die hormonelle Steuerung des Lebensstils variiert werden. Viele Einheiten und Wechselwirkungen von hormonellen Regelkreisen wurden hier nicht dargestellt.(© übersetzt und modifiziert nach [M.Hau, Bioessays 29, 133-144 (2007)], mit Erlaubnis von BioEssays/Wiley Interscience)

    Ein wichtiger Mechanismus der Anpassung an Umweltveränderungen sind die gut erforschten kurz- und langzeitigen Veränderungen in Hormonkonzentrationen im Blut. So zeigen Tiere (und Menschen) sowohl schnelle Hormonveränderungen innerhalb weniger Minuten nach dem Auftreten eines Umweltreizes als auch regelmäßige tages- und jahreszeitliche Schwankungen im Hormonhaushalt. Ähnliche Schwankungen werden auch in anderen Teilen von hormonellen Regelkreisen beobachtet, zum Beispiel in hormonbildenden Enzymen oder in Hormonrezeptoren. Es ist wahrscheinlich, dass sich durch evolutionäre Prozesse das Ausmaß solcher hormoneller Schwankungen an den Umfang der Umweltveränderungen, denen eine Art ausgesetzt ist, angepasst hat. Wenn sich aber nun die Umweltschwankungen verändern, muss sich wiederum der hormonelle Regelkreis ändern, um eine erfolgreiche Anpassung zu gewährleisten. Wie und wie schnell verändern sich hormonelle Regelkreise?

    Es ist zum Beispiel möglich, dass viele Bestandteile hormoneller Regelkreise, etwa durch genetische Mechanismen, zu Einheiten zusammengefasst sind und sich dadurch miteinander verändern (Abb. 1a;). Es könnte aber auch sein, dass sich die Einheiten des Regelkreises weitgehend unabhängig voneinander verändern können (Abb. 1b). In beiden Szenarien sind evolutionäre Veränderungen denkbar, wobei es noch unklar ist, ob eine Kopplung vieler Einheiten eine evolutionäre Anpassung des Systems eher verlangsamt oder deren Geschwindigkeit sogar erhöht.

    Kortikosteron und seine Funktionen

    Um zu verstehen, wie die Evolution auf hormonelle Regelkreise einwirkt, haben Forscher des Max-Planck-Instituts für Ornithologie in Radolfzell und Seewiesen vor einigen Jahren begonnen, das Hormon Kortikosteron bei Vögeln zu untersuchen. Kortikosteron ist ein Glukokortikoidhormon, das in vielen Wirbeltieren vorkommt (Menschen besitzen ein eng verwandtes Hormon, das Kortisol). Kortikosteron steuert wichtige Körperfunktionen, wie zum Beispiel die Bereitstellung von Zucker im Energiehaushalt. Bei erhöhtem Energiebedarf wird dieses Hormon in erhöhten Mengen von der Nebennierenrinde ins Blut ausgeschüttet. Besonders starke Anstiege in der Kortikosteronkonzentration werden beim Auftreten unangenehmer Situationen beobachtet, zum Beispiel wenn plötzlich ein Fressfeind auftaucht. Solche stark erhöhten, durch Stress verursachten Kortikosteronkonzentrationen unterstützen lebenswichtige Prozesse, so die Bereitstellung von Energie für die Muskeln zur schnellen Flucht vor dem Fressfeind. Um gleichzeitig einen Energiemangel zu verhindern, werden Prozesse wie Verdauung oder Fortpflanzung, die für das unmittelbare Überleben nicht wichtig sind, heruntergefahren.

    Man kann die Konzentration von Hormonen bei freilebenden Vögeln bestimmen, indem man – ähnlich wie bei einer Blutabnahme beim Arzt – aus der Flügelvene eine kleine Menge Blut entnimmt. Für Basalwerte von Kortikosteron wird eine Blutprobe innerhalb von drei Minuten nach dem Fang genommen, während Stress-verursachte Werte gewonnen werden, nachdem die Vögel 30 Minuten in einem Baumwollsäckchen gehalten wurden.

    Kortikosteronkonzentrationen von Vogelarten sind an ihren Lebensstil angepasst

    Sind Kortikosteronkonzentrationen bei Vogelarten von der Evolution geformt? Bei Tierarten, die in unterschiedlichen Umwelten leben, haben sich über lange Zeiten hinweg unterschiedliche Lebensstile herausgebildet. So haben Arten, die in den gemäßigten Breiten Europas oder Nordamerikas leben, oft eine kurze Lebensdauer und kurze Brutsaisons, legen aber in der Brutzeit viele Eier und investieren damit viel in die Fortpflanzung. Im Gegensatz dazu haben Arten, die in tropischen Gefilden leben, oft eine längere Lebensdauer und legen nur wenige Eier pro Gelege in ihren langen Brutsaisons. Somit investieren tropische Arten pro Zeiteinheit weniger stark in die Fortpflanzung. Zusammenhang zwischen Kortikosteronkonzentration (Mediane pro Art, von Männchen in der Brutzeit) und dem Lebensstil von Vogelarten.Abbildung 2. Zusammenhang zwischen Kortikosteronkonzentration (Mediane pro Art, von Männchen in der Brutzeit) und dem Lebensstil von Vogelarten. a.) Kortikosteron-Basalwerte nehmen mit der Länge der Brutzeit ab, während b.) Stress-verursachte Kortikosteronwerte mit der jährlichen Überlebensrate zunehmen (eine hohe jährliche Überlebensrate bedeutet Langlebigkeit). Offene Kreise: Arten gemäßigter Zonen (überwiegend aus Nordamerika), schwarze Kreise: tropische Arten (überwiegend aus Panama), Kreuze: Arten arider Zonen, Sterne: Arten kalter Zonen.(© übersetzt und leicht modifiziert nach Hau et al., Proc Royal Soc B 277, 3203-3212 (2010), mit Erlaubnis von Royal Society Publishing)

    In Zusammenarbeit mit amerikanischen Kollegen haben Forscher des Max-Planck-Instituts für Ornithologie die basalen und die Stress-verursachten Kortikosteronwerte von Vogelarten aus unterschiedlichen Breitengraden verglichen (Abb. 2). Tatsächlich hatten die kurzlebigen Arten mit ihrem erhöhten Fortpflanzungsaufwand auch höhere basale Kortikosteronkonzentrationen während der Brutzeit als langlebige Arten mit langen Brutsaisons (Abb. 2a). Dahingegen hatten langlebige Arten höhere Stress-verursachte Kortikosteronkonzentrationen als kurzlebige Arten (Abb. 2b). Diese Zusammenhänge von Kortikosteronkonzentrationen und dem durch evolutionäre Prozesse herausgebildeten Lebensstil einer Art deuten stark darauf hin, dass hormonelle Mechanismen von der Evolution geformt werden.

    Kortikosteronkonzentrationen von Individuen sagen ihren Fortpflanzungserfolg voraus

    Artunterschiede im Lebensstil und in hormonellen Regelkreisen haben sich oft über Jahrmillionen herausgebildet. Um das Wirken von Evolution in der heutigen Zeit zu verstehen, begannen die Forscher Studien an einer in Europa weit verbreiteten Vogelart, der Kohlmeise (Parus major). Kohlmeisen sind Standvögel, was den Forschern eine wiederholte Probennahme bei den Tieren zu verschiedenen Jahreszeiten erlaubt. Weiterhin brüten Kohlmeisen gerne in Nistkästen, was eine relativ einfache Bestimmung ihres Fortpflanzungsaufwands und -erfolgs ermöglicht. Die Darwin’sche Fitness eines Individuums ergibt sich aus der Anzahl der Gene, die es nachfolgenden Generation hinterlässt. Demnach ist ein Individuum, das viele Nachkommen produziert, am ‚fittesten’. Bei Vögeln wird die Anzahl der ausgeflogenen Jungen pro Brutsaison als gängiges Maß für den Fortpflanzungserfolg eines Tieres bestimmt.

    KohlmeiseAbbildung 3. Die Kohlmeise (Parus major) eignet sich gut als Studienobjekt für Hormon-Evolution. © Max-Planck-Institut für Ornithologie/Ziegler

    Tatsächlich konnten die Forscher bei freilebenden Kohlmeisen einen Zusammenhang zwischen Kortikosteronkonzentration und Darwin’scher Fitness nachweisen: Meisen, die wenige Wochen vor Legebeginn im März eine hohe Kortikosteron-Basalkonzentration aufwiesen, produzierten mehr Nachkommen pro Jahr als Meisen, die eine niedrige Konzentration des Hormons zeigten (Abb. 4a). Erstaunlicherweise kehrte sich diese Beziehung zwischen Hormonkonzentration und Bruterfolg zwei Monate später um. Im Mai, als die Jungen im Nest schon 8-10 Tage alt waren, hatten Meisen mit niedrigen Kortikosteron-Basalkonzentrationen einen größeren Fortpflanzungserfolg (Abb. 4b). Bei Stress-verursachten Kortikosteronkonzentrationen fanden die Wissenschaftler keinen unmittelbaren Zusammenhang zur Darwin’schen Fitness von Individuen. Zusammenhang zwischen Kortikosteron-Basalkonzentrationen und FortpflanzungserfolgAbbildung 4. Zusammenhang zwischen Kortikosteron-Basalkonzentrationen (ng/ml) und Fortpflanzungserfolg (Anzahl der ausgeflogenen Jungen pro Jahr) bei Kohlmeisen. a.) Vor Legebeginn im März und b.) im Mai, wenn die Nestlinge 8-10 Tage alt waren. Im Mai wurde die Anzahl der ausgeflogenen Jungen pro Jahr statistisch für die Fütterungsrate der Elterntiere korrigiert, weil die Fütterungsrate sehr stark den Fortpflanzungserfolg beeinflusst und Kortikosteron-Basalkonzentrationen wiederum stark mit der Fütterungsrate zusammenhängen. Im März zeigte sich ein positiver Zusammenhang zwischen Kortikosteronwerten und Reproduktionserfolg (Meisen mit hohen Werten produzierten viele Jungen), während im Mai der Zusammenhang negativ war. Offene Symbole: Männchen, schwarze Symbole: Weibchen.© nach Ouyang et al., J Evol Biol 26, 1988-1998 (2013), mit Erlaubnis von J. Evol. Biol.

    Die Evolution von hormonellen Regelkreisen verstehen

    Diese spannenden Erkenntnisse an Kohlmeisen könnten nun bedeuten, dass sich Homonkonzentrationen durch eine Begünstigung von Individuen mit einem hohen Fortpflanzungserfolg durch natürliche Selektion verändern. Jedoch hingen nicht nur die absoluten Kortikosteronkonzentrationen in März und Mai, sondern auch ihre jahreszeitlichen Veränderungen mit der Fitness zusammen: Meisen, die hohe Basalwerte im März, aber niedrige Basalwerte im Mai hatten, produzierten die meisten Nachkommen. Dies deutet darauf hin, dass die Selektion auch auf jahreszeitliche Veränderungen in der Kortikosteronkonzentration einwirkt.

    Der Nachweis, dass Hormonwerte von natürlicher Selektion beeinflusst werden, wäre ein wichtiger Schritt zu einem verbesserten Verständnis der Evolution von Hormonkonzentrationen und ihrer Steuerung von Umweltanpassungen. Jedoch sind Hormonkonzentrationen, auch die des Kortikosterons, stark von direkten Umwelteinflüssen abhängig. Aus diesem Grund ist es nun wichtig, in weiteren Studien zu klären, wie stark die oben gefundenen Zusammenhänge zwischen Kortikosteronwerten und Darwin’scher Fitness von Umwelteinflüssen und inwieweit sie von erblichen Faktoren abhängen. Denn nur erbliche Merkmale können sich durch die Evolution verändern. Züchtungsversuche haben gezeigt, dass Stress-verursachte Kortikosteronkonzentrationen eine erbliche Komponente haben. Inwieweit basale Kortikosteronkonzentrationen erblich sind, ist bislang unbekannt.

    Um einen Einblick in das Ausmaß der Erblichkeit von Hormonkonzentrationen zu erhalten, werden die Forscher in kommenden Studien die Verwandtschaftsverhältnisse der Meisen in ihrer Studienpopulation mittels DNS-Proben ermitteln. Da Kohlmeisen ihr Verbreitungsgebiet in ganz Europa und bis in tropische Gefilde Asiens haben, können in Zukunft auch hormonelle Anpassungen an unterschiedliche Umweltbedingungen innerhalb dieser Art erforscht werden. Außerdem kommen nah verwandte Meisenarten in Asien und Afrika vor, was vergleichende Studien über Artgrenzen hinweg erlaubt. Durch solche Studien hoffen die Forscher, die große Frage, wie schnell sich hormonelle Systeme verändern und an die Umwelt anpassen können, Schritt für Schritt beantworten zu können.


    * *Der im Forschungsmagazin der Max-Planck Gesellschaft 2014 erschienene Artikel http://www.orn.mpg.de/3030440/research_report_7736584?c=1700661 1 wurde mit freundlicher Zustimmung der Autorin und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, geringfügig für den Blog adaptiert und ohne Literaturzitate.


    Weiterführende Links


    Den Vögeln auf der Spur. Forscher am MPI für Ornithologie statten Vögel mit Mini-Sendern aus und verfolgen die Tiere auf ihren Reisen. Videos:

    Artikel im ScienceBlog

    inge Fri, 03.04.2015 - 07:49

    Universitäten – Hüterinnen unserer Zukunft

    Universitäten – Hüterinnen unserer Zukunft

    Fr, 27.03.2015 - 06:49 — Gottfried Schatz Gottfried SchatzIcon Wissenschaftsgeschichte

    Am 12. März 2015 wurde die Universität Wien 650 Jahre alt. Gottfried Schatz, einer der herausragendsten Biochemiker unserer Zeit (und einer der Hauptautoren des ScienceBlog), hat anlässlich des Eröffnungsfestaktes den Festvortrag gehalten. Es wurde ein Plädoyer für eine Universität, die Bildung anstelle bloßer Ausbildung vermittelt, die zu kritischem Hinterfragen und innovativem, kreativem Denken motiviert und langfristige Forschung – Grundlagenforschung – als eine ihre wesentlichen Aufgaben sieht. Der Vortrag ist im Folgenden ungekürzt widergegeben. (Einige wenige Untertitel und Abbildungen wurden von der Redaktion eingefügt.)

    Am 12. März des Jahres 1365 unterzeichneten Herzog Rudolf IV. und zwei seiner Brüder die Stiftungsurkunde für eine Wiener Universität. Leicht gekürzt in heutiges Deutsch übertragen lautet das Stiftungsziel: «…damit Gemeinwohl, gerechte Gerichte, menschliche Vernunft und Bescheidenheit zunehmen und wachsen und … ein jeder weise Mensch vernünftiger, und ein unweiser zu menschlicher Vernunft … gebracht … werde.» Ausschnitt aus dem Stiftbrief der Universität Wien

    Ausschnitt aus dem Stiftbrief der Universität Wien, 12.03.1365 (lateinische Fassung). Pergament 63 x 79 cm, der rote Pfeil weist auf den Anfang des Zitats hin (Quelle: Geschichte der Universität Wien, lizenziert unter ; voller lateinischer Text: https://fedora.phaidra.univie.ac.at/fedora/get/o:45858/bdef:Content/get)

    Die grossartige humanistische Vision dieser Stiftung zeigt sich in einem Vergleich mit den verschiedenen, angelsächsisch nüchternen Gründungsurkunden der Universität Cambridge. Die Urkunde von 1231 verlieh zum Beispiel dem Lehrkörper unter anderem das Recht, die Mieten für die Wohnhäuser am Universitätsgelände zu bestimmen, seine Mitglieder selbst zu bestrafen und gewisse Steuern nicht zu bezahlen. Wenige Jahre später erlaubte eine päpstliche Urkunde den Dozierenden und Absolventen zudem, überall in der Christenheit zu lehren.

    Seit Rudolf IV und seinen Brüdern hat es Immanuel Kant und den Universitätsreformer Wilhelm von Humboldt gegeben und so wage ich es, den Stiftungszweck der Universität Wien für mich so zu interpretieren: Die Universität möge Menschen das Vertrauen in den eigenen Verstand geben und sie ermutigen, allgemein akzeptierte Dogmen und vorgefasste Meinungen zu hinterfragen. Sie soll ein Reinigungsbad sein, das von anerzogenen Vorurteilen befreit.

    Bildung oder Ausbildung?

    In dem eben zitierten Kernstück von Rudolfs Stiftungsurkunde fehlt das Wort «Wissen». Ich finde dies bemerkenswert. Die Gründer der Wiener Universität setzten also nicht so sehr auf Ausbildung, sondern auf Bildung.

    Doch was ist Bildung?

    Für den britischen Staatsmann Lord Halifax war sie das, was übrig bleibt, wenn man vergessen hat, was man einmal gelernt hat. Bildung ist Bescheidenheit und Offenheit gegenüber Neuem. Der Weg zu ihr führt zwar über das Wissen, doch sie hat mit diesem nur wenig gemein.

    Unsere Universitäten täten gut daran, die Botschaft von Rudolfs Stiftungsurkunde auch heute noch als Wahlspruch zu wählen. Doch zunächst sollten wir unserem heutigen Geburtstagskind zu seiner langen und bewundernswerten Erfolgsgeschichte gratulieren. Es gibt wohl nur wenige Universitäten, an denen so viele bedeutende Menschen gelehrt haben. Noch eindrücklicher ist die Liste derer, welchen die Universität Wien alma mater war; das große Erbe und den Genius Österreichs zeigt nichts überzeugender als diese Absolventen.

    Aber hat die Universität Wien uns Österreicher bescheidener und vernünftiger gemacht? Hat sie uns vor irrationalen Dogmen, Faschismus und Rassenhass bewahrt?

    Als Orte der Wissenschaft hätten Universitäten gegen diese Bedrohungen immun sein müssen, denn Wissenschaft fordert emotionsloses, rationales und skeptisches Denken. Doch spätestens seit Anfang des vorigen Jahrhunderts begannen die meisten Universitäten, einseitig auf Ausbildung zu setzen und ihren Bildungsauftrag zu vernachlässigen. Sie entwickelten sich immer mehr zu Orten der reinen Wissensvermittlung, zu Berufsschulen, und es hat den Anschein, dass die Bologna-Reform diesen Prozess beschleunigt hat.

    Das Resultat dieser Entwicklung ist der gut ausgebildete, aber ungebildete Wissenschaftler. Unsere Universitäten vergaßen, dass Wissen und Wissenschaft sehr unterschiedliche Charaktere besitzen, die einander oft im Wege stehen. Vielleicht ist dies ein unglückliches Erbe der von Maria Theresia und Joseph II ab 1749 in Angriff genommenen Universitätsreform. Diese setzte einseitig auf eine straff organisierte Wissensvermittlung und vernachlässigte die wissenschaftliche Forschung - also das eigenständige und kritische Denken.

    Wissenschaft beschäftigt sich aber nicht vorrangig mit Wissen, sondern mit Unwissen

    Sie will dieses Unwissen in Wissen verwandeln, wobei ihr der Akt der Umwandlung meist wichtiger ist als das Ergebnis. Für die meisten Forscher ist das von ihnen geschaffene Wissen ein Nebenprodukt, dessen Verwaltung und Weitergabe sie gerne anderen überlassen. Ein Lehrbuch der Biochemie ist für sie nicht «Biochemie», sondern die Geschichte der Biochemie - eine Zusammenfassung dessen, was sie bereits wissen oder zumindest wissen sollten. Echte Biochemie ist für sie ein überraschendes Resultat im Laboratorium, ein wichtiger Hinweis von Fachkollegen, oder ein Vortrag über eine neue Entdeckung.

    Die Heimat des Forschers ist nicht das gesicherte Wissen, sondern dessen äusserste Grenze, wo Wissen dem Unwissen weicht.

    In der Realität des wissenschaftlichen Alltags beschäftigen sich dennoch die meisten Wissenschaftler mit dem Verwalten und der Weitergabe von Wissen und nur eine kleine Minderheit, nämlich die aktiven Forscher, verwandelt Unwissen in Wissen. Und in dieser Minderheit ist es wiederum nur eine winzige Elite, der es vergönnt ist, das höchste Ziel eines Wissenschaftlers zu verwirklichen. Dieses Ziel ist, neues Unwissen zu schaffen: Etwas zu entdecken, von dem wir nicht wussten, dass wir es nicht wussten.

    Als Gregor Mendel die Einheiten der Vererbung, Sigmund Freud das Unterbewusste, und Albert Einstein das Relativitätsprinzip entdeckten, eröffneten sie uns geheimnisvolle neue Welten des Unwissens, deren Erforschung unser Weltbild entscheidend veränderte.

    Wissenschaft revolutioniert

    Wissenschaft ist keine Hüterin von Stabilität und Ordnung, sondern eine unverbesserliche Revolutionärin, die unablässig kreative Unruhe stiftet. Sie macht unser Leben nicht ordentlicher oder ruhiger, sondern freier und interessanter. Innovative Wissenschaft missachtet Dogmen und verunsichert, ebenso wie innovative Kunst. Deswegen unterdrücken totalitäre Staaten stets beide. Der sowjetische Dichter Ossip Mandelstam soll Stalins Kulturterror mit folgenden bitteren Worten kommentiert haben: «Wie glücklich sind wir doch, dass unser Staat Dichtung so sehr liebt, dass er wegen eines Gedichtes Menschen ermordet». Und Ivan Maisky, der damalige Sowjet-Botschafter in Grossbritannien, sagte im Jahre 1941 ganz ohne Bitterkeit und mit voller Überzeugung: «In der Sowjetunion hat es keinen Platz für freie Wissenschaft».

    Wissen ist keine Ware,

    die man fein säuberlich verpacken, etikettieren, und für alle Zeiten sicher ablegen kann. Wissen gleicht eher einem Zoo ungezähmter Tiere, die gegen ihre trennenden Käfiggitter anrennen, diese oft niederreißen und dann unerwartete Nachkommen zeugen. Jean Paul Sartre hat gesagt: «Nicht wir machen Krieg; der Krieg macht uns».

    Ähnliches gilt für unser Wissen. Unter dem Ansturm der wissenschaftlichen Forschung verändert es sich ohne Unterlass - und verändert damit auch uns. Wir können unser Wissen zwar kurzfristig im Zaum halten oder sogar verfälschen, doch auf lange Sicht ist es immer stärker als wir. Es gehorcht seinen eigenen Gesetzen, die wir weder genau kennen noch ändern können. Das Victor Hugo zugeschriebene Zitat «Nichts ist unwiderstehlicher als eine Idee, deren Zeit gekommen ist» ist zwar nicht authentisch, deswegen aber nicht weniger wahr.

    Dass unser Wissen nie endgültig ist, klingt für uns Wissenschaftler jedoch nicht so bedrohlich wie vielleicht für andere.

    Wie ich bereits erwähnte, haben wir zu Wissen ein gespaltenes Verhältnis: wir setzen zwar alles daran, es zu schaffen, doch sobald wir es geschaffen haben, misstrauen wir ihm und hinterfragen es ohne Unterlass. Der Besitz von Wissen ist uns weniger wichtig als die Überzeugung, dass wir es durch Beobachtung und kritisches Denken stets neu schaffen können. Wissen ist ein Kind der Vergangenheit und kann in einer unablässig sich wandelnden Welt nie die Zukunft sichern. Dies kann nur die stets junge Kraft wissenschaftlichen Denkens, die in allem Gegenwärtigen die Hypothese des Zukünftigen sucht.

    Intellektueller Mut

    Dazu braucht es Menschen mit neuen Ideen, die überliefertes Wissen und Dogmen anzweifeln und bereit sind, gegen den Strom zu schwimmen, denn nur wer gegen den Strom schwimmt, kann neue Quellen des Wissens entdecken. Es braucht Menschen, die sehen, was jeder sieht, dabei aber denken, was noch niemand gedacht hat. Es braucht Menschen, die intuitiv erkennen, dass der von allen gesuchte Weg von A nach C nicht über B führt - wie jeder vermutet - sondern über X oder Z. All dies erfordert intellektuellen Mut. Er ist die wichtigste Gabe eines Forschers. Und diese Gabe zeigt sich vor allem in jungen Menschen. In Wissenschaft und Kunst ist die unbekümmerte Naivität der Jugend oft klüger als das Wissen des Alters. Echte Forscher zögern nicht, gefährliche Gewässer anzusteuern, wenn diese ihnen neues Wissen versprechen. Der amerikanische Gelehrte John A Shed hat diesen Forschern folgende Worte ins Stammbuch geschrieben: «A ship in harbor is safe; but that’s not what ships are made for». Auf Deutsch etwa: «Ein Schiff im Hafen ist sicher; doch deswegen baut man keine Schiffe.» Holzstich des FlammarionIntellektueller Mut. Interpretation des «Holzstichs des Flammarion» (unbekannter Künstler aus Camille Flammarion, L'Atmosphere: Météorologie Populaire, Paris, 1888; Bild: Wikipedia)

    Wie könnten unsere Universitäten diesen Mut vermitteln?

    Sicher nicht durch Vorlesungen und Seminare, sondern durch Lehrende, die diesen Mut besitzen und den Studierenden als persönliches Vorbild dienen. Solche persönlichen Vorbilder sind das wichtigste Geschenk einer Universität an ihre Studierenden, doch leider wählen wir unsere Lehrenden fast ausschließlich nach wissenschaftlicher Vorleistung aus. Es gibt keinen Grund, dies nicht zu ändern, doch alte Gewohnheiten und Mutlosigkeit halten sich zäh und es wird wohl noch eine Weile dauern, bis wir in unseren Berufungsverfahren der Persönlichkeit der Kandidatinnen und Kandidaten genügend Augenmerk schenken.

    Wissenschaft erfordert die Weitergabe von Wissen und schließt deshalb immer auch die Lehre ein. Diese darf sich jedoch nicht auf reine Wissensvermittlung beschränken. Sie muss die Studierenden auch lehren, Probleme rational zu analysieren und selbstständig und innovativ zu lösen. Dies geht aber nicht ohne wissenschaftliche Forschung. Die von Humboldt geforderte Einheit von Lehre und Forschung ergibt sich so ganz von selbst.

    Wissen ist wertvoll, doch wir dürfen es nicht überbewerten. Unsere Schulen, unsere Universitäten und auch unsere Forschungspolitiker setzen zu einseitig auf Wissen und ersticken dabei oft das unabhängige und kritische Denken – also die Wissenschaft.

    Die breite Öffentlichkeit und leider auch viele staatliche Forschungsexperten meinen, Forschung sei ein streng logischer Vorgang, in dem die Forschenden geduldig Stein auf Stein setzen, bis das minutiös vorausgeplante Gebäude beendet ist. Innovative Forschung ist jedoch genau das Gegenteil: Sie ist intuitiv, kaum planbar, voller Überraschungen und manchmal sogar chaotisch - genauso wie innovative Kunst. Innovative Kunst und Wissenschaft sind keine Spaziergänge auf freigeräumter Straße, sondern Expeditionen in die unbekannte Wildnis, in der sich Künstler und Forscher oft verirren. Wo Ruhe und Ordnung herrschen, sind die Karten bereits gezeichnet und die schöpferischen Forscher bereits woanders - nämlich dort, wo ihre Intuition sie hingeführt hat.

    Weg vom kurzfristigen Denken…

    Die von Rudolf IV und seinen Brüdern angestrebte Vernunft beinhaltet auch langfristiges Denken. Wir Menschen sind wahrscheinlich die einzigen Lebewesen, die dazu bewusst fähig sind. Doch unsere menschliche Spezies ist erst etwa 200.000 Jahre alt und unsere noch jungen Gehirne haben Mühe, langsame oder exponentiell sich beschleunigende Vorgänge intuitiv zu begreifen. Kurzfristiges Denken regiert deshalb die Welt. Politik und Wirtschaft denken selten weiter in die Zukunft als einige Jahre - bis zur nächsten Wahl oder zur nächsten Ernennung des Verwaltungsrates.

    In dieser Welt des kurzfristigen Denkens sollte es eine Hauptaufgabe unserer Universitäten sein, langfristig zu denken und langfristig zu forschen. Wo sonst denken Menschen heute darüber nach, was in 50 oder 100 Jahren geschehen könnte? Wenn unsere Universitäten diese Langfristigkeit vergessen und sich für kurzfristige Ziele instrumentalisieren lassen, sollte man sie am besten schließen.

    …hin zur langfristigen Grundlagenforschung

    Ich richte an die hier anwesenden Vertreter von Politik und Verwaltung die eindringliche Bitte, unser heutiges Geburtstagskind forschen zu lassen und es nicht mit Programmen oder anderen finanziellen Anreizen dazu zu verleiten, etwas zu erforschen. Langfristige Grundlagenforschung bereitet den Boden für die technologischen Neuerungen von morgen vor. Sie wird nicht innovativer, wenn man ihr ein eng umrissenes und damit kurzfristiges Ziel vorgibt. Im Gegenteil, wirklich innovative Forschung schafft sich erst ihre eigenen Ziele. Wenn man ihr diese Ziele von Anfang an vorschreibt, kann die Forschung gar nicht innovativ sein.

    Ist das wissenschaftliche Arroganz?

    Nein, das hat mit der Eigenart und der Verletzlichkeit menschlicher Kreativität zu tun. Eine Gesellschaft, die aus Ungeduld nur auf angewandte Forschung setzt, wird bald nichts mehr haben, was sie anwenden kann. Auch angewandte Forschung ist wichtig, doch sie sollte nicht an Universitäten, sondern so weit wie möglich in der Privatindustrie, an Fachhochschulen und Technischen Hochschulen und in nichtuniversitären Forschungsinstituten erfolgen.

    Eine ideale Universität

    Und schliesslich: Eine dynamische und erfolgreiche Universität sollte die ihn ihr bestehenden Unterschiede nicht übertünchen, sondern als Stärke empfinden.

    Altersunterschiede sollten nicht als Grundlage für Hierarchie, sondern als Quelle der Inspiration dienen. An einer idealen Universität sollte man Lehrende und Studierende kaum voneinander unterscheiden können. Beide sollten gemeinsam forschen und miteinander und voneinander lernen.

    Wir sollten auch Unterschiede zwischen den einzelnen Universitäten nicht als Problem, sondern als Reichtum betrachten. Leider bemühen sich Politik und Verwaltung, diese Unterschiede durch ein Übermaß an Organisation und Koordination so weit wie möglich auszugleichen.

    Organisation ist jedoch der Feind von Innovation, und Koordination der Feind von Motivation.

    Deshalb sind fast alle dieser Organisations- und Harmonisierungsbestrebungen gefährlich. An einer gut geführten Universität sollte, (extrem formuliert,) jeder Entscheid letztlich ad hoc erfolgen, also einmalig sein. Dies mag kurzfristig die Effizienz verringern; langfristig erhöht es jedoch die Effektivität und damit die Nachhaltigkeit. Dazu braucht eine Universität aber nicht nur eine Verwaltung, sondern auch eine starke und entscheidungsfähige Regierung. Es ist eine der größten Herausforderungen der modernen Universität, eine solche starke Regierung im Einverständnis mit den Dozierenden und Studierenden zu schaffen.

    Möge es der Universität Wien gelingen, dem Stiftungsziel Rudolfs IV und dem Erbe Immanuel Kants gerecht zu werden und nicht nur Wissen, sondern auch Vernunft, Bescheidenheit und den Mut zum eigenen Denken zu vermitteln. Dies ist heute schwerer denn je, ist doch Wissenschaft für große Teile unserer Gesellschaft nur eine Quelle neuer Technologien, wirksamer Medikamente und wirtschaftlichen Wachstums.

    Wissenschaft ist jedoch viel mehr.

    Sie ist ein langfristiger Vertrag zwischen den Generationen. Erst dieser Vertrag gibt unserer westlichen Kultur Bestand. Universitäten sind Hüterinnen dieses Vertrags und damit Hüterinnen unserer Zukunft. Rainer Maria Rilke erinnert uns daran mit folgenden Worten:

    Was unser Geist der Wirrnis abgewinnt, kommt irgendwann Lebendigem zugute; wenn es auch manchmal nur Gedanken sind, sie lösen sich in jenem großen Blute, das weiterrinnt...

    Und ist‘s Gefühl: wer weiß, wie weit es reicht und was es in dem reinen Raum ergiebt, in dem ein kleines Mehr von schwer und leicht Welten bewegt und einen Stern verschiebt.


    Festvortrag von Gottfried Schatz am 12. März 2015 aus Anlass des 650-jährigen Gründungsjubiläums der Universität Wien. http://www.univie.ac.at/fileadmin/user_upload/startseite/650/Dokumente/R..


    Weiterführende Links

    Eine umfassende Darstellung der Geschichte der Universität Wien findet sich unter: http://geschichte.univie.ac.at/

    Es ist ein Projekt des Bibliotheks- und Archivwesen unter redaktioneller Leitung des Archivs der Universität Wien in Kooperation mit dem Forum ‚Zeitgeschichte der Universität Wien‘‘ und soll als „Work in Progress“ mit neuen Beiträgen laufend ergänzt werden. Gegliedert in sieben Themenkreise sind dies zur Zeit über 90, zum Teil reichbebilderte Artikel, welche sich von der Gründung der Universität an mit dem gesamten Zeitraum der 650-jährigen Universitätsgeschichte auseinandersetzen.

    Im ScienceBlog

    Festansprache des Rektors Heinz Engl vom 12. März 2015

    inge Fri, 27.03.2015 - 06:49

    650 Jahre Universität Wien. Festansprache des Rektors am 12. März 2015

    650 Jahre Universität Wien. Festansprache des Rektors am 12. März 2015

    Fr, 20.03.2015 - 08:04 — Heinz Engl Heinz EnglIcon WissenschaftsgeschichteUnsere Universität Wien wurde am 12. März 1365 von dem österreichischen Herzog Rudolph "dem Stifter" gegründet und ist die älteste Universität im deutschen Sprachraum. Das heurige Jubiläumsjahr bietet vielfältige, öffentlich zugängliche Veranstaltungen. Zum Eröffnungsfestakt hielt Rektor Heinz Engl eine Ansprache*, die im Folgenden ungekürzt widergegeben wird. (Einige wenige Untertitel und Abbildungen wurden von der Redaktion eingefügt.)

    Ich möchte zur Einleitung dieser Festversammlung und auch des Jubiläumsjahrs kurz auf einige Eckpunkte der 650 jährigen Geschichte der Universität Wien eingehen und versuchen, Bezüge zu ihrer Gegenwart und Zukunft herzustellen.

    Die Anfänge

    Als erster Universitätsstifter ohne Königskrone besiegelte Herzog Rudolf der IV. heute vor 650 Jahren gemeinsam mit seinen jüngeren Brüdern Albrecht und Leopold die Gründungsurkunden (in deutscher und in lateinischer Sprache) für das Wiener Generalstudium in den Fakultäten für Theologie, Rechtswissenschaften, für Medizin und für die „Freien Künste“ (der sogenannten Artistenfakultät), nach dem Vorbild der Pariser Universität. Herzog Rudolf der IV. sah einen eigenen „Universitätscampus“ innerhalb der Stadtmauern in der Nähe des Schottentors vor, der allerdings nicht errichtet wurde.

    Herzog Rudolf IV. und das erste UniversitätsgebäudeHerzog Rudolf IV. und das von seinem Bruder Herzog Albrecht III 1384 gestiftete, nicht mehr erhaltene erste Universitätsgebäude “Collegium ducale“ in der Postgasse (Quelle: Geschichte der Universität Wien, lizenziert unter CC-BY-NC-SA)

    Es sollte bis 1998 dauern, dass die Universität Wien im Areal des Alten Allgemeinen Krankenhauses, das ihr von der Gemeinde Wien geschenkt worden war, einen Universitätscampus erhielt.

    Papst Urban V. bestätigte die Gründung am 18. Juni 1365, allerdings ohne die theologische Fakultät. Ihr erstes Gebäude, das sogenannte Herzogskolleg, erhielt die Universität durch den Albertinischen Stiftbrief im Jahr 1384 durch Herzog Albrecht III., im selben Jahr genehmigte der römische Papst Urban VI. auch die theologische Fakultät, die damit zur ältesten ununterbrochen bestehenden theologischen Fakultät der Welt wurde.

    Die Kirchenspaltung 1378 hatte zum Abzug vieler Magister und Doktoren aus Paris geführt, von denen einige in Wien ein neues Betätigungsfeld fanden.

    Die an der Artistenfakultät vertretenen Fächer waren Grammatik, Rhetorik, Dialektik, Arithmetik, Geometrie, Astronomie und Musik, die sogenannten sieben freien Künste, in den USA sinngemäß heute noch „liberal arts“. Ihre Absolvierung war Voraussetzung für ein Studium an den drei „höheren Fakultäten“, für Rechtswissenschaften, Medizin und Theologie; dies blieb so bis 1849 und ist im Wesentlichen heute noch so in den USA. Schon damals war ein Studium an der Artistenfakultät auch die Vorbereitung für den Lehrerberuf.

    Die Studierenden kamen mit 14 bis 16 Jahren an die Universität, nur wenige erwarben allerdings einen akademischen Grad: dies entweder aus Kostengründen oder weil sie ihr Studium an einer anderen Universität fortsetzten.

    Das erste Jahrhundert der Universität Wien

    war von einer ersten Blüte sowohl in wissenschaftlicher Hinsicht als auch was die Studierendenzahl betrifft gekennzeichnet: zwischen 1375 und 1400 gab es 3.600 Studierende; ein Grund für diesen Zuzug waren auch die im Vergleich zu anderen Universitäten geringen Gebühren und Lebenserhaltungskosten in Wien.

    Johannes von Gmunden, Georg von Peuerbach und Regiomontanus begründeten die „Erste Wiener Mathematische Schule“, die eigentlich eine Schule der mathematisch orientierten Astronomie war und deren Erkenntnisse im Nachhinein betrachtet wegbereitend für das heliozentrische Weltbild waren. Zur Zeit des Regiomontanus, zwischen 1451 und 1460, waren 5.306 Studenten immatrikuliert, von denen etwa 2.000 zugleich in Wien anwesend waren. Wien war bereits damals eine bedeutende Universitätsstadt, die Universität Wien die bei weitem größte Universität des Heiligen Römischen Reichs; sie blieb dies bis etwa 1520. Im Jahr 1552 gab es 103 „lesende Magister“, also durchaus gute Betreuungsverhältnisse.

    Nach der Pest gab es 1463 nur mehr 47 Lehrende, eine länger anhaltende Krise gab es allerdings erst nach der Reformation und der Türkenbelagerung von 1529. Das Ausbleiben der Studenten war existenzgefährdend für die Universität, denn trotz landesfürstlicher Dotationen und Einkünften aus Stiftungen wurde die Universität damals hauptsächlich über Studiengebühren und Kollegiengelder finanziert.

    Von der Gegenreformation zur Toleranzgesetzgebung

    Im Rahmen der Gegenreformation erfolgte eine „Verstaatlichung“ der Universität, deren Hauptziel es war, Absolventen hervorzubringen, die im Dienste der Landesfürsten und der Kirche eingesetzt werden konnten.

    Professoren wurden vom Hof ausgewählt und besoldet und vom landesfürstlichen Superintendenten kontrolliert. Es folgten jahrzehntelange Auseinandersetzungen mit dem Jesuitenorden, schließlich die 150 Jahre andauernde Inkorporierung des Jesuitenkollegs in die Universität, bis unter Maria Theresia die jesuitische Dominanz abgebaut wurde. An deren Stelle traten staatliche Aufsicht und Kontrolle über Professoren und Lehrinhalte über die Studienhofkommission. Wissenschaftliche Forschung war an den Universitäten nicht vorgesehen. Neue Aula und HauptgebäudeLinks: Fassadenansicht der Neuen Aula von 1755 – 1848 Sitz der Universität (heute Sitz der Österreichischen Akademie der Wissenschaften). Rechts: Hauptgebäude der Universität 1884 – 2015 (Quelle: Geschichte der Universität Wien, lizenziert unter CC-BY-NC-SA)

    Unter Josef II. folgten schließlich der Entzug der eigenständigen Vermögensverwaltung und der eigenständigen akademischen Gerichtsbarkeit. Ebenso wurden damals die akademischen Talare abgeschafft und erst 1927 wieder eingeführt. Unter Josef II. fand aber auch die konfessionelle Abschottung der Universität Wien ein Ende: 1778 verfügte er die Zulassung von Protestanten zu dem weltlichen Doktorgraden, ab 1782 waren auch Juden an der medizinischen und juridischen Fakultät zugelassen.

    Erst im Gefolge der Revolution von 1848 schuf Unterrichtsminister Graf Leo Thun- Hohenstein grundlegend neue Strukturen, das Humboldtsche Prinzip der Verbindung von Forschung und Lehre setzte sich auch in Österreich und an der Universität Wien durch. Es folgte eine wissenschaftliche Blütezeit, die mit Unterbrechungen bis in die 30er Jahre des 20. Jahrhunderts dauern sollte.

    Vom 19. ins 20. Jahrhundert

    Aber bereits gegen Ende des 19. Jahrhunderts nahm der Antisemitismus an der Universität Wien zu; dies bekam auch der damalige Rektor Eduard Suess, einer der Begründer der wissenschaftlichen Geologie und zugleich Schöpfer der Wiener Hochquellwasserleitung, zu spüren. In der 20er Jahren des 20. Jahrhunderts gab es gewalttätige Übergriffe gegen jüdische Studenten.

    Der akademische Senat beschloss 1930 eine Studentenordnung, welche dem „Volksbürgerschaftsprinzip“ verpflichtet war und 1931 vom Verfassungsgerichtshof aufgehoben wurde, was zu Ausschreitungen deutschnationaler Studenten gegen jüdische Kommilitonen führte. Akademische Karrieren von WissenschafterInnen jüdischer Abstammung wurden unter diesen Bedingungen immer schwieriger, wie auch das Beispiel Sigmund Freuds zeigt. Der Begründer des Wiener Kreises Moritz Schlick wurde 1936 auf der Philosophenstiege im Hauptgebäude erschossen.

    Nach dem Anschluss an das Deutsche Reich 1938 wurde die Universität Wien binnen kurzer Zeit in eine nationalsozialistische Institution umgestaltet. 2.700 Personen, Angehörige des Lehrkörpers, Studierende, Verwaltungsbedienstete, wurden aus rassistischen oder politischen Motiven von der Universität vertrieben. Rund 350 Professoren und Dozenten verloren ihre Stellung. Viele der Vertriebenen wurden später in Konzentrationslager deportiert und dort ermordet.

    Nach dem 2. Weltkrieg

    Das zu etwa 30 Prozent durch Bombenangriffe zerstörte Hauptgebäude der Universität wurde am 10. April 1945 von der Roten Armee besetzt, aber auf Initiative des späteren Ordinarius für Judaistik Kurt Schubert, der gemeinsam mit der vor kurzem verstorbenen Erika Weinzierl und meinem Amtsvorgänger Hans Tuppy einer katholischen Widerstandsgruppe angehört hatte, bereits am 16. April wieder geräumt. Unter dem ersten Nachkriegsrektor Ludwig Adamovic konnte am 29. Mai bereits wieder der Studienbetrieb aufgenommen werden.

    Die demografische und gesellschaftliche Entwicklung führte ab den 1960er Jahren zu einem großen Anstieg der Studierendenzahlen: von 14.000 im Jahr 1960 auf derzeit über 90.000. Von unseren Studierenden sind derzeit 59 Prozent Frauen; sie sind erst seit 1897 als ordentliche Hörerinnen an österreichischen Universitäten zugelassen. Erst 1965 wurde mit der Physikerin Berta Karlik erstmals eine Frau als Professorin berufen; in den letzten Jahren beträgt der Anteil der Frauen an den neuberufenen Professoren über 30 Prozent. Ein im Jubiläumsjahr stattfindender künstlerischer Wettbewerb soll Grundlage dafür sein, dass im Arkadenhof, in dem derzeit ausschließlich Büsten männlicher Professoren der Universität stehen, auch Wissenschafterinnen in gebührender Weise geehrt werden.

    Grundlagenforschung

    Zu allen Zeiten, auch in ihren schwierigen Phasen, wirkten in der Universität Wien Wissenschafter (und eben seit etwa 100 Jahren auch Wissenschafterinnen), die ihre Disziplin prägten und grundlegende wissenschaftliche Ergebnisse erzielten. Es ist nicht abzusehen, auf welche heute an der Universität Wien durchgeführten Forschungen man gerade wegen ihrer überraschenden Auswirkungen in 50 Jahren zurückblicken wird. Bei aller Wichtigkeit von Evaluierungen und Qualitätssicherungsmaßnahmen: Außergewöhnliches entzieht sich häufig solchen Mechanismen.

    Hätten Evaluatoren 1917 die Bedeutung einer Arbeit des Mathematikers Johann Radon aus der Integralgeometrie erkennen können, die noch dazu (in heutiger Sprechweise) in einer Zeitschrift mit niedrigem Impact-Faktor publiziert wurde, die aber später zu einer der Grundlagen der medizinischen Bildverarbeitung wurde? Große Innovationen, auch und gerade solche mit großen wirtschaftlichen Auswirkungen, entstehen meist überraschend aus nicht mit konkretem Anwendungsbezug durchgeführter Forschung. Im Jubiläumsjahr werden wir zahlreiche Beispiele dafür aus allen Bereichen der Universität Wien öffentliche präsentieren.

    Einer der bedeutendsten Physiker der Universität, Ludwig Boltzmann, dachte nicht an Halbleiter oder Modelle für Verkehrsflüsse, als er aus Überlegungen im Zusammenhang mit kinetischer Gastheorie und Thermodynamik die nach ihm benannte grundlegende Gleichung entwickelte. Er war übrigens nicht nur ein Schüler des ebenfalls bedeutenden Physikers (und Kärntner Slowenen) Josef Stefan, sondern hatte auch Klavierunterricht bei einem anderen späteren Professor der Universität Wien, nämlich bei Anton Bruckner. Boltzmann und Ernst Mach, die eine völlig unterschiedliche Sicht der Thermodynamik hatten, hatten beide großen Einfluss auf die Entwicklung des Wiener Kreises, dem im Jubiläumsjahr eine große Ausstellung im Hauptgebäude gewidmet sein wird.

    Einige berühmte Absolventen und Lehrer an der Universität WienEinige berühmte Absolventen und Lehrer an der Universität Wien

    Der Wiener Kreis propagierte eine radikal moderne "Wissenschaftliche Weltauffassung" (so der Titel seines Manifests), betonte die Einheit der Wissenschaften (der Natur- ebenso wie der Kulturwissenschaften), führte mit der Sprachanalyse eine Wende der Philosophie herbei und trug durch die Entwicklung von formalen Sprachen entscheidend zu den Grundlagen der Mathematik, der Logik und (ohne es zuahnen) auch der Informatik bei.

    Auch und gerade in der Grundlagenforschung sind Offenheit gegenüber Anwendungen und Strukturen zum Transfer von Wissen in Gesellschaft und Wirtschaft nötig. Fragestellungen aus Wirtschaft und Gesellschaft geben immer wieder auch Anstöße zu interessanten Entwicklungen in der Grundlagenforschung. Während etwa die Entwicklung neuer mathematischer Disziplinen vor etwa 80 Jahren von Fragestellungen in der Physik getrieben war, ist dies nun auch aufgrund von Fragestellungen in der modernen Biologie der Fall. Anwendung von Wissenschaft ist nicht einfach der Transfer von vorhandenen Ergebnissen der Grundlagenforschung, sondern ein ständiges und spannendes Wechselspiel zwischen gesellschaftlichen und wirtschaftlichen Herausforderungen und zunächst zweckfreier Grundlagenforschung.

    Der allerwichtigste Beitrag, den die Universität aber für die Weiterentwicklung der Wirtschaft und der Gesellschaft leisten kann, sind umfassend anhand wissenschaftlicher Fragestellungen gebildete Absolventinnen und Absolventen. Universitäten wie die Universität Wien sind global orientiert, sowohl was ihre Mitarbeiterinnen und Mitarbeiter als auch ihre Partizipation am wissenschaftlichen Diskurs betrifft.

    Gerade global orientierte Universitäten wirken aber auch in besonderer Weise in ihrer Region, durch ihre internationale Zusammensetzung und Diversität, die zur Offenheit der Universitätsstadt Wien einen wichtigen Beitrag leisten, durch Transfer global orientierter Forschung in Wirtschaft und Gesellschaft und durch international orientierte Absolventinnen und Absolventen. Neben einer globalen Orientierung hat die Universität Wien aber auch eine europäische Aufgabe: durch ihren Beitrag zum Aufbau des europäischen Forschungsraums und, insbesondere über europäische Austauschprogramme, bei der Schaffung eines Bewusstseins ihrer Absolventinnen und Absolventinnen als europäische Bürgerinnen und Bürger.

    Bildung und Forschung

    sind die Grundlage für die gedeihliche Weiterentwicklung der Gesellschaft und für wirtschaftlichen Erfolg, gerade in wirtschaftlich und politisch schwierigen Zeiten. Es ist daher besonders schmerzlich, wenn man erfahren muss, dass die Europäische Union gerade die Mittel für ihr neues Forschungsprogramm Horizon 2020 eben drastisch gekürzt hat.

    Die Universität Wien bietet einerseits breite Bildung für viele und ist andererseits die größte österreichische Forschungseinrichtung mit dem Anspruch auf Weltklasse. Wir bekennen uns zu beidem, obwohl hier die richtige Balance zu halten nicht immer einfach ist, nicht nur aus Ressourcengründen.

    Ebenso ist in jeder einzelnen Wissenschaft die richtige Balance zwischen Spezialisierung und Interdisziplinarität, die nur auf Basis starker disziplinärer Verankerung erfolgreich sein kann, immer schwierig. In diesem Sinn verstandene Interdisziplinarität ist eine besondere Stärke der Universität Wien mit ihrer fachlichen Breite, die wir einerseits in den Forschungsprogrammen der Europäischen Union, andererseits in neuen interdisziplinären Masterstudien zur Geltung bringen wollen.

    Autonomie und Verantwortung

    Die Universität Wien hatte im Laufe ihrer Geschichte stark unterschiedliche Grade von Autonomie. Ich glaube an die Korrelation von wissenschaftlichem Erfolg einer Universität mit dem Grad ihrer Autonomie; die letzten Jahre der Geschichte der Universität Wien bestätigen dies. Autonomie ist aber immer mit Verantwortung verbunden, sowohl gegenüber dem Staat also auch gegenüber der Öffentlichkeit.

    Diese Verantwortung wahrzunehmen ist ein wesentliches Prinzip auch des Jubiläumsjahrs, in dem wir in ganz verschiedenen Formaten über die Leistungen der Universität Wien informieren werden. Autonomie kann nicht nur im Verhältnis der Universität gegenüber dem Staat verstanden werden, sondern spiegelt sich auch intern in einer angemessen Subsidiarität wider. Eine Universität als Expertenorganisation muss ihre Mitarbeiter und Mitarbeiterinnen und auch Studierende in die Vorbereitung von Entscheidungen einbinden, wenn auch mit klaren Verantwortlichkeiten und Verantwortung für dann zu treffende Entscheidungen.

    Die Universitäten werden sich in den nächsten Jahren und Jahrzehnten im Detail stark verändern; dies betrifft insbesondere die Lehre durch die neuen Möglichkeiten der Informationstechnologie. Diese Möglichkeiten werden auch zu breiter Verfügbarkeit von Bildung führen. Das Entscheidende und Prägende an einer universitären Ausbildung wird aber weiterhin der persönliche Kontakt zwischen Lehrenden und Studierenden, das gemeinsame Arbeiten an wissenschaftlichen Themen sein.

    Diese Verbindung von Forschung und Lehre ist zwar erst seit dem 19. Jahrhundert als Grundprinzip an den Universitäten verankert, es gab sie allerdings bereits zu Gründungszeit der Universität Wien.

    Rudolf IV. hat am 12.März 1365 eine akademische Einrichtung gegründet, die 650 Jahre das geistige Leben Europas mitgeprägt hat und auch weiterhin mitprägen wird


    * Festansprache des Rektors vom 12. März 2015 aus Anlass des 650-jährigen Gründungsjubiläums der Universität Wien http://www.univie.ac.at/fileadmin/user_upload/startseite/650/Dokumente/R...


    Weiterführende Links

    Eine umfassende Darstellung der Geschichte der Universität Wien findet sich unter: http://geschichte.univie.ac.at/   Es ist ein Projekt des Bibliotheks- und Archivwesen unter redaktioneller Leitung des Archivs der Universität Wien in Kooperation mit dem Forum ‚Zeitgeschichte der Universität Wien‘‘ und soll als „Work in Progress“ mit neuen Beiträgen laufend ergänzt werden. Gegliedert in sieben Themenkreise sind dies zur Zeit über 90, zum Teil reichbebilderte Artikel, welche sich von der Gründung der Universität an mit dem gesamten Zeitraum der 650-jährigen Universitätsgeschichte auseinandersetzen.

    inge Fri, 20.03.2015 - 08:04

    Günther Kreil (1934 – 2015)

    Günther Kreil (1934 – 2015)

    Fr, 13.03.2015 - 06:55 — Inge Schuster Inge SchusterIcon Biologie

    Vor wenigen Tagen haben wir die bestürzende Nachricht vom Tod Günther Kreils erhalten. Mit ihm ist einer der renommiertesten Pioniere der Molekularbiologie unseres Landes von uns gegangen. Günther Kreil hat die stürmische Entwicklung dieser Disziplin von Anfang an aktiv miterlebt und bedeutende Beiträge dazu geliefert. Einige Stationen Günther Kreils vor dem Hintergrund des sich enorm verändernden Umfelds sind im folgenden Artikel skizziert. Wir, vom ScienceBlog, sind stolz darauf Günther Kreil in unserer Autorenliste aufführen zu können [1, 2].

    „Eine Erklärung biologischer Phänomene im naturwissenschaftlichen Sinn ist wohl nur auf molekularer Ebene zu erwarten. In diesem Bereich treffen sich Morphologie, Physiologie und Biochemie, und eine strenge Scheidung der Disziplinen hat aufgehört zu bestehen.“ Peter Karlson (1961)

    Mit diesem Satz endet das „Kurze Lehrbuch der Biochemie“, das der deutsche Biochemiker Peter Karlson (1918 – 2001) „für Mediziner und Naturwissenschaftler“ verfasst hat und das für viele von ihnen zu einem Meilenstein in der Ausbildung wurde. Karlson – ein Schüler des weltbekannten Adolf Butenandt (der für seine Arbeiten an Steroidhormonen den Nobelpreis erhielt) – war berühmt für seine Arbeiten zu Insektenhormonen und deren Wirkmechanismen. Mit der kurzen Formulierung hat Karlson die überaus rasche Entwicklung, besser gesagt Umgestaltung, der Naturwissenschaften in den letzten 50 Jahren vorweggenommen: weg vom Schubladendenken einzelner Fächer zu einer transdisziplinären Betrachtungsweise. Das molekulare Denken des Chemikers, das ja Grundlage der Biochemie ist, startete seinen Siegeszug in die Biologie, die Physiologie und schlussendlich auch in die Medizin. Die Übernahme der Fächer wird seitdem durch die Vorsilbe Molekular- angezeigt.

    Günther Kreil stand in dieser Entwicklung an vorderster Front und gestaltete sie mit.

    Von der Chemie zur Molekularbiologie

    Günther Kreil hatte in den 1950er Jahren an der Universität Wien studiert – Chemie und im Nebenfach Physik. Die Biochemie nahm damals im Studium einen untergeordneten Platz ein, sie steckte- nicht nur bei uns - in den Kinderschuhen. Wohl kannte man damals eine Reihe von Vitaminen, Hormonen und auch wesentliche Stoffwechselwege. Dabei handelte es sich aber stets um die Beschreibung kleiner Moleküle, da nur diese mit den damaligen Methoden der Chemie untersucht werden konnten. Über Strukturen und Funktionen der großen Biomoleküle - Proteine und Nukleinsäuren – wusste man reichlich wenig; hier mussten erst geeignete Analyse- und Testverfahren entwickelt werden. Auch noch im Jahr 1961 hieß es in dem oben erwähnten Lehrbuch von Karlson „Über die Tertiärstruktur der meisten Proteine ist fast nichts bekannt, da die Kristallstruktur-Untersuchungen außerordentlich mühsam sind“ und im Geleitwort zu demselben Buch „In unseren Tagen dürfen wir erste Einblicke in die Struktur und Wirkungsweise der Erbfaktoren tun, deren Informationsinhalt das biologische Schicksal der Zellen bestimmt“.

    Günther Kreil arbeitete an seiner Doktorarbeit bereits gegen Ende der 1950er Jahre und er beschäftigte sich darin mit einem großen Molekül, dem Cytochrom c. Dieses rotgefärbte Enzym ist ein Schlüsselenzym in der Zellatmung und damit in der Erzeugung zellulärer Energie. Unter Anleitung seines noch recht jungen Doktorvaters Hans Tuppy gelang Kreil ein aufsehenerregender Durchbruch: die Aufklärung der bis dahin längsten Aminosäuresequenz - Cytochrom c besteht aus immerhin 104 Aminosäureresten. Hans Tuppy hatte bereits Expertise im Sequenzieren - allerdings von wesentlich kleineren Peptidketten: er war zuvor Postdoktorand im Labor von Fred Sanger in Cambridge gewesen und hatte dort maßgeblich zur Aufklärung der Aminosäuresequenz des Insulins – eines aus 51 Aminosäuren bestehenden Hormons –beigetragen (1958 erhielt Sanger für seine neuen Methoden der Strukturaufklärung den Nobelpreis).

    Cytochrom c. 3D-Struktur des rekombinanten humanen Enzyms in LösungCytochrom c. 3D-Struktur des rekombinanten humanen Enzyms in Lösung (rote Aminosäurenkette in Bänderdarstellung; die Haemgruppe ist grün; Quelle http://www.ebi.ac.uk/pdbe-srv/view/entry/1j3s/summary) Darunter: Aminosäuresequenz (F-46 Mutante; Quelle: RCSB PDB. Aminosäuren sind im Einbuchstabencode dargestellt: siehe dazu z.B http://de.wikipedia.org/wiki/Aminosäuren)

    Als in der Folgezeit Cytochrom c aus verschiedensten Spezies sequenziert wurde, führte dies zu einer grundlegenden neuen Erkenntnis: man sah, dass die Abfolge der Aminosäuren umso weniger differierte, je näher verwandt die Spezies miteinander waren. Es ließen sich daraus also erstmals Stammbäume der Evolution konstruieren und die Zeitdauer zwischen einzelnen Evolutionsschritten – mittels der sogenannten molekularen Uhr – abschätzen. Dazu Kreil (1963): „Die artspezifischen Unterschiede in der Sequenz sind ein molekularer Ausdruck der im Zuge der Evolution eingetretenen mutativen Abwandlung des Gens“[3].

    Speerspitze der Molekularbiologie in Österreich

    Bereits früh erkannten führende österreichische Wissenschafter – neben Hans Tuppy der organische Chemiker Friedrich Wessely und der Physikochemiker Otto Kratky - welche zentrale Bedeutung die Molekularbiologie für die biologischen Disziplinen haben würde und unterstützten die Gründung eines eigenen Institutes, des Instituts für Molekularbiologie der Österreichischen Akademie der Wissenschaften. Anfänglich in Räumen von Universitätsinstituten in Wien und Graz untergebracht, wurde 1976 ein eigenes Gebäude in Salzburg errichtet. Günther Kreil war von 1966 bis zu seiner Pensionierung 2003 Abteilungsleiter, bzw. Leiter dieses Instituts, das sich zu einer auch international hochrenommierten Institution entwickelte.

    Mit den sich rasant entwickelnden analytischen, genetischen und strukturbiologischen Methoden setzte Günther Kreil hier höchst erfolgreich die Forschung an Proteinen und Peptiden fort. Besonders bekannt wurden seine Arbeiten zur Identifizierung und Charakterisierung von Bienengift, einer komplexen Mischung aus Peptiden und Proteinen. Er lieferte eine umfassende Beschreibung: von der komplizierten Biosynthese der toxischen Hauptkomponente Mellitin und der Frage wie derartige Peptide ausgeschleust werden bis hin zu deren biologischen und allergenen Eigenschaften (Mellitin ist ein Peptid, das in Zellmembranen Poren bildet, als Folge die Ionendurchlässigkeit erhöht und zum Zelltod führt ), von der Steigerung der Lipid-spaltenden Aktivität einer weiteren Bienengiftkomponente (Phospholipase A2)durch Melittin bis hin zu einem Enzym (Hyaluronidase), welches die hochviskosen Mucopolysaccharide im Bindegewebe auflöst und dieses damit für das Bienengift durchlässiger macht.

    Mellitin, die toxische Hauptkomponente von BienengiftMellitin, die toxische Hauptkomponente von Bienengift ist ein Peptid mit 26 Aminosäuren (Links: Chemdraw-Darstellung).4Mellitinketten bilden die toxische Form einer Pore (Bänderdarstellung; Bild: Wikipedia)

    Dass eine homologe Form dieses letzteren Enzyms auch auf Spermatozoen vorkommt und eine essentielle Rolle in der Adhäsion Spermazelle – Eizelle spielt, war eigentlich ein Spin-off, allerdings eine besonders wichtige Entdeckung dieser Untersuchungen.

    Ein weiteres Forschungsgebiet Kreils betraf Peptide, die aus der Amphibienhaut abgesondert werden. Man fand, dass viele dieser Peptide Homologie zu Hormonen und Neurotransmittern von Säugetieren aufwiesen – Befunde, die gleicherweise für Endokrinologie, Pharmakologie und Evolutionsforschung Bedeutung haben. Darüber hinaus wurden zahlreiche Peptide isoliert und charakterisiert, die antimikrobielle Aktivität zeigten (und damit das Potential als neue Leitstrukturen gegen Infektionskrankheiten zu fungieren).

    In derartigen Peptiden der Amphibienhaut, aber auch in zahlreichen anderen tierischen Peptiden, beispielsweise in Neuropeptiden von Schneckenganglien oder in Peptiden von Spinnengiften, fand man D-Aminosäuren, die sich als essentiell für deren biologische Aktivitäten erwiesen. Die „Umschreibung“ (Translation) von Genen in die Genprodukte Peptide und Proteine liefert allerdings ausschließlich L-Aminosäuren als Komponenten. Kreils Gruppe konnte die Herkunft der D-Aminosäuren klären: dieselben Quellen der D-Aminosäuren enthaltenden Peptide besaßen Enzyme, welche die üblicherweise vorliegenden L-Aminosäuren in D-Aminosäuren umwandeln.

    Die Liste erfolgreicher Konzepte Günther Kreils ließe sich noch lange fortsetzen. Das Web of Science (Reuters & Thomson) verzeichnet 175 Originalarbeiten – teilweise mit mehr als hundert Zitationen - und Übersichtsartikel, der Großteil davon in Top-Zeitschriften.

    Streiter für die Wissenschaft

    Mit Günther Kreil ist auch eine Stimme verstummt, die sich der Wissenschaftskommunikation verschrieben hatte und mit unanfechtbar hoher Kompetenz und enormen Engagement gegen pseudowissenschaftliche Argumente und Vorurteile Stellung bezog. Dies betraf insbesondere das Gebiet der Gentechnik, gegen welche von Anfang an Misstrauen und Ängste in der Bevölkerung geschürt worden waren. Günther Kreil versuchte hier aufklärend zu wirken - er hielt zahllose öffentliche Vorträge, nahm an ebenso vielen Diskussionen teil und veröffentlichte entsprechende Beiträge in den Medien. In diesem Fachgebiet war Kreil ja ein im In- und Ausland gefragter Topexperte. U.a. hatte er in der Österreichischen Akademie der Wissenschaften den Vorsitz in der „Kommission für Rekombinante Gentechnik“ inne und wirkte maßgeblich am österreichischen Gentechnikgesetz mit. Ein Gesetz, welches das Arbeiten mit gentechnisch veränderten Organismen, das Freisetzen und Inverkehrbringen von gentechnisch veränderten Organismen und die Anwendung von Genanalyse und Gentherapie am Menschen regelt.

    Sein wissenschaftlich fundiertes Eintreten für die Gentechnik hat ihm viele Gegner geschaffen. Er benennt diese in seinem Artikel „Gentechnik und Lebensmittel: Wir entscheiden „aus dem Bauch“ der im August 2013 im ScienceBlog erschienen ist [1]: „Bei der Ablehnung der „grünen“ Gentechnik ist Österreich führend, die gemeinsamen Aktivitäten von Boulevardmedien, NGOs und den Grünen führten dazu, dass dieses Thema faktisch tabuisiert wurde – und das ohne ein Experiment, einen einzigen kontrollierten Freisetzungsversuch mit einer gv Nutzpflanze. Bei uns wird halt einfach „aus dem Bauch“ entschieden.“

    Günther Kreil hatte noch viel vor. Auch für unseren ScienceBlog wollte er aus seinem reichen Erfahrungsschatz wieder etwas schreiben. Die diesbezügliche Ankündigung „Ich bastle an einem Beitrag für den Scienceblog, den ich Dir hoffentlich bald schicken kann.“, die mich wenige Wochen vor seinem Ableben erreichte, konnte er nicht mehr umsetzen. Er wird uns als großartiger Forscher, mutiger Kämpfer gegen Pseudowissenschaften und humorvoller, liebenswerter Freund In Erinnerung bleiben.


    [1] Lebenslauf von Günther Kreil: http://scienceblog.at/günther-kreil

    [2] Artikel von Günther Kreil: http://scienceblog.at/gentechnik-und-lebensmittel-wir-entscheiden-%E2%80...

    [3] Kreil G (1963) Über die Artspezifität von Cytochrom c – Vergleich der Aminosäuresequenz des Thunfisch Cytochroms c mit der des Pferde-Cytochroms c . Hoppe-Seyler’s Z Physiol Chem 334 (1-6) 154


    Weiterführende Links

    "Club 2 – Das Jahrhundert der Molekularbiologie" Gesprächsrunde mit Erwin Chargaff (1981) Video 1:36:21 Erwin Chargaff, Günther Kreil, Peter Hans Hofschneider, Hermann Katinger, Peter Schuster. Christl Kölle (Chemielehrerin) Gesprächsleitung: Franz Kreuzer.

    Dieser Club 2 war ein herausragendes Beispiel, wie Wissenschaft kommuniziert und diskutiert werden kann!!!

    inge Fri, 13.03.2015 - 06:55

    Von antibakteriellen Beschichtungen zu Implantaten

    Von antibakteriellen Beschichtungen zu Implantaten

    Fr, 06.03.2015 - 15:35 — Helmuth Möhwald & Katja Skorb

    Helmuth MöhwaldKatja SkorbIcon GebietEinfache, in Flüssigkeiten anwendbare Methoden ermöglichen die Herstellung von Oberflächen mit definierter Porosität. Die Prozesse erlauben den Einbau von Wirkstoffen in die Grenzfläche und mit geeigneter Beschichtung auch deren gezielte Freisetzung. Bei vielversprechenden sehr harten Materialien für Implantate wie Titan ist es daher möglich, das Wachstum von Osteoblasten, den häufigsten Zellen in Knochen, zu stimulieren. Der Physiker Helmuth Möhwald, em. Gründungsdirektor des Max-Planck Instituts für Kolloid- und Grenzflächenforschung (Potsdam) und die Chemikerin Katia Skorb beschreiben wie der Kontakt zwischen der Grenzfläche und benachbarten Zellen maßgeschneidert werden kann.*

    In populären Zeitschriften findet man häufig Fotos von Menschen, die zeigen, dass zu fast jedem Organ oder Körperteil auch ein synthetisches Ersatzteil hergestellt werden kann. Dessen Bedeutung wird mit der Alterung der Bevölkerung zunehmen, da zum einen der Bedarf an Herzen, Knien, Hüften etc. steigen wird, zum anderen auch Fortschritte der Werkstoffwissenschaften und der Immunologie und Medizin neue Möglichkeiten eröffnen. Dieser Entwicklung sind jedoch Grenzen gesetzt, und eine wichtige Limitierung besteht in der Beherrschung der Grenzfläche zwischen künstlichem und biologischem Material.

    Die Kontrolle dieser Grenzfläche ist essentiell nicht nur für Implantate, sondern auch für viele andere wichtige Probleme wie die Vermeidung von Algenbelag auf Oberflächen von Schiffen, von Bakterienwachstum auf Schläuchen oder die Erhöhung der Stabilität von Biosensoren.

    Wenn auch die Bedeutung der Grenzfläche offensichtlich ist, so ist es doch erstaunlich, dass z. B. das Problem des Anwachsens eines Implantats weitestgehend von Medizinern behandelt wurde und Grenzflächenwissenschaftler wenig beigetragen haben. Dieser Beitrag soll zeigen, dass bei Beseitigung dieses Defizits erhebliche Fortschritte erzielt werden können. Die Grenzfläche kann Prozesse steuern und dynamisch und in Rückkoppelung das Zellwachstum beeinflussen. Im Mittelpunkt der Betrachtung soll die Oberfläche von Metallen stehen, da diese vielfältig bei Implantaten oder der Stammzellenforschung verwendet werden. Zudem können viele der Detail- Erkenntnisse an diesen Materialien auf andere übertragen werden.

    Die geeignete Grenzfläche

    Die Anforderungen an ein Implantat sind unter anderem hohe Beständigkeit insbesondere in biologischem Milieu, mechanische Festigkeit und Zuverlässigkeit. Es muss aber auch mit anwachsenden Zellen verträglich sein, und hierzu ist die gezielte Einstellung seiner Oberfläche erforderlich. Dies ist deshalb eine erhebliche Herausforderung, da Beständigkeit und Festigkeit jede Manipulation der Oberfläche erschweren. Ein Ausweg ist die Beschichtung mit Substanzen, die die Bioverträglichkeit ermöglichen, aber dabei stellt sich das Problem der Haftung dieser Substanzen. Ein geeigneter und besonders vielversprechender Weg ist, das Material zunächst durch elektrochemische oder sonochemische Methoden aufzurauen und auch zu oxidieren oder zu reduzieren. Da die Sonochemie zwar viel verwendet wird, aber nicht verstanden ist, soll sie hier kurz erklärt werden:

    Setzt man eine Flüssigkeit Ultraschall hoher Intensität aus, können Gasblasen entstehen, und diese können im Schallfeld wachsen. Bei einer kritischen Größe um 100 μm (0,1 mm)kollabieren diese in sogenannten Kavitationsblasen, und die gespeicherte mechanische und Oberflächenenergie wird frei und fokussiert auf ein Volumen <1 μm3. Dabei entstehen über kurze Zeiten (<1 μsec) Drucke um 1000 atm und Temperaturen um 10 000 K. Die Methode ermöglicht also Chemie unter extremen Bedingungen, aber mit einem Reaktor unter Normalbedingungen. Beim Kollaps entstehen Schockwellen und ein Flüssigkeitsjet wie auch Radikale. Letztere hängen ab vom verwendeten Lösungsmittel. Da die Methode keine zusätzlichen Chemikalien erfordert, kann sie als „grüne“ Methode bezeichnet werden.  Oben: Schematische Darstellung der Porenbildung durch Ultraschall bei Metallen. 
Unten: Oberflächen verschiedener Metalle (Elektronenmikroskopaufnahmen)Abbildung 1: Oben: Schematische Darstellung der Porenbildung durch Ultraschall bei Metallen. Unten: Oberflächen verschiedener Metalle (Elektronenmikroskopaufnahmen). © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Betreibt man nun Ultraschallchemie in der Nähe einer Grenzfläche, so kann letztere als Keim für die Blasenbildung dienen und durch die Kavitation in ihrer Nähe chemisch und physikalisch verändert werden.

    Abbildung 1 zeigt, dass dies selbst bei besonders harten und inerten Materialien wie Titan gelingt. (Die Kavitation an Grenzflächen ist übrigens auch der zentrale Mechanismus der üblichen Reinigung von Oberflächen im Ultraschallbad). Der Trick, der dies ermöglichte, bestand in der Auswahl des geeigneten Lösungsmittels, das die entsprechende chemische Reaktion begünstigte . Es ist offensichtlich, dass die in diesem Fall entstandene poröse Oxidschicht sehr gut auf dem Metall haftet, auf dem sie erzeugt wurde. Andererseits ist zu erwarten, und dieses wurde experimentell bestätigt, dass auch ein organischer oder biologischer Film sehr gut auf dieser Schicht haftet.

    Grenzflächen als Wirkstoffträger

    Eine genauere Analyse der Grenzfläche zeigt, dass sie bis zu einer Tiefe von etwa 0,5 μm aus einer porösen Struktur mit Poren in Dimensionen um 100 nm besteht. Diese Poren können nun mit einem Wirkstoff gefüllt werden, der später (bei Bedarf) freigesetzt wird. Dabei stellt sich natürlich die Herausforderung, die Poren möglichst quantitativ und tief zu beladen, und hierbei ist der Ultraschall ein sehr einfaches und wirksames Hilfsmittel. Abbildung 2 zeigt hierzu, dass direkt bei Ultraschallbehandlung zur Erzeugung der Poren das Zellgift Doxorubizin in diese Poren eingebracht werden kann. Dieses verhindert dann das Wachstum von Zellen in und an dieser Oberfläche. Abbildung 2: Oben: Schematische Darstellung des Einbaus des fluoreszierenden Wirkstoffs Doxorubizin (links) und Nachweis des Einbaus in die Oberfläche (grün, rechts). Mitte rechts: pH-abhängige Freisetzung des Wirkstoffs. Unten: Anhaftende lebende Zellen (links) und durch den Wirkstoff getötete (rechts).

    Gezielte Wirkstofffreisetzung von Oberflächen

    Im Experiment der Abbildung 3 ist zu erwarten, dass unter Bedingungen, in denen der Wirkstoff in der Umgebung gelöst wird, dieser innerhalb weniger Stunden aus dem Material verschwindet. In Anwendungen ist jedoch eine Wirkung über eine längere Zeit erwünscht, d. h. eine verzögerte Freisetzung. Noch wünschenswerter wäre eine Freisetzung bei Bedarf, z. B. durch einen äußeren Stimulus durch Licht, Schall, durch eine elektrische Spannung oder durch eine Änderung der Umgebungsbedingungen. Dieses kann erreicht werden, indem die Grenzfläche durch eine organische Schicht bedeckt wird. Diese übernimmt dann die Funktion einer schaltbaren Barriere. In unseren Arbeiten werden durch Adsorption gegensätzlich geladener Polymere Schichten mit Dickenkontrolle im Nanometer-Bereich hergestellt. Diese Polymere können so gewählt werden, dass sie mit anhaftenden Zellen kompatibel sind.

    Alternativ oder komplementär können diese Schichten auch als Wirkstoffdepot verwendet werden, indem die Wirkstoffe direkt oder in Nanokapseln verpackt in diesen Film eingefügt werden. Unser Interesse gilt dabei weniger Zellgiften sondern Wachstumsfaktoren, die das Wachstum bestimmter Zellen fördern. Für Knochenimplantate sind dabei Wirkstoffe für das Wachstum von Osteoblasten und Osteoklasten von besonderer Bedeutung (Abbildung 3). Aber offensichtlich eröffnet sich hier auch ein interessantes Feld der Zelldifferenzierung, z. B. in der Stammzellenforschung. Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts;
(Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert). Abb. 3: Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts; (Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert)Abbildung 3: Oben: (links) Schematische Ansicht eines dreidimensionalen Modellgerüsts; (Mitte) Durch Ultraschall modifizierte Ti-Oberfläche (Mikroskopaufnahme) mit einer anwachsenden Osteoblastenvorläuferzelle (Fluoreszenzmikroskopieaufnahme); (rechts) Elektrochemisch modifizierte Ti-Oberfläche mit sehr langsam anwachsender Osteoblastenvorläuferzelle. Unten: Sonochemisch modifizierte Kanäle in Ti mit Zellwachstum an der Kante (rechts, rot markiert). © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Rückkoppelnde Grenzflächen

    Im vorigen Abschnitt wurde die Wirkstofffreisetzung bei Bedarf diskutiert. Noch vielversprechender wäre es, wenn das biologische System, das an die Grenzfläche koppelt, das Signal bei Bedarf selbst aussendet. Ein einfaches Beispiel für dieses Signal durch Aussenden eines Metaboliten ist in Abbildung 4 dargestellt. Hier handelt es sich um Bakterien, die Milchsäure produzieren. Nähern sich diese Bakterien einer Grenzfläche, so wird im Spalt dazwischen die Milchsäure angereichert und damit die Protonenkonzentration erhöht. Die pH-Erniedrigung kann zur Wirkstofffreisetzung führen. Im Beispiel der Abbildung 4 führt sie zu einer Bürstenbildung, d. h. Streckung einer Polymerschicht auf der Oberfläche und damit zur Abstoßung der Bakterien. Hier eröffnet sich also die Möglichkeit der Herstellung einer Oberfläche, die resistent ist gegen den Befall durch Algen oder Pilze, die aber Gifte nur lokal aussendet, wo sie benötigt werden. Unten: Schematische Darstellung eines Rückkopplungsmechanismus, bei dem die
Zelle einen Metaboliten produziert, durch den sie wegen der pH-Änderung abgestoßen wird. Oben wird durch Fluoreszenzmarkierung der Zellen gezeigt, dass das Konzept funktioniert

    Abbildung 4: Unten: Schematische Darstellung eines Rückkopplungsmechanismus, bei dem die Zelle einen Metaboliten produziert, durch den sie wegen der pH-Änderung abgestoßen wird. Oben wird durch Fluoreszenzmarkierung der Zellen gezeigt, dass das Konzept funktioniert. © Ekaterina V. Skorb / Max-Planck-Institut für Kolloid- und Grenzflächenforschung

    Dreidimensionale Grenzflächen

    Während unsere Gruppe wie andere die meisten Experimente an planaren Grenzflächen durchführt, sind für das Anwachsen von Implantaten dreidimensionale Gerüste die wichtigste Ausgangsstruktur. Hier stellen sich dann weitere Probleme des Stofftransports und der Zell-Zell-Interaktion, aber auch der gezielten Manipulation von Grenzflächen im Inneren dieser Gerüste. Glücklicherweise kann auch diese Grenzfläche mithilfe der Ultraschallbehandlung manipuliert werden. Am Beispiel eines Gerüsts aus der Abteilung Biomaterialien unseres Instituts war so zu sehen (Abb. 3 unten), dass Zellen bevorzugt in Hohlräumen mit viel Kontakt zur Wand anhaften und diese Wechselwirkungen durch unsere Methoden manipuliert werden können.

    Ausblick

    In diesem kurzen Beitrag sollte das Potential der gezielten Manipulation von Grenzflächen dargestellt werden. Den Schwerpunkt bildete dabei der Zell-Oberflächen-Kontakt, da hierauf eine Vielfalt von Anwendungen aufbauen. Allerdings gibt es zahlreiche offene Fragen:

    • Die Wirkung von Ultraschall auf Grenzflächen ist wegen der lokalen und dynamischen Prozesse nicht verstanden.
    • Die Wirkung einer festen oder weichen Oberfläche auf verschiedene Zelltypen ist nicht verstanden.
    • Die verschiedenen materialspezifischen Mechanismen der Freisetzung sind qualitativ verstanden, aber quantitativ noch nicht beherrscht.

    Daher sollte hier betont werden, dass sich die weitere Forschung unserer Gruppe auf Kooperationen zu diesen offenen Fragen konzentrieren wird, nicht auf Erweiterungen der Anwendungen.

    Andererseits sind viele angesprochene Aspekte sehr generelle Fragen der Materialforschung. Zum Beispiel kann durch Einbringen von verkapselten Korrosionsinhibitoren in eine Deckschicht eine rückkoppelnde Beschichtung aufgebaut werden. Dabei wird durch einen Defekt in der Schicht der Inhibitor freigesetzt, wodurch sich die Schicht selbst repariert. Diese Anwendung ist vielleicht weniger spekulativ, aber von großer wirtschaftlicher und ökologischer Bedeutung. Auch wenn wir auf diesem Gebiet näher an einer Entwicklung sind, so gibt es doch auch hier noch eine erhebliche Distanz zur Anwendung. Dies ist aber kein Grund zur Entmutigung sondern vielmehr Ansporn, die Entwicklung der Grundlagenforschung zur forcieren.


    *Dieser Artikel ist im Jahrbuch 2014 der Max-Planck Gesellschaft erschienen und wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier in voller Länge, es fehlen aber die Literaturzitate; diese sind aus der Originalarbeit zu entnehmen: http://www.mpg.de/7790800/MPIKG_JB_20141?c=8236817.


    Weiterführende Links

    Max-Planck-Institut für Kolloid- und Grenzflächenforschung: http://www.mpikg.mpg.de/

    Im ScienceBlog

    Ein Artikel über Implantate von der Seite des Mediziners aus betrachtet:

    Georg Wick: Erkrankungen des Bindegewebes: Fibrose – eine häufige Komplikation bei Implantaten

    inge Fri, 06.03.2015 - 15:35

    Hermann Mark und die Kolloidchemie. Anwendung röntgenographischer Methoden

    Hermann Mark und die Kolloidchemie. Anwendung röntgenographischer Methoden

    Fr, 27.02.2015 - 10:26 — Redaktion

    Icon WissenschaftsgeschichteDer in Wien geborene und aufgewachsene Hermann Mark (1895 – 1992) gehört zu den berühmtesten Chemikern, die Österreich hervorgebracht hat. Mark gilt als (einer) der Begründer der neuen Disziplin „Polymerwissenschaften“; auf ihn gehen grundlegende Arbeiten über Polymerisationsmechanismen, Molekülmassenbestimmung und Strukturaufklärung von Polymeren – vor allem mittels den damals noch in den Kinderschuhen steckenden „Röntgenographischen Methoden“ – zurück. Damit gehörte Mark auch zu den Pionieren der damals in Entstehung begriffenen Strukturchemie. Ausführliche Biographien zu Marks Leben und Wirken sind in [1 - 3] nachzulesen.

    1932 nach Wien auf den Lehrstuhl für Chemie berufen, leitete Mark bis 1938 das 1. Chemische Institut der Universität Wien. Er lehrte physikalische Chemie und betrieb Grundlagenforschung. Er führte die Röntgenstrukturanalyse ein, schuf (zusammen mit E. Guth) eine statistische Theorie der Elastizität von Gummi-artigen Molekülen und baute den weltweit ersten Studiengang für Polymerwissenschaften auf.

    Mark war ein großartiger Redner und hat auch außerhalb der akademischen Welt populäre, leicht verständliche Vorträge gehalten. So beispielsweise am 21. Feber 1934 im Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien.

    Im Folgenden findet sich dieser Vortrag [4] in einer für den Blog adaptierten, leicht gekürzten Form mit einigen zusätzlichen Untertiteln.

    Text des Vortrags im Jahrbuch Hermann Mark: Über die Bestimmung kleinster Teilchen mit Hilfe von Röntgenstrahlen [4]

    Erst im letzten Jahrzehnt hat man in vollem Umfang die Bedeutung erkannt, die kleine, in einer Flüssigkeit suspendierte feste oder flüssige Teilchen für chemische und besonders für physiologische Prozesse haben können. Wenn man einen Festkörper — etwa Quarz, Glas, Kupfer, Kohle usw. — allmählich immer mehr zerkleinert, so erhält man einen immer feiner werdenden Sand, dessen Aufschwemmung im Wasser zunächst keine neuen fremdartigen Erscheinungen ergibt. Die in der Flüssigkeit aufgewirbelten Teilchen setzen sich mehr oder weniger rasch ab und es erfolgt von selbst eine Trennung der beiden Komponenten des betrachteten Systems.

    Kolloide Lösungen…

    Wenn man aber die Zerkleinerung der festen Phase sehr weit treibt, sodass Partikel von besonderer Feinheit entstehen, dann erhält die Suspension dieser Partikeln in Wasser neuartige, besonders interessante Eigenschaften. Die Teilchen bleiben nämlich dann beliebig lange in der Flüssigkeit schweben und bilden je nach der Konzentration entweder völlig klare oder schwach opalisierende Lösungen von großer Stabilität; eine freiwillige Entmischung erfolgt nicht mehr.

    Aufgeschwemmte TeilchenIm Wasser aufgeschwemmte Teilchen sedimentieren (links), bei sehr hohem Mahlgrad entstehen stabile kolloide Lösungen (rechts).

    Während man sich in den vergangenen Jahrzehnten im wesentlichen dem Studium homogener Systeme und wahrer Lösungen zugewendet hatte, blieben die soeben geschilderten scheinbaren oder kolloiden Lösungen lange Zeit unbeachtet, und es war das Verdienst einer Reihe von Forschern, wie: Ostwald, McBain, Freundlich, Pauli u. a., das Augenmerk auf die Wichtigkeit dieser mikroheterogenen Systeme gelenkt zu haben.

    Nachdem man einmal ihre Bedeutung erkannt hatte, fand man in der ganzen Chemie und besonders in biologischen Systemen immer wieder kolloide Lösungen — sogenannte Sole — der verschiedensten Zusammensetzung und Wirksamkeit.

    …und ihre Herstellung…

    Als einfachster Weg zur Herstellung kolloider Lösungen könnte die künstliche Zerkleinerung einer gegebenen Substanz durch geeignete Mahlvorrichtungen erscheinen. Wenn man aber versucht, diesen Weg praktisch zu beschreiten, dann findet man bald, daß der Mahlgrad, bis zu dem man vordringen kann, nicht ausreicht, um die für ein kolloides System charakteristischen Erscheinungen, besonders die Stabilität und Klarheit hervorzubringen. Die besten technischen Zerkleinerungsvorrichtungen, Kugelmühlen, Schlagkreuzmühlen usw., ermöglichen nämlich bei ihrer Anwendung auf feste anorganische oder organische Substanzen nur eine Zerkleinerung bis in die Gegend von 2—5 µm Durchmesser (1µm = 1/1000 mm). Diese Feinheit besitzen etwa feinstes Weizenmehl, Portlandzement und äußerst feine Farbstoffe. Wenn man Teilchen von dieser Größe in Wasser suspendiert, dann bleiben zwar diejenigen von ihnen lange schweben, deren spezifisches Gewicht nicht allzu sehr von dem des Wassers abweicht, wie Farbstoffe. Mehl, Stärke usw., die schwereren aber, Schwerspat, Zinkweiß usw., setzen sich nach kurzer Zeit praktisch vollständig ab.

    …mit der Kolloidmühle…

    Es ist also eine noch weitergehende Zerkleinerung nötig. Für diesen Zweck hat Hermann Plauson eine Schlagkreuzmühle konstruiert, deren rasch rotierende, sehr nahe aneinander vorbeistreichende Schlagkreuze in einer Flüssigkeit laufen. Durch die Anwesenheit dieser Flüssigkeit wird die Wirkung der Mühle außerordentlich gesteigert und man kann eine vorgegebene, bereits recht feine Suspension eines bestimmten festen Körpers bis auf Kolloidfeinheit herunter mahlen. Man hat diese sogenannte Kolloidmühle an sehr vielen Stoffen erprobt und brauchbar gefunden, allerdings kommt sie nur für die laboratoriumsmäßige Herstellung' von Solen in Frage, da sie für technische Zwecke zu unwirtschaftlich arbeitet. Es ist nämlich der Kraftaufwand für die in einer Flüssigkeit rasch rotierenden Schlagkreuzräder ein ungewöhnlich großer.

    In der Praxis der Herstellung kolloider Lösungen musste man sich daher nach anderen Methoden umsehen und fand sie in den verschiedensten Möglichkeiten, Festkörper elektrisch zu zerstäuben oder zu versprühen.

    …durch elektrische Zerstäubung…

    So kann man z. B. nach Bredig die meisten Metalle dadurch in kolloide Verteilung bringen, daß man unter Wasser zwischen zwei metallischen Elektroden einen Lichtbogen brennen lässt. Durch die starke Erwärmung werden kleine Teilchen der Elektrode losgerissen und verteilen sich in der umgebenden Flüssigkeit als stabiles Metallsol, das bereits in jeder Richtung typisch kolloide Eigenschaften zeigt. Besonders beständig sind Sole aus edlen Metallen, wie Gold, Silber, Kupfer, Platin usw.; sie besitzen, abgesehen von ihrem wissenschaftlichen Interesse für die Kolloidchemie, auch eine gewisse praktische Bedeutung. Die außerordentlich feine Verteilung des Metalls bringt es nämlich mit sich, daß die spezifische Oberfläche der in der Lösung vorhandenen festen Phase außerordentlich groß ist, so daß alle auf Oberflächenwirkung beruhenden Effekte bei der Verwendung von kolloiden Systemen besonders in den Vordergrund treten. So bilden Platinsole ausgezeichnete Katalysatoren, die bei der Hydrierung organischer Substanzen allen anderen Beschleunigern erheblich überlegen sind, Silbersole werden als wirksame Desinfektionsmittel in der Heilkunde verwendet und wirken wahrscheinlich dadurch bakterizid, daß sie die Bakterien sowie die von ihnen erzeugten Giftstoffe an ihrer großen Oberfläche adsorbieren und hierdurch unwirksam machen.

    Die eben erwähnten Metallsole zeigen je nach ihrer Herstellung verschiedene Farbe, ein Effekt, der in ihrer verschiedenen Teilchengröße seinen Grund findet und bei entsprechend genauer Bestimmung des Farbtones geradezu zur Messung der Teilchengröße verwendet werden kann.

    …durch Ausfällung

    Eine andere, vielleicht noch wichtigere Methode zur Herstellung kolloid verteilter Materie bildet die Fällung. So lassen sich Metallsulfide, Metalloxyde, Kieselsäure und andere anorganische Stoffe sehr leicht fein verteilt ausfällen und liefern Suspensionen von großer Stabilität, die alle typisch kolloiden Erscheinungen zeigen. Sogar nach dem Entfernen des Lösungsmittels verbleibt der Rückstand häufig in so feiner Verteilung, daß man Systeme von außerordentlich großer spezifischer Oberfläche erhält, die für technische Zwecke Verwendung finden; man nennt diese festen Systeme mit kolloiden Eigenschaften Gele. So dient Kieselsäuregel in verschieden fein verteiltem Zustand in der Technik als Absorptionsmittel für Gase und flüchtige Lösungsmittel. Zahlreiche andere aus anorganischen Solen hergestellte Gele, wie Aluminiumoxyd, Eisenoxyd usw., werden als Trägersubstanzen für Katalysatoren verwendet.

    Diese kurze Einleitung über die Herstellung und Verwendung fester und flüssiger kolloider Systeme möge genügen, um die allgemeine Bedeutung dieses besonderen Zustandes der Materie zu kennzeichnen, nunmehr sei dazu übergegangen, die wichtigste Frage zu behandeln:

    Die Bestimmung der Größe kolloider Teilchen…

    Die direkte mikroskopische Vermessung kleiner Partikeln ist an die Wellenlänge des verwendbaren Lichtes geknüpft: eine direkte Abbildung im Mikroskop ist nur so lange möglich, als die Teilchen groß gegenüber der Wellenlänge des Lichtes sind. Wenn diese Bedingung nicht mehr zutrifft, dann treten Beugungserscheinungen auf, durch die die Abbildung verschwommen und ungenau wird, so daß von einer direkten Messung nicht mehr gesprochen werden kann. Das Gebiet des sichtbaren Lichtes endet bei einer Wellenlänge von etwa 400 Nanometer (= 4000 Ångström) dies ist also auch die Grenze der visuell noch direkt beobachtbaren Teilchengröße.

    Man hat versucht, durch Verwendung ultravioletter Strahlen auf photographischem Wege den Anwendungsbereich des normalen Mikroskops zu erweitern und ist bis zur Wellenlänge von etwa 200 Nanometer gegangen. Dies bedeutet aber keine erhebliche Erweiterung des Anwendungsbereiches: Zudem ist das Verfahren wegen der Notwendigkeit einer Quarzoptik und photographischer Registrierung recht umständlich. Zusammenfassend kann man daher sagen, dass die normalen optischen Hilfsmittel unter günstigsten Bedingungen noch die Vermessung von Teilchen in der Größenordnung von 0,8 bis 1,2 µm gestatten, also an der oberen Grenze des für den kolloiden Zustand charakteristischen Gebietes enden.

    …mit dem Ultramikroskop*

    Dieses gestattet zwar nicht, ein Teilchen seiner Form und Größe nach direkt zu beobachten, ermöglicht aber die Zahl der in einem bestimmten, sehr kleinen Volumen befindlichen Teilchen anzugeben. Wenn man nun das Gewicht der im gesamten System verteilten festen Materie und auf ultramikroskopischem Wege auch die Zahl der insgesamt vorhandenen Teilchen zunächst durch Auszählung in einem kleinen Bereich und dann durch Multiplikation ermittelt hat, dann kann man das Gewicht des Einzelteilchens und bei Kenntnis der Dichte auch die Größe des Einzelteilchens angeben. Unter bestimmten Bedingungen lässt sich so in kolloiden Lösungen eine recht verlässliche Bestimmung der mittleren Teilchengröße durchführen. Festen Kolloiden gegenüber aber versagt diese Methode völlig und ebenso, wenn die suspendierten Teilchen in der Lösung schlecht sichtbar sind, wie das bei fast allen organischen Solen, besonders bei den physiologisch wichtigen Systemen, wie Eiweiß, Stärke usw., der Fall ist. Hier sind die gelösten Teilchen optisch nicht genügend gegen das Lösungsmittel differenziert und können daher in ihm nicht so deutlich wahrgenommen werden, daß sich eine sichere Zählung ermöglichen ließe.

    …und der röntgenographischen Methode

    Vor etwa 15 Jahren wurden Röntgenstrahlen auch zur Bestimmung der Teilchengröße kolloider Systeme herangezogen. Um diese Möglichkeit entsprechend klar zu machen, wird es notwendig sein, kurz auf die Wechselwirkung zwischen Röntgenstrahlen und Kristallen einzugehen.

    Die Wellenlänge der Röntgenstrahlen (um 1 Ångström) ist etwa tausendmal kleiner als die des normalen Lichtes. Die Atomabstände in den festen und flüssigen Körpern fallen in dieselbe Größenordnung. Insbesondere bei kristallisierten Festkörpern bewirkt die regelmäßige Anordnung der einzelnen Atome, daß der Kristall den Röntgenstrahlen gegenüber sich verhält wie ein völlig geordnetes Raumgitter, an dem eine regelrechte Beugung der Wellenstrahlung stattfinden kann, ganz ebenso wie Licht an Gittern, deren Maschenweite mit der Wellenlänge vergleichbar ist, deutliche Beugungserscheinungen liefert. Die Interferenz oder Beugung der Röntgenstrahlen an Kristallgittern, die im Jahre 1912 erstmals von M. v. Laue verwirklicht wurde, liefert charakteristische Diagramme, wobei punktförmige Schwärzungen regelmäßig, aber mit verschiedenen Intensitäten auftreten. Solche Diagramme sind heute das sicherste Mittel, um festzustellen, ob sich ein bestimmter Stoff im kristallisierten oder amorphen Zustand befindet. Während kristallisierte Substanzen wohldefinierte intensive Diagramme mit scharfen Interferenzpunkten liefern, ergeben Flüssigkeiten nur verwaschene, undeutliche Beugungsbilder in Form eines breiten Ringes.

    Der Unterschied ist leicht zu verstehen. Im Kristallgitter sind die einzelnen Beugungszentren wohlgeordnet und die Gangunterschiede der an ihnen gestreuten Röntgenstrahlen gehorchen scharfen Gesetzen. Diese Regelmäßigkeit führt dazu, daß sich in bestimmten Richtungen sehr viel Intensität anhäuft, während in anderen durch Interferenz eine so gut wie völlige Auslöschung eintritt; daher beobachtet man intensive Interferenzpunkte neben strahlungsfreien Bereichen.

    In einer Flüssigkeit ist durch die unausgesetzte Bewegung der einzelnen Teilchen die Regelmäßigkeit viel weniger ausgeprägt. Daher verschwimmen hier die Gangunterschiede der an den einzelnen Molekülen gestreuten Wellen und mit ihnen die Interferenzfiguren der Diagramme.

    Aus der Lage und Intensität der Beugungspunkte eines Kristallgitterdiagramms lassen sich wichtige Schlüsse über die Struktur der Kristalle, über die Größe und Form und sogar über die innere Struktur der Atome ziehen. Hier soll nur davon die Rede sein, wie man die Größe der einzelnen Kriställchen aus einem Röntgenogramm bestimmen kann. Man braucht dazu nur auf den oben betonten Unterschied zwischen Einkristalldiagramm und Flüssigkeitsbildern etwas näher einzugehen: die scharfen, intensiven Reflexe der Kristallbilder, die beim Übergang zum Flüssigkeitsbild zu verwaschenen Streifen verschwimmen.

    Wenn man nun ein aus sehr kleinen Kriställchen bestehendes Pulver als Zwischending zwischen Einkristall und Flüssigkeit auffasst, ein Standpunkt, der zumindest qualitativ berechtigt ist, dann wird man zu erwarten haben, daß sehr feinkristalline Pulver Diagramme geben, die nicht mehr so scharf sind, wie die von groben Kristallen herrührenden und noch nicht so verwaschen wie Flüssigkeitsdiagramme, und wird mit abnehmender Korngröße eine zunehmende Verwaschung der Interferenzen erwarten.

    In der Tat konnten u.a. P. Scherrer und später ausführlicher M. v. Laue zeigen, dass die Größe der beugenden Teilchen mit der Schärfe der an ihnen entstehenden Interferenzerscheinungen verknüpft ist (Scherrer-Lauesche Gleichung). Da die Wellenlänge der Röntgenstrahlen in der Größenordnung von Ångström liegt, kann man auf diesem Wege auch noch die Dimensionen besonders kleiner Teilchen bestimmen. Die Methode ist gerade im kolloiden Gebiet besonders bedeutsam. Sie besitzt den Vorteil, sowohl auf Suspensionen als auch auf feste Körper angewendet werden zu können, und setzt nur voraus, daß die zu vermessenden Teilchen kristallinen Charakter haben.

    Dazu einige besonders interessante Ergebnisse

    Wie man seit den grundlegenden Versuchen von R. 0. Herzog und Scherrer aus dem Jahre 1920 weiß, sind nicht nur die anorganischen Kolloide, sondern auch die meisten organischen, biologischen und physiologischen Objekte, wie Fasern, Muskel, Haare usw., kristallin und fallen daher in den Anwendungsbereich der röntgenographischen Teilchengrößenbestimmung. Die erste praktische Durchführung dieser Methode erfolgte durch Scherrer selbst, der an verschiedenen Goldsolen die Größe der suspendierten Teilchen einerseits durch Auszählen, andererseits röntgenographisch bestimmte und sehr gute Übereinstimmung in den Ergebnissen fand. Später hat eine große Reihe von Forschern sich ihrer zur Teilchengrößenbestimmung im submikroskopischen Gebiet bedient.

    Die Struktur von Ruß

    Ein sehr häufig untersuchtes Objekt bildet der Kohlenstoff in seinen verschiedenen Modifikationen - dem kubischen Diamant und dem hexagonalen Graphit. Daneben gibt es den Ruß in den verschiedensten Arten und Eigenschaften, eine Substanz, die man bisher stets als amorphen Kohlenstoff angesprochen hat. Röntgenographische Untersuchungen zahlreicher Rußsorten haben aber in fast allen Fällen Interferenzbilder gezeigt, aus denen man auf das Vorliegen der Graphitstruktur zu schließen hat. Allerdings sind die Diagramme vieler Rußsorten sehr verwaschen und geben von der außerordentlichen Kleinheit der Graphitteilchen Kunde.

    Je nach der Herstellung des Rußes aus Paraffin oder Leuchtgas erhält man Rußsorten von außerordentlich verschiedener Teilchengröße, deren technische Eigenschaften ebenfalls stark voneinander abweichen und in charakteristischer Weise mit der Korngröße zusammenzuhängen scheinen. Ebenso wie der Graphit blättchenförmige Struktur besitzt, ergibt sich, daß die Rußteilchen nicht in allen Dimensionen gleich groß sind, sondern äußerst dünne Blättchen darstellen, deren Achsenverhältnis man aus röntgenographischen Untersuchungen ableiten kann.

    Der als Druckerschwärze verwendete Öl-oder Lampenruß besitzt Teilchengrößen zwischen 100 und 200 Ångström, während der in der Gummiindustrie in größtem Umfang verwendete Gasruß seine besten technischen Eigenschaften entfaltet, wenn die Teilchen zwischen 50 und 100 Ångström mittlere Kantenlänge aufweisen. Diese außerordentlich feinen Kohlenstoffkriställchen verfestigen eine Kautschukmischung, mit der sie innig vermengt werden, etwa auf das 3- bis 4fache ihrer ursprünglichen Widerstandsfähigkeit.

    Man darf annehmen, daß durch die Vulkanisation die Rußteilchen mit den langen kettenförmigen Molekülen des Kautschuks chemisch verknüpft werden, so daß eine außerordentlich feste Verbindung zwischen den einzelnen Komponenten der Mischung entsteht. Daß die wirksamsten Kautschukruße außerordentlich kleine Teilchen haben, geht auch daraus hervor, daß sie nicht mehr rein schwarz, sondern eher braun- oder blaustichig erscheinen.

    Noch feiner verteilten Kohlenstoff erhält man bei der Zersetzung des Kohlensuboxydes, eines merkwürdigen interessanten Gases, dem die Formel C3 O2 zukommt und das nach Klemenc bei seiner Erhitzung ein rotes Pulver liefert, dessen röntgenographische Untersuchung Graphitstruktur mit außerordentlich geringer Teilchengröße ergab. Die mittlere Ausdehnung der Körner beträgt hier nur etwa 30 Ångström; ein Kristall dieser Substanz enthält daher nur etwa 1000 Kohlenstoffatome und wiegt nicht mehr als 2.10-20 g. Er verhält sich dem Gewicht nach zu einem Zentner etwa so wie 1 Zentner zum Gewicht der ganzen Erde.

    Eine andere interessante und auch technisch wichtige Modifikation der Kohle ist in den aus organischen Substanzen — Knochen, Holz, Blut usw. — hergestellten Präparaten zu finden, die eine besonders starke Aufnahmefähigkeit für Gase und Dämpfe zeigen. Man hat diese Eigenschaft schon seit langem mit der großen inneren Oberfläche solcher Absorptionskohlen in Verbindung gebracht, die man sich als äußerst feinporigen Schwamm vorzustellen hat, in dem das zu adsorbierende Gas aufgesaugt wird. Die röntgenographische Untersuchung zeigt auch hier das Vorliegen des Graphitgitters und ergab außerordentlich kleine Dimensionen für die kristallisierten Bereiche.

    …von Kieselsäuregelen…

    Ein ähnliches Ergebnis liefert die Untersuchung von Kieselsäuregelen, die ebenso wie die erwähnten Kohlen in der Technik für die Wiedergewinnung von Lösungsmitteln, bzw. für das Festhalten von Gasen in Filtern, Gasmasken- usw. gebraucht werden. Auch von diesen Stoffen erhält man Röntgenogramme, aus denen neben der kristallinen Natur die außerordentliche Kleinheit der Kristallenen hervorgeht.

    …und technischen Katalysatoren

    Besonders interessante Ergebnisse hat die Bestimmung der Teilchengröße bei der Untersuchung technischer Katalysatoren zutage gefördert. Unter einem Katalysator versteht man einen Stoff, der durch seine bloße Anwesenheit den Ablauf einer chemischen Reaktion zu beschleunigen vermag, ohne hiebei merklich verändert zu werden. Die Erfahrung hat gelehrt, daß die Wirkung der Katalysatoren an eine Fixierung der Reaktion an die Oberfläche gebunden ist und daß diese Stoffe um so wirksamer sind, je größer die spezifische Oberfläche der verwendeten Präparate gemacht werden kann. Hier hat die röntgenographische Untersuchung eingegriffen und gezeigt, daß die Wirksamkeit von Kontakten in der Tat mit abnehmender Teilchengröße beträchtlich zunimmt.

    Um einen über längere Zeit aktiven Kontakt zu erhalten, ist es aber notwendig, dafür zu sorgen, daß die feine Verteilung der Substanz nicht während der Reaktion allmählich verlorengeht. Da die meisten chemischen Reaktionen bei höherer Temperatur durchgeführt werden, ist die Gefahr einer Rekristallisation und Sinterung der Kontakte sehr häufig akut und man muss besondere Maßnahmen treffen, um sie zu verhindern. Als sehr wirksam hat sich in dieser Hinsicht das Beimischen geringer Mengen von Stabilisatoren erwiesen, durch die ein Zusammenkristallisieren der einzelnen äußerst feinen Körner des Katalysators verhütet wird.

    Fazit

    Die wenigen geschilderten Beispiele mögen zeigen, wie vielseitig die röntgenographische Methode in ihrer Anwendung auf wissenschaftliche und technische Fragen ist. Überall dort, wo man sich für die Größe und Form von Kriställchen interessiert, die in Gebieten zwischen 10 und 500 Ä liegen, wird man in dieser Methode ein verlässlich und bequem arbeitendes Hilfsmittel finden.


    [1] Herbert Morawetz: Hermann Francis Mark – a biographical Memoir (1995) National Academy Press (Washington) http://www.nasonline.org/publications/biographical-memoirs/memoir-pdfs/m...

    [2] Johannes Feichtinger. Herman F. Mark (1895–1992): Viennese Born ‘Ambassador’ of Macromolecular Research (6th Int. Conf. History of Chemistry) http://www.academia.edu/371220/Herman_F._Mark_1895-1992_Viennese_Born_Am...

    [3] Herman Mark and the Polymer Research Institute http://www.acs.org/content/acs/en/education/whatischemistry/landmarks/po...

    [4] Hermann Mark: in Jahrbuch 74 (1934) des Vereins zur Verbreitung naturwissenschaftlicher Kenntnisse, Wien: http://www.landesmuseum.at/pdf_frei_remote/SVVNWK_74_0041-0059.pdf

    inge Fri, 27.02.2015 - 10:26

    Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie

    Aus der Werkzeugkiste der Natur - Zum Potential von Cytochrom P450 Enzymen in der Biotechnologie

    Fr, 13.02.2015 - 08:49 — Rita Bernhardt

    Rita BernhardtIcon BiologieCytochrom P450 (abgekürzt CYP) ist der Sammelname einer Superfamilie von Tausenden Enzymen, die in praktisch allen Lebensformen unserer Biosphäre vorkommen. CYPs können auf unterschiedlichen Reaktionswegen verschiedenste Moleküle oxydieren. Die Biochemikerin Rita Bernhardt (Lehrstuhl für Biochemie, Universität Saarbrücken) ist Expertin auf dem Gebiet biotechnologischer Anwendungen von CYPs. Sie gibt Beispiele, wie diese überaus effizienten Biokatalysatoren industriell genutzt werden.

    Seit Jahrtausenden machen wir von Prozessen der Mikroorganismen Gebrauch, beispielsweise um Nahrungs- und Genussmittel – vor allem Brot, Käse, Bier und Wein - herzustellen. Wir wenden dabei Verfahren an, die heute unter die Definition Biotechnologie, besser gesagt „Weiße Biotechnologie“ fallen. „Weiße Biotechnologie“ bedeutet: die industrielle Nutzung von in der Natur vorkommenden und zumeist noch zweckentsprechend optimierten Enzyme (Enzyme sind Biokatalysatoren) und lebenden Zellen, vor allem von Mikroorganismen. Die Liste der Anwendungen ist lang. Optimierte Enzyme

    • können bereits bei niedrigen Temperaturen Stärke, Eiweiß und Fette abbauen und sind aus modernen Waschmitteln nicht mehr wegzudenken,
    • spielen hinsichtlich Geschmack und Konservierung eine essentielle Rolle in der Nahrungsmittelproduktion,
    • werden vor allem aber zur Synthese komplizierter Substanzen – beispielsweise von Arzneistoffen - aus relativ einfachen und billigen Ausgangsstoffen eingesetzt.

    Ein außergewöhnlich hohes Potential für biotechnologische Anwendungen aller Art haben dabei Enzyme aus der Superfamilie der Cytochrome P450.

    Was sind Cytochrome P450?

    Diese, kurz als CYP bezeichneten, Mitglieder einer Superfamilie von Enzymen sind in praktisch allen Lebensformen zu finden. Ihr Ursprung datiert in eine frühe Phase unseres Planeten zurück, vermutlich noch bevor Sauerstoff zu einem wesentlichen Bestandteil unserer Atmosphäre wurde. Darauf weisen zumindest die Stammbäume hin, die aus Sequenzvergleichen der CYP-Gene erstellt wurden und, dass CYPs auch heute noch in vielen Typen prokaryotischer Zellen - Bakterien und Archaea - vorkommen. Aus der Urform haben sich im Lauf der Evolution dann verschiedenste Formen entwickelt, wie wir sie heute im Pilz-, Pflanzen-und Tierreich vorfinden - mehr als 21 000 derartige Formen waren bereits 2014 beschrieben; Tendenz steigend.

    Allen diesen Formen gemeinsam ist, dass sie eine sehr ähnliche dreidimensionale Architektur besitzen und nach demselben Funktionsprinzip operieren:

    CYPs sind Hämoproteine, das bedeutet: sie enthalten den roten Blutfarbstoff Häm. Mit Hilfe dieser Hämgruppe binden CYPs Sauerstoff und führen diesen in eine hochreaktive Form über. Mit solcherart aktiviertem Sauerstoff können CYPs dann unterschiedliche Reaktionstypen eingehen und damit eine ungeheure Vielzahl und Vielfalt an Verbindungen - Substraten - oxidieren. Es sind dies niedermolekulare, zumeist fettlösliche Verbindungen, für welche die Enzyme mehr oder weniger passgenaue (spezifische) Bindungstaschen bereithalten. Als Substrate fungieren dabei sowohl zell-/körpereigene (endogene) Stoffe als auch eine immense Zahl zell-/körperfremder (exogener) Substanzen:

    Endogene Substrate sind im Menschen beispielsweise Fettsäuren, Steroide und Prostaglandine: sowohl in deren Synthese als auch in deren Abbau sind unterschiedliche CYPs entscheidend involviert. In anderen Worten: CYPs produzieren damit nicht nur lebenswichtige, pharmakologisch aktive Substanzen, sie regulieren auch – via Abbau - deren Konzentrationen.

    Exogene Substrate sind nahezu alle niedermolekularen Stoffe in unserer Umwelt, u.a. Inhaltsstoffe unserer Nahrung, Arzneimittel, organische Lösemittel, Kohlenwasserstoffe, Pestizide, Karzinogene, etc. Hier steht in erster Linie der Schutz unserer Körperzellen vor Fremdstoffen im Vordergrund: durch (zum Teil mehrfache) Oxidation werden möglicherweise toxische Eigenschaften von Verbindungen - zumindest meistens - beseitigt („Entgiftung“ ), gleichzeitig nimmt deren Löslichkeit zu und dementsprechend ihre Anreicherung im zellulären Milieu ab. Die oxidierten Fremdstoffe können dann aus den Zellen und den ganzen Organismen ausgeschieden werden.

    Natürlich kann die Vielzahl an Substraten in einem Organismus nicht durch wenige Formen von Cytochrom P450-Enzymen bewältigt werden. So weist der Mensch 57 verschiedene Formen auf (deren Funktionen wir zum Teil noch nicht im Detail kennen), die meisten davon katalysieren in hochspezifischer Weise die Synthese und den Abbau körpereigener Verbindungen, beispielsweise von Steroidhormonen, Vitamin D oder Gallensäuren. Rund 15 CYP-Formen mit wesentlich geringeren Spezifitäten sind vorwiegend in den Abbau von Fremdstoffen involviert.

    Pflanzen können mehrere hundert CYP-Formen enthalten (beispielsweise sind es 273 CYPs in der Ackerschmalwand - Arabidopsis thaliana). Auch hier haben die CYPs essentielle Funktionen in der Synthese von i) Signalmolekülen und Hormonen, die für das Wachstum benötigt werden, ii) von schützenden Substanzen gegen UV-Strahlung und parasitäre Angriffe (Flavonoide, Phytoalexine, Terpene), iii) von Pigmenten (Anthocyanine, Karotinoide) und auch iv) von Strukturpolymeren (Ligninen).

    CYPs in Forschung und Anwendung…

    Keine andere Gruppe von Enzymen zeigt eine ähnliche Breite akzeptierter Substrate, keine eine solche Fülle von Reaktionstypen wie die CYPs. Dies zieht das Interesse von Forschern unterschiedlichster Fachrichtungen an sich – seit der Entdeckung des ersten CYP vor rund 50 Jahren sind in der Literaturdatenbank PubMed unter dem Stichwort „Cytochrome P450“ mehr als 80 300 Veröffentlichungen zu finden. Zentrale Aspekte der CYP-Forschung –Grundlagenforschung und mögliche Anwendungen -sind in Abbildung 1 gegeben.

    Funktion und Anwendungen von Cytochrom P450 EnzymenAbbildung 1. Funktion und Anwendungen von Cytochrom P450 Enzymen

    …speziell in Hinblick auf biotechnologische Prozesse

    Von besonderem Interesse erscheint der Einsatz von CYPs, wenn es um die effiziente Synthese komplizierter organischer Moleküle geht: dabei kann es sich um Feinchemikalien handeln, um pharmakologisch wirksame Substanzen und in besonderem Maße um neue Arzneimittel.

    Gegenüber chemischen Syntheseverfahren versprechen derartige biotechnologische Ansätze enorme Vorteile. Vor allem,

    • weil hier hochspezifische Reaktionen ablaufen, die vorzugsweise das gewünschte Produkt erzeugen und zwar in der richtigen räumlichen Struktur und weitgehend ohne möglicherweise schädliche Nebenprodukte und
    • weil dies unter wesentlich umweltverträglicheren Bedingungen geschieht, d.i. unter Vermeidung von Abgasen und bei stark reduziertem Einsatz von organischen Reagenzien und Lösungsmitteln.

    Kann man hier isolierte CYPs einsetzen?

    Die einfachste Möglichkeit wäre es, CYPs mit den gewünschten katalytischen Eigenschaften aus dem riesigen Reservoir der Natur auszuwählen und in isolierter, möglicherweise zusätzlich optimierter Form direkt zur industriellen Produktion von Substanzen einzusetzen. Dies stößt (noch) auf eine Reihe von Schwierigkeiten:

    i) CYPs sind im isolierten Zustand meistens nur wenig stabil,

    ii) sie benötigen für ihre Umsetzungen spezifische Reaktionspartner – ein oder mehrere andere Proteine - mit ebenfalls limitierter Stabilität – und

    iii) Kofaktoren, die teuer sind und während der Reaktion verbraucht werden.

    iv) Darüber hinaus arbeiten die meisten natürlichen CYPs ziemlich langsam.

    Zellen als lebende Biofabriken

    Mit der Verwendung von CYPs in ganzen intakten Zellen werden die genannten Schwierigkeiten umgangen. Vorzugsweise kommen Mikroorganismen wie beispielsweise Hefen (z.B. Saccharomyces cervisiae oder Schizosaccharomyces pombe) oder Bakterien (z.B. Escherichia coli) zum Einsatz. Diese sind häufig genmanipuliert, d.h. sie enthalten ein oder mehrere stabil exprimierte CYPs, welche die gewünschten Umsetzungen ausführen können. Ebenso liegen deren Reaktionspartner vor und Systeme, welche auch die notwendigen Cofaktoren erzeugen und recyceln. Wenn eine Umsetzung noch zu langsam erfolgt und zu wenig Produkt entsteht, wird das betreffende CYP – aber auch sein(e) Reaktionspartner - einem Optimierungsprozess unterzogen:

    • mit gezielten Mutationen, wenn die räumliche Struktur des Enzyms (z.B. aus der Röntgen-Kristallanalyse) bekannt ist. Damit lässt sich erreichen, dass beispielsweise das Substrat besser in die Bindungstasche des Enzyms passt und/oder dass dessen Wechselwirkung mit dem Reaktionspartner verbessert wird,
    • mit zufallsbasierter Mutagenese („gerichteter Evolution“, auch: "Evolution im Reagenzglas" genannt) Damit erhält man vorerst einen großen Pool an Mutanten, aus denen man im nachfolgenden Screening (= Testen auf die gewünschten Eigenschaften) die geeignetsten auswählt. Diese werden dann in eine weitere Runde von „gerichteter Evolution“ und Screening eingesetzt, die potentesten davon wieder in eine neue Runde und dieser Prozess wird solange wiederholt, bis man schließlich zufriedenstellende Eigenschaften, d.h. hohe Produktivität erreicht hat.

    Mit diesen Verfahren konnten Umsatzraten auf mehr als das 100-fache, in einem speziellen Fall sogar auf das 9000-fache erhöht werden. Dies ist zweifellos ausreichend, wenn man die Produktion pharmazeutischer Wirkstoffe ins Auge fasst, die ansonsten nur durch langwierige, vielstufige chemische Synthese hergestellt werden können. Die minimalen Anforderungen im biotechnologischen Prozess liegen (nach Mattijs K Julsing, 2008) bei Umsatzraten von 1 mg/Liter Fermentationsbrühe und Stunde und einer Endausbeute von 100 mg im Liter.

    Der industrielle Einsatz von CYPs

    Das Beispiel Hydrocortison

    Bereits in der Mitte des vorigen Jahrhunderts erkannte man, dass dieses in unserem Körper natürlich vorkommende Steroidhormon auch starke entzündungshemmende Eigenschaften besitzt – seitdem ist Hydrocortison aus der Therapie nicht mehr wegzudenken. Das Einsatzgebiet reicht von der Behandlung rheumatoider Erkrankungen über die von Ekzemen bis hin zur Unterdrückung der Immunantwort. Dementsprechend besteht weltweit enormer Bedarf für dieses Steroid oder seine (noch wirkungsvolleren) Analoga und es wird nach effizienten billigen Syntheseverfahren gesucht.

    Die ersten rein chemischen Synthesen gingen von Gallensäuren des Rindes aus und benötigten 31 Schritte bis zum Endprodukt – die Herstellungskosten für 1 Gramm Hydrocortison lagen damals (1949) bei 200 $. 1951 entwickelte Djerassi ein Verfahren, das mit dem pflanzlichen Steroid Diosgenin startete; der Syntheseweg wurde kürzer, bieb aber noch immer extrem aufwändig. Die Entdeckung, dass ein Pilz – Rhizopus arrhizus – einen wesentlichen Hydroxylierungschritt im Syntheseweg ausführen kann, brachte den Durchbruch: zur nunmehr semi-synthetischen Herstellung benötigte man insgesamt nur 15 Stufen, die Kosten sanken auf rund 1 $ pro Gramm Hydrocortison (1979).

    Wie man später erkannte, war ein mikrobielles CYP für diese Hydroxlierung verantwortlich. In der Folge wurden derartige CYPs zu unentbehrlichen Werkzeugen der Biotechnologie und ermöglichten die großtechnische Produktion unterschiedlichster, höchst wirksamer Steroide.

    Paradebeispiel für das Potential der synthetischen Biologie ist der jüngste Erfolg: die „de novo“ Biosynthese von Hydrocortison. Diese findet in gentechnisch veränderter Bäckerhefe (Saccharomyces cerevisiae) statt, die Ausgangsstoffe sind einfachste organische Verbindungen – Glukose oder Ethanol –aus denen das Endprodukt Hydrocortison ohne wesentliche Nebenprodukte entsteht (Abbildung 2).

    Synthese von HydrocortisonAbbildung 2. Synthese von Hydrocortison (vereinfachte Darstellung). Links: rein chemische Synthese aus Rindergallensäure. Halblinks: semisynthetische Herstellung unter Verwendung eines CYPs in Rhizopus. Mitte: in vivo Synthese aus Cholesterin in Säugerzellen. Rechts: de novo Synthese in gentechnisch manipulierter Hefe (S. Cerevisiae); außer den 4 wesentlichen CYPs (rot) wurden weitere Gene eingeschleust und einige Hefe Gene umfunktionaliert/stillgelegt.

    Diese Hefe enthält u.a. die vier wesentlichen CYPs (CYP11A1, CYP17A1, CYP21, CYP11B1), die in Säugerzellen die Umwandlung von Cholesterin zu Hydrocortison katalysieren. Da Hefezellen selbst über kein Cholesterin verfügen und dieses auch nicht aus dem Nährmedium aufnehmen können, mussten mehrere Stoffwechselprozesse der Hefe umfunktionalisiert oder stillgelegt werden, um deren strukturell ähnliches Ergosterol für die Umsetzungen nutzen zu können.

    Das Beispiel Artemisinin

    An Malaria erkranken jährlich über 200 Millionen Menschen, über 660 000 sterben daran. Schon seit nahezu 2000 Jahren war in der chinesischen Medizin die Wirkung eines Extrakts aus dem Beifußgewächs Artemisia annua gegen diese Infektionskrankheit bekannt. Der darin enthaltene Wirkstoff Artemisinin ist heute essentieller Bestandteil der weltweit angewandten, erfolgreichen Malaria-Kombinationstherapie. Um unabhängig von den schwankenden Wirkstoffgehalten der Pflanze, Ernteerträgen und Lieferengpässen zu werden, wurden nun - ermöglicht durch ein Projekt der Gates-Foundation und one-World Health - semi-synthetische Verfahren zur Produktion von Artemisinin entwickelt. Diese verwenden nun wieder genmanipulierte Bäckerhefe mit dem pflanzlichen CYP71 in optimierter Form, welches in einem 3-Stufenprozess die Artemisinin-Vorstufe erzeugt. Der Sanofi Konzern kann von diesem Rohstoff jährlich bis zu 100 Tonnen erzeugen, der eigentliche Wirkstoff entsteht daraus durch eine photochemische Reaktion.

    Das Beispiel Pflanzen mit geänderten Blütenfarben

    Als vor ca. 20 Jahren bei einer Tagung ein australischer Wissenschaftler auftrat und verkündete, blaue Rosen herstellen zu wollen, indem er CYPs aus blauen Pflanzen, die dort die blaue Blütenfärbung verursachen, in den Blüten von Rosen zur Expression bringen wollte, war ich skeptisch und fragte mich, wer denn derartige Pflanzen benötigen und kaufen würde. Heute gibt es zwar immer noch keine Kornblumen-blauen Rosen, aber lila- bläuliche, da sich die Farbgebung als komplex und nicht nur CYP- abhängig erwies (Abbildung 3). Dafür gibt es beispielsweise lila (in allen Abstufungen) Nelken und andere Pflanzen mit geänderten Blüten-Farben (hergestellt in einer Kooperation der japanischen Firma Suntory und der australischen Firma Florigen). Als ich die lila Nelken im Original sah, besonders in einem Ikebani- Gesteck, war ich fasziniert. Das geht offenbar nicht nur mir so, denn der Umsatz weltweit beträgt inzwischen > 1 Milliarde Euro jährlich.

    Violette Nelken und lila-bläuliche RosenAbbildung 3 Violette Nelken und lila-bläuliche Rosen

    Wie geht es weiter?

    Die Matrize aus Tausenden von CYP Formen mit unterschiedlichen Substratselektivitäten und von verschiedenen CYP Reaktionen an unterschiedlichen Substraten ergibt eine immense Vielfalt von Möglichkeiten für die Anwendung von CYPs in der Biotechnologie, u.a. bei der umweltfreundlicheren Herstellung neuer Wirkstoffe. Die „de novo Synthese von Hydrocortison“ und die „semi-synthetische Produktion von Artemisinin“ sind dafür Paradebeispiele. Weitere Forschungen müssen und werden sicherlich die bisherigen Engpässe bei der Anwendung in den kommenden Jahren überwinden.


    R. Bernhardt, V.B. Urlacher: Cytochromes P450 as promising catalysts for biotechnological application: chances and limitations. Appl Microbiol Biotechnol (2014) 98:6185–6203.

    R. Bernhardt: Cytochromes P450 as versatile biocatalysts. J Biotech 124 (2006) 128–145

    R. Bernhardt: Cytochrome P450: versatile Enzymsysteme mit Anwendungen in der Biotechnologie und Medizin. http://www.uni-saarland.de/fileadmin/user_upload/Campus/Forschung/forsch...


    Weiterführende Links

    Beiträge im ScienceBlog zu verwandten Themen

    inge Fri, 13.02.2015 - 08:49

    Beschreibungen der Natur bei unvollständiger Information

    Beschreibungen der Natur bei unvollständiger Information

    Fr, 20.02.2015 - 08:04 — Peter Schuster Peter SchusterIcon MINT

    Die Biologie befindet sich im Wandel von einer beobachtenden zu einer quantifizierenden Wissenschaft. Stochastische Modellierungen ermöglichen komplexe biologische Systeme wie lebende Zellen und sogar ganze Organismen auf dem molekularen Niveau vollständig zu beschreiben. Der theoretische Chemiker Peter Schuster zeigt die zentrale Rolle auf, die Mathematik und Computerwissenschaften in den modernen Naturwissenschaften spielen*.

    In den vergangenen 50 Jahren hat es in den Naturwissenschaften einen ungeheuren technischen Fortschritt gegeben. Es wurden neue experimentelle Techniken entwickelt und die Auflösung konventioneller Methoden enorm verbessert. Damit ist es möglich geworden in kleinste Einheiten des Raumes und der Zeit vorzustoßen: bei einer immer weiter verringerten Probengröße können nun Untersuchungen an einzelnen Molekülen ausgeführt werden. Spektroskopische Methoden erlauben bisher unvorstellbare Einblicke in Prozesse, die im Zeitbereich von 100 Attosekunden – 100 Trillionstel – Sekunden ablaufen. Viele Messdaten sind auch von ausreichender Genauigkeit, um Fluktuationen direkt bestimmen zu können.

    Beobachtungen an einzelnen Partikeln sind heute bereits Routine geworden. Um nicht nur diese Prozesse erfolgreich analysieren und interpretieren zu können, bedarf es allerdings eines tieferen Verständnisses von Wahrscheinlichkeitsrechnung und Statistik – gleichgültig ob es sich nun um Versuchsansätze in Physik, Chemie oder Lebenswissenschaften handelt.

    Dennoch werden Statistik und die Behandlung stochastischer Prozesse in der Ausbildung von Chemikern und Biologen häufig vernachlässigt. Die Konsequenz ist fatal: fehlt dem Experimentator eine diesbezügliche, solide mathematische Basis, führt das Erheben von Daten und deren Reproduktion zwangsläufig zu fehlerhaften Interpretationen.

    Vom Beobachten zum Beschreiben realer Vorgänge

    Reale Vorgänge sind komplex. Wegen der vielen Parameter, von denen sie abhängen, können wir niemals die volle Information zur ihrer Beschreibung ermitteln. Und selbst, wenn dies möglich wäre, bliebe alles im Rahmen quantenmechanischer Unschärfe unbestimmt. In derartigen Vorgängen können für die Abfolge einzelner Schritte daher nur Wahrscheinlichkeiten angegeben werden, es sind Zufallsprozesse- sogenannte stochastische Prozesse.

    Brownsche Bewegung als Beispiel eines stochastischen ProzessesDie Brownsche Bewegung als Beispiel eines stochastischen Prozesses. Auf Grund der Wärmebewegung stoßen Moleküle aus allen Richtungen laufend mit größeren Teilchen zusammen und verursachen deren Richtungsänderungen, die unter dem Mikroskop beobachtet werden können. Links: Pfad von 3 Teilchen; historische Reproduktion (ced J.B. Perrin, "Mouvement brownien et réalité moléculaire," Ann. Chim Phys (VIII) 18, 5-114, 1909). Rechts : Computersimulation: Pfad (blau) von 5 größeren Partikel durch einen Set von 800 kleineren Partikeln. (Bilder : Wikipedia)

    Natürlich gibt es auch Vorgänge, wo man offensichtlich auf Wahrscheinlichkeitsrechnung und Statistik verzichten kann – da die sogenannte deterministische Beschreibung zum Ziel führt . Hier ist jeder Schritt kausal von dem vorherigen abhängig und wird durch diesen vollständig bestimmt. Daher lässt die Kenntnis über einen Zustand eine präzise Vorhersage über andere Zustände zu. Zu deterministischen Vorgängen gehören beispielsweise die Bewegungen der Planeten und Monde, die sich mittels Differentialgleichungen darstellen lassen und als „Himmelsmechanik“ bereits den Beginn naturwissenschaftlicher Beschreibungen markierten. Die Fluktuationen sind so gering, dass sie nicht detektiert werden können, auch nicht mit Geräten höchster Präzision: Sonnenaufgang und –untergang, Sonnenfinsternisse können exakt vorhergesagt werden, praktisch ohne jede Streuung.

    Ein weiteres deterministisches Beispiel ist die klassische Reaktionskinetik in der Chemie. Die Differentialgleichungen der Kinetik sind gleich anwendbar geblieben, ihre Ergebnisse haben auch im Licht der modernen Untersuchungen nichts an Überzeugungskraft eingebüßt. Dies ist darauf zurückzuführen, dass es sich hier um Prozesse mit sehr hohen Teilchenzahlen – zumeist sind es viele Trillionen von Teilchen – handelt. Daher bewegen sich Fluktuationen (proportional zu 1/Quadratwurzel aus der Teilchenzahl) in nicht mehr nachweisbar niedrigen Größenordnungen und Mittelwert-basierte Methoden sind zur Beschreibung geeignet. Was in der Kinetik jedoch enorm gesteigert werden konnte, ist die Auflösung der noch detektierbaren Materialmengen in Raum und Zeit. Dies verschafft tiefere Einblicke in die Reaktionsmechanismen und damit einen neuen Zugang zur Information über die Eigenschaften der Moleküle.

    Der Wandel der Biologie…

    Die Biologie befindet sich zurzeit im Umbruch: die Verbindung zur molekularen Wissenschaft Chemie hat die Erhebung biologischer Daten revolutioniert und bietet nun die Basis für eine neue theoretische Biologie.

    In der Vergangenheit war die Biologie nahezu ausschließlich auf Beobachtungen basiert. Theoretische Überlegungen wurden nur in solchen Fällen angestellt, in denen beobachtete Regelmäßigkeiten augenscheinlich waren und durch eine Hypothese interpretiert werden konnten.

    …zu einer quantifizierenden Wissenschaft

    Die Entwicklung der Biochemie in der ersten Hälfte des 20.Jahrhunderts führte quantitatives Denken – in Form von chemischer Kinetik - in einigen Teilgebieten der Biologie ein. Auch den experimentellen Ansätzen der Biologie fügte die Biochemie eine neue Dimension hinzu: in vitro Untersuchungen an isolierten und gereinigten Biomolekülen.

    Eine zweite Form, in der die Mathematik Einzug in die Biologie hielt, war die Populationsgenetik. Diese in den 1920er Jahren neu eingeführte theoretische Disziplin vereinigte Charles Darwins Prinzip der natürlichen Selektion und Gregor Mendels Vererbungsregeln. Es sollte noch zwanzig Jahre dauern, bis Evolutionsbiologen die „Synthetische Theorie der Evolution“ fertigstellten.

    Von der zweiten Hälfte des 20. Jahrhunderts an begann die Molekularbiologie eine feste Brücke zwischen Chemie und Biologie zu bauen. Der enorme Fortschritt in den experimentellen Techniken schuf eine bis dahin unbekannte Situation für die Biologie. Auf die Sequenzierung der Proteine folgte die Sequenzierung der Nukleinsäuren, die Entschlüsselung der Genome unterschiedlichster Lebewesen und die Aufklärung der Gesamtheit aller Proteine – des Proteoms – in Organismen.

    Ein ungeheures Volumen an Information, das die Kapazität menschlichen Überblickens überstieg, erforderte und erfordert weiterhin neue Verfahren im Umgang mit den Daten, mit deren Analyse und Interpretation.

    Stochastische Methoden zur Modellierung komplexer biologischer Systeme

    Wie Gene und Proteine im Kontext von Zellen funktionieren, wird durch die Analyse ihrer Prozesse ersichtlich. Wenn die Systembiologie anstrebt lebende Zellen und sogar ganze Organismen vollständig und zwar auf dem molekularen Niveau zu beschreiben, so sind es zig-Tausende molekulare player und noch mehr Wechselwirkungen zwischen diesen, die berücksichtigt und modelliert werden müssen.

    Die Bewältigung der gegenwärtigen Datenflut, die sich von der Molekulargenetik und Genomik zur Systembiologie und Synthetischen Biologie ergießt, erfordert – außer den entsprechenden Hochleistungsrechnern – primär geeignete statistische Methoden und Wege Daten zu verifizieren und evaluieren. Die Analyse, Interpretation und schließlich das Verstehen der experimentellen Ergebnisse ist ohne Hilfe zweckentsprechender Modelle nicht möglich. In der Vergangenheit basierten derartige Modelle primär auf (deterministischen) Differentialgleichungen. Diese sind zweifellos ungeeignet, um komplexe Systeme zu beschreiben, in denen eine Vielzahl von Teilchensorten in nur wenigen Kopien vorkommt und damit hohen Fluktuationen unterliegt. Eine Erweiterung des Repertoires durch stochastische Modellierungen ist daher unabdingbar.

    Trajektorie einer evolutionären Optimierung von RNA-StrukturenDer Pfad (Trajektorie) einer evolutionären Optimierung von RNA-Strukturen. In einer Population von N = 1000 RNA-Molekülen führen wiederholte Replikationen zur gewünschten Zielstruktur, die nach 14 Millionen Replikationen erreicht wird. Der mittlere Strukturabstand zu dieser Zielstruktur (Hammingdistanz) nimmt nicht kontinuierlich mit den Replikationen ab, sondern in ausgeprägten Stufen.

    Darüber hinaus verlangt die außerordentlich hohe Komplexität der genetischen und metabolischen Netzwerke lebender Zellen nach gänzlich neuen Methoden der Modellierung, Methoden, die den Beschreibungen auf „mesoskopischem Niveau“ in der Festkörperphysik entsprechen (unter „mesoskopisch“ wird hier der Übergangsbereich zwischen etwa einem Nanometer und dem Mikrometerbereich verstanden).

    Numerische Mathematik und Computer-Simulationen spielen heute eine entscheidende Rolle in stochastischen Modellierungen. Die Computerleistung – Rechenleistung und digitale Speicherkapazität – steigt seit den 1960er Jahren exponentiell an, mit einer Verdopplungsrate von 18 Monaten. Diese Steigerung wird von den Fortschritten in der numerischen Mathematik noch übertroffen und führt hier zu immer effizienteren Algorithmen.

    Zentrale Rolle der Mathematik in den Lebenswissenschaften

    In der Vergangenheit hatten Biologen oft mit „gemischten Gefühlen“ auf die Mathematik reagiert und waren überaus zurückhaltend, wenn „zu viel Theorie“ zur Anwendung kam. Die neuen Entwicklungen haben das Szenario völlig verändert. Die riesigen Datenmengen, die mit den neuen Techniken erhoben werden, können weder mit menschlichen Augen mehr gesichtet werden, noch mit menschlichen Gehirnen erfasst werden. Nur technisch ausgeklügelte Software kann dazu imstande sein und moderne Biologen müssen sich darauf verlassen. Die aktuellen Entwicklungen in der Molekularbiologie, Genomik und Biologie der Organismen scheinen diesen Umschwung im Denken der Biologen einzuleiten. Es besteht ja heute praktisch keine Möglichkeit mehr moderne Lebenswissenschaften ohne Mathematik und Computerwissenschaften zu betreiben.

    Der berühmte britische Biologe und Nobelpreisträger Sidney Brenner hat 2002 diesen Wandel der Biologie und ihrer Forscher treffend mit dem diametralen Verhalten von Jägern und Sammlern verglichen:

    „In der prägenomischen Ära wurde ich zum Jäger ausgebildet. Ich lernte wie man wilde Tiere erkennt und wie man hinausgeht, um sie zu jagen und zu erlegen. Jetzt zwingt man uns aber zu Sammlern zu werden, alles, was herumliegt einzusammeln und es in Lagerhäuser zu tragen. Eines Tages, nimmt man an, wird jemand kommen und die Lagerbestände sortieren, allen Mist entsorgen und die wenigen guten Funde behalten. Die einzige Schwierigkeit wird darin bestehen, diese zu erkennen.“


    *Peter Schuster “Stochasticity in Processes. Fundamentals and applications to chemistry and biology” (Springer Verlag, Berlin 2016; im Erscheinen)


    Weiterführende Links

    Science Education: Computers in Biology. Website des NIH mit sehr umfangreichen, leicht verständlichen Darstellungen (englisch)

    Magazin: systembiologie.de https://www.systembiologie.de/de/magazin

    Matthias Rarey: An der Schnittstelle: Informatik trifft Naturwissenschaften ( Zentrum für Bioinformatik Hamburg (ZBH); Universität Hamburg). Sehr leicht verständliches Video (als Werbung für ein Bioinformatik Studium gedacht) 1:09:21 h.

    Verena Wolf: Simulationen biochemischer Reaktionen (Cluster of Excellence MMCI, Saarbrücken) Video 5:26 min.

    Artikel zu verwandten Themen im ScienceBlog:

    Peter Schuster:

    Gerhard Weikum:

    inge Fri, 20.02.2015 - 08:40

    Abschied von Carl Djerassi

    Abschied von Carl Djerassi

    Di, 03.02.2015 - 08:57 — Inge Schuster Inge SchusterIcon Wissenschaftsgeschichte

    Dr. Carl Djerassi, weltberühmter Naturwissenschafter, Autor, Wissenschaftskommunikator, Firmengründer, Kunstsammler und –mäzen ist am 30. Jänner in San Francisco gestorben. Seine Arbeiten waren von eminenter Bedeutung für die medizinisch-chemische Forschung und Entwicklung; deren Ergebnisse haben unsere Gesellschaften grundlegend verändert.

    ParteTodesanzeige auf der Homepage von Carl Djerassi

    Wer war Carl Djerassi? Es erübrigt sich Carl Djerassi in diesem Forum vorzustellen, hat er dies ja hier im Oktober 2013 mit seinen eigenen Worten getan: Die drei Leben des Carl Djerassi. (Ergänzt wird sein Artikel durch ein ausführliches Curriculum Vitae und viele Links zu Interviews, die Djerassi gegeben hat und zu Vorträgen, die er hielt.) Ich will also nicht Eulen nach Athen tragen, wiederholen, was er gesagt hat und was die Medien seit zwei Tagen mehr oder weniger ausführlich über ihn berichten. Vielmehr möchte ich einige Anmerkungen zu meinen eigenen Eindrücken von der Person Carl Djerassi machen.

    Vor 50 Jahren

    Der Name Djerassi war uns angehenden Chemikern schon vor gut 50 Jahren ein klarer Begriff. Allerdings nicht in Hinblick auf die „Pille“. Zwar hatte Djerassi mit seinem Team deren Wirkstoff Norethisteron bereits 1951 synthetisiert – die Basis eines ersten oral wirksamen Antikonzeptivums, das rund 10 Jahre später auf den Markt kam. Zu dieser Zeit war allerdings noch in keiner Weise abschätzbar, zu welchen gigantischen gesellschaftlichen Veränderungen diese Innovation führen sollte. Unser damaliges Interesse galt vielmehr den faszinierenden neuen Methoden, für die Djerassi als Pionier und Topexperte galt und auch heute noch gilt: Masssenspektrometrie, Optische Rotationsdispersion und Circulardichroismus. Dies waren für uns klingende Schlagworte, synonym für unbegrenzte Möglichkeiten zu Strukturaufklärung und Charakterisierung auch höchstkomplizierter chemischer Verbindungen.

    Friedrich Wessely – damals unumschränkter und von vielen gefürchteter Herrscher über die Organische Chemie an der Wiener Universität – war von allem Neuen fasziniert und wollte derartige Technologien unbedingt auch in Wien etabliert wissen. (Wessely hatte u.a. auch den späteren Nobelpreisträger Max Perutz nach Cambridge vermittelt, wo dieser mittels Röntgenkristallographie die Struktur des Hämoglobin aufklärte, und Hans Tuppy an das Institut von Fred Sanger, wo Tuppy maßgeblich zur Sequenzanalsyse des Cytochrom C beitrug, die Sanger den Nobelpreis brachte.) Wessely vermittelte also seinen ehemaligen Doktoranden Herbert Budzikiewicz an das Djerassi Department an der Stanford University um dort Massenspektroskopie zu lernen.

    Es wurde ein großartiger Erfolg, über den die Fama (vor allem im Labor von Fritz Wessely, dem sogenannten Cheflabor) uns berichtete. In den Jahren 1961 – 1965 war Budzikiewicz als Senior Research Associate mit dem Aufbau und der Leitung der Abteilung für Massenspektrometrie in Stanford betraut. Die Literaturdatenbank Thomson-Reuters (ISI) zählt 94 Artikel mit beiden – Djerassi und Budzikiewicz – als Autoren. Unter diesen Arbeiten sticht mit 1280 Zitierungen hervor: „Mass spectrometry in structural and stereochemical problems. 32. Pentacyclic triterpenes (1963)“ Es wurde die überhaupt meistzitierte Arbeit von Djerassi. (Das Opus von Djerassi besteht aus insgesamt 1312 Publikationen.)

    Wir staunten – irgendwie entstand in unseren Labors etwas wie eine Aufbruchsstimmung, allerdings nur kurzfristig.

    Als Budzikiewicz 1965 Stanford verließ, war es – leider – nicht Wien, wohin er zurückkehrte, sein Weg führte über Braunschweig nach Köln, wo er von 1970 bis zu seiner Emeritierung renommierter Professor für Organische Chemie war. Auch viele von uns verließen Österreich, das damals nur sehr beschränkte Möglichkeiten für uns Absolventen bot. Die meisten kehrten nicht zurück.

    Rund 30 Jahre später

    Persönlich habe ich Carl Djerassi erstmals Anfang der 1990er Jahre erlebt. Djerassi hatte sich damals entschlossen wieder in seine Heimatstadt Wien zu kommen und über seine Arbeiten und Interessen zu referieren. Eine der ersten Adressen, an der er nun einen Vortrag hielt, war das Sandoz-Forschungsinstitut in Liesing. Da ich dort seit langem u.a. über Steroide – vor allem Östrogene und Androgene – und die Modulierung ihrer Biosynthese und ihres Abbaus arbeitete, war ich überaus gespannt auf den Vortrag. Eben war ja Djerassis Biografie „Mutter der Pille“ erschienen und dies sollte auch der rote Faden seines Vortrags sein:

    Es wurde vor allem eine Reise durch das Leben Djerassis. Von seiner Jugend in Wien, auf die seine Vertreibung folgte, bis hin zu seinen immer größeren Erfolgen in den Vereinigten Staaten. Es war ein überaus buntes Bild, das der Vortragende entwickelte. Bereits ein 70er, erzählte er überaus dynamisch, pointiert und mit leichtem Sarkasmus –auch hinsichtlich seiner eigenen Person. Das Hohelied auf Steroide, auf das ich mich schon gefreut hatte, spielte leider eine untergeordnete Rolle.

    Ein Bild, das mir in Erinnerung geblieben ist: Ein großer Tisch auf dem mehrere hundert Exemplare von drei Djerassi-Büchern – darunter „Mutter der Pille“- aufgetürmt waren. Jeder von uns konnte sich eines davon auswählen. Den Tisch mit den Bücherstapeln habe ich auch bei späteren Djerassi Vorträgen gesehen.

    Die letzten Jahre

    Djerassi hatte 2004 wieder die österreichische Staatsbürgerschaft angenommen und – ich denke es war 2009 – in Wien eine Wohnung im Botschaftsviertel des 3. Bezirks gemietet. Der Workaholic, der nach seinen Aussagen 80 Stunden in der Woche arbeitete und für den Begriff Urlaub nur ein unverständiges Lächeln übrig hatte, war zum rastlos Reisenden geworden (als Grund nannte er: „die Einsamkeit des Witwers“).

    Der Berühmte wurde weltweit hofiert. Man überbot sich allerorts mit Einladungen zu Vorträgen und Interviews, zu Aufführungen seiner Theaterstücke und mit Ehrungen. Zu den insgesamt mehr als 30 Ehrendoktoraten kamen auch einige aus Österreich dazu. (Dazu Djerassi lakonisch: „Spät kommt ihr, doch ihr kommt“.) Djerassi nahm die Einladungen an, pendelte zwischen seinen drei Wohnsitzen San Francisco, London und Wien hin und her und blieb immer länger in Wien. Es war ein unglaublicher Reiseplan, den er bewältigte (der wesentlich Jüngere außer Gefecht gesetzt hätte); beispielsweise listet der Reiseplan des nun schon über 90-Jährigen im ersten Halbjahr 2014 die folgenden Stationen auf: San Francisco – Wien - San Francisco – Kentucky - San Francisco – Iowa City - San Francisco – Wien – London – Groningen – Freiburg – Wien – Bielefeld – Wien – Fischbachau (Bayern) – Wien – Weiz – Innsbruck – Salzburg – Wien – Odense – Wien.

    In den letzten Jahren hatte ich wiederholt – bei Freunden und auch bei uns zuhause – Gelegenheit zu mehrstündigen Gesprächen mit Djerassi. Es war eine wunderbare Erfahrung diesem überaus wachen, überaus kreativen Menschen zuzuhören – seiner eleganten Sprache mit leicht wienerischem Akzent, seinen Erfahrungen, Schlussfolgerungen und den vielen Plänen, die er noch hatte – und mit ihm zu diskutieren, das Aufblitzen in seinen Augen zu sehen, wenn er einen besonders interessanten Punkt bemerkte.

    Es gab kein Abgleiten in Small-Talk, vielmehr waren es gemeinsame Interessen, die jedes Mal die Zeit wie im Flug vergehen ließen, Themen wissenschaftlicher Natur (natürlich auch über Steroidhormone), Themen der Wissenschaftspolitik und der diesbezüglich betrüblichen Situation unseres Landes und vor allem Djerassis Hauptanliegen der letzten Jahren, die Wissenschaftskommunikation:

    Djerassi schilderte, wie er sich „Edutainment“ vorstellte – Unterhaltung, die gleichzeitig belehrt –, wie er dies in Fallbeispiele zu erreichen versuchte, die er in Form von Dialogen beschrieb (der Humanist Djerassi sah hier natürlich Plato und Galilei als Vorbilder). Unsere Initiative Wissenschaft „aus erster Hand“ für Laien verständlich in Blogform zu kommunizieren, fand seine volle Zustimmung. Natürlich habe ich dann sofort gefragt, ob er uns vielleicht einen Beitrag widmen könnte. Djerassi sagte sofort „Ja“. Er schlug sein eben erschienenes Buch „Schattensammler“, das vor ihm auf dem Tisch lag, auf und wies in seiner präzisen, effizienten Art auf die Passagen hin, die in dem Artikel vorkommen sollten. Wir sind sehr stolz darauf, dass daraus der ScienceBlog-Artikel „Die drei Leben des Carl Djerassi – Chemiker, Romancier, Bühnenautor“ entstanden ist.

    Es war ein überreiches Leben, das nun zu Ende ging.

    Djerassi hat – wie er sagt – sich nie begnügt „innerhalb der Grenzen eines beruflichen oder künstlerischen Betätigungsfeldes zu verharren“. Aus einem vertriebenen, völlig mittellosen Heimatlosen wurde der weltberühmte Chemiker, dessen Synthese von Cortison, dessen Erfindung der hormonellen Schädlingsbekämpfung, vor allem aber dessen Synthese des Wirkstoffs der „Pille“ zu enormen wissenschaftlichen und gesellschaftlichen Konsequenzen geführt haben.

    Aus dem Universitätsprofessor, der die wachsende Kluft zwischen Naturwissenschaften, Geistes-und Sozialwissenschaften und der Massenkultur überbrücken wollte, wurde ein Wissenschaftskommunikator, der im Mantel eines erfolgreichen Romanciers und Bühnenautors neue Formen eines „Edutainment“ entwickelt hat: mit „Science-in-Fiction“ und „Science-in-Theater“ schmuggelt er nun naturwissenschaftliche Inhalte in die Unterhaltung und bringt ebenso einem breiteren, uninformierten Publikum nahe, wie Wissenschafter eigentlich „ticken“.

    Der 16-jährige Djerassi war mit nichts als 10 Dollar in der Tasche nach Amerika geflohen. Er besaß dennoch im Übermaße alles, was ihm zum Erfolg, Ruhm und Reichtum verhelfen sollte: Bildung, Klugheit, Talent, Willensstärke, Kraft und Ausdauer, ebenso wie die Fähigkeiten Andere durch Charisma zu gewinnen, durch Wissen zu überzeugen und sich selbst dabei kritisch zu sehen.


    Weiterführende Links

    Das letzte Interview - rund 6 Wochen vor seinem Tod aufgenommen – zeigt einen sehr nachdenklichen, aber durchaus aktiven Djerassi. Gespräch im Hochhaus - Matt spricht mit Djerassi (19.01.2015, 22:15 Uhr): Video 50:23 min. http://www.w24.at/Gespraech-im-Hochhaus/816923

    inge Tue, 03.03.2015 - 08:57

    Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft

    Herausforderung Alter(n) – Chancen, Probleme und Fragen einer alternden Gesellschaft

    Fr, 06.02.2015 - 08:12 — Christian Ehalt

    Christian EhaltIcon Politik & FGesellschaftWie wollen Politik, Wirtschaft, Gesellschaft und Kultur mit der Bevölkerungsentwicklung umgehen, die die Generationskohorten größenmäßig zugunsten der älteren Menschen verändert? Der Historiker, Soziologe und Wissenschaftsvermittler Christian Ehalt zeigt hier Chancen für positive Neugestaltungen im späten Leben, ebenso aber auch den Verlust an Lebensqualität in einem der Wachstumspolitik völlig untergeordneten Dasein*.

    Die gegenwärtige Welt steht vor vielen Herausforderungen. Da Staaten und Kontinente in vielfältigen Entwicklungen der „Globalisierung“ gesellschaftlich, wissenschaftlich, aber auch unter dem Aspekt der Bewertung ökologischer Probleme zusammenwachsen, macht es erstmals in der Geschichte Sinn, von „der Welt“ zu sprechen. Die nationalen Perspektiven haben ausgedient, werden jedenfalls zurückgedrängt, und auch der europäische Blickwinkel erscheint zunehmend zu eng – er vermittelt außerdem Tradition und Primat einer eurozentrischen Perspektive. Die Kulturen der Welt sind interdependent geworden. Ihre Relationen gestalten sich nicht in feststehenden Beziehungen mit gleichbleibenden Proportionen. Sie sind vielmehr in einem systemischen Zusammenhang, der durch eine „longue duree“, aber auch durch singuläre historische Ereignisse beeinflusst wird. Da können – wie die Chaostheorie feststellt – durch kleine Ursachen große Wirkungen erzielt werden.

    Die Rahmenbedingungen geschichtlicher Entwicklungen und Auswirkungen haben sich im Vergleich zu früheren Epochen nicht fundamental geändert. „Geschichte funktioniert“ wie eh und je als Machtspiel, in dem viel Gestaltungsraum für individuelle Begabung und Potential und die spezifische Konstellation, aber auch für den Zufall ist. Seit dem 20. Jahrhundert schlägt Quantität häufig in Qualität um – es sind die Größenordnungen, die Zahl der agierenden Menschen, die Stärke der eingesetzten Mittel, die Wirksamkeit der Technologien, der eminente Verbrauch an Energie und an den Energie spendenden Ressourcen, die aus quantitativen Änderungen qualitative machen.

    Der „erste Hauptsatz der Ökonomie“,

    der die Knappheit der Ressourcen betrifft, macht den Menschen vor allem zu schaffen. Es ist nicht gleichgültig, wie viele Menschen auf der Erde leben. Das säkulare Bevölkerungswachstum seit dem 19. Jahrhundert bewirkt, dass die für die Menschen wertvollen Rohstoffe immer knapper und damit auch wertvoller werden. Die Ressourcenknappheit verschärft unausweichlich das Verteilungsproblem und vergrößert die Schere zwischen Arm und Reich. Der „ökologische Fußabdruck“ der einzelnen Individuen, eine der Maßzahlen für die Grenzen der Belastbarkeit des Planeten Erde, ist schon lange viel zu groß. Die Berechnungen für den Energieverbrauch in nächster Zukunft sagen allesamt, dass die „Grenzen des Wachstums“, um die legendäre Studie von Dennis Meadows et al. zu zitieren, längst überschritten sind. Die Zahl der Menschen ist vor allem im Zusammenhang mit der mangelnden Bereitschaft, Prinzipien der Nachhaltigkeit in der internationalen Politik zu etablieren, ein Problem.

    In der Politik und ihrem Handeln sollte es um die Menschen gehen, um die Zukunft der Menschen nicht nur in dem kleinen und überschaubaren Zeitraum der nächsten fünf bis zehn Jahre, die von aktuell gewählten und agierenden Regierungen gestaltet werden (können). Es soll, ja es muss gelingen, im Dienst von Nachhaltigkeit zu denken, zu planen, zu gestalten. Nachhaltigkeit meint eine Politik, die eine längere Wirksamkeit bei geringerem Ressourcenverbrauch anstrebt. Eingriffe in die ökologischen Systeme sollten eingeschränkt und zurückgefahren werden, die „Natur“ in größeren Bereichen „sich selbst überlassen“ werden.

    Die Welt braucht eine Politik, das heißt Gestaltungen in allen Segmenten der menschlichen Kultur, die wenigstens in Hinblick auf das Postulat einer Minimierung des Ressourcenverbrauchs auf einem allgemeinen Konsens beruht. Die die Ressourcen betreffenden Strategien sollten auf längere Zeiträume ausgerichtet sein. Anders formuliert: es sollte gelingen, das Management der Ressourcen aus der Tagespolitik fast völlig herauszubekommen; das wird schwierig sein, da Ressourcen ja den Kern des Wertvollen repräsentieren und Politik das Ringen um die Aufteilung der knappen Güter darstellt; und Aufteilung darf nicht mehr auf Kosten von Zerstörung gehen. Die Ressourcen müssen erhalten bleiben. Politik ist dazu gegenwärtig noch nicht fähig. Problem und die daraus resultierenden Lösungsvorschläge werden auf Grund präziser Analysen wohl erkannt, es mangelt jedoch an Umsetzungswillen, an Umsetzungsfähigkeit, an Umsetzungsmöglichkeit. Man begegnet den Problemen noch nicht mit wirksamen Mitteln, weil Politik in einer systemimmanenten „Falle des Kurzzeitdenkens“ (Irenäus Eibl-Eibesfeld) gefangen ist.

    Die alternde Gesellschaft…

    Zu den Problemen, die in der gegenwärtigen Welt konstruktiv zu bearbeiten sind, gehört die Tatsache einer langfristigen Veränderung in den generativen Verhaltensweisen und den daraus resultierenden demographischen Strukturen und Entwicklungen. Aktuelle Veränderungen des demographischen Aufbaus der Gesellschaften zeigen tendenziell eine Zunahme der Bevölkerungsanteile im Alter über 60 und eine Abnahme jener im Alter unter 20. Die Jungen werden weniger, weil im „westlichen Muster“ des generativen Verhaltens tendenziell immer weniger Kinder geboren werden, während andererseits das Lebensalter der Individuen wächst. Die einzelnen Individuen werden älter, die Gesellschaften als Ganzes altern (Abbildung 1). Der alternde „alte Kontinent“

    Abbildung 1 Der alternde „alte Kontinent“. Anteile der 60+ Jahre alten Bevölkerung im Jahr 2010 (Daten CIA World Factbook File:Europe_population_over_65.png; Wikimedia).

    Der langfristige Bevölkerungsschwund durch die sinkenden Geburtsziffern wird durch die davon betroffenen westlichen Gesellschaften nolens volens durch Migration ausgeglichen. In Afrika und Asien wachsen die Bevölkerungen – trotz eindrucksvoller Bemühungen der Regierungen, die Fortpflanzung zu kontrollieren und einzuschränken – noch immer dynamisch an. Mangelnde Bildung und Arbeitsmöglichkeiten führen zu einem stetig wachsenden Bevölkerungsdruck der armen südlichen auf die reichen westlichen Länder.

    …und positive Perspektiven für den Einzelnen

    Die Veränderungen des demographischen Aufbaus in der westlichen Hemisphäre beruhen durchwegs auf positiven Entwicklungen für die einzelnen Individuen. Die Menschen haben in den letzten 200 Jahren auf der Grundlage unterschiedlicher Entwicklungen Möglichkeiten und Chancen bekommen, älter zu werden. Dieses Phänomen vergrößert die Selbstverwirklichungs- und Glückschancen. Das Leben erschöpft sich für den Großteil der Menschen nicht mehr in wenigen Jahrzehnten eines harten Arbeitslebens. Menschen, die in den Ruhestand treten, haben noch einen Lebenshorizont; sie können noch machen – aktiv gestalten -, was sie sich immer gewünscht haben: sich mit interessanten Dingen auseinandersetzen, sich bilden, ein Studium absolvieren, reisen, Sprachen lernen, sich mit Philosophie und existentiellen Fragen beschäftigen. Im Grunde sind dies gerade jene Tätigkeiten, die ein qualitätsvolles Leben auszeichnen könnten: nicht nur mehr festgehalten sein im Reich der Notwendigkeiten, sondern selbstständig und ermächtigt in einem Reich der Freiheit sich mit der eigenen Existenz auseinandersetzen zu können.

    Allein die Tatsache, dass sich eine wachsende Gruppe von Menschen (gegenwärtig in der westlichen Welt bereits mehr als ein Viertel der Bevölkerung) in wirtschaftlich gesicherten Verhältnissen mit existentiellen Fragen beschäftigen kann, oder jedenfalls könnte, zeigt einen Qualitätsgewinn des Lebens. Die Geschichte und die Menschen als ihre Gestalter und Marionetten – sie sind ja immer beides – sind aber wie stets widersprüchlich, in ihrem Denken und handeln ambivalent.

    Integrierung älterer Menschen in das Arbeitsleben

    Obwohl die Wirtschaft und ihre Gestaltungskräfte und Technologien immer wirksamer wurden und werden, obwohl die „Wertschöpfung“ mit wachsender Effizienz immer größer wurde, scheint es so, als ob die Menschheit sich ein Wachstum an Freiheit, Freizeit und Muße im Allgemeinen und der älteren Menschen im Besonderen nicht leisten kann. Überall ist gegenwärtig – mit dem Hinweis auf wachsende Kosten – von einer Erhöhung der Maßzahlen für die Arbeitszeit der Individuen im Tages-, Monats-, Jahres- und Lebensmaßstab die Rede.

    Die längere Integrierung älterer Menschen in das Arbeitsleben kann für die Unternehmungen, die Wirtschaft, die Gesellschaft, die Welt als Ganzes und für die Individuen durchaus positiv sein. Sie schleust die Erfahrungen der Älteren, die ja weitgehend auf sozialem und nicht eindimensional auf technologischem Wissen beruhen, in die aktuellen Arbeitszusammenhänge, sie mindert den Bruch und Konflikte zwischen den Generationen, sie wirkt konservierend, weil von älteren Menschen eher als von jüngeren eine bremsende und bewahrende Haltung ausgeht (im Gegensatz zu früheren Epochen wird Bewahrung zunehmend zu einer Überlebenschance der Menschheit), und sie spart nicht zuletzt Kosten auf dem Arbeitsmarkt.

    Alte Menschen bedeuten – insbesondere in der gegenwärtig wachsenden Zahl – neue Fragestellungen (ich will bewusst nicht sagen Probleme) für Wirtschaft und Gesellschaft. In den letzten Jahrzehnten erreichen weitaus mehr Menschen gesund ein höheres Lebensalter als dies früher der Fall war. Die Kosten für medizinische Versorgung und Pflege müssen also nicht in einer unausweichlichen Linearität ansteigen. Es erscheint auf der Grundlage gerontologischer und geriatrischer Erkenntnisse auch durchaus denkbar und möglich, dass die diesbezüglichen Kosten trotz des eindeutigen demographischen Befunds einer wachsenden Zahl älterer Menschen sinken können.

    Ein reflexives und verantwortungsvolles Leben ermöglicht und gestaltet jene Erfahrungen, die die Welt, das heißt die Gesellschaft und ihre Menschen brauchen (würden), um den Planeten Erde und das Leben auf ihm zu erhalten. Der Menschheit muss es in den nächsten Jahrzehnten gelingen, von einer Situation eines dynamischen, ungebremsten, weitgehend unkritisierten Ressourcenverbrauchs in eine neue, auf Nachhaltigkeit eingestellte Entwicklung umzusteigen. Nachhaltigkeit ist ein Schlagwort, das sehr abgebraucht ist, aber es gibt die richtige Richtung an, weil es sowohl auf die Wirtschaft (die Produktion von Gütern), die Gesellschaft (die Organisation des sozialen Lebens) als auch auf das Leben der Einzelnen (mehr nachdenken, mehr Verantwortung, mehr Gemeinsamkeit, mehr Freude am Gemeinsinn) anwendbar ist.

    Das Paradigma des Wirtschaftswachstums…

    In den aktuellen Diskussionen über Wirtschaft und Gesellschaft, damit auch über Demographie gibt es einen unaufgelösten Widerspruch, der für emotionale, oft ideologisch höchst aufgeladene Diskussionen sorgt.

    Die Wirtschaft geht von einem kaum widersprochenen Wachstumsparadigma aus.

    Ökologisch orientiertes auf Nachhaltigkeit fokussiertes Denken muss dagegen in vielen Bereichen Schrumpfen fordern.

    Schrumpfen ist in hohem Maße unpopulär. Wachsen und Wachstum erscheint, gleich worum es geht, als einzig mögliche Erfolgsstrategie. So ist die Debatte um die schrumpfenden und alternden westlichen Gesellschaften in höchstem Maße paradox.

    Einerseits ist leicht einzusehen, dass die Welt in Hinblick auf die vorhandenen Rohstoffe und die daraus zu gewinnende Energie bereits viel zu dicht bevölkert ist, andererseits gibt es eine sehr selbstbewusste, wenig Widerspruch zulassende Argumentation, dass die Gesellschaften wieder fruchtbarer werden müssten, dass es mehr junge Menschen geben müsste, um den Anforderungen um den Anforderungen einer alternden Gesellschaft mit weniger Arbeitskräften und größerem Pflegebedarf zu begegnen und gegenzusteuern. Politische Konzepte einer Forcierung von Geburtenzahlen, aber auch jene, die auf Beschränkung der Geburten abzielen, hatten stets auch (man denke an den Nationalsozialismus) den Charakter eines mehr oder weniger diktatorischen Eingreifens von Politik in die Privat- und Intimsphäre. Da in der Hierarchie westlicher Werte Demokratie, bürgerliche Selbstbestimmung und Menschenrechte ganz oben stehen, wird es darauf ankommen, den Bereich des generativen Verhaltens von staatlichen Kontrollen und direktiven freizuhalten.

    Das gesamte – „westlich“ – gesellschaftliche Reflexionssystem ist gegenwärtig auf Wachstum eingestellt. Der Westen ist in dieser Hinsicht das universelle Modell der Menschheit geworden. Dem Wirtschaftswachstum muss alles folgen, obwohl längst alte und neue intellektuelle Eliten sehr aussagekräftige Befunde dafür haben, dass das Wachstumsparadigma revidiert werden muss. Immer mehr Menschen ist klar, dass insbesondere alle Fragen des sozialen Lebens, der Gestaltung der Beziehungen nicht nur nach den Zwängen des Wirtschaftswachstums zu beantworten sind.

    …versus Lebensqualität

    Die Realisierung des Postulats des Wirtschaftswachstums macht zwei Systemschwächen deutlich und lässt sie gleichsam wirksam werden: Wirtschaftswachstum bedeutet erstens Ressourcenverbrauch, der schon lange die Grenzen des für ökologische Systeme Verkraftbaren überschritten hat; und zweitens ist Wirtschaftswachstum schon lange nicht mehr mit einer Steigerung der Lebensqualität der Menschen verbunden. Da der einzige Wachstumsindikator, der im gegenwärtigen Wirtschaftssystem tatsächlich wachsen muss, der Shareholdervalue ist und die Realwirtschaft in einer wachsenden internationalen Konkurrenz steht, ist das Wirtschaftswachstum – auch, wenn es tatsächlich stattfindet - häufig mit kleiner werdenden Einkommen für die Beschäftigten verbunden.

    Leidtragende sind ältere Beschäftigte, die ihren Arbeitsplatz verlieren und sich mit kleineren Pensionen abfinden müssen und ebenso jüngere Berufstätige, die damit rechnen können, dass Lebensalter und Pensionsalter immer stärker konvergieren werden und, dass auf ihren Schultern die Lasten des zukünftigen Pensionssystems liegen werden.

    Warum in einer historischen Entwicklung, in der Effizienz und Wirksamkeit von Arbeit durch wissenschaftliche Innovation, Logistik und wachsende „Hebelwirkung“ immer größer werden, die Arbeitenden in immer prekäreren Verhältnissen leben, liegt vermutlich daran, dass die Früchte von Effizienz, Rationalisierung und angewandter innovativer Wissenschaft nicht zu ihren Gunsten verteilt wurden.

    Unverständlich jedoch ist, warum die Wachstumsdiskussionen, die die westliche Politik kennzeichnen, nur im Hinblick auf Wirtschaftsdaten geführt werden, die schon lange keine Zunahme von Wohlstand spiegeln und nicht in Hinblick auf Faktoren, in denen Lebensqualität von Menschen (unversehrte Naturräume, Zeit zu leben, zu denken, für Beziehungen, für Kunst und für das Nachdenken über das Leben) zum Ausdruck kommt.

    Das Wachstumsdenken fördert bei Menschen einen neuen Sklavenstatus und eine entsprechende Mentalität, in denen Menschen bereit sind, ihre gesamte Zeit, ihr gesamtes Streben und Denken dem nackten – fremdbestimmten Überleben zu widmen.

    Das Durchschnittsalter der europäischen Bevölkerung steigt gemäß der Bevölkerungsprognose der EU kontinuierlich an – gegenwärtig liegt es bei 39, 3 Jahren. Im Jahr 2030 wird es nach aktuellen Schätzungen zwischen 42 und 48 Jahren liegen. Dementsprechend werden die Berufstätigen im Durchschnitt älter sein, die Zahl der zwischen 50 und 60 Jahre alten stark ansteigen, die Zahl der unter 29-jährigen dagegen abnehmen. Die Kosten der ständig wachsenden Zahl der über 60-Jährigen belasten das Pensionssystem (Abbildung 2).

    2060 wird im Schnitt ein 65+ Jähriger auf 2 Personen im erwerbsfähigen Alter kommenAbbildung 2. 2060 wird im Schnitt ein 65+ Jähriger auf 2 Personen im erwerbsfähigen Alter kommen (Prognose der Europäischen Kommission, http://epthinktank.eu/2013/12/19/ageing-population-projections-2010-2060-for-the-eu27/fig-3-7)

    Es wird daher fraglos notwendig sein, dass das reale Pensionsantrittsalter höher wird.

    Auch dies ist ambivalent. Einerseits lindert eine höhere Zahl von älteren Berufstätigen in der Arbeitswelt die Kluft zwischen ihnen und Rentnern und den daraus resultierenden Generationenkonflikt. Andererseits ist die Arbeitswelt in den letzten 15 Jahren keineswegs ruhiger, kreativer, kollegialer, soldarischer geworden – genau das Gegenteil ist der Fall. Die Anforderungen sind extrem gestiegen, Kontrolle, Disziplinierung, Überwachung jedes Arbeitsschritts (euphemistisch „Monitoring“) sind ständig gewachsen und viele reagieren auf diesen Druck mit Burn-out.

    Wenn ein Arbeitsleben in dieser Anforderungs- und Drucksituation nicht mehr nur einen Lebensabschnitt, sondern tendenziell das ganze Leben ausfüllt, dann erscheint dies auch als Rückfall in die vorindustrielle Gesellschaft bei Verschärfung einer in Hinblick auf das 19. Jahrhundert mindestens verdoppelten Lebenserwartung. Von den Menschen wird erwartet, dass sie mehr und länger arbeiten und eine immer größere Verantwortung dafür übernehmen, dabei gesund zu bleiben. Arbeitswelten, die immer stärkere Leistungs- und Effizienzdrucke ausüben und gleichzeitig jene Werte und Sinne reduzieren, die die Arbeit und letztlich auch das Leben sinnvoll und lebenswert gemacht haben, beeinträchtigen empfindlich die viel zitierte „Work-Life-Balance“, Die tendenzielle Verlängerung des Arbeitslebens – mit dem Zielpunkt „lebenslänglich“ – bedeutet letztlich auch eine Minderung des Lebenssinnes, den Menschen haben und leben können.

    Wie geht es weiter?

    Wie wollen Politik, Wirtschaft, Gesellschaft und Kultur mit den Tatsachen der Bevölkerungsentwicklung umgehen, die jedenfalls im Westen die Anteile der Generationskohorten größenmäßig zugunsten der älteren Menschen verändert?

    Die Gesellschaft mit mehr älteren, mehr alten Menschen, der Umgang mit den daraus resultierenden Problemen, für alle gesellschaftlichen Teilsysteme, für die Institutionen und natürlich für die Menschen selbst ist eine Herausforderung für die Individuen und die Kollektive.


    *) Der vorliegende Artikel ist die leicht gekürzte und für den Blog adaptierte Fassung des Essays, mit dem der Autor den Sammelband „Herausforderung Alter(n)“ eingeleitet hat. Dieser erste Band einer Buchreihe „Herausforderungen“ ist vor wenigen Wochen erschienen (Hubert Christian Ehalt Hsg, Verlag Bibliothek der Provinz, edition seidengasse; http://www.bibliothekderprovinz.at/buch/6351/) .


    Weiterführende Links

    European Commission: The 2015 Ageing Report http://ec.europa.eu/economy_finance/publications/european_economy/2014/p...

    Bevölkerungsprognosen für Österreich (2014) http://www.statistik.at/web_de/statistiken/bevoelkerung/demographische_p...

    Wolfgang Lutz: Demographische Entwicklung und Humanressourcen für Österreichs Zukunft. 10.10.2011

    Präsentation: http://www.sozialpartner.at/sozialpartner/badischl_2011/Bad-Ischl-Lutz.pdf

    Videos

    Forschung trifft Praxis: Alternde Welt? Demografischer Trend und entwicklungspolit. Herausforderung (Deutsche Gesellschaft für Internationale Zusammenarbeit GIZ). Video 5: 40 min.

    Artikel im ScienceBlog zum Thema Altern

    Ilse Kryspin-Exner: Aktiv Altern: 2012 war das Europäische Jahr für aktives Altern und Solidarität zwischen den Generationen http://scienceblog.at/aktiv-altern-2012-war-das-europäische-jahr-für-aktives-altern-und-solidarität-zwischen-den-generatio.

    Assistive Technologien als Unterstützung von Aktivem Altern

    Georg Wick: Auf dem Weg zu einer neuen Emeritus-Kultur in Österreich?


     

    inge Fri, 06.02.2015 - 08:12

    Reaktionen auf globale Bedrohungen: Ignorieren – Verdrängen – Dramatisieren

    Reaktionen auf globale Bedrohungen: Ignorieren – Verdrängen – Dramatisieren

    Fr, 31.01.2015 - 06:51 — Ortwin Renn

    Ortwin RennIcon Politik & GesellschaftWie nehmen wir welche Bedrohungen wahr? Der Technik- und Umweltsoziologe Ortwin Renn legt dar, dass wir uns vor den falschen Dingen fürchten, dass wir individuelle Lebensrisiken dramatisieren, aber die echten, von ihm als systemische Risiken bezeichnete Bedrohungen unterschätzen. Systemische Risiken sind global und betreffen jeden, werden aber dennoch häufig verdrängt, da kein festgelegter Zusammenhang zwischen Ursache und Wirkung erkennbar ist. Diese Risiken sind Folge des zunehmenden Ausmaßes menschlicher Eingriffe in natürliche Kreisläufe, der Steuerungskrisen in Wirtschaft und Politik und der Modernisierung, die zur Ungleichheit der Lebensbedingungen, Verwundbarkeit unserer technischen Systeme und Identitätsverlusten geführt hat.*

    FrühmenschenVor ungefähr 15 000 Jahren saßen 4 Frühmenschen vor einer Höhle und besprachen ihre Situation. Der Erste sagte: „Wir haben doch ein hervorragendes Leben. Wenn ich Wasser hole, ist es ganz rein und nicht verschmutzt“. Der Zweite sagte: „In der Luft haben wir überhaupt keine Schadstoffe“, darauf der Dritte: „Unsere Lebensmittel sind alle biologisch dynamisch“ und der Vierte: „Großen Stress haben wir auch nicht“. Da sahen sie sich an, und dann meinte der Erste. „Wir haben nur ein Problem: warum werden wir nicht älter als 30 Jahre?“

    Was hinter dieser Geschichte steht?

    Dass wir viele unserer Risiken dramatisieren, aber andere Risiken, für die es sich lohnt sehr stark einzustehen, eher verdrängen oder ignorieren.

    Reduktion individueller Risiken…

    Von den Frühmenschen zur Moderne: Mädchen, die jetzt in Österreich geboren werden, haben eine Lebenserwartung von 86 Jahren, Jungen von 82 Jahren. Das ist sensationell: bis zum Beginn des 20. Jahrhunderts kamen nur die wenigsten Menschen in unseren Gesellschaften so nahe an die Grenzen ihren biologisch gegebenen Lebensspanne. Heute sterben in Österreich bloß 1,28 % der Menschen vor ihrem 65. Lebensjahr. In einem afrikanischen Land dagegen (beispielsweise das eigentlich noch recht stabile Sambia) erreichen 56 % der Menschen nicht ihr 65stes Lebensjahr.

    …eine Erfolgsgeschichte

    Hauptgründe dafür, dass wir das Risiko für die gesamte Bevölkerung sehr stark reduzieren konnten, sind

    • die Etablierung der Hygiene,
    • die Technisierung unserer Welt und Umwelt. Dadurch wurden viele Risiken, vor denen wir Schutz , Geborgenheit, aber auch gesellschaftliche und soziale Sicherheit brauchen, verringert,
    • die Ernährung, die - anders als uns Nostalgiker weismachen wollen - früher viel schlechter war - durch Ernährungsmangel sind bis in die Mitte des 20 Jahrhunderts große Probleme aufgetreten,
    • die Errungenschaften - Hygiene, Technik und ausreichende Ernährung - stehen nicht nur für eine Elite der Gesellschaft, sondern im Prinzip für fast alle zur Verfügung. Könige und Kaiser haben auch früher relativ lang gelebt, nicht aber das einfache Volk.

    Wir haben in unseren Lebensbereichen einen Großteil der Risiken, vor allem Krankheitsrisiken, sehr stark reduzieren können. Unsere Lebensumstände, die bedingt sind durch technische Zivilisation aber auch durch die modernen Lebensweisen, haben wir sehr stark von alltäglichen Risiken befreit und uns gegen Gefahren institutionell und individuell weitgehend abgesichert. Dazu ein paar Zahlen:

    Arbeitsunfälle gehören weltweit zu den größten Todesrisiken der Menschheit, jährlich sterben daran 2,3 Millionen Menschen (mehr als an allen Infektionskrankheiten zusammen). Diese Risiken sind in den OECD Ländern in dramatischer Weise gesunken. Gab es 1962 z.B. in Deutschland knapp 5000 tödliche Arbeitsunfälle, waren es 2013 nur noch 472. Auch andere Unfälle wurden hier stark reduziert: 1970 gab es 22 000 Verkehrstote, heute 3500; Freizeitunfälle verursachten 1976 rund 14 000 Tote heute knapp 7 000.

    Weitere Reduktion von Gesundheitsrisiken

    Es gibt also Erfolge in den klassischen Risikobereichen. Diese sind auch eine Ermutigung, an die Risiken, wo wir diese Erfolge nicht haben, mit demselben Elan, demselben Mut heranzugehen, wie bei den Risiken, die wir enorm reduziert haben.

    Umweltbezogene Risiken sind gegenüber anderen Gesundheitsgefährdungen weitgehend zurückgetreten. Wenn wir individuell unsere Gesundheitsrisiken weiter reduzieren wollen, dann sind es die bekannten vier Volkskiller, die unser Leben beeinträchtigen:

    Rauchen, übermäßiges Trinken, unausgewogene Ernährung und Bewegungsmangel.

    Ungefähr ⅔ aller vorzeitigen Todesfälle in den OECD Ländern, lassen sich darauf zurückführen. Dies sind Risiken,

    die wir individuell zum großen Teil steuern können (das war vor 300 Jahren, selbst vor 100 Jahren noch nicht der Fall - sehr viele Risiken waren damals von außen gesteuert).

    wo dort, wo wir institutionelle Formen der Risikoreduzierung brauchen, diese in unseren Ländern greifen - zumindest so weit, dass wir heute sagen: dies ist tolerierbar.

    Systemische Risiken - globale Bedrohungen

    Bei systemischen Risiken handelt es sich darum, dass die Funktionalität eines Systems durch ein Ereignis gefährdet wird, das dann das ganze System aus den Angeln hebt. Viele Risiken tun dies nicht, sie reduzieren vielleicht die Gesundheit, die Sicherheit, möglicherweise das Einkommen. Systemische Risiken dagegen sind solche, die sozusagen an der Grundstruktur- am Rückgrat - der Funktionalität ansetzen.

    Systemische Risiken sind durch vier Merkmale gekennzeichnet:

    1. Sie sind global. Jeder ist davon betroffen, egal wo er lebt; niemand kann sich im Prinzip diesen Risiken entziehen.
    2. Sie sind vernetzt. Wenn ich an einer Stellschraube ziehe, ergibt dies ein hohes Maß an Komplexität: an Veränderungen von unterschiedlichsten Faktoren, welche die Risiken in unterschiedlicher Weise beeinflussen, sodass die ursprüngliche Ursache-Wirkungsbeziehung entweder gar nicht mehr oder in sehr veränderter Form auftaucht. Komplexe Systeme zeichnen sich vor allem durch ungewöhnliche Konsequenzen aus: durch die vielen intervenierenden, variablen Rückschleifen werden sie für uns nicht mehr prognostizierbar und oft sogar schwer erklärbar.
    3. Sie sind nichtlinear. Dies bedeutet, dass lange Zeit gar nichts passiert und dann passiert plötzlich alles – wie, wenn man einen Schalter umlegt und das Licht ausgeht. Das Problem der meisten nichtlinearen Systeme, wie wir sie beispielsweise im ökologischen Bereich kennen, ist, dass sie größtenteils irreversibel oder nur sehr langsam umkehrbar sind. Wenn beispielsweise der Golfstrom im Rahmen des Klimawandels versiegen sollte, dann lässt sich dies nicht so einfach mit etwas weniger Kohlendioxyd rückgängig machen. Bis der Golfstrom wieder angeht, wird es mindestens einige hundert Jahre dauern, selbst, wenn alle Voraussetzungen dafür geschaffen werden. Oder denken Sie an die Finanzkrise: lange Zeit haben alle verdient, jeder hat gesagt: „Es funktioniert doch wunderbar - was sollen die Unkenrufe?“. Irgendeinmal platzt dann das Ganze. Und da geht's dann wie mit Dominosteinen: einer nach dem anderen fällt um.
    4. Sie sind stochastisch – es bestehen keine festgelegten Beziehungen zwischen Ursachen und Wirkungen, nur Wahrscheinlichkeiten. Dies bedeutet, dass eben Unsicherheit besteht, wie bestimmte Eingriffe des Menschen Konsequenzen zeitigen. Wir können diese zwar modellieren, müssen aber über deren genaues Ausmaß und Intensität spekulieren – wir haben keine festen numerischen Daten, die uns mit Sicherheit sagen lassen was passiert, wenn beispielsweise Fall A eintritt.

    Diese vier wesentlichen Kennzeichen führen dazu, dass wir derartige Risiken nicht so dramatisieren wie vielleicht andere, die sich tagtäglich begeben, von denen wir aber glauben, dass sie uns enorm belasten, wie etwa der „Schadstoff der Woche“. Systemischen Risiken gegenüber verhalten wir unser eher fast zurückhaltend, um es sehr gelinde auszudrücken, und verdrängen oder ignorieren diese sogar meistens.

    Wahrnehmung systemischer Risiken

    Wir nehmen Risiken anders wahr, als wie sie aus der wissenschaftlichen Analyse erkennbar sind. Auf bestimmte Risiken reagieren wir besonders intensiv, auf andere eher zurückhaltend. Dahinter steht, dass wir anthropologisch darauf gepolt sind, Kausalitäten als etwas örtlich und zeitlich Naheliegendes zu sehen. Das hatte seinen Sinn: als der Frühmensch aus dem Dschungel in die Savanne kam, war es für sein Überleben wichtig, dass er Gefahren schnell erkannte und darauf schnell reagierte – ob er die Gefahr immer zu 100 % erkannte, war vielleicht für den einzelnen, nicht aber für die Gesellschaft problematisch.

    Diese Einstellung bewegt uns auch heute noch. Bei allem was wir an Negativem oder auch Positivem erleben, fragen wir immer danach, „was war kurz vorher, was ist zeitlich nah“. Dieser intuitive Mechanismus versagt gerade bei systemischen Risiken sehr häufig. Wir versuchen dann dafür Sündenböcke zu finden, die nah sind und, die wir zeitlich zuordnen können. Wenn uns Wissenschaftler dann sagen „Nein, das sind ganz andere, sehr komplizierte Prozesse“ verlieren wir das Interesse daran - das ist für uns intuitiv nicht nachvollziehbar.

    Globale Risiken und das Allmende-Dilemma

    Eigentlich würde man meinen: je globaler etwas ist, desto eher werden wir auch entsprechend eingreifen. Das Gegenteil ist der Fall. Globalität heißt auch: alle sind betroffen. Wenn aber alle betroffen sind, tut niemand etwas. Wir nennen das häufig das Allmende-Dilemma. Wenn alle ein öffentliches Gut haben wollen - egal welches (Finanzsicherheit, Klima, soziale Gerechtigkeit, etc.), dann ist es für den Einzelnen rational zu sagen: wenn alle andern sich dafür einsetzen, krieg‘ ich ja den Nutzen auch ohne selbst beizutragen. Wenn beispielsweise alle sich impfen lassen, ich aber nicht, dann hab ich trotzdem den Schutz, weil die Krankheit sich ja nicht mehr ausbreitet. Wenn zu viele so denken, sind alle geschädigt.

    Wichtig ist, dass beim Auftreten globaler Probleme niemand einen wirklichen Anreiz hat als Erster etwas zu unternehmen. Handelt einer als Erster, dann ist es wirkungslos, wenn die anderen 99 % nichts tun; machen es alle, dann sagt sich jeder einzelne, da brauch‘ ich selbst nichts zu tun, der andere tut’s ja.

    Das Dilemma bei globalen Risiken ist es, dass auf nationaler Ebene die Staaten - wie beim Klimawandel - sich nicht einigen. Weil jeder Staat sagt: „Wenn alle andern was tun, dann brauch ich ja nichts zu machen“ oder, wenn ein Staat sagt: „Ich will Vorreiter sein, ich tu etwas“ und die anderen tun nichts, dann hat dies keinen Effekt.

    Das ist die gegenseitige Lähmung, die mit dem Dilemma verbunden ist.

    Vernetzte, nichtlineare…

    Hochvernetzte Systeme sind komplex, komplexe Formen sind kontraintuitiv – wir können sie schlecht nachvollziehen. Da lässt sich keine Geschichte darum weben; die Folge davon ist: Ignorieren.

    Dies wird noch verstärkt durch die beiden anderen Risikomerkmale: Nichtlinearität und Stochastik.

    Die Nichtlinearität sagt letztlich nichts anderes als beispielsweise: „Ich höre der Klimawandel droht, merke aber nichts. Dass es bisschen wärmer wird hat noch niemandem geschadet - worüber regen sich die eigentlich auf?“ Solange ich also nichts merke, habe ich nicht den Eindruck, dass ich was tun muss. Nichtlinearität kennen wir auch von anderen Phänomenen: denken sie an Gewässer, die plötzlich umkippen. Es ist dann sehr schwer, diese wieder zu lebendigen Systemen zu machen.

    …und stochastische Risiken

    Die Stochastik zeigt uns immer wieder Möglichkeiten, dass die Dinge doch nicht so schlimm sind, wie sie aussehen. Wenn Sie beispielsweise sagen: „Rauchen schafft Lungenkrebs“, ist die Antwort: „Das stimmt in der Tendenz, aber nicht für alle“. In einer Versammlung von Rauchern sagen bestimmt welche „mein Opa ist 95 Jahre; der hat geraucht wie ein Schlot und lebt wunderbar“. Oder umgekehrt: „Von wegen Bewegung und gesunder Ernährung – mein Vetter hat sich wunderbar ernährt, ist immer ins Fitness Center gegangen und mit 32 kriegt er einen Herzinfarkt“.

    Ja, das gibt es. Bei stochastischen Phänomenen existiert eben keine eindeutige Beziehung zwischen Ursache und Wirkung.

    Unser Kausalitätsdenken ist auf Nahes bezogen. Dass ein 95-jähriger noch raucht, ist sehr viel mehr evident als alles, was Wissenschafter uns in irgendeiner Form beibringen wollen. Das ist beim Raucher im Kleinen so und beim Klimamodell im Großen. „Ehe wir uns nicht 100 % sicher sind, brauch‘ ich gar nichts zu machen".

    Das Problem ist, bei stochastischen Risiken kriegen sie nie 100 %. Das ist oft schwer darzulegen. „Mehr Forschung, das bringt doch mehr Sicherheit“ - die Unsicherheit wird damit besser charakterisierbar, aber sie bleibt. Es gibt keine festen Beziehungen zwischen einer Verursachung und einer Wirkung, sondern diese streuen – d.i. aus der Quantenphysik schon lange bekannt, aber es kommt eben auch außerhalb des kleinen Teilchenbereich, auch in komplexen Zusammenhängen vor. Wir haben dann noch immer einen Strohhalm: na, so schlimm wird’s schon nicht kommen.

    Risikobereiche von Systemrisiken

    Die Merkmale: global, hochvernetzt, nichtlinear und stochastisch treffen auf drei Risikobereiche zu:

    Bereich 1: Eingriffe des Menschen in natürliche Kreisläufe

    Der Mensch hat die Natur immer verändert und die Kultivierung der Natur für unsere Zwecke ist seit der neolithischen Revolution – also seit 10 000 – 12 000 Jahren – unser Erfolgsrezept. Es ist auch ein Teil unserer Risikoreduzierung.

    Neu ist – und das erst seit 50 – 70 Jahren -, dass wir im Rahmen der Interventionen die in unserer natürlichen Umwelt herrschenden, großen (bio)chemischen Kreisläufe nennenswert beeinflussen. Promillemäßig haben wir das immer gemacht - wir sind jetzt in Prozentwerten; das gilt für den CO2 Gehalt ebenso wie viele andere Kreisläufe. Bedingt durch die Vielzahl der Menschen und unsere technische Dominanz, hat sich die Wirkkraft unseres Handelns so verstärkt, dass wir heute die globalen Kreisläufe beeinflussen.

    Das hat große Folgen.

    Wir haben in der Vergangenheit schon häufig unsere Umwelt bis zur Unkenntlichkeit zerstört, dies war aber immer regional. (Beispiele sind die Verkarstung weiter Landstrichstriche, die Verschmutzung von Flüssen durch die Textil- und Lederindustrie). Jetzt ist es eine globale Bedrohung. Das, was wir normalerweise in der Wissenschaft und auch in der Wirtschaft tun, nämlich „try and error“ (versuchen und irren), können wir uns nicht mehr leisten. Wenn wir meinen „warten wir ab, ob sich der Klimawandel wirklich so negativ auswirken wird“, werden wir eine globale Veränderung haben, von der wir heute schon sagen können „Wenn die kommt, dann wollen wir diesen Irrtum nicht erleben - warum haben wir nichts zur Prävention getan?“. Prävention kostet. Also Kosten tragen für etwas, wo wir die negative Seiten noch gar nicht merken, sondern nur simuliert bekommen und auch das nur mit Wahrscheinlichkeiten, niemals mit Sicherheit?

    Ähnliches erleben wir auch massiv im Umweltbereich, wo gesagt wird „Mit Sicherheit wissen wir nicht, woher XY überhaupt kommt und dafür soll unsere schöne Wirtschaft reduziert, sollen Arbeitsplätze vernichtet werden, damit wir uns auf ein Risiko einstellen, das vielleicht gar nicht eintritt.“

    Bereich 2: Steuerungskrise

    Heute entscheidet das Government. In einer kollektiven Form, in der wir leben – jeder Mensch ein Sozialwesen –, benötigen wir Steuerungsformen, um die kollektiven Prozesse einigermaßen regeln zu können. Steuerungsprozesse müssen wir heute global ansehen, weil Dinge, die in einem Land gesteuert werden, Auswirkungen auf Steuerungsformen in anderen Ländern haben. Ein Beispiel ist der Markt – ein Steuerungsinstrument, das Regeln aufsetzt, wie bestimmte Güter beispielsweise akquiriert und verteilt werden. Wenn diese Steuerungsmechanismen nicht mehr funktionieren, dann haben wir genau diese systemischen Ereignisse - global, miteinander vernetzt, nichtlinear und stochastisch.

    Bestes Beispiel dafür war die Finanzkrise: ein Verlust der Steuerungsfähigkeit a) innerhalb des Finanzsektors selber und b) in der Aufsichtsbehörde und der Aufsicht von Politik und Gesellschaft. Steuerungsformen, die nicht mehr gegenseitig kontrollierbar sind, sondern sich partiell optimieren - hinterher sehen wir, dass wir eng am Kollaps des gesamten Steuerungssystems vorbeigingen.

    Steuerungskrisen haben wir auch im politischen Bereich. Die Korruption beispielsweise hat Auswirkungen auf die gesamte Entwicklung eines Landes, kann seine totale Funktionalität außer Kraft setzen. Auch da sehen wir sehr häufig globale Auswirkungen und eine starke Vernetzung. Das Phänomen Korruption ist oft nichtlinear, geht hoch bis das gesamte System durchlöchert ist und zusammenbricht. Es ist auch häufig stochastisch: manche Länder kommen mit Korruption ganz gut zurecht, viele Länder aber nicht.

    Bereich 3: Modernisierung

    Hier handelt es sich um Risiken, die mit der starken Transformation von Gesellschaften des Übergangs – Vormoderne zu Moderne, Moderne zu Postmoderne - verbunden sind. Derartige Risiken können durch drei Faktoren bedingt werden:

    Ungleichheit

    Ungleiche Lebensverhältnisse hat es immer und in allen Gesellschaften gegeben. Eine absolute Gleichverteilung von Ressourcen und Macht hat es nie gegeben und sie wird auch nie funktionieren. Aber jede Gesellschaft hat großen Wert darauf gelegt, bestehende Ungleichheiten zu rechtfertigen, so dass auch diejenigen, die unten waren, glauben konnten, dass das, wie verteilt wurde, einigermaßen gerechtfertigt war. Man war wenigsten bemüht zu rechtfertigen. Bis hin zum absoluten Herrscher, dessen Gottesgnadentum Rechtfertigung war. Das zerbrach in der französischen Revolution.

    Heute spricht man vor allem von der Ungleichheit der Lebenschancen und Möglichkeiten und stellt fest, dass diese enorm zugenommen hat. In den US verdient der durchschnittliche Arbeiter in einer großen Aktiengesellschaft heute ungefähr ein Dreihundertstel von dem, was der erste Manager verdient. Vor 30 Jahren war es ein Dreißigstel. 87 Menschen in dieser Welt haben mehr Vermögen, als die Hälfte der gesamten Menschheit. Selbst denjenigen, die privilegiert sind, fällt nichts mehr ein, um diese Ungleichheit zu rechtfertigen. Es wird hingenommen. Dann erfolgen soziale Proteste, Rückzug in Fundamentalismus, Terrorismus - großteils Reaktionsmuster von Ungleichheit. Menschen, die eigentlich das Potential haben an den Möglichkeiten mitzuwirken, auch einen Teil des gesellschaftlichen Reichtums zu erhalten, wird dies verwehrt.

    Das gilt für unsere Gesellschaften nicht so extrem wie für andere, aber weltweit ist dies gegeben. Die Ungleichheit ist überall, hochvernetzt, nichtlinear – es dauert lange bis es plötzlich ausbricht – und stochastisch.

    Verwundbarkeit unserer technischen Welt

    Ich meine hier nicht nur Kernkraftwerke, sondern auch den gesamten Bereich des Internets, der so hoch verwundbar uns macht, dass einzelne Personen die Funktionalität dieser Systeme außer Kraft setzen können. Mit so großen Folgen, dass keiner sie haben will. Die Auseinandersetzung über amerikanische Geheimdienste, die alle unsere Daten haben wollen und die Frage der Sicherheit gegen Terrorismus, sind vor diesem Hintergrund zu sehen.

    Ob man das gut oder schlecht findet, ist keine Frage. Wenn wir überall Kameras aufsetzten, könnten wir Morde verhindern Bei „normaler Kriminalität“ - 2 – 3 Personen pro 100 000 - will das niemand, damit können wir leben. Beim Cyberterrorismus ist es anders. Da reicht eine einzige, sehr gewitzte Person, um eine Verwundbarkeit auszulösen, die keiner haben will. Da kommen wir an die Grenze dessen, wo wir sagen: „Wollen wir diese hohe Verwundbarkeit zulassen und wollen wir dafür den Preis zahlen?“

    Verlust der personalen Identität

    Identität ist eine Form der Selbstfindung des Menschen, sein Selbstbild.

    Es gibt die berühmten Kränkungen von Freud: erstens, dass sich die Sonne nicht um die Erde dreht, zweitens die Darwin’sche Logik der Evolution, drittens das Unbewusstsein. Heute erleben wir eine vierte Kränkung. Diese wird davon gespeist, dass

    i) unsere Maschinen teilweise Dinge übernehmen, von denen wir glauben das können nur Menschen,

    ii) unsere Gehirnforscher sagen, dass es zumindest biodynamisch nicht stimmt, wenn wir glauben, dass wir freie Menschen mit einem freien Willen sind,

    iii) unsere Gesellschaft das, was den Einzelnen ausmacht, immer weniger als Solchen nachfragt und somit Anonymisierung, Pluralisierung, aber auch ein Verlust an Geborgenheit damit einhergeht,

    iv) ein Verlust an Sinnfindung eintritt. Es gibt genügend Angebote, aber wenige die überzeugen. In anderen Gesellschaften ist das anders.

    Unter diesen Sichtweisen verlieren viele Menschen den Glauben an sich.

    Wir haben, wie eingangs erwähnt, Krankheitsrisiken reduziert, die Sicherheit wesentlich verbessert, die Lebenserwartung wesentlich erhöht. In einem Punkt haben wir die Risiken verstärkt - im Bereich psychischer/psychosomatischer Erkrankungen. Bei den 1,28 % der Menschen, die in Österreich vor dem 65. Lebensjahr sterben, steht Krebs an erster Stelle, dann kommen kardiovaskuläre Erkrankungen und bereits an dritter Stelle steht der Suizid, noch vor dem Tod durch Unfälle. Es ist ein nahezu für alle OECD-Länder typisches Risiko, das systemisch für eine Gesellschaft steht, die offensichtlich dem einzelnen nicht mehr das geben kann, was er braucht um sich psychisch wohl zu fühlen. Unter all unserem materiellen Wohlstand ist dies ein Manko, mit dem wir zu rechnen haben.

    Fazit

    Es gibt viele Gefahren, vor denen wir uns fürchten und fürchten müssen.

    Wir haben viele Risiken reduziert, wir haben also die Fähigkeit Risiken zu reduzieren. Wir haben uns dadurch aber auch neue Risiken aufgebaut, systemische Risiken, die die Funktionalität unseres Zusammenlebens bedrohen. Diese müssen wir angehen. Dass man den Menschen nicht Zynismus und Fundamentalismus beibringt als Reaktion auf die Moderne, sondern eine Form des reflektierten Humanismus , der es Menschen wieder ermöglicht mit eigenem Engagement daran zu gehen diese systemischen Risiken für die Zukunft und zukünftige Generationen zu reduzieren!


    * Der Artikel ist die gekürzte Fassung des gleichnamigen Vortrags, den Ortwin Renn am 24. November 2014 im Festsaal der ÖAW in Wien gehalten hat. Ein Audio-Mitschnitt findet sich auf der Seite: http://www.oeaw.ac.at/kioes/gefahren.htm

    **Eine faszinierende, ausführliche Behandlung des Themas ist kürzlich in Buchform erschienen:

    Renn, O.: Das Risikoparadox. Warum wir uns vor dem Falschen fürchten. Frankfurt am Main (Fischer 2014). Daraus eine16-seitige Leseprobe: http://www.fischerverlage.de/media/fs/308/LP_978-3-596-19811-5.pdf und ein Video der Buchvorstellung:

    Homepage des Autors: http://www.ortwin-renn.de/


    Weiterführende Links

    Ortwin Renn et al., (2007) Systemische Risiken: Charakterisierung, Management und Integration in eine aktive Nachhaltigkeitspolitik (PDF-Download)

    Ortwin Renn et al., Die Bedeutung anthropogener Eingriffe in natürliche Prozesse: die Wechselwirkungen zwischen Naturgefahren und Risiken. (PDF-Download)

    Interview mit O. Renn: http://www.zeit.de/2014/16/interview-risikoforscher-arbeit-sicherheit

    Videos mit O.Renn

    Scobel Risiko (2011) 58:04 min

    "Riskante Zukunft? Was uns bedroht und wie wir es erkennen können" (2013) 46:54 min

    Warum wir uns vor dem Falschen fürchten (2014) 45:51 min.


     

    inge Sat, 31.01.2015 - 06:51

    Der besondere Saft

    Der besondere Saft

    Fr, 23.01.2015 - 08:14 — Gottfried Schatz

    Wie unsere Blutzellen reifen – und sterben. Gottfried SchatzIcon BiologieDie Reifung unserer verschiedenen Blutzellen wird nicht nur von deren Genen, sondern auch von anderen Zellen und vom Zufall bestimmt, wobei jeder Reifungsschritt die Möglichkeiten der weiteren Entwicklung einengt. – Der Schicksalsweg einer Blutzelle gleicht so in vielem dem eines Menschen.

    «Blut ist ein ganz besonderer Saft», mahnt Mephistopheles den übermütigen Faust, der den Wert seiner in Blut geleisteten Unterschrift verspottet. Blut gilt seit Urgedenken als Symbol des Lebens. Es versorgt unseren Körper mit Nahrung und Sauerstoff, schützt ihn vor bedrohlichen Eindringlingen und durchspült ihn mit Hormonen und anderen Wirkstoffen, die den Gleichklang der Zellen regeln.

    Unser Blut ist jedoch eher ein Symbol des Todes. Die 25 000 Milliarden roten Blutkörperchen, die in ihm treiben, sind abgestorbene Zellen, die ihr Erbmaterial und fast alle Zellorgane verloren haben. Dennoch tragen sie etwa 120 Tage lang unermüdlich Sauerstoff aus der Lunge in die Gewebe, bis Fresszellen in der Milz oder der Leber sie verschlingen. Etwa 200 Milliarden von ihnen fallen täglich diesem Massaker zum Opfer. Und unsere 1500 Milliarden Blutplättchen sind nichts weiter als leblose, von Spenderzellen abgeschnürte Bläschen, welche die Gerinnung des Blutes in Wunden einleiten. (Abbildung).

    Abbildung; Mikrokosmos Blut. Links: Der Blutausstrich zeigt überwiegend kernlose Eryzhrozyten (Bild: modifizert.nach Wikipedia). Rechts: 3 Arten Blutkörperchen: Erythrozyten, Leukozyten und Thrombozyten (Bild modifiziert nach: Blausen.com staff. "Blausen gallery 2014". Wikiversity Journal of Medicine 1 (2)).

    Ein Mikrokosmos

    Dennoch trägt Blut auch Leben. Die 50 Milliarden weißen Blutkörperchen – die Leukozyten – sind lebendige, vollwertige Zellen. Sie verteidigen uns gegen Infektionen und bilden eine weitverzweigte Familie, deren Mitglieder unterschiedliche Aufgaben wahrnehmen. Viele von ihnen entweichen sogar dem Blutkreislauf, um auch in den Geweben oder der Lymphe ihres Wächteramtes zu walten. Dennoch sind auch Leukozyten Symbole des Todes: Um bei Gefahren als schnell abrufbare Reserve bereit zu sein, warten unzählige von ihnen untätig im Knochenmark und begehen schließlich dort Selbstmord, ohne je eine Wirkung entfaltet zu haben. Wieder andere weiße Blutzellen töten sich, wenn der Thymus erkennt, dass ihr immunologisches Geschütz sich gegen uns selbst richten könnte.

    So sind die fünf Liter unseres Blutes ein Mikrokosmos, in dem sich Leben und Tod helfend die Hände reichen – und der uns beispielhaft zeigt, wie eine befruchtete Eizelle die über 200 verschiedenen Zelltypen unseres Körpers bilden kann. Alle die lebenden und abgestorbenen Blutkörperchen leiten sich nämlich von einer einzigen Zellart ab, die im Knochenmark mit ihresgleichen winzige Gemeinschaften bildet. Diese blutbildenden «Stammzellen» machen zwar nur ein Zehntausendstel aller Knochenmarkzellen aus, doch eine einzige von ihnen kann einer todgeweihten Maus, deren Knochenmark durch Bestrahlung zerstört wurde, neues Blut und damit das Leben schenken.

    Geheimnisvolles Netz

    Diese wundersamen Stammzellen sichern ihren Fortbestand, indem sie sich in zwei gleiche Tochterzellen teilen. Weit häufiger jedoch bilden sie zwei verschiedene Tochterzellen: eine neue Stammzelle und eine «Progenitorzelle», deren Nachkommen sich dann schnell vermehren und zu Blutzellen reifen. Je «unreifer» eine solche Progenitorzelle ist, desto grösser ist die Vielfalt der Blutzellen, die sie hervorbringen kann. Anfangs umfasst diese Vielfalt fast alle Blutzellen, engt sich dann aber mit zunehmendem Reifungsgrad auf weiße oder rote Blutzellen ein, um sich schließlich auf einen einzigen voll ausgereiften Zelltyp zu beschränken.

    Ein geheimnisvolles Netz von Protein-Botenstoffen entscheidet, ob und wie sich eine Stammzelle teilt und welchen Reifungsweg eine Progenitorzelle einschlägt. Diese Botenstoffe kreisen entweder als Hormone im Blutstrom oder warten an der Oberfläche von Helferzellen. Wenn sie sich an eine Stamm- oder Progenitorzelle binden, schalten sie in ihr bestimmte Gene an oder ab und bestimmen so das weitere Schicksal der Zelle. Die Konzentration dieser Protein-Botenstoffe im Blut ist so verschwindend gering, dass lange Zeit ein dichter Schleier sie verhüllte. Erst die Molekularbiologie vermochte diesen Schleier in jahrelanger mühevoller Arbeit zu lüften, so dass wir heute viele dieser Proteine in reiner Form und ausreichender Menge herstellen können.

    Das Hormon Erythropoetin – kurz EPO genannt – ist das bekannteste unter ihnen. Es fördert die Umwandlung unreifer Blutzellen, die noch keinen roten Blutfarbstoff besitzen, in funktionstüchtige rote Blutkörperchen – und ist deshalb auch als Dopingmittel berüchtigt. Ein anderes, medizinisch eingesetztes Hormon, das Filgrastim (Granulozyten-Kolonie stimulierender Faktor - G-CSF), beschleunigt die Reifung weißer Blutzellen, die uns vor Infektionen schützen. Mit diesen hochwirksamen und äußerst spezifischen Wundermitteln hat die moderne Gentechnik unzähligen Menschen das Leben gerettet.

    So verschieden unsere weißen Blutzellen auch sind – sie haben eines gemeinsam: Sie töten sich selber, wenn ihnen die richtigen Hormone oder der direkte Kontakt mit den richtigen Helferzellen fehlen. Das in ihnen schlummernde Selbstmordprogramm ist fast ebenso fein gewirkt und genau gesteuert wie das, welches das Wachstum der Zelle regelt. Gleiches gilt auch für die (noch) lebendigen Vorstufen der roten Blutkörperchen. Mit zunehmender Reife verengt sich der Aufgabenbereich einer Blutzelle und zwingt ihr meist auch eine streng begrenzte Lebensspanne auf.

    Die Evolution hat vielzellige Lebewesen gelehrt, dass Wachstum die Gefahr von Mutationen heraufbeschwört, die das delikate Zusammenspiel der verschieden Zelltypen bedrohen. In Stammzellen, den Urmüttern aller Blutzellen, wären solche Mutationen besonders fatal, könnten sie doch alle Blutzellen schädigen. Stammzellen teilen sich deshalb nur selten und behalten bei einer asymmetrischen Zellteilung auf noch rätselhafte Weise die Originalstränge des Erbmaterials DNA für sich zurück. So schützen sie sich vor Kopierfehlern, die zu vorzeitigem Altern oder Krebs führen könnten. Die massive Zellvermehrung für den Ersatz abgestorbener Blutzellen überlassen sie den Progenitorzelle, deren begrenztes Leben die langfristigen Schäden von Kopierfehlern verringert.

    Ein gesunder Körper regelt die Reifung der verschiedenen Blutzell-Populationen mit hoher Präzision, doch das Schicksal einer einzelnen Zelle ist weitgehend dem Zufall überlassen. Wenn sich eine unreife Progenitorzelle in zwei gleiche Tochterzellen teilt, wählen diese oft unterschiedliche Reifungswege, auch wenn sie den gleichen Bedingungen ausgesetzt sind. Solche Zufallsereignisse spielen bei der Entwicklung von Lebewesen eine bedeutende Rolle und erlauben es der Natur, die in Genen gespeicherte Erbinformation flexibel zu interpretieren. Bei der Entwicklung großer Zellpopulationen verschleiert das Gesetz der großen Zahl diese individuellen Zufallsschwankungen. Hormone wie Erythropoetin, welche die Reifung von Blutzellen steuern, beeinflussen lediglich die Wahrscheinlichkeit, mit der eine reifende Progenitorzelle den einen oder anderen Reifungsweg wählt. Das Schicksal einer Blutzelle wird somit nicht nur von ihren Genen, sondern auch von ihrer Wechselwirkung mit anderen Zellen sowie vom Zufall bestimmt. Und dieses Schicksal kann, wie uns die unermüdlich arbeitenden leblosen roten Blutzellen zeigen, selbst den Tod überdauern.

    Schicksalsweg

    Auch unsere Hautzellen zeigen dies auf eindrückliche Weise. Die äußerste Schicht unserer Haut – die Epidermis – besteht aus abgestorbenen Zellen, deren Proteinpanzer uns vor Verletzungen und Austrocknung schützt. Auch diese Zellen reifen aus Stammzellen, töten sich zur rechten Zeit, erfüllen dann ihre Aufgabe weit über den Tod hinaus und schuppen schließlich von uns ab, um neuen Zellen Platz zu machen und als Haushaltsstaub zu enden. Wir bewundern die Häutung einer Schlange – doch wir selbst erneuern die Epidermis im Verlauf unseres Lebens mindestens eintausendmal.

    Der Schicksalsweg einer Blutzelle erinnert an den eines Menschen. Auch unser Leben wird vom Wechselspiel zwischen Genen, Umfeld und Zufall geprägt; auch bei uns verringert jeder Reifungsschritt die Vielfalt der noch möglichen Lebenswege; und viele große Menschen haben bewiesen, dass auch bei uns der Tod nicht immer das Ende eines Schicksals ist.


    Weiterführende Links

    Entstehung der roten Blutkörperchen - Der Mensch. Video 1:03 min
    Blut - Saft des Lebens. Artikel und Video :43 min (Planet Wissen) http://www.planet-wissen.de/natur_technik/anatomie_mensch/blut/index.jsp

    White Blood Cell Chases Bacteria. Video 0:28 min

    inge Fri, 23.01.2015 - 08:14

    S-Schichten: einfachste Biomembranen für die einfachsten Organismen

    S-Schichten: einfachste Biomembranen für die einfachsten Organismen

    Fr, 16.01.2015 - 09:11 — Uwe Sleytr, Inge Schuster

    Uwe SleytrIcon BiologieS-Schichten, eine äußere Umhüllung von prokaryotischen Zellen (Archaea und Bakterien), sind jeweils aus einer einzigen Art eines Proteins aufgebaut. Diese, zur Selbstorganisation fähigen, Proteine erzeugen hochgeordnete, kristalline Gitter. Mit derartigen (funktionalisierten) Proteinen lassen sich unterschiedlichste Oberflächen beschichten und damit effiziente Lösungen (nicht nur) für (nano)biotechnologische Anwendungen finden. Der Mikrobiologe Uwe Sleytr - ein Pionier auf diesem Gebiet – liefert seit mehr als 40 Jahren fundamentale Beiträge zu Struktur, Aufbau, Funktion und Anwendung von S-Schichten [1].

    Das Leben auf unserer Erde hat vor (mehr als) 3,5 Milliarden Jahren mit einfachsten Zellen, Vorläufern der heutigen Prokaryoten begonnen. Prokaryoten sind - vereinfacht ausgedrückt - mit Cytoplasma gefüllte Behälter, die keinen Zellkern besitzen. Im Inneren dieser Behälter liegt das Erbmaterial also frei vor, und es existieren im Wesentlichen auch keine anderen membranumhüllten Organellen. Von ihrer Umgebung abgeschirmt werden die Behälter durch eine mehr oder weniger dicke Ummantelung. Diese besteht primär aus der Zellmembran – einer Lipiddoppelschicht, die dem Stoffaustausch und der Kommunikation mit der Umwelt dient. Außerhalb dieser Membran weisen die meisten Prokaryoten unterschiedlich zusammengesetzte Zellwandschichten auf.

    Im Lauf der Evolution hat sich das erfolgreiche Modell der Prokaryoten weiterentwickelt, indem mehrere Module früher Prokaryoten zusammentraten. Aus dieser Symbiose entstanden die sogenannten Eukaryoten, die Basis aller höheren Lebensformen. Die Zellen dieser ein- und mehrzelligen Organismen besitzen durch Membranen abgegrenzte intrazelluläre Strukturen – Kompartimente (Organellen), die – wie angenommen wird - von „eingefangenen“ Bakterien stammen: Mitochondrien, die Kraftwerke der Zellen, leiten sich wahrscheinlich von Purpurbakterien her, die für Photosynthese essentiellen Chloroplasten der Pflanzenzellen von Cyanobakterien.

    Nichtsdestoweniger sind Prokaryoten auch heute noch die dominierenden Lebensformen auf unserem Planeten und machen – Schätzungen zufolge - bis zu 2/3 seiner Biomasse aus. Neben den Bakterien sind dies die Archaea, eine zweite Form von Prokaryoten, die erst in den späten 1970er Jahren als eigene Domäne des Lebens von Carl Woese entdeckt wurden. Diese winzigen, vielfach schwer kultivierbaren Organismen sehen strukturell Bakterien ähnlich, unterscheiden sich von diesen aber grundsätzlich im biochemischen und genetischen Makeup. Es sind vor allem Unterschiede in Zusammensetzung und Architektur von Zellmembran und Zellwand, die es verschiedenen Vertretern der Archaea ermöglichen, auch unter extremsten Bedingungen zu existieren, beispielsweise bei Temperaturen bis zu 120oC, in äußerst alkalischem und saurem Milieu oder bei sehr hohen Salzkonzentrationen.

    Auf der Basis ihrer genetischen Verwandtschaft hat Woese eine systematische Einteilung aller Lebewesen in drei Domänen vorgeschlagen: Bakterien – Archaea und Eukaryoten [2]; dieser „phylogenetische Baum des Lebens“ ist heute allgemein akzeptiert. Abbildung 1.

    Der phylogenetische Baum des LebensAbbildung 1. Der phylogenetische Baum des Lebens. Die systematische Einteilung der Lebensformen in drei Domänen: Bakterien, Archaea und Eukaryoten erfolgt nach Woese (1977) auf Grund der Verwandtschaft ihrer ribosomalen s16-RNA (Bakterium: S. aureus, Archaea: Sulfolobus; Bild modifiziert nach Wikipedia)

    Der überwiegende Teil der Prokaryoten existiert in hochkompetitiven Lebensräumen und bildet äußerst komplexe Mikrobiome. Um sich den jeweiligen Nachbarschaften und den dort vorherrschenden Umwelteinflüssen anzupassen, haben Bakterien und Archaea eine Vielfalt an Strukturen entwickelt, welche als Schutzschicht die Zellen umhüllen.

    S-Schichten – ein einzigartiges selbstassemblierendes System

    Zu den am häufigsten angetroffenen Ummantelungen prokaryotischer Zellen gehören die sogenannten S-Schichten (englisch: surface-layers – Oberflächenschichten). Derartige S-Schichten wurden erstmals vor rund sechzig Jahren an einem Bakterium entdeckt und seitdem in nahezu allen Archaea und in hunderten Arten von Bakterien nachgewiesen.

    S-Schichten sind keine Lipidmembranen. Es sind vielmehr die einfachsten Protein-Membranen, vielleicht überhaupt die ältesten Membranen, die der Evolutionsprozess hervorgebracht und optimiert hat: S-Schichten sind jeweils nur aus einer einzigen Art eines Proteins oder Glykoproteins aufgebaut (sie sind also monomolekular). Diese Proteine besitzen die Fähigkeit zur Selbstorganisation: die einzelnen identen Bausteine assoziieren sich an der Oberfläche der Zelle zu einer kristallinen, hoch-geordneten gitterförmigen Struktur (siehe: nächster Abschnitt).

    Für die Anlagerung der S-Schicht stehen bei Archaeen und Bakterien unterschiedliche Oberflächen zur Verfügung (Abbildung 2):

    Wie S-Schichten auf der Oberfläche von Prokaryoten sitzenAbbildung 2. Wie S-Schichten auf der Oberfläche von Prokaryoten sitzen. Anlagerung der S-Schichtenproteine (gelb): in Archaea direkt an die Zellmembran, in Gram positiven Bakterien an die vorwiegend aus Peptidoglycan bestehende Zellwand (türkis), in Gram-negativen Bakterien an die Lipopolysaccharidkomponente der äußeren Membran (Doppelschicht, lila). Wechselwirkungen von S-Schichtproteinen finden mit den Komponenten der jeweiligen Oberfläche statt. (Die Zellen sind grob vereinfacht dargestellt mit: Lipiddoppelschicht der Zellmembran (blau), DNA (rot) und Ribosomen (schwarze Punkte). Glykanreste: bei Archaea nicht gekennzeichnet, bei Bakterien: schwarzer Faden.)

    Die meisten Archaea besitzen keine starre Zellwand; die S-Schicht liegt hier direkt auf der Zellmembran, wobei die an Pilze erinnernden Formen der Proteine mit ihren „Stielen“ in die Membran eindringen können.

    Im Gegensatz dazu haben Bakterien eine feste Zellwand, die vorwiegend aus Peptidoglycan (auch Murein genanntes Polymer aus Zuckern und Aminosäuren) besteht und an die Zellmembran angrenzt. Diese, bei Gram-positiven Bakterien sehr dicke Zellwand verleiht den Zellen Form und Festigkeit und die Fähigkeit dem Innendruck (Turgor) des Cytoplasmas standzuhalten. In Gram-negativen Bakterien ist die Peptidoglycan-Schicht wesentlich dünner, dafür gibt es hier eine zusätzliche äußere Membran. Dies ist eine unsymmetrisch zusammengesetzte Doppelschicht, deren innere Schicht aus Phospholipiden, die äußere Schicht aus Lipopolysacchariden besteht.

    S-Schicht Proteine assoziieren an die jeweiligen äußersten Hüllen und interagieren spezifisch mit deren Komponenten.

    Wie sehen S-Schichten aus?

    Mit einem Volumen, das nur etwa 1/1000 des Volumens eukaryotischer Zellen beträgt, konnten morphologische Untersuchungen von Prokaryoten erst in Angriff genommen werden, als mikroskopische Methoden es erlaubten in den Nanometer-Bereich vorzustoßen (1 nm = 1 Milliardstel Meter).

    Diese Verfahren – vor allem Elektronenmikroskopie, Rasterkraftmikroskopie - zeigen S-Schichten als kristalline regelmäßige Proteingitter. Die identen Bausteine der S-Schichten können sich dabei in verschiedenen Anordnungen zu einem 2D-Gitter organisieren: schräg (p1, p2), quadratisch (p4) oder hexagonal (p3, p6). Die entsprechenden Distanzen der Grundeinheiten von Zentrum zu Zentrum (Gitterkonstanten) liegen zwischen 3 und 35 nm. Abbildung 3.

    Durch die regelmäßige Anordnung der Proteine entstehen gleich große Poren mit einem Durchmesser zwischen 2 und 8 nm, die bis zu 70 % der Oberfläche einnehmen können. Diese porösen Oberflächen können u.a. als Molekularsiebe fungieren, den Eintritt und Austritt großer Moleküle – beispielsweise von Enzymen – kontrollieren (der Durchmesser eines mittelgroßen Proteins mit einem Molekulargewicht 50 kDa beträgt rund 5 nm) und auch vor zellschädigenden Komponenten schützen.

    S-Schichten bilden eine stets völlig geschlossene Ummantelung der Zellen. Um dies zu gewährleisten, müssen die Proteinbausteine während des schnellen Wachstums und der Zellteilung im Innern der Zellen permanent synthetisiert, an die Oberfläche transportiert und umgeordnet werden.

    Aufbau von S-SchichtenAbbildung 3. Aufbau von S-Schichten Links: die elektronenmikroskopische Aufnahme einer S-Schicht tragenden Bakterienzelle zeigt ein regelmäßiges Proteingitter. Rechts: schematische Darstellung der unterschiedlichen Gitter-Typen - die Grundeinheiten setzen sich aus 1, 2, 3, 4 oder 6 identen Bausteinen (rot eingezeichnet) zusammen.

    Wie dick die S-Schichten sind, hängt von Gestalt und Größe der Proteinbausteine (Molekulargewicht ca. 30 – 200 kDa) ab: bei Bakterien sind dies zwischen 5 und 10 nm, die pilzartigen Strukturen bei Archaea können bis zu 70 nm dick werden.

    Da rund 10 % des Gesamtproteins von Prokaryoten in den Aufbau der S-Schichten involviert sind und auf Grund der ungeheuren Biomasse an Prokaryoten, gehören somit S-Schichtenproteine zu den am häufigsten vorkommenden Biopolymeren unserer Erde.

    Warum sind S-Schichten für uns interessant?

    Zu S-Schichten wurden bis jetzt mehr als 2 500 wissenschaftliche Artikel veröffentlicht (die Hälfte davon - laut PubMed - in „peer-reviewed journals“), die Tendenz ist steigend. Neben Fragen zu Biosynthese und Regulation der S-Schichtenproteine werden vor allem solche zu den funktionellen Aspekten der S-Schichten bearbeitet. Bereits 1986 wurde eine, der von der Natur vorgegebenen Funktionen als erste biotechnische Anwendung realisiert: es war dies eine Ultrafiltrationsmembran mit einheitlicher Porengröße.

    Über den Gebrauch als Molekularsieb hinaus ist auch die Rolle von S-Schichten in der Oberflächenerkennung und Adhäsion und als - bei einigen pathogenen Bakterien vorkommender - Virulenzfaktor von hohem Interesse.

    Besonders vielversprechend sind Untersuchungen über die Wechselwirkungen, die S-Proteine untereinander und mit anderen Zellwand-/Membrankomponenten ausüben:

    S-Schichtenproteine sind ein herausragendes Modell zur Untersuchung der Selbstorganisation von Molekülen. Die identen Bausteine bilden Proteingitter nicht nur auf den Oberflächen von Prokaryoten aus. Wenn man mit biochemischen Methoden isolierte und gereinigte oder auch rekombinant hergestellte S-Schichtenproteine verwendet, so lagern sich diese auf unterschiedlichsten festen Trägern, auf Liposomen, Nanopartikeln, etc., ebenso wie in wässriger Lösung und an deren Grenzfläche zur Luft zusammen. So lassen sich verschiedenartigste Oberflächen mit einer repetitiven kristallinen Proteinschicht überziehen, die überdies an ihrer Außenseite chemisch oder gentechnisch gezielt modifiziert werden kann. Abbildung 4.

    Nanobiotechnologische Anwendungen mit S-Schicht-Fusionsproteinen ermöglichen eine hochgeordnete Oberfläche mit den gewünschten FunktionenAbbildung 4 Nanobiotechnologische Anwendungen mit S-Schicht-Fusionsproteinen ermöglichen eine hochgeordnete Oberfläche mit den gewünschten Funktionen.

    Wie mit Lego-Bausteinen lassen sich in kontrollierter Weise Oberflächen beschichten, die dann erwünschte Funktionen in streng definierter Orientierung und Position aufweisen. Ein wichtiges Faktum: jeder einzelne Baustein ist einfach und sehr kostengünstig herzustellen und enthält bereits die gesamte Information.

    Die Grundlagenforschung zur Selbstorganisation der Bausteine schafft damit die Basis für eine Fülle (nano)biotechnischer, biomedizinischer und biomimetischer Anwendungen.

    Deren Spektrum reicht von der Entwicklung spezifischer Enkapsulierungen, die ihren Inhalt – beispielsweise pharmakologisch wirksame Stoffe - zu definierten Zielen im Organismus bringen mit entsprechenden Anwendungen auch in Immuno- und Gentherapie, über die Impfstoffentwicklung, die Immobilisierung von funktionellen Makromolekülen und die Schaffung von katalytisch aktiven Oberflächen bis hin zu mikroelektronischen Sensoren.

    Das von der Natur über Jahrmilliarden optimierte molekulare Baukastensystem lässt uns so effiziente und elegante Lösungen für technische Anwendungen von heute finden.


    Uwe B Sleytr - homepage: https://forschung.boku.ac.at/fis/suchen.person_uebersicht?sprache_in=en&...
    [1] U.B. Sleytr et al, (2014) S-layers: principles and applications. FEMS Microbiol Rev 38:823-864
    [2] C.R.Woese et al., (1990) Towards a natural system of organisms: Proposal for the domains Archaea, Bacteria, and Eucarya Proc. Natl. Acad. Sci. USA 87: 4576-4579 http://www.pnas.org/content/87/12/4576.long


    Weiterführende Links

    Archaeen - Allrounder der Evolution – Audio 23:01 min (radioWissen - Bayern 2; deutsch)

    Archaea Video 7;15 min (englisch)

    inge Fri, 16.01.2015 - 09:11

    Neue Wege für neue Ideen – die „Innovative Medicines Initiative“(IMI)

    Neue Wege für neue Ideen – die „Innovative Medicines Initiative“(IMI)

    Fr, 09.01.2015 - 08:14 — Christian R. Noe

    Christian R. NoeIcon MedizinDie 2008 als gemeinsame Unternehmung der Europäischen Kommission mit der forschenden Pharmaindustrie (EFPIA) gegründete Innovative Medicines Initiative (IMI) soll in einer bisher nie dagewesenen Kooperation von akademischer Forschung, Kliniken, Zulassungsbehörden, Patientenorganisationen und Pharmaindustrie zur schnelleren und effizienteren Entwicklung neuer Therapien führen. Der Chemiker und Pharmazeut Christian Noe ist hatte während der ersten Phase von IMI den Vorsitz in deren Scientific Committee inne, welches für die Erstellung der Strategic Agenda entscheidend ist.

    Gute Ideen sind zu allermeist Schöpfungen kreativer Menschen. Wenn diese ihr Konzept zur Umsetzung in bestehende Strukturen einbringen, dann sind diese in der Regel mit einem anderen Menschentyp konfrontiert, im besten Fall mit verantwortungsvollen Administratoren, im schlimmsten Fall mit Pfründnern. Es liegt nahe: Je älter und verkrusteter eine Struktur ist, desto mehr haben ihre „Hausmeister“ das Sagen. Strukturellen Fragen wird dann vorrangige Bedeutung zugemessen.

    Eine neue Idee kann sogar „störend“ sein.

    Von der industriellen Revolution…

    Als in der ersten Hälfte des 19. Jahrhunderts die fundamentalen Neuerungen der ersten industriellen Revolution aufkamen, war das herrschende politische System völlig überfordert. Es trat jener Rückzug der Menschen ins Private ein, welchen wir als „Biedermeier“ bezeichnen. – Wien ist als Stadt des Biedermeier bekannt. Polizeigewalt und Spitzelwesen waren die Begleitmusik und nicht die Ursache dieser gesellschaftspolitischen Schockstarre.

    Das wahre Problem lag letztlich in der Unfähigkeit der Politik, die Neuerungen der industriellen Revolution in die Gesellschaft zu integrieren.

    …zur Data Revolution

    Heute, 200 Jahre später, leben wir wiederum in einer solchen Zeit. Wir stehen inmitten der Umsetzung einer neuen industriellen Revolution, der „data revolution“. Die neue Technologie ist die Informationstechnologie. Die Maschinen, welche alles umsetzen, sind die Computer.

    Die Akteure im politischen System sind wiederum überfordert. Es herrscht die „neo-biedermeierliche Schockstarre“.

    Neo-biedermeierliche Schockstarre auch hinsichtlich Wissenschaft und Forschung?Abbildung 1. Neo-biedermeierliche Schockstarre auch hinsichtlich Wissenschaft und Forschung? (Titel des kolorierten Kupferstichs: „Der Magister von Krähwinkel legt sich auf Sprachen und Bücher“. Johann Nusbiegel um 1830)

    Die Analogie zum 19. Jahrhundert ist frappant: Wenn man so will, kann man exemplarisch „NSA“ (National Security Agency – Auslandsgeheimdienst der USA) als Begriff für das neue Spitzelwesen heranziehen. Die herrschaftliche Macht kommt heute kaum mehr durch einen sichtbaren Polizeiapparat zum Ausdruck, sondern wird durch eine Vielzahl elektronisch aufbereiteter Vorschriften und Aufforderungen ersetzt.

    Wenn man die in den nächsten Jahrzehnten anstehende Zusammenführung von Robotics und artifizieller Intelligenz bedenkt, dann muss man tatsächlich Sorge um die Zukunft der nächsten Generation haben.

    Konservative Erstarrung auch an den Universitäten

    Es steht außer Zweifel, dass die Universitäten mehr als alle anderen Institutionen durch die neuen Technologien herausgefordert sind. In ihrer Rolle als „Tempel des Wissens“ haben sie ausgedient. Wikipedia „weiß“ mehr als alle Professoren. Da es bei den Veränderungen unmittelbar um „Wissen“ geht, ist es nicht ohne weiteres verständlich, warum die meisten Universitäten ihre Konzepte bisher so zögerlich an die neue Zeit angepasst haben.

    Die „Europäische Universität“ ist eine wohl bewährte, aber zugleich eine sehr alte Struktur. Über die Zeit hat ihre Evolution auch einen Wissenschaftlertypus hervorgebracht und gefördert, dessen Augenmerk sich eher an der Erhaltung und Sicherung der universitären Struktur orientiert, als an neuen wissenschaftlichen Inhalten. Kreative Schritte, um die Herausforderungen der neuen Zeit in neue Möglichkeiten und Chancen umzumünzen, sind solchen Menschen verschlossen. Man plagt sich bei jeder Reform.

    Etwas provokativ ließe sich sagen: „Nichts ist so konservativ wie ein universitäres Curriculum!“

    Wege aus der konservativen Erstarrung

    Was kann man da tun, um konservative Erstarrung zu überwinden und neuartige wissenschaftliche Konzepte und Ideen zu implementieren? Es gibt zwei Wege:

    • Beim ersten Weg gilt es, ohne Zögern ein sich öffnendes „window of opportunity“ zu nützen, wenn eine etablierte Struktur reformiert oder sonst verändert wird. Als zum Beispiel vor etwa 20 Jahren der Fachbereich Pharmazie in das neu gegründete Biozentrum der Universität Frankfurt eingegliedert wurde, haben wir Professoren nicht gezögert und die „molekularbiologische Herausforderung“ als Gelegenheit genutzt, um die „Biologisierung“ der universitären Pharmazie in Forschung und Lehre voranzutreiben. Der positive Effekt unserer Pionierarbeit hat weit über Frankfurt hinaus gewirkt.
    • Der andere, aufwendigere Weg besteht darin, zur Umsetzung einer neuen Idee eine neue Struktur zu schaffen. So sind die Ziele besser und aktiver planbar. Vor mehr als 10 Jahren entwickelten Europäische Pharmazieprofessoren, Mitglieder der European Federation of Pharmaceutical Sciences (EUFEPS), die Idee einer organisierten Zusammenarbeit universitärer und industrieller Forscher, um die Pharmaforschung insgesamt und allem voran den Standort Europa in Schwung zu bringen. Daraus wurde:

    Die Innovative Medicines Initiative (IMI)

    Im Jahre 2008 wurde die Innovative Medicines Initiative [1] als gemeinsame Unternehmung der Europäischen Kommission mit der forschenden Pharmaindustrie (EFPIA) gegründet. Es sollte eine Zusammenarbeit von akademischer Forschung, Kliniken, Zulassungsbehörden, Patientenorganisationen und Pharmaindustrie werden. Die Etablierung von IMI stellte in mehrerlei Hinsicht „Premieren“ dar, nämlich als:

    • eine öffentlich-private Partnerschaft („public private partnership“, PPP),
    • ein auf Innovation ausgerichtetes Förderinstrument der EU,
    • eine Plattform zur Zusammenarbeit akademischer und industrieller Forscher in großen Konsortien und zugleich
    • ein Instrument zur „präkompetitiven“ Forschungszusammenarbeit großer Firmen.

    Nicht zuletzt sollte erwähnt werden, dass eine Dotierung von 2 Milliarden Euro IMI bereits in seiner ersten Phase (IMI 1) zum weltweit größten Förderinstrument auf dem Gebiet der Life Sciences machte. Guten Ideen wurde ein breiter Raum gegeben. Die Themen wurden in der strategischen Agenda festgeschrieben. Es war ein Privileg, da mittun zu dürfen.

    Die richtige Behandlung für den richtigen Patienten zur richtigen Zeit

    Ganz wesentlich war aus meiner Sicht jene Wende in der strategischen Ausrichtung, welche sich vor etwa fünf Jahren - zur Mitte der ersten Förderperiode von IMI - in der Pharmaforschung im Allgemeinen und bei IMI im Speziellen ereignete. „Der Patient steht im Mittelpunkt der Forschung“ sollte ab nun nicht mehr nur ein Schlagwort sein, in der Forschung sollte es nicht mehr nur um großartige Versprechungen gehen, welche irgendwann einmal in ferner Zukunft zum Erfolg führen sollen, sondern vor allem um Hilfe für Menschen: „hic et nunc“.

    Dies bedeutet die Förderung von Programmen auf verschiedensten Ebenen:

    • Nicht nur „Forschung und Entwicklung neuer Medikamente“ sind nunmehr die vorrangigen Aufgabenfelder der pharmazeutischen Wissenschaften, sondern in gleicher Weise auch „Produktion“ und schließlich die „Nutzbarmachung der Arzneimittel“. In dieser letzten Phase erreicht ja letztlich das Medikament den Patienten, zumeist in der Apotheke oder im Krankenhaus.
    • Förderung wissenschaftlicher Fragestellungen zum Gesundheitssystem - insgesamt betrachtet - und im Speziellen zum Apothekenwesen.

    Das IMI PharmaTrain ProjektAbbildung 2. Das IMI PharmaTrain Projekt: Implementierung von Postgraduiertenkursen (u.a. Diplom-, Masterkurse) mit hohen Qualitätsstandards und internationaler Anerkennung. Details: www.pharmatrain.eu

    • Einbeziehung neuer Forschungsgebiete, die rasant heranwachsen: hier wären etwa die „Pharmakovigilanz“ (d.i. die systematische Überwachung der Sicherheit eines Medikaments) zu nennen oder die „Effektivität“ als jener Bereich der Pharmakoökonomie, bei welchem die fundamentale Rolle der Finanzierung des Gesundheitssystems bei der Gestaltung von Forschungs- und Entwicklungsprojekten thematisiert wird. IMI hat Projekte zu solchen Themen formuliert, großzügig finanziert und implementiert.
    • Auch ein umfassendes elektronisches Lehrprogramm der pharmazeutischen Wissenschaften wurde im Rahmen von IMI erarbeitet. Wieweit die neue Ausrichtung die Universitäten beeinflussen wird, ist abzuwarten.

    Was wurde erreicht, wie geht es weiter?

    In der ersten Phase (IMI 1) bis Ende 2013 hat sich IMI zur weltgrößten öffentlich-privaten Partnerschaft entwickelt: es entstand eine Zusammenarbeit, an der sich quer durch Europa rund 600 Teams akademischer Forscher, 350 Teams industrieller Forscher und mehr als 100 kleine und mittlere Betriebe (SME‘s) beteiligten, Patientenorganisationen und Zulassungsbehörden miteinbezogen wurden. Wissenschaftliche Durchbrüche wurden in unterschiedlichsten Gebieten erzielt, u.a. in Diabetes, Autismus, Lungenerkrankungen und Arzneimittelsicherheit.

    Für die Periode 2014 – 2024 (IMI 2) wurde für IMI ein Budget von 3,3 Milliarden € bewilligt. Die Hälfte der finanziellen Mittel kommt aus dem EU-Rahmenprogramm für Forschung und Innovation „Horizont 2020“. Die andere Hälfte kommt zum größten Teil von den beteiligten Pharmafirmen, die Forschungseinrichtungen und Ressourcen (auch personelle) bereitstellen, selbst aber keinerlei Unterstützung durch die EU erhalten.

    Zur Zeit verzeichnet IMI 46 laufende Projekte, und mehr Projekte sind in Vorbereitung. Es geht nicht nur um die Entwicklung neuer Medikamente, sondern auch darum geeignete Methoden zu erarbeiten, die den Zugang der Patienten zu neuen Medikamenten beschleunigen, und - wie oben bereits erwähnt - die richtige Behandlung für den richtigen Patienten zur richtigen Zeit ermöglichen. In Hinblick auf die Entwicklung neuer Medikamente folgen die Ausschreibungen von IMI der von der Weltgesundheitsorganisation (WHO) erstellten Prioritätenliste [2], darunter u.a. antimikrobielle Resistenzen, Osteoarthritis, Kardiovaskuläre Erkrankungen, Diabetes, neurodegenerative Erkrankungen und Cancer.

    Auf die jüngste Ebola-Epidemie wurde bereits mit der Ausschreibung eines Ebola+ Programms reagiert, für das ein Budget von 280 Millionen € (IMI + EFPIA) vorgesehen ist und dessen Deadline vor einem Monat zu Ende ging.

    Durch die strategische Kooperation der größten Pharmafirmen hat IMI erfreulicher Weise mittlerweile eine globale Dimension und Bedeutung erlangt. Allerdings bedarf es zusätzlicher Bemühungen um Europa selbst als Pharmastandort zu revitalisieren. Abgesehen von lokalen und nationalen Aktivitäten könnten es vor allem regionale Europäische Pharmainitiativen sein, welche als Treffpunkte von kreativen Forschern in neuem „setting“ zu passenden Initiativen, neuen Netzwerken und schlagkräftigen Konsortien führen.

    Was mir hier als Vision vorschwebt?

    Könnte ein derartiger regionaler Treffpunkt nicht in einer „Danube Medicines Initiative“ verwirklicht werden? Immerhin leben mehr als 100 Millionen Menschen in der Region, die von Baden-Württemberg bis ans Schwarze Meer reicht.


    [1] Innovative Medicines Initiative

    [2] WHO (2013) Priority Medicines for Europe and the World

    [3] Angela Wittelsberger: The IMI2 Ebola+ programme (PDF-Download)


    Der Artikel ist die gekürzte Version einer Rede, die der Autor anlässlich der Verleihung des Phoenix Pharmazie Wissenschaftspreises am 6. November 2014 in Wien gehalten hat.


    Weiterführende Links

    What Is The Innovative Medicines Initiative? Video 2:04 min. Horizon 2020 - General overview , Video 3:06 min EFPIA - European Federation of Pharmaceutical Industries and Associations

    Einige IMI-Projekte

    (hauptsächlich in Englisch, teilweise etwas an Vorkenntnissen erforderlich)

    EU-AIMS: Neue Erkenntnisse über die Ursachen von Autismus - science euronews (2013) Video 4:18 min COMBACTE: Tackling Antimicrobial Resistance in Europe. Fast Facts, Video 9:14 min (2014) Details zu COMBACTE Eu2P: European training programme in pharmacovigilance and pharmacoepidemiology Video 2:52 (2010) min, EUROPAIN: Understanding chronic pain and improving its treatment. imichannel Video 15:345 min PHARMACOG - Alzheimer's disease imichannel Video 13:58 IMI Education and Training programmes (full version) Video 6:01 min


     

    inge Fri, 09.01.2015 - 08:14

    Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

    Eurobarometer: Österreich gegenüber Wissenschaft*, Forschung und Innovation ignorant und misstrauisch

    Fr, 02.01.2015 - 08:49 — Inge Schuster

    Inge SchusterIcon Politik & GesellschaftVor wenigen Wochen ist das Ergebnis einer neuen, von der Europäischen Kommission beauftragten Umfrage zur „öffentlichen Wahrnehmung von Naturwissenschaften, Forschung und Innovation“ erschienen (Special Eurobarometer 419 [1,2]). Speziell ging es darum herauszufinden, welche Auswirkungen die EU-Bürger von diesen Gebieten auf wesentliche Themen des Lebens und der Gesellschaft für die nahe Zukunft erwarteten. Österreicher sahen wesentlich weniger positive Auswirkungen als die Bürger der meisten anderen EU-Staaten. Wie auch in früheren Umfragen, ist Österreichs Einstellung zu Naturwissenschaften in hohem Maße von Ignoranz und – darauf basierend – Misstrauen und Ablehnung geprägt.

    “Von jeher hat die Europäische Kommission Wissenschaft und Innovation als prioritäre Schlüsselstrategien betrachtet, die Lösungen für die wichtigsten, jeden Europäer betreffenden Fragen liefern können: es sind dies Fragen der Gesundheit, der Beschäftigung und damit Fragen der gesamten Gesellschaft und der Wirtschaft. …Die Zukunft Europas ist die Wissenschaft!“ (Jose M. Barroso, 6. Oktober 2014)

    Bereits zwei ScienceBlog Artikel waren EU-weiten Umfragen gewidmet, welche die Einstellung der Bürger zu Wissenschaft und Technologie zum Thema hatten [3, 4]. Diese Umfragen gaben ein für Österreich beschämendes Bild wider: die Mehrheit unserer Landsleute hatte angegeben, nichts über Wissenschaft und Technologie auf dem Bildungsweg gehört zu haben und an diesen Wissenszweigen auch weder interessiert, noch darüber informiert zu sein. Die Frage, ob Kenntnisse über Wissenschaft und Forschung für das tägliche Leben von Bedeutung wären, verneinte der Großteil - 57 % - der Österreicher (im EU-27-Mittel waren es 33 %) – unser Land nahm damit den letzten Rang unter den EU-Staaten ein.

    Im Lichte der bereits bekannten Einstellung der Österreicher zu Wissenschaft und Technologie ist das im Oktober im „Special Eurobarometer 419“ veröffentlichte Ergebnis der neuen EU-Umfrage zwar nicht verwunderlich, dennoch aber im höchsten Maße bestürzend.

    Die Umfrage „Special Eurobarometer 419“

    Im Juni 2014 waren unter dem Titel „Öffentliche Wahrnehmung von Wissenschaft, Forschung und Innovation” rund 28 000 Personen in den 28 EU-Staaten befragt worden, welche Auswirkungen ihrer Meinung nach Wissenschaft und Technologie auf wesentliche Aspekte des Lebens in den kommenden 15 Jahren haben werden.

    Es waren dies persönliche (face to face) Interviews, in denen in jedem Mitgliedsstaat jeweils rund 1000 Personen aus verschiedenen sozialen und demographischen Gruppen in ihrem Heim und in ihrer Muttersprache befragt wurden:

    1. Einleitend wurde der jeweilige persönliche Bildungsstatus in den Naturwissenschaften festgestellt.
    2. Dann wurde eine Liste von wesentlichen, jeden Europäer betreffenden Themen vorgelegt und gebeten diese nach Prioritäten zu reihen, nach welchen Wissenschaft und Technologie in den nächsten 15 Jahren zum Einsatz kommen sollten (incl. Bereitstellung ausreichender Ressourcen). Diese Liste nannte (in der Reihenfolge des Berichts aufgezählt) folgende Themen:
      • Den Kampf gegen den Klimawandel
      • Den Schutz der Umwelt
      • Die Sicherheit der Bürger
      • Die Schaffung von Arbeitsplätzen
      • Die Energieversorgung
      • Die Gesundheit(ssysteme)
      • Den Schutz persönlicher Daten
      • Die Verringerung der sozialen Ungleichheit
      • Die Anpassung an eine alternde Bevölkerung
      • Die Verfügbarkeit und Qualität von Lebensmitteln
      • Die Transportinfrastruktur
      • Die Bildung und den Erwerb von Fähigkeiten
      • Die Qualität des Wohnens
    3. Sodann folgte das eigentliche Kernstück der Umfrage: eine detaillierte Erhebung zu den voraussichtlichen Auswirkungen von Wissenschaft und technologischen Innovationen auf die angeführten 13 Problemkreise. Im Vergleich dazu sollten die jeweiligen Auswirkungen menschlichen Handelns abgeschätzt werden.

    Frage 1: Der naturwissenschaftliche Bildungsstatus

    Während in 20 EU-Ländern die (überwiegende) Mehrheit der Befragten angab Wissenschaft und Technologie als Schulfächer und/oder als Studienfächer auf (Fach)Hochschulen gehabt zu haben und/oder darin anderswo Erfahrung gesammelt zu haben, waren dies in Österreich nur 35 % (im EU-28 Mittel dagegen 56 %). Österreich liegt damit am unteren Ende der Skala, nur Slowenien, Tschechien und die Slowakei weisen einen noch niedrigeren Bildungsstatus auf.

    Wie niedrig Österreichs naturwissenschaftlich/technologischer Bildungsstatus im Vergleich mit dem EU-28 Durchschnitt und Ländern wie Schweden ausfällt, ist in Abbildung 1 dargestellt. Schweden erscheint als passendes Beispiel, weil es mit 41 188 $ BIP/Einwohner ein ähnliches BIP wie Österreich - 42 597 $ BIP/Einwohner - auf weist (beide Zahlen sind kaufkraftbereinigte Schätzungen des IWF, Stand 04.2014 [5]) und - auf den gesamten Bildungsweg (Primär- bis Tertiärausbildung) bezogen - jährlich auch ähnliche Summen pro Auszubildenden ausgibt (AT: 11 395 €, SE: 11 000 €: Zahlen OECD 2014 [6]).

    Angesichts des eklatant niedrigen naturwissenschaftlichen Bildungsstatus der Österreicher erscheint die Frage nur zu berechtigt:

    Wofür werden die hohen Bildungsausgaben bei uns eigentlich verwendet?

    Abbildung 1. Antworten auf die Frage: Haben Sie Erfahrungen zu Wissenschaft und Technologie an der Schule, (Fach)Hochschulen oder anderswo gesammelt? (Mehrfachnennungen waren möglich; Daten: Tabelle QB4 [1].)

    Frage 2: Wo sollen Wissenschaft und Technologie in den nächsten 15 Jahren prioritär eigesetzt werden?

    Im Bewusstsein, dass Forschung und Innovation unabdingbar sind, um viele Probleme unserer Gesellschaft zu lösen, hat die EU das Programm „Horizon 2020“ ins Leben gerufen und mit 80 Milliarden € dotiert. Um herauszufinden welche Themen den EU-Bürgern besonders wichtig erscheinen und damit vorrangig den Einsatz von Wissenschaft und Technologie (und entsprechenden Ressourcen) rechtfertigen, wurde gebeten primär die oben genannten 13 Themenkreise nach Prioritäten zu ordnen.

    Hier herrschte weitgehende Einigkeit unter den EU-Staaten: gleichviele Staaten – darunter auch Österreich - nannten Gesundheit/Gesundheitssysteme und Schaffung von Arbeitsplätzen als oberste Prioritäten, die niedrigsten Prioritäten wurden für den Schutz persönlicher Daten, Transport(infrastruktur) und die Qualität des Wohnens genannt.

    Frage 3: Welche Auswirkungen werden Wissenschaft, Forschung und Innovation in den nächsten 15 Jahren voraussichtlich haben?

    Der Großteil der europäischen Bevölkerung (im EU-28 Durchschnitt mindestens 50 % der Bevölkerung) zeigte sich davon überzeugt, dass Wissenschaft und technologische Innovationen positive Auswirkungen auf Themen wie Gesundheit/Gesundheitssyteme, Bildung/Erwerbung von Fähigkeiten, Transport(infrastruktur), Energieversorgung, Umweltschutz, Kampf gegen den Klimawandel und die Qualität des Wohnens haben werden (Abbildung 2). Auch bei den anderen Themen dominierten die Befürworter über die Kritiker, die negative Einflüsse befürchteten (nicht gezeigt). Wurden die voraussichtlichen Auswirkungen von menschlichem Handeln mit den von Forschung und Innovation erwarteten verglichen, so gab die Mehrheit bei nahezu allen Themen der Wissenschaft den Vorzug (Ausnahme „Verringerung der Ungleichheit“).

    Besonders großes Vertrauen in die Wissenschaft setzten die skandinavischen Länder. Als Beispiel ist wieder (wie auch schon beim Bildungsstatus) Schweden gezeigt – hier werden kaum negative Effekte der Wissenschaft erwartet.

    Ganz anders sieht die Situation in Österreich aus. Nur in 2 Gebieten – Gesundheit und Energieversorgung – erwartet die Mehrheit unserer Landsleute Verbesserungen durch die Wissenschaft. Aber auch hier, wie in allen anderen Fragestellungen, liegen die positiven Erwartungen unter denen des EU-28 Durchschnitts; bei 10 der 13 Themen nimmt unser Land überhaupt nur den vorletzten oder letzten Rang unter den EU-Staaten ein (in Italien ist dies bei 8 von 13 Themen, in Deutschland bei 5 von 13 Themen der Fall).

    Abbildung2. Werden Wissenschaft, Forschung und technologische Innovation positive Auswirkungen auf wesentliche Themen des Lebens und der Gesellschaft haben? Österreich im Vergleich mit dem EU-28 Durchschnitt und Schweden. Die Themen sind in der Reihenfolge angegeben, wie sie in [1] aufscheinen. Am linken Rand: Österreichs Rang unter den 28 EU-Ländern im ranking der positiven Bewertungen.

    Zwei Einstellungen, die ich persönlich als höchst beunruhigend für die weitere Entwicklung unseres Landes sehe, sind in Abbildung 3 dargestellt:

    Abbildung 3. Antworten auf die Fragen: Welche Auswirkungen werden Wissenschaft und technologische Innovation haben auf die A) Schaffung neuer Arbeitsplätze (oben), B) Anpassung der Gesellschaft an eine alternde Bevölkerung (unten).
    • Nur rund 1/3 unserer Landsleute meint, dass Forschung und Innovationen neue Arbeitsplätze schaffen können, 30 % sehen keinen Effekt und rund ¼ ist sogar vom Gegenteil überzeugt (Abbildung 3a).
    • Ein noch geringerer Anteil (29 %) der Bevölkerung denkt, dass Wissenschaft die Anpassung an die alternde Gesellschaft unterstützen kann, mehr als doppelt so viele sehen keinen Nutzen oder sogar einen Schaden durch die Wissenschaft (Abbildung 3b).

    Ein Cocktail von Ignoranz - und darauf basierend - Misstrauen und Ablehnung

    Wie auch schon in früheren EU-weiten Umfragen hinsichtlich der Einstellung zu Wissenschaft und Technologie, zeigt sich Österreich auch in der aktuellen Studie von einer sehr negativen Seite. Unser Land ist Schlusslicht, wenn es darum geht positive Auswirkungen von naturwissenschaftlichen und technischen Fortschritten auf die wesentlichsten Fragen des täglichen Lebens und der Gesellschaft wahrzunehmen und für die Zukunft nutzen zu wollen.

    Ist Österreich Haltung hier bloß kritischer als die anderer EU-Länder, die einfach nur „wissenschaftsgläubiger“ sind?

    Allerdings, um in seriöser Weise Kritik üben zu können, bedarf es zumindest eines Minimums an naturwissenschaftlicher Bildung. In unserem Land geben 2/3 der Bevölkerung an, dass ihnen diese Grundvoraussetzung fehlt. Welche Einstellung zu den Naturwissenschaften kann aber resultieren, wenn unsere Landsleute diesbezügliche Informationen von den Medien des Landes beziehen? Wenn dort Naturwissenschaften nur dann in den Topmeldungen Platz finden, wenn sie – mehr oder weniger berechtigt – in Verbindung zu möglichst negativen Folgen gebracht werden können. Wenn, wie beispielsweise in jüngster Zeit, aus temporär relativ schwach erhöhten Konzentrationen des ubiquitären Umweltgifts Hexachlorbenzol die Angst der Bevölkerung in unvertretbarem Ausmaß geschürt wird. Wenn dann mangels ausreichenden Verständnisses des Problems (und wahrscheinlich auch ohne entsprechende Recherche), ohne Rücksicht auf die Folgen, die Existenz der Bewohner eines großen Einzugsbereichs gefährdet wird? Wenn einzelne Organisationen ihre Popularität durch derartige Panikmache – Hurra, ein neuer Skandal - erfolgreich erhöhen können?

    Die Ergebnisse der aktuellen Eurobarometer Studie zeigen ein erschütterndes Bild für Österreich: puncto Wissenschaft ist unser Land abgesandelt. Ignoranz herrscht vor: auf dieser Grundlage wird dem Unverstandenen mit Misstrauen begegnet, das Unbekannte abgelehnt.

    Nahezu überall in der EU wird Wissenschaft positiver gesehen als bei uns. Die berechtigte Meinung, dass Forschung und Innovation Schlüsselstrategien für die Schaffung neuer Anwendungsgebiete und damit auch Arbeitsplätze sind, wird hoffentlich nicht dazu führen, dass ein Großteil unserer talentiertesten Wissenschafter in die Länder aufbricht, wo ihre Fähigkeiten erwünschter sind als bei uns.

    Wünsche für die Zukunft

    Mit dem Beginn eines neuen Jahres ist es üblich Wünsche zu formulieren. Diese wären in Hinblick auf die Zukunftsoptionen unseres Landes:

    • Es wäre höchste Zeit den Stellenwert der Naturwissenschaften zu erhöhen! Es muss sowohl die Ausbildung der Jugend in diesen Fächern entscheidend verbessert werden, als auch eine seriöse, gut recherchierte Information der Erwachsenen durch die Medien gewährleistet sein.

    in Hinblick auf Initiativen, die mithelfen können, Wissenschaft populär zu machen:

    • Eine Reihe solcher Initiativen existiert bereits: u.a. „Die lange Nacht der Forschung“, die Kinder-Uni, Sparkling Science, das Science Center Netzwerk [7]. Weiters finden Veranstaltungen beispielsweise auf dem umgebauten Frachtschiff „MS Wissenschaft“ statt, das durch die deutschsprachigen Länder tourt [8] oder in Form von TEDx-Events, die große Theatersäle füllen und deren Vorträge auf Videos frei verfügbar ins Netz gestellt werden. Seit 3 ½ Jahren gibt es auch unseren ScienceBlog. Zurzeit marschieren alle diese Initiativen getrennt, um von unterschiedlichen Gesichtspunkten ausgehend mit verschiedenen Strategien dieselben oder zumindest sehr ähnliche Ziele zu erreichen. Ein vorübergehendes Zusammenwirken dieser Initiativen könnte deren Schlagkraft enorm vergrößern!

    Mit dem Blick auf die Zukunft wünschen wir also, dass 2015 ein gutes Jahr für ein neues Verständnis der Wissenschaft wird.

    Unseren Lesern wünschen wir, dass sie in ihrem persönlichen Leben und in ihrem Umfeld möglichst viel von den positiven Fortschritten der Wissenschaft erfahren.


    *Unter Wissenschaft sind hier – dem englischen Begriff „science“ entsprechend – ausnahmslos die Naturwissenschaften gemeint.


    [1] Special Eurobarometer 419 “Public Perceptions of Science, Research and Innovation” (6.10.2014) http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_en.pdf

    [2] Special Eurobarometer 419, Summary http://ec.europa.eu/public_opinion/archives/ebs/ebs_419_sum_en.pdf

    [3] Josef Seethaler & Helmut Denk
    (18.10. 2013) Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 1: Eine Bestandsaufnahme und
    (1.11.2013)Wissenschaftskommunikation in Österreich und die Rolle der Medien — Teil 2: Was sollte verändert werden?

    [4] Inge Schuster (28.2.2014): Was hält Österreich von Wissenschaft und Technologie? — Ergebnisse der neuen EU-Umfrage (Spezial Eurobarometer 401).

    [5] OECD: Education at a Glance 2014: http://www.oecd.org/edu/Education-at-a-Glance-2014.pdf

    [6] IMF, Data and Statistics (2013) https://www.imf.org/external/

    [7] APA-Dossier: Forsche und sprich darüber http://science.apa.at/dossier/Forsche_und_sprich_darueber/SCI_20140227_S...

    [8] Inge Schuster (19.9.2014): Open Science – Ein Abend auf der MS Wissenschaft

    [9] Inge Schuster (19.9.2014): TEDxVienna 2014: „Brave New Space“ Ein Schritt näher zur selbst-gesteuerten Evolution?


    Weiterführende Links

    Spezial- Eurobarometer 401 „Verantwortliche Forschung und Innovation, Wissenschaft und Technologie; November 2013 (223 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_401_de.pdf

    Spezial-Eurobarometer 340 „Wissenschaft und Technik“; Juni 2010 (175 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_340_de.pdf

    Spezial Eurobarometer 282 “Scientific research in the media”; Dezember 2007 (119 p.) http://ec.europa.eu/public_opinion/archives/ebs/ebs_282_en.pdf

    Artikel mit verwandter Thematik im ScienceBlog

    Gottfried Schatz:

    (14.02.2013): Gefährdetes Licht — zur Wissensvermittlung in den Naturwissenschaften

    (06.12.2012): Stimmen der Nacht — Gedanken eines emeritierten Professors über Wissenschaft und Universitäten

    (24.10.2014): Das Zeitalter der “Big Science”

    Ralph J. Cicerone (14.03.2014): Aktivitäten für ein verbessertes Verständnis und einen erhöhten Stellenwert der Wissenschaft


     

    inge Fri, 02.01.2015 - 08:49