2018

2018 Redaktion Wed, 20.03.2019 - 01:05

Als fossile Brennstoffe in Österreich Einzug hielten

Als fossile Brennstoffe in Österreich Einzug hielten

Do, 20.12.2018 - 11:55 — Robert Rosner

Robert RosnerIcon WissenschaftsgeschichteEs ist erst wenige Generationen her, das man in unseren Breiten fossile Brennstoffe - Kohle und später Erdöl - zu nutzen begann. Vorerst dienten diese hauptsächlich Beleuchtungszwecken: Gaswerke versorgten die Bevölkerung mit aus Kohle destilliertem Leuchtgas, die reichen Erdölvorkommen im Kronland Galizien dienten vorwiegend der Produktion von Petroleum (Nebenprodukte wie Teer und Benzin fanden dagegen damals kaum Verwendung). Der Chemiker und Wissenschaftshistoriker Robert Rosner gibt einen Überblick über diese Entwicklung, die bereits einige Jahrzehnte später- durch den Siegeszug des elektrischen Lichts und die Erfindung des Verbrennungsmotors - eine völlige Wende erfahren sollte, sowohl in Hinblick auf das Ausmaß als auch auf die Art und Weise wie fossile Brennstoffe eingesetzt wurden.

Es begann mit Gaslaternen und Petroleumlampen

Ab der Mitte des 19.Jahrhundert begann man ganz allgemein Produkte für die Beleuchtung zu verwenden, welche erstmals fossile Brennstoffe als Ausgangsmaterial hatten. Das aus Kohle gewonnene Leuchtgas wurde anfangs vorwiegend für die städtische Beleuchtung und zur Beleuchtung großer Säle, Fabriken usw. eingesetzt und später mehr und mehr auch für die privaten Haushalte. Abbildung 1.

Abbildung 1. Laterne am Spittelberg in Wien, 1892: "Das Faßzieherhaus am Spittelberg", Aquarell von Rudolf von Alt (1812 - 1905). Das Bild ist gemeinfrei.

Bei allen früher verwendeten Lichtquellen, gleichgültig ob es sich um einen Kienspan, eine Kerze, das Öl eines Öllämpchens oder Petroleum in einer Petroleumlampe handelte, war das Leuchten auf Rußteilchen zurückzuführen, die in der Flamme erhitzt wurden. Diese Rußteilchen, die beim Verbrennen organischer Brennstoffe in der Flamme entstehen, werden bei den in der Flamme erreichten Temperaturen zur Weißglut erhitzt und strahlen sichtbares Licht aus. So dienen sie als die eigentlichen Lichtquellen. Das durch trockenen Destillation von Kohle gewonnene Erdgas enthält etwa 5 % Äthylen, das im Zuge des Verbrennungsprozesses leicht Ruß absondert - es waren also auch im Leuchtgas die Rußteilchen, die das Leuchten ermöglichten.

In Wien war die Straßenbeleuchtung in der Inneren Stadt 1845 eingeführt und 1852 auf ganz Wien ausgedehnt worden. In Folge begannen gegen Ende der 1850er Jahre die größeren Städte in der ganzen Monarchie die Straßen mit Gaslaternen zu beleuchten, zuerst in den Stadtzentren und allmählich auch in den Vorstädten und Vororten. Dann entstanden Gaswerke auch in den kleineren Städten. Linz richtete eine Gasbeleuchtung 1858 ein, Innsbruck und Salzburg 1859 und Klagenfurt 1861.

Außerhalb der Städte wurde die Beleuchtung auf Petroleumlampen umgestellt, die ein wesentlich besseres Licht gaben als die vorher verwendeten Kerzen.

Die Industrie, welche die für die Beleuchtung verwendeten Stoffe erzeugte oder die dabei entstandenen Nebenprodukte verwertete, konnte sich in dieser Zeit rasch entwickeln.

Gaswerke zur Produktion von Leuchtgas

Vor der Übernahme der Gaswerke durch die Gemeinde gab es in Wien zwei Gesellschaften, welche die Stadt mit Leuchtgas versorgten. Die größere Gesellschaft war das englische Unternehmen, die k.k. priv. Gasbeleuchtungsanstalt der Imperial-Continental-Gas Association, die mehrere Gaswerke betrieb. Im Jahr 1881 lieferten die Gaswerke dieses Unternehmens 52,8 Millionen Kubikmeter Gas, von denen 5,4 Millionen Kubikmeter für die Straßenbeleuchtung verwendet wurden. In den darauffolgenden Jahren weigerte sich die Firma ihre Produktionszahlen zu veröffentlichen.

Das andere Unternehmen in Wien war die Wiener Gasindustrie Gesellschaft. Diese versorgte die westlichen Vororte und die Hofoper mit Leuchtgas. In ihrem Gaswerk in Gaudenzdorf wurden etwa 3,6 Millionen Kubikmeter erzeugt. Als 1887 die Wiener Hofoper von Gasbeleuchtung auf elektrische Beleuchtung umstieg, konnte dieser Verlust durch die Ausdehnung des Gasnetzes auf Altmannsdorf, Hetzendorf , Inzersdorf und Atzgersdorf kompensiert werden.

Die Wiener Gaswerke

Aufgrund eines Gemeinderatsbeschlusses übernahmen im Jahr 1899 die Wiener Städtischen Gaswerke (Abbildung 2) die Belieferung der Gemeindebezirke 1 - 11 und 20 mit Leuchtgas. Die Versorgung der Bezirke 12 - 19 wurde bis zum Jahr 1911 vertragsgemäß von der Imperial-Continental-Gas Association durchgeführt. Die Wiener Gaswerke verwendeten für die Stadtbeleuchtung sofort das Auer Gas-Glühlicht (den Auerbrenner), das ein wesentlich besseres Licht gab.

Abbildung 2. Die Erbauung des Wiener städtischen Gaswerkes in Simmering, des damals europaweit größten Gaswerkes. Links: Bau des Ofenhauses 1901, rechts: zwei Gasometer, 1901. Das Leuchtgas (Stadtgas) wurde im Ofenhaus durch Trockendestillation von Steinkohle ("Kohlevergasung") und anschließende Gaswäsche im Waschhaus gewonnen und in den Gasometern gespeichert, bevor es zum Verbrauch in das Gasnetz abgegeben wurde. Mit der Umstellung auf das wesentlich billigere Erdgas in den 1970er Jahren gingen die Gasometer außer Betrieb. (Fotos sind gemeinfrei)

Eine Statistik aus dem Jahr 1900 besagt, dass die Wiener Gaswerke mehr als 73 Millionen Kubikmeter Leuchtgas erzeugten, von denen etwa 7 Millionen für die Straßenbeleuchtung, 59 Millionen für die private Beleuchtung und 5,6 Millionen für Heiz-, Koch- und Industriezwecke verwendet wurden. Für eigene Einrichtungen benötigte die Gemeinde Wien 1,2 Millionen Kubikmeter Leuchtgas. Obwohl die städtischen Gaswerke nur einen Teil der Stadt versorgten, erzeugten sie wesentlich mehr Gas als 20 Jahre vorher für ganz Wien produziert worden war.

Im Jahr 1912 wurden bereits 168 Millionen Kubikmeter für private Zwecke benötigt und 15 Millionen für die Straßenbeleuchtung. (Zum Vergleich: Der aktuelle Bedarf an Erdgas, das ja heute nicht zur Beleuchtung sondern zur Wärme-und Stromproduktion und als Kraftstoff eingesetzt wird, liegt laut E-Control Statistikbericht 2018 für ganz Österreich bei 8500 Millionen Kubikmeter im Jahr; Anm. Redn.)

In Wien hatte also zur Jahrhundertwende die Beleuchtung mit Gas auch in privaten Haushalten schon eine so große Bedeutung bekommen, dass nur etwa 10 % der Gesamtproduktion für die Straßenbeleuchtung verwendet wurden. In den kleineren Städten war dies noch nicht der Fall. In Baden war bei einer Produktion von 612000 Kubikmetern der Anteil der Straßenbeleuchtung noch 23 % und in St. Pölten 18 % bi einer Produktion von 499 000 Kubikmetern.

Nebenprodukte der Gaserzeugung fanden im Kaiserreich leider kaum Verwendung

Bei der Gaserzeugung fielen in Wien mehr als 10000 Tonnen Teer an, die in einem Werk in Angern (Niederösterreich) verarbeitet wurden. Vorwiegend wurden dort Benzol, Anthracen und Phenole ("Karbolsäuren") aus dem Teer gewonnen.

Da es im Kaiserreich aber keine Farbenfabriken gab, welche die Hauptabnehmer für Benzol und Anthracen gewesen wären, wurden diese Produkte zu sehr tiefen Preisen nach Deutschland exportiert. (Dazu kritische Anmerkungen des berühmten österreichischen Schriftstellers Karl Kraus: Abbildung 3).

Abbildung 3. Karl Kraus, einer der bekanntesten österreichischen Schriftsteller, kritisiert in seiner Zeitschrift "Die Fackel" die fehlende Ausbildung in organisch-technischer Chemie, die damals in Deutschland die Farben- und Heilmittelindustrie entstehen ließ. (Ausschnitte aus Die Fackel, Heft 31, 2 (1900) und Heft 74,4 (1901))

In manchen Jahren war der erzielbare Preis für die Teerprodukte aber so niedrig, dass der Teer verbrannt wurde.

Fallweise gab es für Karbolsäuren auch einen inländischen Markt als Desinfektionsmittel, besonders in Jahren, in denen es eine größere Zahl an Cholerafällen gab oder eine Grippeepidemie auftrat.

Der Beginn der österreichischen Erdölindustrie in Galizien.......

Die ersten Versuche, Stoffe die durch Destillation des galizischen Erdöls gewonnen wurden, für Leuchtzwecke zu verwenden, wurden 1852 von Abraham Schreiner aus Drohobycz in einer Schnapsbrennerei durchgeführt. Nach einem Unfall setzte Schreiner seine Versuche gemeinsam mit dem Apotheker Ignaz Lukasiewicz aus Lemberg fort. Lukasiewicz gelang es erstmals Petroleum durch Destillation von Erdöl gewerbsmäßig herzustellen. Zuerst errichtete er 1859 eine kleine Raffinerie und dann 1865 eine größere Raffinerie in Westgalizien, die bis zur Jahrhundertwende existierte. Abbildung 4.

Abbildung 4. Erdölfelder (rote Kreise) im Kronland Galizien (heute gehört der kleinere, westliche Teil zu Polen und Ostgalizien zur Ukraine), Bohrtürme (1909) standen in sehr dichtem Abstand.(Bilder aus Wikipedia: Mariusz Pazdziora (links; cc-by) und Postkarte,1909 von Wikiwand.com).

Bevor Galizien mit dem westlichen Teil der Monarchie durch eine Bahnlinie verbunden wurde, gab es nur eine sehr langsame Entwicklung der Petroleumindustrie. Hingegen kam amerikanisches Petroleum von Hamburg und Bremen auf dem Wasserweg nach Böhmen und von dort nach Wien. Die 1869 in Wien-Favoriten von Gustav Wagenmann gegründete Raffinerie, die bis 1904 bestand, verwendete galizisches Erdöl vorzugsweise zur Erzeugung von Schmierölen und verschnitt die Petroleum-Fraktion mit importiertem amerikanischem Petroleum. Dieses Unternehmen erweiterte sein Produktionsprogramm in den folgenden Jahrzehnten mit Wachsprodukten der verschiedensten Art. Paraffin wurde aus galizischem Erdwachs hergestellt, dann wurde eine Produktion von Stearin begonnen und etwas später von Ceresin.

Um die galizische Erdölproduktion zu fördern, wurde 1872 ein Schutzzoll von 75 Kreuzer für raffiniertes Petroleum eingeführt, der in den folgenden Jahrzehnten mehrmals erhöht wurde. Obwohl 1873 die erste Bahnlinie nach Ostgalizien fertig gestellt worden war, gelang es nicht die Erdölproduktion in Galizien wesentlich zu steigern, da die Frachtspesen für Petroleum von Galizien in die industrialisierten Teile des Reichs zu hoch waren. Im Jahr 1880 kostete die Fracht von 100 kg Petroleum von Drohobycz nach Wien 3,24 Gulden, von Bremen2,34 Gulden, von Stettin 1,87 Gulden und von Triest 1,18 Gulden.

Erst das Jahr 1883 brachte eine grundlegende Veränderung. In diesem Jahr führte der Kanadier William H. MacGarvey ein Bohrsystem ein, das sich für das galizische Bohrfeld besonders geeignet erwies. In diesem Jahr nahm eine Bahnlinie ihren Betrieb auf, die das ganze Ölgebiet erschloss. Die Regierung erhöhte den Zoll auf 10 Gulden pro Zentner, wodurch das ausländische Petroleum wesentlich verteuert wurde. Damit begann die Entwicklung der österreichischen Erdölindustrie. Zur Unterstützung der galizischen Petroleumindustrie wurden auch die Frachtspesen auf den Staatsbahnen von Galizien nach Wien sehr reduziert. Da es keine entsprechende Reduktion in der Gegenrichtung gab, wurde diese Maßnahme von den Wiener Raffinerien bekämpft.

…und das "Kunstöl" der Konkurrenz

Inzwischen hatte sich auch die russische Erdölindustrie im Raum Baku sehr stark entwickelt und Russland versuchte seine Erdölprodukte in Österreich abzusetzen. Um den hohen Zoll für raffiniertes Öl zu umgehen, exportierte Russland Petroleum mit einem Zusatz von Destillationsrückständen. Diese Gemisch - als Kunstöl bezeichnet - enthielt 90 -95 % Petroleum, Trotzdem konnte es mit dem niederen Zollsatz eines Rohöls importiert werden. So entstanden erst im ungarische Fiume (heute Rijeka) und dann in Triest Raffinerien, die sich auf die Verarbeitung von Kunstöl spezialisierten. Auch die Raffinerien in Wien und anderen Städten dehnten ihre Anlagen aus, um Kunstöl zu verarbeiten.

Die Herstellungskosten von Petroleum aus Kunstöl waren etwa ein Drittel der Raffinierungskosten von Rohöl und außerdem konnte der Rückstand sofort als Schmieröl für die Eisenbahnwaggonachsen verwendet werden. So wurde der Ausbau der Erdölindustrie in Galizien durch die Konkurrenz des Kunstöls sehr erschwert.

Bei der Raffinierung des Rohöls aus Galizien fielen auch beträchtliche Mengen an Benzin an, für das es zu dieser Zeit wenig Verwendung gab. Benzin wurde bis zum Beginn der Motorisierung vorwiegend als Lösungsmittel, etwa bei der Entfettung von Knochen, verwendet.

Noch im Jahr 1895 wurde berichtet, dass im Inland nicht genug Benzin abgesetzt werden konnte und es zu sehr gedrückten Preisen exportiert werden musste. Doch zehn Jahre später hatte sich die Situation völlig geändert. Etwa von 1908 an wird von einem kolossalen Aufschwung des Bedarfs an Benzin berichtet und darüber geklagt, dass im galizischen Rohöl die Benzinfraktion zu gering wäre und daher Benzin aus Niederländisch-Indien importiert werden müsse.

Die galizischen Produzenten von Erdöl errichteten eigene Raffinerien, um die Konkurrenz gegen die anderen Raffinerien aufzunehmen, die Kunstöl verarbeiteten. Dadurch gelang es allmählich die Produktion von Erdöl zu steigern. Im Jahr 1897 entwickelte Mc Garfey eine neue Bohrmeißel, mit deren Hilfe man Tiefen von 800 - 1000 Meter und dann sogar bis 1200 Meter erreichen konnte. Dabei wurden ergiebige Ölschichten angebohrt und der Rohölpreis sank auf 1 Krone pro 100 kg.

Die Petroleumerzeugung in den 1890er Jahren war durch wirtschaftliche Kämpfe zwischen den nördlichen Raffinerien, die galizisches Erdöl verarbeiteten, und den südlichen Raffinerien, die importiertes Kunstöl raffinierten, geprägt. Es kam zu Preisabsprachen und zur Ausbildung von Kartellen, die aber nie sehr lange Bestand hatten. Erst als 1900 der Zoll auf Rohöl von 1,10 auf 3,50 Gulden erhöht wurde, konnte die Einfuhr von Kunstöl gebremst werden.

Die Rohölproduktion in Galizien stieg von 89 000 Tonnen im Jahr 1890 auf 316 000 Tonnen im Jahr 1900 und 1,188 000 Tonnen im Jahr 1907. Zwar stieg in dieser Zeit auch der Inlandskonsum von Petroleum, doch konnten ab 1900 auch beträchtlichen Mengen Petroleum exportiert werden. Im Ausland stand Österreich in Konkurrenz zu Russland und Amerika.

Der Umstieg auf elektrische Beleuchtung

Ab Ende der 1880er Jahre wurde - zuerst in zentralen Institutionen wie beispielsweise in Theatern oder Banken - eine elektrische Beleuchtung eingeführt, die in den 1890er Jahren immer mehr an Umfang zunahm. Zur Kompensation des Verlustes an Abnehmern dehnten die Gaswerke das Rohrnetz aus, sodass in verstärktem Ausmaß auch Vororte mit Leuchtgas versorgt wurden.

Durch den von Carl Auer von Welsbach (1858 - 1929) erfundenen Glühstrumpf - ein als Strumpf ausgeformtes Netz aus Metalloxiden, der bei Erhitzung ein strahlendes Licht abgab - wurde die Qualität der Gasbeleuchtung wesentlich verbessert (s.u.: weiterführende Links). Das ermöglichte auch weiterhin eine Zunahme des Leuchtgasverbrauchs.

Die elektrische Beleuchtung, die sich gegen Ende des 19. Jahrhunderts durchzusetzen begonnen hatte, beruhte auf der von Thomas A. Edison 1879 entwickelten Kohlenfaden-Glühlampe, die allerdings einen hohen Stromverbrauch und eine geringe Lebensdauer hatte. Um diese Eigenschaften zu verbessern, experimentierte Auer von Welsbach mit verschiedenen hochschmelzenden Metallen wie u.a. mit Osmium (Osmium - Glühbirne). Schließlich resultierte daraus die Wolfram-Glühbirne, die rund 100 Jahre den Weltmarkt beherrschen sollte (s.u.: weiterführende Links).

Mit seinen Erfindungen des Glühstrumpfs für die Gasbeleuchtung anfangs der 1890er Jahre und der Metallfadenlampe für die elektrische Beleuchtung am Beginn des 20. Jahrhunderts hat Auer von Welsbach das Beleuchtungswesen der ganzen Welt neu gestaltet.


Weiterführende Links

Robert W. Rosner, Chemie in Österreich 1740 - 1918, Lehre, Forschung, Industrie (Hsg. W. Kerber und W. Reiter, Böhlau Verlag Wien, 2004)

Inge Schuster, 23.08.2012: Carl Auer von Welsbach: Vorbild für Forschung, Entwicklung und Unternehmertum.


 

inge Thu, 20.12.2018 - 11:55

Die sich vereinigenden Nationen der Naturwissenschaften und die Gefahr der Konsensforschung

Die sich vereinigenden Nationen der Naturwissenschaften und die Gefahr der Konsensforschung

Do, 27.12.2018 - 15:00 — Redaktion RedaktionIcon Politik und Gesellschaft

Die Welt wird immer kleiner und einheitlicher. Die blitzschnelle globale Wissenschaftskommunikation schafft enorme Möglichkeiten aber auch einen starken Impuls in Richtung Konsensforschung, der Wissenschaftler auf der ganzen Welt dazu drängt, dieselben Probleme als interessant zu betrachten und die gleichen Ansätze und Methoden in ihrer Forschung einzusetzen. Die US-amerikanische Neurobiologin Eve Marder (Brandeis University) weist in ihrem eben im Journal e-Life erschienenen Artikel "Living Science: Uniting the Nations of Science" auf die Gefahr eines Verlusts der Vielfalt in unserer wissenschaftlichen Kultur hin und ruft zu mehr Raum für Kreativität auf*. (Der Artikel wurde von der Redaktion übersetzt)

Wer eine der TV-Dokumentationen gesehen hat, in denen der amerikanische Koch und Autor Anthony Bourdain die Welt bereiste und Menschen aller Nationalitäten beim Essen und Gesprächen mit ihm filmte, war zweifellos von der Fülle an allgemein Gültigem menschlicher Erfahrung beeindruckt. Gleichzeitig war man aber auch von den Bildern und Klängen der einzelnen Orte beeindruckt. Trotz der weltweiten Ausbreitung von iPhones und Coca Cola unterscheiden sich auch im Jahr 2018 Straßen und Ansichten von Provincetown am Cape Cod (Massachusetts) sehr stark von denen in Kenia, Nepal und Lissabon. Die Verschiedenheiten bestehen, auch wenn bestimmte Markenprodukte in so vielen Teilen der Welt enorm zugenommen haben.

Traditionen bestimmen, wie Naturwissenschaften betrieben werden

Während die Wissenschaft selbst allgemein gültig ist, gibt es weitreichende kulturelle und historische Traditionen, die selbst in dieser Ära von Skype und E-Mail beeinflussen, in welcher Weise Naturwissenschaften und naturwissenschaftliche Ausbildung auf der ganzen Welt betrieben werden.

Erhebliche Unterschiede bestehen sogar zwischen kanadischen, britischen, australischen und amerikanischen Wissenschafts- und Bildungskulturen. Diese Unterschiede verblassen im Vergleich zu den Ländern, in denen die erste gesprochene Sprache nicht Englisch ist und deren erste schulische Erfahrungen sich wesentlich von denen in den USA oder Großbritannien unterscheiden.

Diese kulturell und historisch bedingten Unterschiede tragen nach wie vor dazu bei, wie wir an einige der grundlegendsten Probleme der Biologie herangehen.

Natürlich ermöglicht das Internet, dass Schüler auf der ganzen Welt mich bei einem Vortrag sehen oder, dass sie sich lineare Algebra selbst beibringen können. Gibt mir aber ein einwöchiger Besuch von Labors und Universitäten in Indien, China oder Chile mehr als ein sehr oberflächliches Verständnis der dortigen wissenschaftlichen Kultur? Meine eigene, lange Zeit zurückliegende Erfahrung als Postdoc in Paris war, dass ich länger brauchte, um die dortigen Unterschiede in Bezug auf Karrierewege zu verstehen und wie man an ein wissenschaftliches Problem herangehen sollte, als passende Schimpfwörter auf Französisch zu lernen.

Naturwissenschaften - lokale Angelegenheiten…

Vor vielen Jahren sagte der Bostoner Politiker Tip O’Neill: "Alle Politik ist eine gänzlich lokale Angelegenheit". Natürlich ist das im Jahr 2018 sowohl wahr als auch nicht wahr.

Dasselbe gilt für Naturwissenschaften.

Jeder Naturwissenschaftler betreibt sein Gebiet und /oder ist Teil eines Bildungssystems in einer lokalen Umgebung. Sogar die Grundlagen, die in einem Studienplan für die Ausbildung eines Biologen gefordert werden, sind in Institutionen, Bundesstaaten, Provinzen und Ländern sehr unterschiedlich.

Offensichtlich scheinen auch die Ansätze für die Elementar- und Sekundärbildung in der Welt recht unterschiedlich sein, ebenso wie die Einstellung der Gesellschaft zu Kindern, die Schwierigkeiten haben Lesen oder Rechnen zu lernen.

Diese Unterschiede sind vielleicht noch mehr ausgeprägt, wenn wir die Hochschulausbildung betrachten - die enormen Unterschieden zwischen einer sehr persönlichen Ausbildung, wie sie Elite-Einrichtungen in einigen Ländern anbieten und eine Ausbildung anderswo, die öffentliche Universitäten mit einer hohen Zahl inskribierter Studenten vermitteln.

…Spezialisierungen…

Die Amerikaner sind sich leider darüber im Klaren, dass viele Länder, die viel kleiner als unsere sind, Mathematik und Physik besser unterrichten als wir.

Einige Standorte sind spezialisiert für die Ausbildung von Informatikern und andere für die von Pflanzenbiologen. Es gibt viele Universitäten, an denen niemand weiß, wie man Schmetterlinge erkennt, aber es gibt hoffentlich auch andere Institutionen, in denen Wissen über Moose, Farne und Spinnen besteht.

Einige solcher Spezialisierungen in Wissenschaftsbereichen werden durch Bedingungen des Umfelds bestimmt. Institutionen können unter dem Druck stehen wichtige technologische Herausforderungen zu lösen oder eine Belegschaft mit definierten Vorgaben zu schaffen. Es gibt Länder, die sich mit der Bekämpfung infektiöser Erreger von Kulturpflanzen oder Menschen befassen müssen und vielleicht nicht das Gefühl haben, den Luxus einer Grundlagenforschung betreiben zu können, die nicht direkt zur Lösung landwirtschaftlicher oder gesundheitlicher Interessen beiträgt.

…und Exzellenzzentren

Als ich in der Wissenschaft anfing, gab es auf einigen Gebieten starke Traditionen für Spitzenleistungen - beispielsweise, dass man Exzellenz in der Neuroethologie von Insekten in Deutschland finden könne, Exzellenz in der Pflanzenbiologie jedoch anderswo. Da Exzellenz die besten Studenten anzieht, ist es verständlich, dass diese Art der wissenschaftlichen Spezialisierung zu Exzellenzzentren geführt hat, die auf der ganzen Welt unterschiedlich verteilt waren.

Erstaunlicherweise gibt es auch heute noch Reste lokaler wissenschaftlicher Traditionen aus den letzten 150 Jahren, die in der Art und Weise, wie Wissenschaft betrieben wird, Bestand haben.

Globale Wissenschaftskommunikation und Gefahr einer Konsensforschung

Als ich im Alter von 20 Jahren zum ersten Mal in Europa herumreiste, konnte man anhand von Schuhen, Kleidung und Haarschnitten die Nationalität von Menschen meines Alters erkennen.

Das ist heute fast unmöglich geworden.

Der Vorteil von Open Access-Zeitschriften, bioRxiv und elektronischer Kommunikation ist, dass Informationen sehr schnell übertragen werden und - wie Starbucks - fast überall eindringen können.

Der Nachteil von all dem in der Wissenschaft ist, dass damit ein starker Impuls in Richtung Konsensforschung gesetzt wird, in anderen Worten: dass Wissenschaftler auf der ganzen Welt dazu gedrängt werden, dieselben Probleme als interessant zu betrachten und die gleichen Ansätze und Methoden in ihrer Forschung einzusetzen.

Als die Kommunikation zwischen Wissenschaftlern auf der ganzen Welt noch langsam und mit Unterbrechungen verlief, konnten kleine, halb-isolierte Gemeinschaften ihre eigenen Normen und Ansichten darüber festlegen, welche Probleme interessant waren und welche Methoden als notwendig und ausreichend erachtet wurden.

In der heutigen Welt der blitzschnellen Kommunikation haben viele Wissenschaftsbereiche Rezepte dafür entwickelt, was eine Untersuchung alles enthalten muss, um ausreichende Qualität für die Veröffentlichung in einer ausgezeichneten Zeitschrift aufzuweisen. Einige der Rezeptzutaten sind sinnvoll (z.B. alle Untersuchungen sollten über geeignete Statistiken und ausreichende Probenzahlen verfügen), anderen Zutaten folgen Autoren, Gutachter und Herausgeber in sklavischer Manier, ohne zu überlegen, ob diese für das anstehende Problem Relevanz haben.

Ich befürchte, dass das Streben nach Exzellenzstandards unbeabsichtigt dazu führen kann, dass Arbeiten, die neue Erkenntnisse bieten ohne notwendigerweise alle Zutaten zu enthalten, die man bei einer Veröffentlichung in einem bestimmten Bereich erwartet, gering geschätzt werden. In letzter Konsequenz sollten aber kreative Wissenschaftler, die neue Ansätze für wissenschaftliche Fragestellungen formulieren, dahingehend beurteilt werden, welche neuen Erkenntnisse sie mit ihrer Arbeit geschaffen haben, und nicht nur danach, ob ihre Arbeit alle Ingredienzien oder Eigenschaften aufweist, welche das Gebiet erwartet.

Abbildung 1. So wie Biologen gelehrt werden, in der im Evolutionsprozess entstandenen Artenvielfalt zu schwelgen, so sollten sie auch die Vorteile schätzen, die sich aus verschiedenen Ansätzen für Bildung und Forschung ergeben. Abbildung: Ben Marder.

So wie es mir weh tut, Coca Cola überall zu sehen, wohin ich reise, so wäre es äußerst traurig, wenn die gesteigerte Kommunikation zwischen Biologen dazu führen würde, dass die Erforschung von hochspezifischen Fragestellungen oder von Spezies, die nur in einigen Gebieten zu finden sind, verloren ginge.

Biologen lernen, in der Artenvielfalt zu schwelgen, die aus der Evolution resultiert. Ebenso sollten wir die Chancen bewahren grundlegende biologische Prinzipien zu verstehen, die sich aus der Diversität unserer Bildung und Forschung ergeben. Abbildung 1.

Viele Menschen tragen finanziell und mit ihrer Zeit dazu bei, bedrohte Arten in der Welt zu erhalten. Vielleicht sollten mehr Wissenschaftler darüber nachdenken, was wir verlieren, wenn wir den Verlust der Vielfalt in unserer wissenschaftlichen Kultur zulassen!

Anthony Bourdain ließ das Universum glänzen, ob er nun in einem feinen Restaurant speiste oder auf einem belebten asiatischen Markt Street Food verzehrte. Ebenso sollten wir in der Lage sein, die Lehren aus Experimenten und Messungen kluger und kreativer Menschen zu schätzen und zu verstehen, unabhängig davon, ob sie den Rezepten der Konsenswissenschaft folgen oder nicht.


*Eve Marder: Living Science: Uniting the Nations of Science (feature article, Dec. 20, 2018) e-Life DOI:10.7554/eLife.44441.  Der unter einer cc-by Lizenz stehende Artikel wurde von der Redaktion ins Deutsche übersetzt und es wurden einige Untertitel eingefügt.

Eve Marder ist eine renommierte, hochdekorierte Neurobiologin an der Brandeis University, die u.a. auch als Deputy Editor von eLife fungiert. Sie schreibt auch über Wissenschaft, Politik und Gesellschaft. homepage: https://blogs.brandeis.edu/marderlab/ ; ausführliche Darstellung: https://en.wikipedia.org/wiki/Eve_Marder

inge Thu, 27.12.2018 - 15:00

Anhaltspunkte für Langlebigkeit aus dem Genom einer Riesenschildkröte

Anhaltspunkte für Langlebigkeit aus dem Genom einer Riesenschildkröte

Do, 13.12.2018 - 13:00 — Ricki Lewis Ricki LewisIcon Biologie

Der letzte Vertreter der Pinta-Riesenschildkröten - Lonesome George - starb 2012 im Alter von 100 Jahren . Kürzlich wurde der Vergleich seines Genoms mit dem anderer Spezies veröffentlicht: dieser zeigt Gen-Varianten, die u.a. Selektionsvorteile für Langlebigkeit, Abwehr von Infektionen, Resistenz gegenüber Krebserkrankungen bieten und damit neue Wege für die medizinische Forschung eröffnen [1]. Die Genetikerin Ricki Lewis, die zu Riesenschildkröten eine besondere Beziehung hat, berichtet über diese bahnbrechenden Befunde.*

Eine lange Beziehung zu Schildkröten

Für Schildkröten hege ich eine besondere Vorliebe.

Vor vielen Jahren kaufte ich anlässlich einer Reptilienschau eine Sulcata-Schildkröte. Was ich nicht wusste als ich damals die winzige Speedy in einer McDonalds Burger-Box nachhause brachte war, dass sie über 100 Jahre alt werden konnte.

Speedy wuchs und das sehr schnell. Nachts vergnügte sie sich damit die Möbel herum zu schubsen. Das Reinigen ihrer wöchentlichen Ausscheidungen kostete mich einige Stunden, Speedy selbst verabscheute die Badewanne. Sie liebte es den Sommer im Freien zu verbringen - als eine Art Reptilien-Rasenmäher, im Winter fiel sie dagegen in Depression und hockte wie eine deplatzierte Aktenkiste in einem Winkel meines Büros.

Ich verzweifelte. Das Googeln führte dann zu Artikeln, welche verächtlich über Idioten im Nordosten herzogen, die sich mit Leguanen und Riesenschildkröten anfreunden und dann mit deren unabwendbarem Wachstum konfrontiert sind.

Ich musste meine geliebte Speedy umsiedeln.

Ich las die ausführlichen Anleitungen im Internet und platzierte Speedy in die erforderlichen zwei Plastikwannen mit viel Platz und dem Etikett "Ich bin keine Schlange". Dann ging es zur Post. Ich hatte sicher gestellt, dass Airborne Express sie versenden würde, wohingegen FedX und DHL kein lebendes Reptil anrühren würden. Aber ich kam fünf Minuten zu spät, und der Airborne-Angestellte war bereits gegangen.

Es war dies Montag, der 10. September 2001.

Wäre Speedy pünktlich abgereist, wäre sie zweifellos irgendwo auf einem Rollfeld umgekommen, das die USA nach den Terroranschlägen schlossen. Der Besitzer des Postversands erzählt bis heute die Geschichte seiner interessantesten Postsendung, der Schildkröte Speedy.

Ich behielt Speedy für einen weiteren Monat und schickte sie dann ab. Ich erfuhr bald, dass der Airborne-Mann in Kalifornien - nachdem er festgestellt hatte, dass Speedy keine Schlange war - sie herausgenommen hatte und auf dem Platz neben ihm sitzen ließ. Speedy landete auf einer Schildkrötenfarm in Apple Valley, Kalifornien, zusammen mit anderen großen, übersiedelten Yankee-Reptilien. Speedy hatte bald einen Freund, einen wohlhabenden Sulcata, der mit einem Privatjet von Sonoma eingeflogen worden war. Wir haben jedoch den Kontakt verloren.

Das genomische Vermächtnis der Riesenschildköte Lonesome George

Ein am 3. Dezember 2018 in dem Journal Nature Ecology & Evolution erschienener Artikel [1] erregte mein Interesse.

Es handelt sich dabei um eine von Forschern der Yale University, der University of Oviedo in Spanien, der Galapagos Conservancy und des Galapagos National Park Service stammende Untersuchung. Diese besagt: „Genome von Riesenschildkröten bieten Erkenntnisse zu Langlebigkeit und altersbedingten Erkrankungen“. Zentrale Figur der Untersuchung war Lonesome George, der berühmteste Bewohner der Galapagos-Inseln. Die Forscher verglichen das Genom von George mit dem der Aldabra-Riesenschildkröte (Aldabrachelys gigantea) des Indischen Ozeans und auch mit einigen Genen anderer Spezies, inklusive unserer eigenen.

Das Projekt hat insgesamt recht lang gedauert. 2010 fing Adalgisa Caccone (Yale University) mit den Sequenzierungen an und Carlos Lopez-Otin (Universität Oviedo) leitete die Datenanalyse, um nach Genvarianten zu suchen, die mit Langlebigkeit in Zusammenhang stehen.

Als Lonesome George 2012 starb, war er das letzte lebende Mitglied der Chelonoidis abingdonii. Er lebte auf der Insel Pinta und wog nach seinem Tod im Alter von etwa einem Jahrhundert 195 Pfund. Abbildung 1.

Abbildung 1. "Lonesome George", der letzte Vertreter der Pinta Riesenschildkröten (Chelonoidis abingdonii) wurde etwa 100 Jahre alt und starb 2012. Sein Genom eröffnet u.a. neue Wege für die Alternsforschung (Bild: Wikipedia, putneymark - originally posted to Flickr; cc-by-sa Lizenz)

Unter Berücksichtigung bekannter Mutationsraten zeigt der Vergleich spezifischer DNA-Sequenzen, dass der letzte gemeinsame Vorfahren der beiden Schildkrötenarten vor 40 Millionen Jahren lebte. Beide Arten trennten sich von der zum Menschen führenden Linie vor mehr als 300 Millionen Jahren. Die Ankunft von Menschen auf den Galapagos-Inseln beschleunigte den Rückgang der Populationen der Lonesome George-Nachkommen - die Matrosen an Bord der durch Darwin berühmt gewordenen Beagle sollen mindestens 30 Tiere verzehrt haben.

Evolution durch Positive Selektion

Die aktuelle Untersuchung [1] verwendet leider den Begriff "Evolutionsstrategien", gerade so als würden die Tiere darüber nachdenken, was genau zu tun ist oder nicht, um einen weiteren Tag fort zu existieren. Dies ist nicht die Art und Weise wie Evolution durch natürliche Auslese funktioniert. Um es korrekter auszudrücken: jene Individuen, die das Glück hatten, vernünftige, zur Fortpflanzung gut geeignete Genvarianten geerbt zu haben, hinterließen mehr Nachwuchs und ließen somit diese Gene fortbestehen.

Heute untersuchen Forscher die Evolution auf der Basis vorteilhafter, in den Genen verankerter Veränderungen. Insbesondere suchen sie nach Anzeichen einer „positiven Selektion“ - d.i. nach Aminosäuresequenzen in Proteinen, welche von Genen codiert werden, die sich von denen verwandter Spezies unterscheiden und mit einem Vorteil (einer Anpassung) verbunden sind.

Das Beispiel für eine positive Auswahl, das ich in meinem Lehrbuch für Humangenetik verwende, ist die Höhenanpassung der Eingeborenen des tibetischen Hochlands, die mehr als zwei Meilen über dem Meeresspiegel leben. Diese Hochländer haben eine Version eines Gens namens EPAS1 (Hypoxie-induzierbarer Faktor 2) sowie Varianten in zwei anderen Genen, mit denen sie in der dünnen Luft gedeihen können. Zu den Arten von adaptiven genetischen Veränderungen gehören

  • das Ersetzen von Aminosäuren in den entsprechenden Proteinen,
  • das Entfernen von Teilen von Genen und
  • - einfacher - das Duplizieren von Schlüsselgenen. Das Kopieren von funktionierenden Genen ist ein dauerndes Thema in der Evolution.

Was zeigt uns das Genom von Lonesome George?

In der eben erschienenen Studie wurden 43 Gene in der Spezies des Lonesome George gefunden, die Hinweise auf eine „Riesenschildkröten-spezifische positive Selektion“ zeigen. Sie haben den Tieren ermöglicht ein Jahrhundert und länger zu leben, Infektionen und Verletzungen zu vermeiden oder leicht bekämpfen zu können und nie Krebs zu bekommen.

"Lonsome George erteilt uns immer noch Lektionen", sagte Algisia Caccone in einer Pressemitteilung.

Es ist nicht überraschend, dass die Schildkröte zahlreiche Gene für die schuppigen Keratinproteine besaß, die seine Hülle bildeten, und keine Gene für Zähne hatte. (Ich habe noch nie eine Schildkröte mit Zähnen gesehen.)

Zusätzliche Kopien für Gene des Immunsystems…

Im Vergleich zu Säugetieren ist im Genom des Lonesome George eine Fülle von 861 Genen vervielfältigt, welche für die Immunantwort sorgen. George hatte ein Dutzend Kopien des Gens für Perforin, dessen Proteinprodukt die Zellen von Krankheitserregern zerstört, und zusätzliche Granzyme, Enzyme, die Krankheitserreger abtöten. Andere Gene des Immunsystems, die in Lonesome Georges Genom überrepräsentiert sind, sind solche die spezifisch Viren, Bakterien, Pilze und Parasiten vernichten. Auch die Gene des Major Histocompatibility Complex (für die Immunerkennung codierende Gene; MHC) sind doppelt vorhanden.

…Varianten für metabolische Regulierung, DNA-Reparatur und Sauerstoff-Bindung…

Die Gene, die den Blutzucker und die Reparatur der DNA regulieren, unterscheiden sich von denen anderer Spezies. Lonesome George und seine Brüder besaßen die acht Arten von Globin-Molekülen - Sauerstoff bindenden und transportierenden Molekülen -, die allen Wirbeltieren gemeinsam sind, jedoch hatten sie Varianten, die sie vor sauerstoffarmen Bedingungen schützten. Es war dies eine Eigenschaft, die wahrscheinlich von ihren Wasserschildkröten Vorfahren weitergegeben wurde.

…Varianten für die Resistenz gegenüber Krebs…

Bei einem Screening gegen eine große Zahl bekannter Krebsgene zeigte das Genom von Lonesome George 5 Erweiterungen in Genen, die für Tumorsuppressorproteine ​​kodieren; ihre Identität lässt auf eine Rolle in der Immunüberwachung schließen - ein Immunsystem, das Krebs aktiv bekämpfte. Die immunologische Ausstattung könnte dazu beitragen, das Paradoxon von Peto zu erklären, dass nämlich Krebs bei größeren Tierarten eine geringere Häufigkeit hat. Abbildung 2 unten (rote Punkte).

Abbildung 2. Genomische Basis für Langlebigkeit und Fehlen von Krebserkrankungen in Riesenschildkröten. Relevante Genvarianten; Punkte zeigen deren Anwesenheit in den verschiedenen Spezies. (Bild: Ausschnitt aus Fig.2. in [1] von der Redaktion eingefügt . cc-by-Lizenz.)

…Varianten, die gegen Proteinaggregation schützen…

Lonesome Georges Genom enthielt auch eine Enzymvariante, die auf einen möglichen Schutz gegen die Art von Proteinaggregation hinweist, welche der Parkinson-Krankheit und der Alzheimer-Krankheit zugrunde liegt. Es sind Varianten des Gens TDO2 (Tryptophan 2,3, Dioxygenase), die mit der Regulation der Alpha-Synuclein-Aggregation in Würmern zusammenhängen. Die Genvariante in Lonesome George hemmt das Tryptophan abbauende Enzym - dies bietet einen Schutz vor Proteinaggregation.

…Varianten, die in Zusammenhang mit Langlebigkeit stehen…

Besonders interessant war für mich die Untersuchung von Genen, die mit der Langlebigkeit anderer Arten in Zusammenhang stehen. "Wir hatten zuvor neun Merkmale der Alterung beschrieben. Nachdem wir auf Basis dieser Klassifizierung 500 Gene untersucht hatten, fanden wir interessante Varianten, die möglicherweise sechs dieser Merkmale bei Riesenschildkröten betreffen und damit neue Wege für die Alternsforschung eröffnen", sagte Dr. Lopez-Otin . Abbildung 2.

Lonesome George besaß ein halbes Dutzend alterungssassoziierte Gene mit einzigartigen Varianten, welche die Intaktheit des Genoms, die Reparatur der DNA-Reparatur (Basenexzision) und eine Resistenz gegen doppelsträngige DNA-Brüche fördern (was bedeutet, dass CRISPR wahrscheinlich nicht bei einer Riesenschildkröte funktionieren würde). Lonesome George gelang es auch, seine Chromosomenenden, seine Telomere, lang zu halten und die Uhr der biologischen Zellteilung zu verlangsamen. Außerdem weisen einzigartige Genvarianten auf eine überlegene Zell-Zell-Kommunikation, ein robustes Zytoskelett und auf Mitochondrien hin, die besonders gut zur Entgiftung geeignet sind.

Lonesome George hatte Varianten von Alterungsgenen mit dem Nacktmull gemeinsam, dem am längsten lebenden Nagetier (es kann bis zu 28 Jahre alt werden; Anm. Red,). Abbildung 3.

Abbildung 3. Der Nacktmull , das am längsten lebende Nagetier (Bild: Wikipedia, Roman Klementschitz, Wien cc-by-sa)

Darüber hinaus zeigt sein Genom eine positive Selektion in zwei Genen, welche für Biomarker einer Langlebigkeit des Menschen in Gesundheit kodieren (Alpha 2-HS Glycoprotein - AHSG - und Fibroblast Growth Factor 19 - FGF19 -, ein gastrointestinales Hormon).

Fazit der Forscher

"Lonesome George - der letzte Vertreter von C. abingdonii und ein wohlbekanntes Symbol für die Notlage bedrohter Arten - hat ein Vermächtnis hinterlassen, das die in seinem Genom niedergelegte Geschichte einschließt, deren Entzifferung gerade erst begonnen hat."

Speedy wäre stolz.


[1] Víctor Quesada et al., Giant tortoise genomes provide insights into longevity and age-related disease. Nature Ecology & Evolution 2018. https://doi.org/10.1038/s41559-018-0733-x open access; cc-by-Lizenz.


*Der Artikel ist erstmals am 6. Dezember 2018 in PLOS Blogs - DNA Science Blog unter dem Titel "Genome of Galapagos Gentle Giant Lonesome George Leaves Clues to Longevity"" erschienen (https://blogs.plos.org/dnascience/2018/12/06/genome-of-galapagos-gentle-giant-lonesome-george-leaves-clues-to-longevity/) und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen. Von der Redaktion eingefügt wurde Abbildung 2, das einen Ausschnitt aus der Originalarbeit [1] zeigt.


Weiterführende Links

Riesenschildkröte "Lonesome George" gestorben. 2012, Video 0:20 min.

Preserving Lonesome George. American Museum of Natural History 2014. Video 4:34 min.

The Biggest Tortoise In the World | Big Pacific.2017. Video 6:03 min. Standard YouTube Lizenz

Nacktmull - ein Nager mit "Superkräften" | [w] wie wissen. ARD 26.03-2018. Video 6:11 min.

inge Thu, 13.12.2018 - 13:00

Grenzen der Klimamodellierungen

Grenzen der Klimamodellierungen

Do, 06.12.2018 - 15:47 — Carbon Brief Carbon BriefIcon MINT

Man kann es nicht oft genug wiederholen: Klimamodelle bieten keine völlig korrekte Darstellung des Erdklimas und sind dazu auch nicht in der Lage. Das Klima ist ja von Natur aus chaotisch, eine Simulation mit 100% iger Genauigkeit daher nicht möglich. Dennoch können Modelle das globale Klima ziemlich gut wiedergeben. Wo und welche Probleme noch bestehen und welche Lösungen man erarbeitet, beschreibt der folgende Artikel , Teil 7 einer umfassenden, leicht verständlichen Serie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -6[1, 2, 3, 4, 5, 6].*

Wie genau Klimaprognosen ausfallen, hängt auch von der Qualität der Annahmen ab, die in die Modelle einfließen.

  • Beispielsweise wissen Wissenschaftler ja nicht, ob die Treibhausgasemissionen sinken werden - sie nehmen daher Schätzungen vor, die auf verschiedenen Szenarien einer zukünftigen sozioökonomischen Entwicklung basieren. Dies erhöht die Unsicherheit der Klimaprojektionen.
  • Ebenso gibt es künftige Aspekte, für die - auf Grund ihres in der Erdgeschichte so seltenen Auftretens - nur äußerst schwer Voraussagen gemacht werden können. Ein Beispiel dafür betrifft die Eisschilde: wenn diese abschmelzen könnten sie instabil werden und den erwarteten Anstieg des Meeresspiegels beschleunigen.

Klimamodelle werden immer komplizierter und anspruchsvoller - dennoch gibt es immer noch Aspekte des Klimasystems, die Modelle nicht so gut erfassen können, wie es die Wissenschaftler wünschen.

Das Problem Wolken

Eine der wesentlichen Einschränkungen der Klimamodelle liegt darin, wie gut sie Wolken darstellen können.

Wolken sind Klimaforschern ein ständiger Dorn im Auge. Sie bedecken jeweils rund zwei Drittel der Erdoberfläche, doch einzelne Wolken können sich innerhalb weniger Minuten bilden und auflösen, Wolken können den Planeten sowohl wärmen als auch kühlen; die hängt von der Art der Wolke ab und der Tageszeit. Dazu kommt, dass Wissenschaftler keine Aufzeichnungen darüber besitzen, wie Wolken in der fernen Vergangenheit beschaffen waren - damit wird es schwieriger festzustellen, ob und wie sie sich in der Zwischenzeit verändert haben.

In Hinblick auf die Schwierigkeiten beim Modellieren von Wolken tritt als besonderer Aspekt die Konvektion hervor. Dies ist der Prozess, bei dem die warme Luft an der Erdoberfläche durch die Atmosphäre emporsteigt, sich abkühlt und die darin enthaltene Feuchtigkeit dann zu Wolken kondensiert.

An heißen Tagen erwärmt sich die Luft schnell, was die Konvektion fördert. Dies kann zu heftigen Regenfällen von kurzer Dauer führen, die häufig von Donner und Blitzen begleitet werden.

Abbildung 1. Konvektionsströmung, die zu Wolkenbildung führt und auch zu Gewittern. Credit: Niccolò Ubalducci / Flickr (CC BY-NC-ND 2.0)

Durch Konvektion verursachte Niederschläge können kurzfristig und stark lokalisiert auftreten. Um solche Niederschlagsereignisse zu erfassen, verfügen globale Klimamodelle über eine ungenügende, zu grobe Auflösung.

Wissenschaftler verwenden stattdessen „Parametrisierungen“ [6], welche die mittleren (durchschnittlichen) Auswirkungen der Konvektion über eine einzelne Gitterzelle darstellen. Dies bedeutet, dass Globale Klimamodelle (GCMs) keine individuellen Stürme und lokale Starkregenereignisse simulieren. Dies erklärt Dr. Lizzie Kendon, leitende Wissenschaftlerin für Klimaextreme am Met Office Hadley Center Carbon Brief gegenüber:

„GCMs sind nicht in der Lage, die Intensitäten der Niederschläge im Stundenraster und extreme Niederschläge im Sommer zu erfassen. Bei der groben Auflösung der globalen Modelle wäre die Verlässlichkeit stündlicher Regenprognosen oder konvektiver Extrema sehr niedrig“.

Um diesem Problem beizukommen, haben Wissenschaftler besonders hochauflösende Klimamodelle entwickelt. Diese haben Gitterzellen, die weniger als einige zehn Kilometer breit sind. Diese „Konvektion-berücksichtigenden“ Modelle können größere Konvektionsstürme simulieren, ohne dass eine Parametrisierung erforderlich ist.

Allerdings ist das ein Kompromiss: mehr in Details zu gehen bedeutet, dass die Modelle noch nicht den gesamten Globus abdecken können. Auch, wenn die Oberfläche kleiner geworden ist und Supercomputer verwendet werden, benötigen derartige Simulationen immer noch sehr lange Laufzeiten, vor allem, wenn Wissenschaftler viele Variationen des sogenannten Modell-Ensembles ausführen möchten. (zu Modell-Ensembles:siehe [4]).

Beispielsweise verwenden Simulationen, die Teil des Projekts IMPALA "Future Climate For Africa" ​​("Verbesserung von Modellprozessen für afrikanisches Klima") sind, Modelle, welche die Konvektion berücksichtigen und dies für ganz Afrika. Allerdings geschieht dies nur für einen Part des Ensembles, so Kendon. In ganz ähnlicher Weise wird das nächste Set der UK-Klimaprojektionen, das im nächsten Jahr fällig wird („UKCP18“) durchgeführt und zwar für 10 Ensemble-Modelle, jedoch nur für Großbritannien.

Es liegt aber noch ein weiter Weg vor uns, um Modelle, die Konvektion berücksichtigen, auf die globale Dimension ausdehnen zu können. Kendon drückt dies explizit so aus: "Es wird wahrscheinlich viele Jahre dauern, bis wir uns [die Rechenleistung für] konvektionsfähige globale Klimasimulationen leisten können, insbesondere für mehrere Simulationen eines Ensembles."

Die doppelte ITC Zone (innertropische Konvergenzzone)

Ähnlich wie das Wolken-Problem in den globalen Klimamodellen ist auch die "doppelte innertropische Konvergenzzone" zu sehen. Bei der innertropische Konvergenzzone (ITCZ) handelt es sich um einen riesigen Tiefdruckgürtel, der die Erde in Äquatornähe umgibt (Abbildung 2). Diese Zone regelt die jährlichen Niederschlagsmuster in einem Großteil der Tropengebiete und ist daher für Milliarden von Menschen ein äußerst wichtiges Klimaelement.

Abbildung 2. Die Innertropische Konvergenzzone (ITCZ) und die wesentlichen globalen Zirkulationssysteme in der Erdatmosphäre – Strömungen, die zwischen der warmen Luft in den Tropen und der kalten Luft in den Polgebieten ausgleichen. Dazu zählen die tropische Passatzirkulation (Hadley Zelle) zwischen 30oNord und 30o Süd, in der in Bodennähe Nordost-Passate oder Südostpassate in Richtung Äquator und polwärts - wegen der Corioloskraft - westlich gerichtete Winde wehen. In der Polarzelle treffen die entgegengesetzt strömenden Luftmassen von Polarluft und subtropischer Warmluft zusammen. (Quelle: Kaidor; CC BY-SA 3.0 from Wikimedia Commons)

Die ITC Zone ​​verschiebt sich während des Jahres über die Tropen hin nach Norden und Süden und folgt dabei grob dem Sonnenstand in den Jahreszeiten. Globale Klimamodelle erzeugen die ITCZ ​​in ihren Simulationen - sie entsteht als Folge der Wechselwirkung zwischen den einzelnen physikalischen Prozessen, die im Modell eingegeben sind. Wie jedoch US-Wissenschaftler vom Caltech erläutern, gibt es einige Gebiete, in denen Klimamodelle Schwierigkeiten haben, die Position der ITCZ ​​korrekt darzustellen (https://doi.org/10.1175/JCLI-D-15-0328.1):

“Im östlichen Pazifik liegt die ITCZ ​​ den Großteil des Jahres über nördlich des Äquators und mäandriert einige wenige Breitengrade um den sechsten Breitengrad. Für einen kurzen Zeitraum im Frühjahr spaltet sich die Zone jedoch in zwei ITCZs auf beiden Seiten des Äquators auf. Die derzeitigen Klimamodelle übertreiben diese Aufspaltung in zwei ITCZs, was zur bekannten Doppel-ITCZ-Verzerrung der Modelle führt“.

Die meisten Globalen Klimamodelle zeigen zu einem gewissen Grad das doppelte ITCZ-Problem; dies führt dazu, dass sie für einen Großteil der Tropen der südlichen Hemisphäre zu viel Regen simulieren und für den Pazifik am Äquator manchmal zu wenig Regen.

Die doppelte ITC Zone ​​"ist vielleicht der wichtigste und permanenteste systematische Fehler in aktuellen Klimamodellen", sagt Dr. Baoqiang Xiang, ein leitender Wissenschaftler am Geophysical Fluid Dynamics Laboratory der National Oceanic and Atmospheric Administration in den USA. Daraus ergibt sich vor allem: Modellierer halten Vorhersagen, wie sich die ITC Zone ​​im Verlauf der Klimaerwärmung ändern könnte, für weniger verlässlich. Es gibt aber auch weitere Beeinflussungen, sagt Xiang zu Carbon Brief:

„Zum Beispiel prognostizieren die meisten aktuellen Klimamodelle einen abgeschwächten Passatwind und eine Abschwächung der Walker-Zirkulation (d.i. ein Strömungskreislauf der Luft über dem äquatorialem Pazifik; Anm. Redn). Die Existenz des doppelten ITCZ-Problems könnte zu einer Unterschätzung dieses geschwächten Passatwinds führen."

(Passatwinde sind annähernd konstante östliche Winde, welche beiderseits des Äquators um die Erde zirkulieren.)

Darüber hinaus legt eine 2015 erschienen Studie (in Geophysical Research Letters) nahe, dass die doppelte ITCZ die Rückkopplungen von Wolken und Wasserdampf in Modellen beeinflusst und daher für die Klimasensitivität# eine Rolle spielt. Man fand heraus, "dass Modelle mit einer starken doppelten ITC Zone ​​einen niedrigeren Wert für die Gleichgewichts-Klimasensitivität (ECS) aufweisen, was darauf hindeutet, dass „die meisten Modelle die ECS unterschätzt haben“. Wenn Modelle aber die ECS unterschätzen, wird sich als Reaktion auf vom Menschen verursachte Emissionen das Klima stärker erwärmen, als es die aktuellen Prognosen vermuten lassen.

Die Ursachen für die doppelte ITCZ ​​in Modellen sind komplex und waren Gegenstand zahlreicher Studien, erklärt Xiang gegenüber Carbon Brief. Nach seiner Meinung gibt es eine Reihe von ursächlichen Faktoren, einschließlich der Art und Weise, wie Konvektion in Modellen parametrisiert wird.

Beispielsweise kam ein 2012 veröffentlichter Artikel (in den Proceedings der National Academy of Sciences) zu dem Schluss, dass das Problem daher rührt, dass die meisten Modellen nicht genügend dicke Wolken über dem "oft bedeckten Südozean" erzeugen. Dies führt dann zu höheren Temperaturen über der Südhemisphäre als üblich und auch zur Verschiebung der tropischen Niederschläge nach Süden.

Fragt man danach, wann Wissenschaftler dieses Problem lösen werden können, so lässt sich darauf laut Xiang nur schwer eine Antwort finden:

„Meiner Meinung nach werden wir dieses Problem in den kommenden zehn Jahren möglicherweise nicht vollständig lösen können. Mit dem verbesserten Verständnis der Modell-Physik, der Erhöhung der Modellauflösung und verlässlicheren Beobachtungen haben wir jedoch bedeutende Fortschritte erzielt.“

Jetstreams (Strahlströme)

Ein weiteres allgemeines Problem bei Klimamodellen betrifft schließlich die Position von Jetstreams in den Klimamodellen. Jet Streams sind mäandrierende Flüsse von Hochgeschwindigkeitswinden, die hoch in der Atmosphäre strömen. Sie können Wettersysteme von Westen nach Osten über die ganze Erde fließen lassen.

Abbildung 3. NASA Visualisierung des Europäischen Jetstream (screenshot). Dieser wird durch das Zusammentreffen kalter absinkender Luftmassen aus der Arktis und aufsteigender warmer Luft aus den Tropen erzeugt - es ist ein strömendes Band aus westlichen Winden, das rund um den Planeten mäandriert. Die Visualisierung verwendet Wetter-und Klimabeobachtungen des NASA MERRA Daten Modell. Video 1:23 min. https://www.youtube.com/watch?time_continue=3&v=Xybvt-J-7Og (Credit: NASA's Scientific Visualization Studio. The Blue Marble data is courtesy of Reto Stockli (NASA/GSFC)

Wie es auch bei der ITC Zone der Fall ist, ​​erzeugen Klimamodelle Jetstreams aufgrund der in ihrem Code enthaltenen grundlegenden physikalischen Gleichungen.

Jetstreams scheinen jedoch in Modellen oft zu "zonal" zu sein - mit anderen Worten, sie fallen zu stark und zu geradlinig aus, erklärt Dr. Tim Woollings, Dozent für physikalische Klimawissenschaft an der Universität Oxford und ehemaliger Leiter der gemeinsamen Met Office/Universities Process Evaluierungsgruppe on Blocking and Storm Tracks. Er sagt Carbon Brief:

„In der realen Welt schert der Jet etwas nach Norden aus, wenn er den Atlantik überquert (und ein Stück den Pazifik). Weil Modelle dies unterschätzen, ist der Jet im Durchschnitt oft zu weit in Richtung Äquator orientiert.“

Dies führt dazu, dass Modelle nicht immer korrekt auf den Bahnen - den sogenannten Sturmbahnen - liegen, welche Niederdruck-Wetter einschlagen. In Modellen sind Stürme oft zu träge, sagt Woollings, und sie erreichen nicht die ausreichende Stärke und klingen zu schnell ab. Es gibt Möglichkeiten, dies zu verbessern, und einige sind zielführender als andere. Im Allgemeinen kann es hilfreich sein, wenn man die Auflösung des Modells erhöht sagt Woollings:

„Wenn wir beispielsweise die Auflösung erhöhen, werden die Gipfel der Berge etwas höher und dies trägt dazu bei, die Jets etwas nach Norden abzulenken. Es passieren auch kompliziertere Dinge; wenn wir bessere, aktivere Stürme simulieren können, kann dies einen Dominoeffekt auf den Jet-Stream haben, der teilweise von den Stürmen angetrieben wird.“

(Mit zunehmender Auflösung des Modells werden Berggipfel höher, da das Modell durch die größeren Details mehr vom Berg "sehen" kann, wenn er sich nach oben hin verengt.)

"Eine weitere Option besteht darin , dass man verbessert, wie das Modell die Physik der Atmosphäre in seinen Gleichungen darstellt," fügt Woollings hinzu und zwar "mittels neuer, cleverer Formen, um die Strömungsmechanik im Computercode zu approximieren".


# Klimasensitivität: Die Erwärmung, die wir erwarten können, wenn das Kohlendioxid in der Atmosphäre doppelt so hoch ist wie vor der industriellen Revolution. Es gibt zwei Arten Klimasensitivität zu definieren: Der Transient Climate Response (TCR) ist die Erwärmung an der Erdoberfläche, die wir zum Zeitpunkt der CO2-Verdoppelung erwarten können, die Gleichgewichts-Klimasensitivität (ECS) ist dagegen die gesamte Erwärmung, wenn die Erde Zeit gehabt hat sich an das zusätzliche Kohlendioxid anzupassen.


* *Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel" What are the main limitations in climate modeling at the moment?" ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Carbon Brief: What's causing global warming? Video 1:22 min. (14.12.2017)

David Attenborough: Climate Change - Britain Under Threat Video 1:00:14 (2013)

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. Standard YouTube Lizenz.

CarbonBrief im ScienceBlog

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?

[5] Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

[6] Teil 6 (1.11.2018): Klimamodelle: wie werden diese validiert?

inge Thu, 06.12.2018 - 15:47

Comments

In seinem jüngsten ›Assessment Report‹ AR6, adressiert das IPCC ein Problem, dass einige Modelle eine stärkere Erwärmung zeigen, als durch Evidenz belegt werden kann. Das kann zum Problem werden, wenn Wissenschaft, Politik, Medien und Öffentlichkeit aus Unwissen mit derartigen Modellen umgehen.

Zu diesem Problem hier eine Leseempfehlung (Englisch): https://www.nature.com/articles/d41586-022-01192-2

(Der Artikel erklärt auch, warum dieses Problem erst jetzt, mit immer komplexer werdenden Modellen, zutage tritt.)

Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen

Krankenhausinfektionen – Keime können auch aus dem Mikrobiom des Patienten stammen

Do, 29.11.2018 - 09:40 — Francis S. Collins

Francis S. CollinsIcon MedizinWeltweit erkranken Millionen Patienten an lebensbedrohenden Infektionen, die sie sich während ihres Aufenthalts im Krankenhaus zuziehen und zig-Tausende sterben daran . Bis jetzt wurden dafür Im wesentlichen unzureichende hygienische Bedingungen in den Spitälern verantwortlich gemacht. Eine neue Studie an Knochenmark-transplantierten und dementsprechend immunsupprimierten Patienten zeigt nun, dass die infektiösen Keime auch aus dem Mikrobiom des Darms der Patienten selbst stammen können und bietet damit neue Ansätze zu Prävention und Therapie derartiger Infektionen [1]. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese wegweisenden Ergebnisse.*

Während ihrer Behandlung im Krankenhaus erkranken erschreckend viele Patienten an lebensbedrohender Sepsis - d.i. an Infektionen in der Blutbahn. Man hat angenommen, dass dafür Mikroben verantwortlich sind, die hauptsächlich auf medizinischen Geräten herumsitzen und auf dem Spitalspersonal oder auch auf anderen Patienten und Besuchern auf ihre Opfer lauern. Das ist auch sicherlich oft der Fall. Nun hat ein von den National Institutes of Health (NIH) gefördertes Team herausgefunden, dass ein erheblicher Teil dieser Krankenhausinfektionen tatsächlich aus einer ganz anderen Quelle stammen kann, nämlich aus dem Körper des Patienten selbst.

In einer Studie an 30 Knochenmark-transplantierten Patienten, die an Blutinfektionen litten, wendeten die Forscher ein neu entwickeltes Bioinformatik Tool namens StrainSifter ("Stamm-Prüfer", Anm. Redn) an: in mehr als einem Drittel der Fälle entsprach die DNA-Sequenz der infektiösen Keime jener DNA , die bereits im Dickdarm der Patienten lebende Mikroorganismen aufwiesen [1] . Dafür, dass derartige Keime von Patient zu Patient übertragen werden, fanden die Forscher auf Basis der DNA-Datenaber kaum Hinweise.

Infektionen im Krankenhaus

In den Vereinigten Staaten erleidet etwa einer von 50 Patienten mindestens eine Infektion während seines Krankenhausaufenthalte [2]. Solche Infektionen sind jedes Jahr für Zehntausende von Todesfällen verantwortlich und sind in den Vereinigten Staaten eine der häufigsten Todesursachen [3].

Auch in Europa zählen Infektionen im Krankenhaus zu den häufigen Erkrankungen (Abbildung 1) und fordern auch hier sehr viele Todesopfer. (Text und Bild von der Redn. eingefügt)

Abbildung 1. Anteil der Patienten, die im Zeitraum 2016 - 2017 zumindest an einer im Spital hervorgerufenen Infektion erkrankt sind. (Bild und Text von der Redaktion eingefügt, Quelle: ECDC 2016-17 Point prevalence survey)

Was ist die Ursache von Krankenhausinfektionen?

Während ihrer Assistenzzeit in der Inneren Medizin erweckten im Krankenhaus erworbene Infektionen das Interesse von Ami Bhatt (Stanford University, Palo Alto, Kalifornien). Als ihre Patienten Sepsis entwickelten, ging Bhatt daran die Ursache dafür festzustellen. Sie erkannte aber bald, dass es kompliziert werden würde den Ursprung der Infektion zu bestimmen.

Als Bhatt über mögliche Quellen der im Krankenhaus erworbenen Infektionen nachdachte, zog sie auch das Mikrobiom in Erwägung - die Tausenden von Mikroben, die auf ganz natürliche Weise in und auf dem menschlichen Körper leben. In zunehmendem Maße werden wir ja vieler wichtiger Funktionen des Mikrobioms gewahr, die es auf unseren Stoffwechsel, unsere Immunität und sogar auf unsere psychische Gesundheit ausübt. Bhatt überlegte nun, ob Keime aus dem Mikrobiom in den Blutkreislauf mancher Patienten gelangen könnten, insbesondere bei Patienten, deren Immunsystem bereits beeinträchtigt ist.

Die Studie an immunsupprimierten Patienten

Mit ihren Kollegen (darunter den Erstautoren der Studie Fiona Tamburini und Tessa Andermann) konzentrierte sich Bhatt auf den Darm, der ja natürlicher Lebensraum für viele Hunderte verschiedene Arten von Mikroben ist. Ihr Team rekrutierte Patienten, die sich im Stanford University Hospital einer Transplantation des Knochenmarks unterzogen und sammelte von ihnen wöchentliche Stuhlproben; jede dieser Proben enthielt eine Fülle mikrobiellen Lebens, das aus dem Darm stammte.

Patienten, die Knochenmark transplantiert bekommen, erhalten Medikamente, um das Immunsystem zu supprimieren, um ihren Organismus davon abzuhalten die kostbaren Spenderzellen zu attackieren. Aufgrund des supprimierten Immunsystems sind solche Patienten aber auch einem erhöhten Infektionsrisiko ausgesetzt.

Erkrankte nun ein Transplantationspatient an einer Sepsis - und zwar innerhalb von 30 Tagen nachdem man die Darmmikroben enthaltenden Stuhlproben gesammelt hatte -, so isolierten die Forscher das verursachende Bakterium aus dem Blut, brachten es Kultur und sequenzierten seine DNA.

Der nächste Schritt bestand dann darin, dass sie untersuchten ob es eine exakte Übereinstimmung zwischen der DNA des Infektionserregers und der DNA eines Bakteriums in der Stuhlprobe des Patienten geben könnte. Dies würde dann darauf hindeuten , dass der Infektionserreger aus dem Mikrobiom des Darms stammte.

Ein überaus schwieriges Unterfangen

Obwohl vom Konzept her simpel, war die Durchführung dieser Untersuchung dann alles andere als einfach. Die Forscher mussten ja die DNA eines einzelnen Infektionserregers mit all den DNA-Sequenzen vergleichen, die man von den Hunderten im Darm ansässigen Mikroben - dem Darmmikrobiom - bestimmt hatte. Es war eine Analyse, die zudem extreme Präzision erforderte. Es war eine Herausforderung, welche die Forscher so beschrieben: Man setzt viele Hunderte verschiedener Fotografien zusammen, die zuvor in kleine Stücke geschnitten, zusammengemischt und aufgeschüttelt worden waren, bevor man dann versucht die wieder hergestellten Fotos mit einem anderen Foto abzugleichen.

Die Forscher schafften diese schwierige Aufgabe mit ihrem Bioinformatik Tool StrainSifter. Sie konnten damit zeigen, dass in mehr als einem Drittel der Stuhlproben genau der gleiche Bakterienstamm enthalten war, der den jeweiligen Patienten krank gemacht hatte. Abbildung 2.

Abbildung 2. Sepsis im Krankenhaus: Mittels eines neuen Bioinformatik Tools wurde nachgewiesen ob ein, in der Blutbahn entdeckter Infektionserreger aus dem Mikrobiom des Darms stammt. (Credit: Fiona Tamburini, Stanford University, Palo Alto, CA)

Interessanterweise gab es aber kaum Anzeichen dafür, dass diese Stämme auch im Blut oder im Stuhl anderer Patienten im selben Krankenhaus gefunden wurden. Mit anderen Worten, die Keime schienen sich nicht von Person zu Person auszubreiten.

Die Ergebnisse weisen darauf hin,

dass viele der an Sepsis Erkrankten sich die Infektion nicht aus der Umgebung oder von einer anderen Person zugezogen hatten, sondern vielmehr aufgrund eines mikrobiellen Ungleichgewichts im eigenen Körper. Bhatt merkte an, dass die Studienteilnehmer im Krankenhaus häufig intensiv mit Antibiotika und anderen Medikamenten behandelt wurden. Ohne sorgfältige Behandlung könnten ihre Körper zu Brutstätten für infektiöse und antibiotikaresistente Bakterien werden.

Tatsächlich bestätigten die klinischen Befunde und die DNA-Daten, dass Antibiotika-resistente Stämme von Escherichia coli und Klebsiella-pneumoniae im Verdauungstrakt vorlagen, Keime, die häufige Ursachen für schwere Lungenentzündung, Harnwegsinfektionen und andere möglicherweise schwere Infektionen sind. Darüber hinaus fanden sich im Darm dieser Knochenmark-Empfänger auch andere Krankheitserreger, die man dort nicht vermutet hätte (beispielweise Pseuomonas aeruginosa und Staphylococcus epidermiis; von Rdn. ergänzt).

Fazit

Wenn optimale Hygienepraktiken auch nach wie vor für die Prävention von Krankenhausinfektionen entscheidend sind, so lassen die neuen Ergebnisse darauf schließen, dass diese Prävention komplizierter sein kann als man ursprünglich dachte. Um die Infektionsquelle korrekt zu identifizieren, kann es notwendig sein das individuelle Mikrobiom jedes Patienten in Betracht zu ziehen. Die gute Nachricht: mit den zunehmenden Möglichkeiten die Quelle von Blutinfektionen zu ermitteln, wird dies dem Gesundheitssystem helfen, gezieltere und effektivere Methoden zu entwickeln, um Krankenhausinfektionen künftig zu verhindern und in den Griff zu bekommen.


[1] Precision identification of diverse bloodstream pathogens in the gut microbiome. Tamburini FB, Andermann TM, Tkachenko E, Senchyna F, Banaei N, Bhatt AS. Nat Med. 2018 Oct 15. DOI:10.1038/s41591-018-0202-8.

[2] Health-care Associated Infection Data. Centers for Disease Control and Prevention.

[3] Estimating health care-associated infections and deaths in U.S. hospitals, 2002. Klevens RM, Edwards JR, Richards CL Jr, Horan TC, Gaynes RP, Pollock DA, Cardo DM. Public Health Rep. 2007 Mar-Apr;122(2):160-6.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " Some ‘Hospital-Acquired’ Infections Traced to Patient’s Own Microbiome" " zuerst (am 23. Oktober 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/10/23/some-hospital-acquired-infections-traced-to-patients-own-microbiome/ Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Zur Illustration wurden Abbildung 1 (plus Text) von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

Artikel zu ähnlichen Themen im ScienceBlog

inge Thu, 29.11.2018 - 09:40

Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Eurobarometer 478: zum Wissenstand der EU-Bürger über Antibiotika, deren Anwendung und Vermeidung von Resistenzentstehung

Do, 22.11.2018 - 06:07 — redaktion Vorname ZunameIcon Medizin

Dass Mikroorganismen - Bakterien, Pilze, Protozoen - und ebenso Viren zunehmend Resistenz gegen antimikrobielle Substanzen entwickeln, für die sie vordem hochsensitiv waren, ist ein natürlicher Vorgang der Evolution. Ein übermäßiger/unsachgemäßer Einsatz der gegen Bakterien wirksamen Antibiotika hat so (multi-)resistente Keime entstehen lassen, gegen die auch die potentesten Reserve-Antibiotika nichts mehr ausrichten - Infektionen mit resistenten Keimen führen im EU-Raum jährlich zu mehr als 25 000 Todesfällen. Mit dem Ziel Antibiotika gezielt und maßvoll anzuwenden befragt die EU-Kommission seit 2009 ihre Bürger hinsichtlich ihres Wissens um Antibiotika, deren Gebrauch und Risiken. Die Ergebnisse der letzten Umfrage im September 2018 liegen nun im Special Eurobarometer 478 vor [1].

Der rasche Anstieg der Lebenserwartung im 20. Jahrhundert ist - neben besserer Ernährung und Hygiene - vor allem vor allem auf die wirksame Bekämpfung von Infektionskrankheiten, insbesondere von bakteriellen Infektionen, mit Medikamenten und Vakzinen zurückzuführen. Rund 200 unterschiedliche antimikrobielle Wirkstoffe gegen verschiedene Erreger im Human- und Veterinärsektor stehen heute zur Verfügung - darunter Antibiotika, die gegen ein weites Spektrum von Bakterien wirken (Breitband-Antibiotika) und solche die spezifisch gegen einzelne Keime gerichtet sind.

Resistenzentstehung…

Allerdings hat mit steigender Anwendung der Antibiotika deren Wirksamkeit abgenommen. Die Erreger werden dagegen in stark zunehmendem Maße resistent. Es ist dies ein Evolutionsprozess basierend auf Genmutation und natürlicher Selektion: Auf Grund der raschen Zellteilung bei einer relativ hohen Mutationsrate kann eine wachsende Bakterienpopulation Keime enthalten, in welchen ein mutiertes Protein nun einen wesentlich weniger empfindlichen Angriffspunkt ("Target") für ein Medikament darstellt und/oder imstande ist das Medikament abzubauen und damit dessen Wirkung zu verringern. Resistente Keime können überdies das mutierte Gen an andere Bakterien übertragen.

In Gegenwart eines antimikrobiellen Medikaments werden nun zuerst die empfindlichsten Keime abgetötet und sukzessive dann die immer resistenteren. Wird ungenügend lang behandelt, so erfolgt Selektion der resistenteren Keime, die sich nun munter weiter vermehren können. Resistente Keime entstehen auch, wenn Antibiotika unsachgemäß eingesetzt werden, bei Infektionen angewandt werden, gegen die sie unwirksam sind, wie dies bei den durch Viren verursachten grippalen Infekten und der Influenza der Fall ist.

…ein globales Problem

Die Entwicklung resistenter Keime, insbesondere multiresistenter - d.i. gegen eine breite Palette von Antibiotika resistenter - Keime ist ein weltweites Problem, das kein Land allein lösen kann. Globale Schätzungen aus dem Jahr 2016 gehen von mindestens 700 000, durch Infektionen mit resistenten Keimen verursachten Toten aus; 2050 könnte diese Zahl auf 10 Millionen ansteigen [2]. Abbildung 1.

Abbildung 1. Globale Todesfälle im Jahr infolge von Antibiotikaresistenz (AR) im Vergleich zu anderen Ursachen (Quelle: ‘Tackling drug-resistant infections globally: Final report and recommendations. https://amr-review.org/‘Tackling drug-resistant infections globally: Final report and recommendations sites/default/files /160525_Final%20paper_with%20cover.pdf (Lizenz cc-by 4.0))

Die Verschärfung der Situation resultiert daraus, dass Resistenzen sich viel, viel schneller entwickeln - auch auf Grund einer breiten unkritischen Anwendung - als neue Wirkstoffe gefunden, entwickelt und auf den Markt gebracht werden können. Letzteres ist auch dadurch bedingt, dass die Pharmazeutische Industrie den für sie nur wenig aussichtsreichen und kaum lukrativen Sektor der Antibiotika Forschung und Entwicklung jahrzehntelang ignorierte und auch akademische Institutionen dieses Gebiet vernachlässigt haben. Vom Budget der US-amerikanischen National Institutes of Health (NIH) - 142,5 Milliarden $ von 2010 bis 2014 - gingen 26,5 Milliarden in die Krebsforschung, 14,5 Milliarden in das HIV/AIDS-Gebiet, 5 Milliarden in Diabetes und nur 1,7 Milliarden $ - knappe 1,2 % - in die Antibiotikaforschung [2].

Was geschieht in der Europäischen Union?

Allein in der EU geht man jährlich von mehr als 25 000 Menschen aus, die in Folge von antimikrobieller Resistenz sterben. Abgesehen von dem Leiden der Betroffenen sind die durch (multi)resistente Keime verursachten Behandlungskosten enorm, ebenso wie die Einbußen durch Produktionsausfall. [1]. Die Bekämpfung der antimikrobiellen Resistenzen ist ein prioritäres Anliegen der EU und sie hat im Mai 2017 einen neuen Europäischen Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ vorgelegt [3]. (Zitat aus dem Aktionsplan:Mit dem Begriff „Eine Gesundheit“ wird ein Konzept beschrieben, mit dem anerkannt wird, dass menschliche und tierische Gesundheit miteinander zusammenhängen, dass Krankheiten vom Menschen auf Tiere und umgekehrt übertragen werden und deshalb bei beiden bekämpft werden müssen. Das „Eine-Gesundheit“-Konzept umfasst auch die Umwelt, die einen weiteren Verbindungspunkt zwischen Mensch und Tier und ebenfalls eine potenzielle Quelle neuer resistenter Mikroorganismen darstellt.[3])

Zu diesem Aktionsplan gehört - neben der Förderung relevanter Forschung & Entwicklung - auch für ein besseres Verständnis der EU-Bürger bezüglich eines sachgemäßen Gebrauchs von antimikrobiellen Medikamenten zu sorgen und so die Entwicklung und Ausbreitung von resistenten Keimen hintanzuhalten. Dass vielen Bürgern ein derartiger Zusammenhang nicht bewusst ist, haben mehrere, seit 2009 erhobene Eurobarometer Umfragen ergeben. Die letzte dieser Umfragen hat im September 2018 stattgefunden und deren bereits vorliegende Ergebnisse werden im Folgenden kurz dargestellt.

Spezial Eurobarometer 478: Antimikrobielle Resistenz [1]

Dies war nun die vierte repräsentative Umfrage, welche die die EU-Kommission in Auftrag gegeben hat, um aktuelle Meinungen, Kenntnisse und Verhaltensweisen der EU-Bürger zum Problem antimikrobielle Resistenz zu erheben. Die Umfrage erfolgte in den 28 Mitgliedstaaten vom 8. bis 26. September 2018 und insgesamt 27 474 Personen ab 15 Jahren und aus unterschiedlichen sozialen und demographischen Gruppen - rund 1 000 Personen je Mitgliedsland -nahmen teil. wurden persönlich (face to face) in ihrem Heim und in ihrer Muttersprache interviewt.

Die Teilnehmer wurden u.a. gefragt ob und warum sie im letzten Jahr Antibiotika genommen hatten, wie sie diese erhalten hatten und ob ein Test auf den Erreger der Erkrankung erfolgt war. Des weiteren wurde das Verständnis zu Wirksamkeit und Anwendung der Antibiotika erhoben und zu den Risiken eines unsachgemäßen Gebrauchs, auch woher die Bürger entsprechende Information erhalten hatten und wie verlässlich sie diese Quellen einstuften.

Haben Sie im letzten Jahr Antibiotika genommen?

Diese Frage beantworteten im Mittel 32 % der befragten EU-Bürger mit Ja - ein deutlicher Rückgang seit 2009 (40 %), allerdings ist der Unterschied zwischen den Staaten groß. Während nahezu die Hälfte der Italiener angab Antibiotika genommen zu haben, waren dies in Schweden, Holland und Deutschland weniger als ein Viertel der Befragten. Österreich liegt mit rund 31 % der befragten Personen im EU-Mittel. Abbildung 2. Eine demographische Analyse ordnet erhöhten Antibiotika-Verbrauch eher Personen mit abgebrochener Ausbildung, niedrigerem sozialen Status, ohne Beschäftigung , Altersgruppen zwischen 15 und 24 Jahren und solchen über 65 Jahren und Frauen zu.

Abbildung 2. Haben Sie im letzten Jahr orale Antibiotika genommen? Zwischen 20 und 47 % der Teilnahme bejahen diese Frage.(Quelle: [1])

Von wem und wofür erhielten Sie Antibiotika (verschrieben)?

Die überwiegende Mehrheit - 93 % - derjenigen, die im letzten Jahr Antibiotika gebraucht hatten (d.i 8 416 Personen), gab an diese vom Arzt verschrieben/erhalten zu haben. Im EU-Mittel beschafften sich aber 7 % der Befragten die Medikamente ohne Verschreibung . Deren Anteil war mit 15 % in Österreich und Rumänien am höchsten, gefolgt von Bulgarien, Lettland , Belgien und Slowakei , in denen der Anteil zwischen 13 und 14 % lag.

Auf die Frage wofür sie Antibiotika erhalten hatten, wurden am häufigsten Bronchitis und Halsschmerzen genannt. Dann folgten aber schon Grippe und "Verkühlung" (grippaler Infekt). Diese beiden Indikationen hatten zwar seit 2016 stark abgenommen; immerhin galten aber im EU-Mittel noch immer 20 % der Verschreibungen (in Österreich 27 %) diesen durch Viren verursachten Defekten, in denen ja Antibiotika völlig nutzlos sind und höchstens Resistenzen damit herangezüchtet werden. Abbildung 3.

Die Verschreibung von Antibiotika erfolgte im Mittel bei der Mehrheit der Befragten - 56 % (in Österreich bei 50 %) - ohne dass eine Testung auf Bakterien in Blut, Harn oder Speichel stattgefunden hatte.

Abbildung 3. Bei welchen Erkrankungen Antibiotika verschrieben werden. Insgesamt 20 % der Antibiotika werden bei Influenza und "Verkühlung" verschrieben, Virus-verursachten Defekten, gegen die Antibiotika wirkungslos sind. (Quelle: [1]).

Kenntnisse über Antibiotika

Hier wurden vier Themen angeschnitten:

  • Ob Antibiotika Viren töten können. Die Antwort war beunruhigend : im EU-Mittel gab nahezu die Hälfte (48 %) der Befragten die falsche Antwort "Ja" - mehr als bei der letzten Erhebung 2016 - und 9 % sagten, dass sie es nicht wüssten. Nur in sieben Ländern wussten mehr als 50 %, dass Antobiotika dazu nicht imstande sind. Österreich bietet hier wieder ein unrühmliches Bild: über zwei Drittel der Befragten hielten Antibiotika geeignet um Virusinfektionen zu bekämpfen. Nur in Griechenland lag der Anteil der Fehlmeinungen noch höher. Abbildung 4.

Abbildung 4. Eine Wissenslücke: auch in den bestinformierten Ländern Schweden, Holland und Finnland bejaht bis zu ein Drittel der Bürger die Frage ob Antibiotika Viren töten können(Quelle: [1]

  • Ob Antibiotika bei Verkühlung wirksam sind. Überraschenderweise wurde diese Frage im EU-Schnitt von zwei Drittel der Teilnehmer richtig mit "Nein" beantwortet (auch in Österreich waren es immerhin 52 %).

Die richtigen Antworten auf beide Fragen kamen vorzugsweise von Personen mit abgeschlossener Ausbildung im mittleren Alter mit geregeltem Einkommen.

  • Ob eine unsachgemäße Anwendung von Antibiotika zu deren Wirkungsverlust führt. Dieses Faktum ist offensichtlich Im Bewusstsein der Europäer voll angekommen. Es wurde im EU-Schnitt von 85 % der Teilnehmer bejaht - der Unterschied zwischen den Staaten ist dabei verhältnismäßig gering . Auch in den Staaten mit der niedrigsten Zustimmung - Italien, Rumänien und Bulgarien - liegen die richtigen Antworten bei 70, 74 und 77 %.
  • Ob die häufige Anwendung von Antibiotika mit Nebenwirkungen - beispielsweise Durchfall - verbunden ist. Auch hier ist in allen Staaten der überwiegende Teil der befragten Bevölkerung dieser Meinung (von 59 resp. 60 % in Schweden und Kroatien bis 84 % in Zypern und der Slowakei; EU-Schnitt 68  %).

Fasst man zusammen, so ist europaweit etwa nur ein Viertel der Teilnehmer in der Lage die 4 Fragen richtig zu beantworten und es gibt es keinen Staat, in welchem die Mehrheit der Bevölkerung auf alle 4 Fragen die richtige Antwort gibt. Am besten schneidet Nordeuropa ab (Finnland, Schweden, Holland, Luxemburg und Dänemark), am schlechtesten Lettland, Rumänien und Bulgarien.

Zur sachgemäßen Anwendung von Antibiotika

Dem Großteil der Befragten (EU-Schnitt 84 %) ist bewusst, dass Antibiotika in der vom Arzt verschriebenen Menge genommen werden sollen. Allerdings meinen im Mittel 13  %, dass sie mit der Einnahme aufhören können, sobald es ihnen besser geht. Besonders hoch ist mit 21 % der Anteil der Therapie-Abbrecher in Bulgarien, Luxemburg und Lettland (auch in Österreich ist er mit 17 % höher als im EU-Mittel). Dass ein derartiges Verhalten zur Resistenzentwicklung führt, ist eingangs bereits festgestellt worden.

Darüber, dass Antibiotika nicht unnötig (Beispielsweise bei einer Verkühlung) eingenommen werden sollten, fühlte sich nur ein Drittel der Befragten informiert. Diese hatten die Information im Wesentlichen vom ihrem Arzt , Apotheker aber auch aus verschiedenen Medien erhalten. (Im Großen und Ganzen veränderten diese Auskünfte ihre Einstellung zu Antibiotika aber nicht.) Auf die Frage, welche Informationsquellen sie für die verlässlichsten hielten, nannten über 80 % an erster Stelle den Arzt, gefolgt vom Apotheker (42 %) und dem Spital (20 %). Medien und soziale Netzwerke fielen unter ferner liefen.

Mehr Information über Antibiotika wünschten rund zwei Drittel der Teilnehmer, wobei etwa gleich viele interessiert waren über die Indikationen zu hören, bei welchen Antibiotika angewendet werden, über Antibiotika-Resistenz, über den Zusammenhang von menschlicher und tierischer Gesundheit und Umwelt und schließlich über die sachgemäße Anwendung der Antibiotika.

Antibiotika in Landwirtschaft und Umwelt

Damit beschäftigen sich die letzten Punkte des Eurobarometer Reports.

Der Frage ob in der Viehzucht kranke Tiere Antibiotika erhalten sollten, wenn dies die geeignetste Therapiemöglichkeit ist, stimmte im Mittel mehr als die Hälfte (56 %) der Befragten zu. Am höchsten war die Zustimmung in UK, Irland und Portugal (75 -77 %), am niedrigsten in Italien und Slowenien (39 - 41 %). Auch in Österreich äußerten sich 54 % positiv.

Dass der Einsatz von Antibiotika für ein schnelleres Wachstum der Tiere in der EU verboten wurde, wussten die meisten (58 %) EU-Bürger aber nicht.

Fazit

Die neue Eurobarometer Umfrage zeigt ein große Manko der Bevölkerung hinsichtlich des Wissens wie Antibiotika sachgemäß angewendet werden und damit Resistenzentwicklung hintangehalten werden kann. Es sind zweifellos große Anstrengungen notwendig, um flächendeckend in allen Ländern den Menschen das dafür notwendige Wissen zu vermitteln - resistente Keime machen ja an den Grenzen von Regionen und Ländern nicht Halt und stellen eine enorme Bedrohung für die Gesundheit von Mensch und Tier dar.


[1] Special Eurobarometer 478: Antimicrobial Resistance. 

[2] Tackling drug-resistant infections globally: Final report and recommendations (PDF PDF; Link nicht frei zugänglich).

[3] Europäischer Aktionsplan zur Bekämpfung antimikrobieller Resistenzen im Rahmen des Konzepts „Eine Gesundheit“ {SWD(2017) 240 final}


Weiterführende Links

Wie wirken Antibiotika? Video 5:44 min. Eine sehr leicht verständliche Zusammenfassung (2015; Standard YouTube Lizenz)

Wachsende Bedrohung durch Keime und gleichzeitig steigende Antibiotika-Resistenzen? Video 7:18 min (aus der Uniklinik Bonn - stimmt auch für Österreich) Standard YouTube Lizenz.

Warum gibt es Antibiotika-Resistenzen? Video 2:43 min (Standard YouTube Lizenz)

Artikel zum Thema Resistenz im ScienceBlog

inge Thu, 22.11.2018 - 18:07

Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

Die Mega-Studie "VITAL" zur Prävention von Herz-Kreislauferkrankungen oder Krebs durch Vitamin D enttäuscht

Do, 15.11.2018 - 12:45 — Inge Schuster Inge SchusterIcon Medizin

Die US-amerikanische " VITAL-Studie" war die die bislang größte Placebo kontrollierte, randomisierte klinische Studie zur präventiven Wirkung von Vitamin D3 auf Herz-Kreislauferkrankungen und Krebs. Eine national repräsentative Auswahl von 25 871, anfänglich gesunden Personen im Alter über 50 (Männer) bzw. 55 Jahren (Frauen) erhielt über einen Zeitraum von etwa fünf Jahren täglich hochdosiertes Vitamin D3 (2 000 IU = 50 µg) oder Placebo und/oder parallel dazu 1 g Omega-3 Fettsäuren. Entgegen den Erwartungen konnte weder die Supplementierung mit Vitamin D3 noch mit Omega-3 Fettsäuren Schutz vor kardiovaskulären Ereignissen oder Krebserkrankungen bieten. Im folgenden werden hier vorerst nur die Ergebnisse zu Vitamin D3 vorgestellt.

In den 1990er Jahren begann Vitamin D für viele Wissenschafter hochinteressant zu werden. Dass Vitamin D eigentlich kein Vitamin ist, da es a) in unserem Körper, d.i. in der Haut, unter Sonnenbestrahlung erzeugt wird und dann b) in zwei Prozessen im Körper zu einem Steroid-artigen Hormon - Calcitriol - umgewandelt wird und nahezu alle Körperzellen spezifische Rezeptoren für das Hormon enthalten, war bereits erwiesen. Mittels der neuen Methoden der Genexpression zeigte sich nun, dass das Hormon offensichtlich pleiotrope Funktionen hatte, in der Lage war die Expression von über 900 Genen zu steuern. Neben seiner altbekannten, essentiellen Rolle im Calciumstoffwechsel und damit im Knochen(um)bau , reguliert Vitamin D offensichtlich auch Gene, die Schlüsselfunktionen in Wachstum und Differenzierung von Zellen, in der Regulierung der angeborenen und erworbenen Immunantwort, in der Abwehr von Infektionen, in neurophysiologischen Prozessen und vielen anderen Vorgängen haben.

Wie Vitamin D entsteht, zum aktiven Hormon umgewandelt wird und welche Funktionen es in unserem Körper ausüben kann, ist in einem vor sechseinhalb Jahren im ScienceBlog erschienenen Artikel beschrieben (ttp://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype.)

Ist Vitamin D eine Panacaea?

Zahllose in-vitro Experimente und Tierversuche aber auch viele kleinere klinische Studien wurden dazu unternommen. Diese wiesen darauf hin, dass hormonell aktives Vitamin D u.a. vor der Entstehung von Tumoren schützen und die Proliferation von Tumorzellen blockieren kann. Die klinischen Studien - vor allem in den Indikationen Prostata Ca und Brustkrebs- scheiterten jedoch daran, dass die einsetzbaren Dosierungen von hormonell aktivem Vitamin D nach oben hin stark limitiert waren - eine Dosissteigerung konnte die bekannte Mobilisierung von Calcium und damit eine lebensbedrohende Hypercalcämie auslösen.

Zu diesen experimentellen Ansätzen kamen zahlreiche epidemiologische Studien und Metaanalysen, die einen Zusammenhang zwischen einem Mangel an Vitamin D und der Inzidenz verschiedenster Krankheiten aufzeigten - das Spektrum reichte von Tumoren über kardiovaskuläre Erkrankungen, von Diabetes zu verschiedensten Autoimmunerkrankungen, von Infektionsanfälligkeit zu neurophysiologischen Defekten hin bis zu Autismus. Cochrane Reviews - der Goldstandard der Metaanalysen - zählt aktuell 67 solcher umfassender Reviews zum Einfluss von Vitamin D Supplementierung auf die verschiedensten Krankheitsbilder, beispielsweise auf Asthma, multiple Sklerose, chronischen Schmerz, cystische Fibrose, Psoriasis, atopische Dermatitis u.a.m. In den meisten Fällen ist aber - auch auf Grund insuffizienter Studien - die Evidenz für einen positiven Effekt der Vitamin D Supplementierung niedrig. Zur Krebs-Prävention befindet Cochrane beispielsweise: "Die verfügbare Evidenz zu Vitamin D und Inzidenz von Krebs ist interessant, lässt aber keine eindeutigen Schlüsse zu. Zahlreiche Beobachtungsstudien wie auch randomisierte Studien legen nahe, dass eine Beziehung zwischen einem hohen Vitamin-D-Spiegel und einem geringeren Auftreten von Krebs besteht. Randomisierte Studien, die die Wirkung einer Vitamin-D-Supplementierung auf die Krebsprävention testen, weisen widersprüchliche Ergebnisse auf". (Vitamin-D-Supplementierung zur Vorbeugung gegen Krebs bei Erwachsenen ).

Was fehlt, sind also aussagekräftige randomisierte und Placebo-kontrollierte Studien an einer ausreichend großen Population.

Trotz der unklaren Beweislage stieg und steigt die Popularität von Vitamin D; als Nahrungsergänzungsmittel , besser gesagt als Panacaea vermarktet, ist sein Umsatz in wenigen Jahren um ein Vielfaches gewachsen.

Was ist Vitamin D-Mangel, was ein optimaler Spiegel?

Die Bestimmung des Vitamin D-Status - repräsentiert durch den Blutspiegel seines Metaboliten 25-Hydroxyvitamin D3, der die Vorstufe zum Hormon ist - gehört nun zum Standardrepertoire jedes klinischen Labors. Allgemein gilt, dass Blutspiegel unter 10 - 12,5 ng/ml (25 - 30 nM) als Mangel anzusehen sind, der Auswirkungen auf die Calcium-Homöostase und damit vor allem auf das Knochen-/Muskelsystem hat (Risiko Osteomalazie und Rachitis zu entwickeln). Allerdings besteht kein internationaler Konsens, was für dieses System nun adäquate Spiegel sind, und was schließlich für die Gesundheit insgesamt betrachtet erstrebenswert/optimal ist (hier werden häufig Spiegel > 30 ng/ml (d.i. > 75 nM) genannt).

Den Blutspiegel Bestimmungen zufolge weist ein beträchtlicher Anteil der westlichen Weltbevölkerung einen Vitamin D-Mangel auf (Ein umfassender Report dazu: A. Spiro and J. L. Buttriss: Vitamin D: An overview of vitamin D status and intake in Europe. DOI: 10.1111/nbu.12108). Der Mangel tritt insbesondere in den Wintermonaten auf, da ja die primäre Quelle des Vitamin D die dem UV-Licht der Sonnenstrahlung ausgesetzte Haut ist. Was in den Sommermonaten an Vitamin D produziert und gespeichert wurde - sofern Sonnenlicht aus Angst vor den negativen Auswirkungen nicht weitgehend vermieden wurde - nimmt in den (UV-)lichtarmen Monaten ab. Eine Supplementierung von Vitamin D über Nahrungsmittel ist aber kaum möglich, da mit Ausnahme von fetten Fischen (wie Hering oder Lachs) der Gehalt an Vitamin D in der Nahrung viel zu niedrig ist, um adäquate Konzentrationen im Organismus zu erzeugen.

Abbildung 1. zeigt Blutspiegel des 25-Hydroxyvitamin D3 in der österreichischen Bevölkerung. Demnach weisen Kinder und ältere Menschen stärkeren Vitamin D-Mangel auf als Personen im Alter von 18 - 64 Jahren.

Abbildung 1. Blutspiegel des 25-Hydroxyvitamin D3 in der österreichischen Bevölkerung. Bis zu 20 % weisen einen schweren Vitamin D-Mangel (< 10 ng/ml) auf, bis zu 40 % einen relativen Mangel (< 20 ng/ml). Daten aus: Elmadfa I et al. Österreichischer Ernährungsbericht 2012. 1. Auflage, Wien, 2012.

Wie hoch sollte aber die Supplementierung mit dem Nahrungsergänzungsmittel Vitamin D angesetzt werden, um optimale Bedingungen für unsere Gesundheit zu erhalten? Kann bei entsprechend hoher Supplementierung eine Prävention der häufigsten Todesursachen - Herz-Kreislauferkrankungen und Krebs - erreicht werden?

Um diese Frage zu beantworten, startete 2008 die Epidemiologin JoAnn Manson (Harvard Medical School in Boston) eine von den National Institutes of Health (NIH) geförderte Mega-Untersuchung - die VITAL Studie -, die 10 Jahre dauern und viele Millionen Dollar kosten sollte.

Die VITAL Studie

Die VITAL (VITamin D and OmegA-3 TriaL) genannte Studie ist eine umfassende randomisierte und Placebo kontrollierte klinische Studie an eingangs gesunden Menschen (d.i. ohne Vorliegen einer kardiovaskulären- oder Krebserkrankung), für die US-weit Männer im Alter von 50 Jahren aufwärts und Frauen ab 55 Jahren rekrutiert wurden. Wie der Name der Studie besagt sollte neben Vitamin D auch die präventive Wirkung von Omega 3 Fettsäuren marinen Ursprungs ((Eicosapentaensäure - EPA - und Docosahexaensäure - DHA ; "Fischöl") auf kardiovaskuläre Ereignisse und Krebs geprüft werden.

Von über 400 000 Interessenten wurden schließlich 25 871 Personen ausgewählt, die ethnisch ein repräsentatives Bild der amerikanischen Bevölkerung bieten (weiße Bevölkerung inklusive Hispanics, Schwarze, Asiaten, u.a.). Diese erhielten im Mittel über 5,3 Jahre täglich eine relativ hohe Dosis an Vitamin D3 (2 000IU = 50 Mikrogramm) und/oder Fischöl (1 Gramm) oder Placebo. Das Design der Studie (2 x 2 faktorielles Design) ist in Abbildung 2 skizziert.

Abbildung 2. Das Design der VITAL-Studie. Die primäpräventive Wirkung von Vitamin D3 und von Fischöl (EPA + DHA) auf kardiovaskuläre Ereignisse (Infarkt, Schlaganfall, CV-Tod) sowie auf invasive Krebserkrankungen wurden im Vergleich zu Placebo in randomisierten Gruppen mit N Teilnehmern untersucht. EPA: Eicosapentaensäure, DHA: Docosahexaensäure. (Daten aus: JoAnn Manson et al.,: Vitamin D Supplements and Prevention of Cancer and Cardiovascular Disease. NEJM (10.11.2018) DOI: 10.1056/NEJMoa1809944)

AlleTeilnehmer wurden über die Studiendauer auf das Eintreten primärer Endpunkte - Herzinfarkt, Schlaganfall und CV-Tod sowie auf invasive Krebserkrankungen - und weiters auf sekundäre Endpunkte - Organ-spezifische Krebsformen, Tod durch Krebs und zusätzliche kardiovaskuläre Ereignisse - kontrolliert. Es wurde außerdem der basale 25-Hydroxyvitamin D3 Spiegel am Beginn der Studie und nach einem Jahr Vitamin D Supplementierung bestimmt.

Enttäuschende Ergebnisse

Die Supplementierung mit Vitamin D3 konnte keine der in sie gesetzten hohen Erwartungen erfüllen - weder in der Prävention von Krebs noch von Herz-Kreislauferkrankungen:

Über die Versuchsdauer erkrankten insgesamt 1617 Teilnehmer an Krebs, davon 793 in der Vitamin D Gruppe und 824 in der Placebo-Gruppe - der Unterschied ist nicht signifikant. Nicht signifikant sind auch die Unterschiede in der Inzidenz der häufigen Krebsformen von Prostata, Mamma und kolorektalem Ca. Ein kleiner, allerdings ebenfalls nicht signifikanter Unterschied war in der Zahl der durch Krebs verursachten Todesfälle zu sehen (154 versus 187 Fälle).

Hinsichtlich der kardiovaskulären Erkrankungen konnte ebenfalls kein signifikanter Unterschied zwischen Vitamin D-Supplementierung und Placebo beobachtet werden. Von den insgesamt 805 erkrankten Teilnehmern fielen 396 in die Vitamin D-Gruppe und 409 in die Placebo Gruppe.

Die Untersuchungen sind allerdings noch nicht zu Ende. Eine anschließende 2-Jahres Studie soll mögliche verzögerte Wirkungen in den Gruppen erkennen. Auch sollen ergänzende Studien zeigen, ob Vitamin D Wirkungen auf Diabetes, Kognition, Autoimmunerkrankungen u.a. zeigt.


Haben wir uns in Vitamin D getäuscht?

Wenn man mit der Vitamin D-Forschung vertraut ist, kann man die bis jetzt vorliegenden Ergebnisse der VITAL-Studie kaum fassen und hofft mögliche Unstimmigkeiten zu finden.

Was mir dabei aufgefallen ist: der Vitamin D-Status vor Beginn der Supplementation und in der Placebo Gruppe während der Studie lag im Mittel bei 30,8 ng/ml (78 nM; nur 12,7 % der Teilnehmer hatten Spiegel unter 20 ng/ml), einer, wie oben erwähnt, durchaus erstrebenswerten Konzentration. Das sind im Vergleich zu den europäischen Blutspiegeln (z.B. in Abbildung 1) viel höhere Werte; sie finden ihre Erklärung darin, dass einigen amerikanischen Nahrungsmitteln (z.B. Milch) Vitamin D zugesetzt wird und den Teilnehmer erlaubt war täglich bis zu 800 IU (20 µg) Vitamin D zu sich zu nehmen.

Kann also eine Gruppe mit solchen Blutspiegeln tatsächlich als Placebo-Gruppe betrachtet werden oder sind hier die Wirkungen des Vitamin D vielleicht im vollen Umfang bereits vorhanden, sodass der beobachtete Anstieg der Blutspiegel auf rund 42 ng/ml in der Vitamin D Gruppe kaum eine Steigerung der Effekte mit sich bringen kann?


Weiterführende Links

VITAL Studie homepage: https://www.vitalstudy.org/

NIH: Vitamin D. Fact Sheet for Health Professionals. https://ods.od.nih.gov/factsheets/VitaminD-HealthProfessional/

Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype?  http://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype#.


 

inge Thu, 15.11.2018 - 00:45

Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus

Der rasche Niedergang der Natur ist nicht naturbedingt - Der Living Planet-Report 2018 (WWF) zeigt alarmierende Folgen menschlichen Raubbaus

Do, 08.11.2018 - 06:25 — IIASA IIASAIcon Biologie

Vergangene Woche ist der, seit dem Jahr 2000 im zweijährigen Turnus erscheinende «Living Planet-Report» des WWF veröffentlicht worden. Der frei zugängliche, 146 Seiten starke Bericht [1] zeigt ein ernüchterndes Bild, welche globalen Auswirkungen menschliche Tätigkeiten auf Tier- und Pflanzenwelt, Wälder, Ozeane, Flüsse und Klima haben. Die Art und Weise, wie wir Menschen unsere Gesellschaften ernähren, mit Energie versorgen und finanzieren, lassen die Natur und ihre uns erhaltenden Dienstleistungen an eine Grenze stoßen. Das Zeitfenster für Gegenmaßnahmen ist schmal, die Weltgemeinschaft gefordert gemeinsam den Wert der Natur, ihren Schutz und ihre Erholung zu überdenken. Unter den 59 Autoren aus 26 verschiedenen internationalen Institutionen haben auch Forscher des in Laxenburg bei Wien ansässigen International Institute for Applied Systems Analysis - IIASA - wesentlich zu dem Report beigetragen.*

Zwanzig Jahre nach der Veröffentlichung des ersten Living Planet Reports bietet der aktuelle, 146 Seiten starke Bericht einen umfassenden Überblick über den Zustand unserer natürlichen Welt [1]. Unter Zuhilfenahme von Indikatoren (Abbildung 1) - wie dem Living Planet Index (LPI) der Zoologischen Gesellschaft von London, dem Species Habitat Index (SHI), dem IUCN-Index der Roten Liste (RLI) und dem Biodiversity Intactness Index (BII) - sowie den Belastbarkeitsgrenzen des Planeten und dem ökologischen Fußabdruck zeichnet der Bericht ein außerordentlich beunruhigendes Bild: die natürlichen Systeme des Planeten, die das Leben auf der Erde erhalten, werden durch menschliche Aktivitäten an eine Grenze gestoßen.

 

Abbildung 1. Indikatoren der Biodiversität: Der Living Planet Index ist Populations-basiert und hat im Zeitraum 1970 - 2014 insgesamt 16 704 Populationen von 4 005 Wirbeltierspezies global verfolgt.(dies wird als repräsentativ für die insgesamt bereits 63 000 beschriebenen Spezies von Wirbeltieren angesehen). Der LPI wird ergänzt durch den Spezies Habitat Index, einem Maß für den verfügbaren Lebensraum jeder Spezies; er erfasst Änderungen in der Verteilung der Spezies, Präferenzen, Verlust von Habitaten. Der Biodiversity Intactness Index verfolgt Änderungen in der Zusammensetzung der Spezies einer Gemeinschaft, d.i. der Biodiversität. Der Rote Liste Index erfasst Anstieg und Absinken auf der Spezies-Ebene, d.i. das Risiko des Aussterbens.(Bild: modifiziert nach WWF Living Planet Report 2018 page 101 [1]; cc-by-sa-3.0)

Rückgang der Arten

Der LPI erfasst Trends im globalen Vorkommen von Wildtieren: er zeigt, dass die Populationen von Fischen, Vögeln, Säugetieren, Amphibien und Reptilien zwischen 1970 und 2014 (dem Jahr der letzten bereits verfügbaren Datensätze) weltweit im Durchschnitt um 60% abnahmen. Abbildung 2 zeigt, wo weltweit die Populationen der Spezies erfasst wurden und wie insgesamt die Populationen im Durchschnitt abgenommen haben.

Abbildung 2. Der globale Life Planet Index (LPI). Oben: Orte, an denen die insgesamt 16 704 Populationen der 4005 Spezies erfasst wurden (seit dem vorherigen Report neu hinzugekommene Populationen/Spezies sind orange/rot dargestellt). Unten: Die über alle erfassten Spezies gemittelte Häufigkeit des Vorkommens zeigt von 1970 - 2014 ein Absinken um 60%. Die weiße Linie gibt die LPI-Werte wieder, die grün schattierte Fläche die statistische Sicherheit (Bereich -50% bis -67%) (Bilder: WWF Living Planet Report 2018 page 90 und 94, [1]; cc-by-sa-3.0)

Die Hauptbedrohungen für die Arten sind dabei mit den Aktivitäten des Menschen korreliert, sie schließen den Verlust und die Verschlechterung von Lebensräumen mit ein sowie die exzessive Ausbeutung von Tier-und Pflanzenwelt. Ken Norris, wissenschaftlicher Direktor der Zoological Society of London äußert dazu: „Ob es Flüsse oder Regenwälder, Mangroven oder Berghänge sind - unsere Arbeit zeigt, dass seit 1970 auf der ganzen Welt der Reichtum an Wildtieren dramatisch zurückgegangen ist. Die Statistiken sind beängstigend, alle Hoffnung aber noch nicht verloren. Wir haben die Möglichkeit, einen neuen Weg zu entwickeln, der es uns erlaubt, nachhaltig in Gemeinschaft mit der Tier- und Pflanzenwelt zu leben, von der wir ja abhängig sind. Unser Bericht legt eine ehrgeizige Agenda für den Wandel dar. Wir werden die Hilfe von Allen brauchen, um dies zu erreichen “.

Beiträge von IIASA Forschern

Der Planet Life Report enthält Beiträge von 59 Autoren aus 26 Institutionen, darunter von David Leclère und Piero Visconti vom IIASA Ecosystems Services and Management Program.

Visconti hat zu Kapitel 3: Biodiversität in einer sich verändernden Welt beigetragen und Daten aus seinen eigenen Analysen beigesteuert - in seiner aktuellen Forschung beschäftigt sich Visconti mit dem Species Habitat Index (SHI) und dem Index der Roten Liste (RLI). Er sagt, dass Biodiversität so facettenreich ist, dass der LPI allein nicht ausreicht, um ihren Zustand und ihre Entwicklung zu verfolgen. Wie es auch in der Ökonomie der Fall ist, sind hier eine Reihe von Kriterien erforderlich. (siehe Abbildung 1.)

„Der Reichtum des Tierbestands ist ein wichtiges Maß für die Gesundheit der natürlichen Umwelt, ein Rückgang für sich allein bereits alarmierend. Andere Indikatoren der Biodiversität geben uns allerdings noch besorgniserregendere Signale, insbesondere das zunehmende Risiko für eine Reihe von Tier- und Pflanzenarten auszusterben, sowie die Gesamtzahl bereits ausgestorbener Arten. Im Gegensatz zum Rückgang einer Population ist ein Aussterben nicht rückgängig zu machen “, sagt Visconti.

Zu Kapitel 4 des Reports: Mehr wollen: Welche Zukunft wollen wir? hat Leclère beigetragen, indem er darstellte, wie Szenarien der von IIASA entwickelten Shared Socioeconomic Pathways (SSPs) helfen können, sich ein Bild von der Zukunft des Planeten zu machen und an einer guten Politik mitzuwirken.

Menschliches Handeln untergräbt die Fähigkeit der Natur die Menschheit zu erhalten

In den letzten Jahrzehnten haben Tätigkeiten des Menschen starke Auswirkungen auf Lebensräume - wie Ozeane, Wälder, Korallenriffe, Feuchtgebiete und Mangroven - und natürliche Ressourcen gezeigt, von denen Pflanzen-, Tierwelt und die Menschheit abhängig sind. In nur 50 Jahren sind 20% des Amazonasgebiets verschwunden, in den letzten 30 Jahren hat die Erde ungefähr die Hälfte ihrer Flachwasserkorallen verloren.

Obwohl der Living Planet-Bericht 2018 das Ausmaß und die Auswirkungen menschlicher Aktivitäten auf die Natur herausstreicht, konzentriert er sich auch darauf, welche Bedeutung und welchen Wert die Natur für Gesundheit und Wohlbefinden von Menschen sowie von Gesellschaften und Volkswirtschaften hat. Der Report nennt dazu Zahlen: Demnach erbringt die Natur weltweit Dienstleistungen im Wert von rund 125 Billionen US-Dollar pro Jahr und hilft gleichzeitig die Versorgung mit Frischluft, sauberem Wasser, Nahrungsmitteln, Energie, Medikamenten und anderen Produkten und Materialien sicher zu stellen.

Ein spezielles Thema in dem Bericht ist die Bedeutung der Bestäuber, welche für die Produktion von Kulturpflanzen im Wert von 235 bis 577 Milliarden US-Dollar pro Jahr verantwortlich sind. (In Abbildung ist eine Steinhummel zu sehen, ein in Europa weit verbreiteter, wichtiger Bestäuber). Der Bericht zeigt auf, wie ein sich veränderndes Klima, intensive landwirtschaftliche Praktiken, invasive Arten und aufkommende Krankheiten sich auf die Fülle, Vielfalt und Gesundheit der Bestäuber auswirken.

Abbildung 3. Die Steinhummel (Bombus lapidarius) ist ein Generalist, was die Nahrung betrifft und somit Bestäuber vieler Pflanzenfamilien (Bild: WWF Living Planet Report 2018 [1]; cc-by-sa-3.0)

„Es ist an der Zeit sich dessen bewusst zu sein, dass eine gesunde und nachhaltige Zukunft für alle nur auf einem Planeten möglich ist, auf dem die Natur gedeiht und Wälder, Ozeane und Flüsse vor Biodiversität und Leben nur so strotzen. Wir müssen dringend überdenken, wie wir die Natur nutzen und wertschätzen - kulturell, wirtschaftlich und in unseren politischen Agendas. Wir müssen die Natur als schön und inspirierend betrachten, aber auch als unverzichtbar “, sagte Marco Lambertini, Generaldirektor von WWF International.

Ein Aktionsplan für die Natur – für 2020 und darüber hinaus

Es ist evident, dass die beiden Agenda - für Umwelt und für menschliche Entwicklung - zusammenlaufen müssen, wenn wir eine nachhaltige Zukunft für alle aufbauen wollen. Der Living Planet Report 2018 unterstreicht die Chance, welche die Weltgemeinschaft hat die Natur zu schützen und zu erneuern. 2020 wird ein kritisches Jahr: es sollen dann die Fortschritte bei den Zielen für nachhaltige Entwicklung, dem Pariser Abkommen und dem Übereinkommen über die biologische Vielfalt (Convention on Biological Diversity -CBD) überprüft werden.

Der WWF ruft Menschen, Unternehmen und Regierungen dazu auf, unter dem Übereinkommen über die biologische Vielfalt ein umfassendes Rahmenabkommen für Natur und Menschen aufzubringen; ein Übereinkommen, das öffentliche und private Maßnahmen vereinigt , um die globale Artenvielfalt und die Natur zu schützen und ihr Erholung zu bieten und die Kurve der verheerenden Trends - wie sie , der Living Planet Report 2018 aufzeigt - abzuflachen.

Kapitel 4 des Berichts ist durch eine Arbeit mit dem Titel "Aiming higher to bend the curve of biodiversity loss" inspiriert. Unter diesem "Mehr wollen" wird ein Fahrplan für Ziele, Indikatoren und Kennzahlen angeregt, welcher die 196 Mitgliedstaaten der CBD veranlassen könnte ein dringliches, ambitioniertes und effektives Weltabkommen für die Natur auf den Weg zu bringen, wenn sie sich im November 2018 auf der 14. Vertragsstaatenkonferenz der CBD (COP14) in Ägypten treffen - ganz so, wie es die Welt in Paris für das Klima getan hat. Die COP14 markiert einen Meilenstein, um die Voraussetzungen für ein dringend benötigtes globales Abkommen für Natur und Leute zu schaffen.

Wie in Kapitel 4 hervorgehoben, bietet die Nach-2020- Strategie eine einzigartige Gelegenheit, um rückläufige Trends der Biodiversität umzukehren. Es ist allerdings auch klar, dass eine solche Absicht mit der menschlichen Entwicklung in Konflikt geraten kann. Abbau und Verlust von Lebensraum , die zu den größten Treibern sinkender terrestrischer Biodiversität gehören, sind das direkte Ergebnis menschlicher Aktivitäten, die eben auch die Bedürfnisse einer wachsenden menschlichen Bevölkerung unterstützen. Was wir für eine solide Strategie nach 2020 brauchen, ist eine genauere Bewertung der Art von Landnutzungspfaden und Strategien, die helfen können das globale Nahrungsmittelsystem zu steuern“, sagt Leclère.

Er fügt hinzu, dass vom IIASA entwickelte Modelle und Szenarien - einschließlich des Global Biosphere Management Model (GLOBIOM) und den Shared Socioeconomic Pathways (SSPs) - bei der Entwicklung solcher Strategien, hilfreich sein könnten. 

[1] WWF. 2018. Living Planet Report - 2018: Aiming Higher. Grooten M and Almond REA (Eds). WWF, Gland, Switzerland.


*Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte Artikel ist am 30. Oktober 2018 auf der Webseite des IIASA unter dem Titel: "Nothing natural about nature’s steep decline: WWF report reveals staggering extent of human impact on planet" erschienen. http://www.iiasa.ac.at/web/home/about/news/181030-wwf-report.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen aus dem Living Planet Report 2018 ergänzt.


Weiterführende Links

inge Thu, 08.11.2018 - 06:25

Klimamodelle: wie werden diese validiert?

Klimamodelle: wie werden diese validiert?

Do, 01.11.2018 - 10:30 — Carbon Brief

Carbon BriefIcon GeowissenschaftenSind Klimamodelle in der Lage zuverlässige Prognosen abzugeben? Zur Validierung der Modelle wird geprüft, wie realistisch diese das in der Vergangenheit beobachtete Klima wiedergeben können (Hindcasts). Dies gelingt für die mittlere globale Klimaentwicklung (nicht nur) der letzten 150 Jahre recht gut. Der Artikel ist Teil 6 einer umfassenden, leicht verständlichen Serie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -5 [1, 2, 3, 4, 5]).*

Wissenschaftler validieren ihre Modelle, indem sie deren Prognosen mit Datensätzen aus realen Beobachtungen vergleichen. Beispielsweise wäre dies ein Vergleich von Modellprojektionen mit den tatsächlichen globalen Oberflächentemperaturen im vergangenen Jahrhundert.

Hindcasts - Prognosen in die Vergangenheit

Klimamodelle können an Hand historischer Änderungen des Erdklimas getestet werden. Derartige Vergleiche mit der Vergangenheit werden wie in [4] erwähnt "Hindcasts" genannt.

Dabei "erzählen" die Wissenschaftler ihren Modellen nicht, wie sich das Klima in der Vergangenheit verändert hat - sie speisen beispielsweise keine historischen Temperaturmesswerte ein. Stattdessen geben sie Informationen über vergangene Klimatreiber ein und die Modelle erzeugen daraus eine(n) "Rückschau" (Hindcast) auf historische Situationen - ein gangbarer Weg, um Modelle zu validieren. Abbildung 1 (Carbon Brief Bild von der Redn. eingefügt).

Abbildung 1. Auf­zeich­nun­gen und Hind­cast-Mo­del­lie­run­gen der globalen Tem­pe­ra­tur­än­de­run­gen ( in ° C; Landoberflächen und Ozeane zu­sam­men­ge­nom­men) seit 1970. Die großen Vul­kan­aus­brü­che von El Chichon (1982) und Pinatubo (1991) haben zu einem raschen Absinken der globalen Temperatur geführt, dies wird in den Simulierungen präzise wiedergegeben. Bunte Linien: jährliche Aufzeichnungen von 5 großen Institutionen (NASA, NOAA, HadCRUT, Cowtan and Way und Berkeley Earth). Schwarze Linie: Mittelung über 109 Simulationen an 38 Modellen, graue Flächen: Bereich der Modelldaten (95 % Confidence). Bild: Carbon Brief.

Hindcasts wurden für verschiedene Klimafaktoren wie Temperatur (an der Erdoberfläche, in Ozeanen und in der Atmosphäre), Regen und Schnee, Hurrikanbildung, Ausdehnung von Meereis und viele andere Klimavariablen erstellt, um aufzuzeigen, dass Klimamodelle in der Lage sind, das Erdklima präzise zu simulieren.

Es gibt Hindcasts für den historischen Bereich der Temperaturaufzeichnungen (von 1850 bis jetzt), für die letzten 2000 Jahre, wobei verschiedene Klimaproxies (indirekte Anzeiger des Klimas in Eisbohrkernen, Baumringen, Ozeansedimenten, etc; Anm. Redn.)zur Anwendung kamen und sogar für die letzten 20.000 Jahre.

Abbildung 2 (Carbon Brief Bild von der Redn. eingefügt) zeigt, dass die Simulationen sehr gut die Aufzeichnungen seit 1861 widerspiegeln und erstellt auf dieser Basis eine Prognose bis 2100.

Abbildung 2. Hindcast-Mo­del­lie­run­gen der globalen Tem­pe­ra­tur­än­de­run­gen ( in ° C; Landoberflächen und Ozeane zu­sam­men­ge­nom­men) vom Beginn der historischen Aufzeichnungen im Jahr 1861 bis 2017 und Forecasts (Prognosen) bis 2100. Bunte Linien: jährliche Aufzeichnungen von 5 großen Institutionen (NASA, NOAA, HadCRUT, Cowtan and Way und Berkeley Earth). Schwarze Linie: Mittelung über alle Modelle, graue Flächen: Bereich der Modelldaten (95 % Confidence). Bild: https://www.carbonbrief.org/factcheck-climate-models-have-not-exaggerated-global-warming.

Vulkanausbrüche

Spezifische Ereignisse mit massiven Auswirkungen auf das Klima, wie es etwa Vulkanausbrüche sind, können auch dazu dienen, die Leistungsfähigkeit eines Modells zu testen. Auf Vulkanausbrüche reagiert das Klima relativ schnell - um erkennen zu können ob Modelle genau erfassen, was nach großen Eruptionen passiert, brauchen Forscher also nur wenige Jahre zu warten.

Untersuchungen belegen, dass Klimamodelle die Änderungen von Temperatur und atmosphärischem Wasserdampf nach großen Vulkanausbrüchen präzise abbilden (Abbildung 1).

Klimatologie

Klimamodelldaten werden auch mit der durchschnittlichen (d.i. mit der über einen Zeitabschnitt gemittelten) Klimasituation verglichen. Beispielsweise prüfen die Forscher, ob die Durchschnittstemperaturen der Erde im Winter und Sommer in Modellen und Realität ähnlich ausfallen. Sie vergleichen auch die Ausdehnung des Meereises in Simulierungen versus Beobachtungen - Modelle, welche die aktuelle Meereisbedeckung besser darstellen, werden dann gewählt. um zukünftige Veränderungen zu prognostizieren.

Experimente, in denen viele verschiedene Modelle mit denselben Treibhausgaskonzentrationen und anderen "Antrieben" laufen, wie dies in den in den Modellvergleichsprojekten (MIPs, siehe [draft 5]) der Fall ist, bieten eine Möglichkeit, Ähnlichkeiten und Unterschiede zwischen Modellen zu untersuchen.

Eine Mittelung über alle Modelle kann in vielen Punkten des Klimasystems zu genaueren Aussagen führen als dies bei den meisten Einzelmodellen der Fall ist. Werden mehrere unabhängige Modelle kombiniert, so zeigen Vorhersagen bessere Qualität, höhere Zuverlässigkeit und Konsistenz.

Um zu überprüfen, ob Modelle vertrauenswürdig sind, können projizierte zukünftige Änderungen mit den tatsächlich eintretenden Ereignissen verglichen werden. Dies kann jedoch bei langfristigen Projektionen ein schwieriges Unterfangen sein, da es lange dauert, bevor man beurteilen kann, wie gut die aktuellen Modelle funktionieren.

Carbon Brief hat die seit den 1970er Jahren erstellten Klimamodelle analysiert: diese haben generell seh gut funktioniert, um die Hindcasts aber auch die Forecasts für den nächsten Zeitabschnitt zu prognostizieren.

Wie werden Klimamodelle "parametrisiert"?

Wie in Teil 1 der Serie erwähnt [1], sind Klimamodelle enorm groß, den Wissenschaftlern steht aber kein unendliches Angebot an Rechenleistung zur Verfügung. Um die Simulationen besser bewältigen zu können, unterteilen Klimamodelle die Erdoberfläche durch ein 3D-Gitternetz (mit jeweils mehr oder weniger großen Maschenweiten; Anm. Redn.), wobei jeder Gitterzelle über ihr gesamtes Volumen konstante klimarelevante Eigenschaften und Prozesse zugeordnet werden. Ein Modell berechnet nun über ein Zeitintervall hin das durchschnittliche Klima jeder Gitterzelle.

Allerdings gibt es im Klimasystem und auf der Erdoberfläche viele Prozesse, die auf Skalen stattfinden, die kleiner sind als die Gitterzelle. Um dafür ein Beispiel anzuführen: innerhalb einer Gitterzelle werden die Höhen der Landoberfläche gemittelt - dies bedeutet, dass dabei alle landschaftlichen Merkmale wie Berge und Täler vernachlässigt werden. Ähnlich werden auch die Vorgänge in der Atmosphäre gemittelt: Wolkenbildung und -Auflösung können aber in Größenskalen erfolgen, die viel kleiner als eine Gitterzelle sind.

Um das Problem solcher kleinskaliger, klimarelevanter Variablen zu lösen, werden diese"parametrisiert", dh. ihre Werte werden im Computercode (siehe dazu [1]) festgelegt und nicht vom Modell selbst berechnet.

Abbildung 3 zeigt einige der Prozesse, die typischerweise in Modellen parametrisiert sind.

Abbildung 3. Eine Liste der 20 Klimaprozesse und -Eigenschaften, die normalerweise in globalen Klimamodellen parametrisiert werden müssen. (Bild: mit freundlicher Genehmigung von MetEd, The COMET Program, UCAR.)

Parametrisierungen dienen auch zur Vereinfachung, wo immer ein Klimaprozess nicht hinreichend verstanden wird/noch nicht mathematisch beschrieben werden kann.

Problem: Parametrisierungen sind eine der Hauptquellen von Unsicherheiten in Klimamodellen.

Kalibrierung des Modells

In vielen Fällen ist es nicht möglich, parametrisierte Variable auf einen einzelnen Wert einzugrenzen, daher muss das Modell einen Schätzwert einsetzen. Die Wissenschaftler führen Tests an ihrem Modell durch, um einen solchen Wert - oder einen Bereich von Werten - zu finden, der dem Modell die bestmögliche Darstellung des realen Klimas ermöglicht.

Dieser komplexe Vorgang ist unter unterschiedlichen Bezeichnungen - Kalibrierung ,Tuning oder Justierung des Modelles - bekannt. Obwohl es ein notwendiger Teil der Klimamodellierung ist, ist es kein Prozess, der spezifisch dafür ist. So wurde beispielsweise 1922 in einem Artikel der Royal Society "Über die mathematischen Grundlagen der theoretische Statistik" die "Parameterschätzung" als einer der drei Schritte im Modellieren festgestellt.

Dr. James Screen, Assistenzprofessor für Klimaforschung an der Universität von Exeter, erklärt Carbon Brief, wie Wissenschaftler ihr Modell hinsichtlich der Albedo (Reflektivität; ein Maß dafür, wie viel Sonnenenergie von einer Oberfläche reflektiert wird) von Meereis kalibrieren könnten:

"In vielen Meereismodellen ist die Albedo des Meereises ein Parameter, der auf einen bestimmten Wert eingestellt ist. Den "korrekten" Wert der Eisalbedo kennen wir nicht und mit Beobachtungen der Albedo ist ein gewisser Unsicherheitsbereich verbunden. Während sie nun ihre Modelle entwickeln, können die Forscher mit leicht unterschiedlichen - aber plausiblen - Parameterwerten experimentieren, mit dem Ziel einige grundlegende Eigenschaften des Meereises so gut wie möglich an unsere aus Beobachtungen stammenden, besten Schätzungen anzupassen. Beispielsweise möchte man vielleicht sicherstellen, dass der saisonale Zyklus der Meereisausdehnung passt oder ungefähr die richtige Eismenge im Mittel vorhanden ist. Das ist Kalibrierung. "

Wären alle Parameter zu 100% gesichert, so wäre eine derartige Kalibrierung nicht erforderlich, meint Screen. Das Wissen der Wissenschaftler über das Klima ist aber leider unvollständig, weil die aus Beobachtungen kommende Evidenz Lücken aufweist.

Da Parametrisierungen in den meisten globalen Modellen Usus ist, führen praktisch alle Modellierungszentren eine Kalibrierung der Modelle durch. Laut einer Umfrage aus dem Jahr 2014 werden in den meisten Fällen Modelle so kalibriert, dass sie das langfristige durchschnittliche Klima richtig wiedergeben - einschließlich einiger Faktoren wie absolute Temperaturen, Meereiskonzentrationen, Oberflächenalbedo und Meereisausdehnung .

Der am häufigsten kalibrierte Faktor (in 70% der Fälle) ist dabei die Strahlungsbilanz am oberen Rand der Atmosphäre. Hier werden die Parametrisierungen insbesondere von Wolken (deren Mikrophysik, Konvektion und Bedeckungsgrad) aber auch von Schnee, Meereisalbedo und Vegetation kalibriert.

Kalibrieren bedeutet aber nicht einfach ein "Anpassen" historischer Aufzeichnungen. Führt eine vernünftige Auswahl von Parametern zu Resultaten, die sich von der beobachteten Klimatologie dramatisch unterscheiden, können Modellierer entscheiden, eine andere Auswahl zu treffen. Erfolgt ein Update eines Modells und erbringt dieses nun eine massive Abweichung von den Beobachtungen, so suchen die Modellierer nach Fehlern oder anderen Faktoren , die den Unterschied erklären können.

Wie der NASA-Direktor des Goddard-Instituts für Weltraumforschung, Dr. Gavin Schmidt, Carbon Brief erklärt:

"Globale Durchschnittstrends werden auf Vernünftigkeit kontrolliert, aber (im Allgemeinen) nicht exakt darauf justiert. Dazu gibt es in der wissenschaftlichen Gemeinschaft viel Diskussion, aber allen ist klar, dass diese Forschung transparenter gemacht werden muss."


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter den Titeln" How do scientists validate climate models? How do they check them? und " How are climate models “parameterised” and tuned? ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.

[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung.

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen.

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen.

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch? [5]

Teil 5 (20.09.2018).: Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?


Weiterführende Links

Artikel im ScienceBlog

Wir haben einen eigenen Schwerpunkt Klima und Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 01.11.2018 - 10:30

Genies aus dem Labor

Genies aus dem Labor

Do, 25.10.2018 - 08:00 — Nora Schultz Nora SchultzIcon Gehirn

 

Was macht ein Genie aus? Woher kommt Genialität? Von mentalen Superkräften träumen viele und Intelligenzsprünge mithilfe von pharmakologischen, maschinellen oder genetischen Interventionen wären denkbar. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über die verschiedenen Ansätze, die von Wunderpillen, elektrischen oder magnetischen Kappen und im Hirn implantierten Chips bis hin zu genetischen Manipulationen reichen. *

Der Drang, Grenzen zu überwinden, prägt den Menschen seit eh und je, angetrieben von seinem einzigartigen Talent, sich vorzustellen was (noch) nicht ist. Das gilt auch für die Grenzen des Gehirns. Genuin geniale Spitzenleistungen sind rar, doch von mentalen Superkräften träumen viele (Abbildung 1). Lucy in Luc Bessons gleichnamigen Film beispielsweise entfesselt dank einer neuartigen Droge eine extrem überhöhte Intelligenz. Für den Studenten Dexter in der Disney-Komödie „Superhirn in Tennisschuhen“ reicht ein Stromschlag, um computergleiche Fähigkeiten zu entwickeln, und den IQ des geistig zurückgebliebenen Charly katapultiert in Daniel Keyes preisgekrönter Geschichte „Blumen für Algernon“ eine Operation in luftige Höhen. Auch jenseits der Traumfabriken sprudelt die Phantasie kaum weniger lebhaft.

Abbildung 1. Wie wird man ein Genie? Lässt sich das Gehirn aufmotzen? Noch klappt das nicht, aber Visionäre arbeiten daran (Grafik: MW)

Gibt es Wunderpillen zur Steigerung der Intelligenz?

Vor allem der Griff zur Pille lockt viele Menschen. Schon Schwangere werden angehalten, Fischöl-Kapseln zu schlucken, um die Gehirnentwicklung des Ungeborenen mit den darin enthaltenen Omega-3-Fischsäuren zu fördern. Auch für Kinder stehen Fischöl-Präparate hoch im Kurs – und haben tatsächlich einen kleinen, aber messbar positiven Effekt auf die Intelligenz.

Die Wirkung vieler weiterer Präparate, die kognitive Kräfte befeuern wollen, von Ginseng- und Gingko-Extrakten, über B-Vitamine und Vitamin D bis hin zu Koffein, ist hingegen eher zweifelhaft .

Auf der Suche nach einem stärkeren kognitiven Kick greifen daher immer mehr Menschen nach verschreibungspflichtigen Medikamenten, die das Denken verbessern sollen. Allein in Deutschland ist die Zahl der Berufstätigen, die schon einmal solche Pillen geschluckt hat, um Leistung zu steigern oder Stress abzubauen, zwischen 2008 und 2014 von 4,7 auf 6,7 Prozent gestiegen .

Medikamente, die als „Neuroenhancer“ in Betracht kommen, wurden häufig ursprünglich für andere Zwecke entwickelt, etwa zur Behandlung von Aufmerksamkeitsstörungen (Ritalin), Schlafsucht (Modafinil) oder Demenz (Memantin, Donezepil). Nach aktueller Studienlage können sie unter bestimmten Voraussetzungen einige geistige Leistungen bei Gesunden zwar womöglich tatsächlich verbessern , von einer dauerhaften Intelligenzsteigerung kann jedoch auch hier keine Rede sein. Trotz intensiver Anstrengungen von Pharma- und Biotechfirmen blieb der große Durchbruch bei der Suche nach einer Superhirnpille bislang aus (siehe auch: https://www.dasgehirn.info/denken/gedaechtnis/doping-fuers-gedaechtnis) .

Das liegt auch daran, dass besonders große und nachhaltige Intelligenzsteigerungen, wie sie für die gezielte Entwicklung echter Genialität nötig wären, voraussichtlich in jungen Jahren ansetzen müssten, wenn das Gehirn noch formbarer ist. Gerade Eingriffe bei Kindern gelten jedoch als ethisch besonders sensibel, da diese im Gegensatz zu mündigen Erwachsenen noch nicht voll selbstbestimmt einwilligen können. Wenn ernste Nebenwirkungen drohen oder deren Möglichkeit auch nur unzureichend erforscht ist, ist daher aus gutem Grund Zurückhaltung geboten – wird aber längst nicht immer ausgeübt [Kasten].

Maschinen, die direkt am Gehirn ansetzen

Davon erhoffen manche eine durchschlagendere Wirkung. Gleich zwei davon greifen das schon in den 1960er Jahren vom Disney-Huhn Daniel Düsentrieb erfundene Konzept der „Denkkappe“ auf.

Nichtinvasive Ansätze

Bei der transkraniellen Gleichstromstimulation (tDCS) stimulieren am Kopf angebrachten Elektroden das Gehirn elektrisch, während bei der transkraniellen Magnetstimulation (TMS) Magnetspulen durch den Schädel auf die Neuronen wirken. Abbildung 2.

Beide Methoden konnten im Experiment schon diverse kognitive Aspekte positiv beeinflussen, z. B. verbale Funktionen, das Gedächtnis oder die geistige Flexibilität. Die Wirksamkeit mag in beiden Ansätzen auf eine generelle Erhöhung der neuronalen Plastizität zurückgehen, doch ob sich positive Effekte einstellen, hängt offenbar von vielen Aspekten des Versuchsaufbaus ab. Bislang gelang es weder mit tDCS noch mit TMS ein „Rezept“ zu entwickeln, das in gesunden Menschen robust kognitive Verbesserungen bewirkt.

Abbildung 2. Transkranielle Stimulierung der Gehirnfunktion durch Gleichstromstimulation (tDCS) und Magnetstimulation (TMS) (Links: 35 cm2 Elektroden (b, c), positioniert mittels Kopfband (d) und Gummiband (e); Yokoi and Sumiyoshi, 2015https://npepjournal.biomedcentral.com/articles/10.1186/s40810-015-0012-x : cc-by 4.0. Rechts: Wikipedia, NIH: gemeinfrei. Abbildung von der Redaktion eingefügt)

Invasive Ansätze

Auch die tiefe Hirnstimulation, bei der Elektroden dauerhaft ins Gehirn eingesetzt werden, könnte kognitive Leistungen verbessern . Diese Technologie kann auch tieferliegende Regionen erreichen, zum Beispiel den Hippocampus, der eine wichtige Rolle bei der Bildung von Erinnerungen spielt.

Der Unternehmer Bryan Johnson hat 2016 hundert Millionen Dollar in die Gründung der Firma Kernel gesteckt, um zunächst gemeinsam mit dem Neurowissenschaftler Theodore W. Berger, der bereits an einer Hippocampusprothese für Affen arbeitete, einen Chip zu bauen, der die Bildung und den Abruf von Erinnerungen verstärken sollte .Inzwischen sucht Johnson stattdessen nach Wegen, das Gehirn direkt über multiple Schaltstellen mit Computern zu verbinden .

Der Technikvisionär und Unternehmer Elon Musk, besser bekannt für seine Tesla-Autos und Fahrpläne zum Mars, plant mit seiner neuen Firma Neuralink (https://www.neuralink.com/ "Neuralink is developing ultra high bandwidth brain-machine interfaces to connect humans and computers.") derweil ein Produkt, das es bislang nur in den Science-Fiction-Geschichten des schottischen Schriftstellers Iain M. Banks gab: die so genannte „neurale Borte“ (neural lace). Die Metapher des filigranen Garngeflechts deutet darauf hin, dass hier ebenfalls mehrere Andockstellen im Gehirn komplex mit maschinellen Gegenparts vernetzt werden sollen. Mehrere andere Teams arbeiten an ähnlichen Projekten.

Genetische Manipulationen

Ein anderer Weg, menschliche Geistesleistungen aufzumotzen, setzt nicht auf Maschinen, sondern auf Moleküle. Statt digitale Plugins einzuflechten, sollen genetische Manipulationen die neuronale Architektur von Grund auf leistungsfähiger machen.

Einer der Pioniere solcher Ansätze ist Joe Tsien, der 1999 die genetisch veränderte Maus Doogie präsentierte. Sie lernte doppelt so schnell wie normale Mäuse, durch ein Wasserlabyrinth zu navigieren, nachdem es Tsiens Team mit geschickt eingesetzten molekularen Schaltern gelungen war, einen bestimmten Rezeptor nur im Vorderhirn und nur nach der Geburt vervielfältigt zu aktivieren. Durch den Eingriff hatten die Forscher die synaptische Plastizität in Schlüsselregionen des Gehirns so erhöht, dass die Mäuse besser lernen konnten.

Tsiens Experiment ist ein Paradebeispiel dafür, wie genau molekulare Eingriffe zeitlich und räumlich platziert werden müssen, um bestimmte Effekte zu erzielen. Viele Unterschiede im Lern- und Denkvermögen gehen nach derzeitigem Verständnis auf subtile Weichenstellungen während der Entwicklung zurück, die beeinflussen, ob und wann ein Gen wo im Körper wie aktiv ist und wie es dabei mit den Produkten anderer Gene interagiert. Man geht davon aus, dass hunderte oder tausende von Genvarianten an diesen Weichenstellungen beteiligt sind – und dass genetische Unterschiede bei gleichmäßig guten Bildungschancen den Großteil der Intelligenzvariation zwischen Menschen erklären können. Abbildung 3.

Abbildung 3. Zur Vererbbarkeit der Intelligenz. Kognitive Fähigkeiten sind etwa proportional zum Grad der Verwandtschaft, d.i. zum Anteil der ererbten Gene. Das soziale Umfeld wirkt sich nur marginal aus. Es besteht praktisch keine Korrelation zu Biologisch-Nichtverwandten, die unter denselben Bedingungen wie eineiige/zweieiige Zwillinge aufgewachsen sind. (Nach Daten aus SDH Hsu "On the genetic architecture of intelligence and other quantitative traits"; https://arxiv.org/pdf/1408.3421.pdf; cc-by.Lizenz¸ Bild von der Redn eingefügt)

Bekannt sind bislang allerdings nur 52 Gene, die Intelligenz beeinflussen , und diese erklären nur knapp fünf Prozent der Varianz (S. Sniekers et. al., Nature Genetics 49:1107–1112 (2017)).

Manche Forscher glauben, dass wir mit den inzwischen verfügbaren Methoden der Genanalyse genügend weitere relevante Gene entdecken können, um Embryonen künftig anhand ihrer genetischen Veranlagung für Intelligenz auszuwählen. Einer von ihnen ist Stephen Hsu, der Gründer des „Cognitive Genomics Labs“ der chinesischen Firma BGI, die derzeit genetische Proben von tausenden mathematisch besonders begabten Menschen analysiert, um weitere die Intelligenz beeinflussende Gene zu identifizieren. Eltern, die mithilfe entsprechend akkurater prädiktiver Modelle „zwischen ungefähr zehn befruchteten Eizellen auswählen, könnten den IQ ihres Kindes um immerhin 15 oder mehr Punkte verbessern“, schrieb Hsu bereits 2014 .

Um menschliche Intelligenz drastisch zu verändern, müssten wir allerdings darüber hinaus in der Lage sein, viele relevante Gene auch aktiv zu verändern, und zwar auf einen Schlag. Möglich könnte dies dank der 2012 entdeckten so genannten „Genschere“ Crispr-Cas9 und verwandter neuer Gentechniken werden. Sie erlauben es, viele Genschnipsel gleichzeitig und besonders schnell und präzise auszuschneiden und zu ersetzen. Sollte es eines Tages machbar sein, in einem Embryo oder in Keimbahnzellen mit solchen Methoden hunderte oder tausende von Genen gleichzeitig so zu konfigurieren, dass die bestmöglichen genetischen Voraussetzungen für Intelligenz geschaffen werden, wären nach Hsus Spekulationen „Superintelligenzen mit einem IQ von über 1000 Punkten denkbar“.

Was ist zu erwarten?

Vorerst bleiben solche Visionen Zukunftsmusik. Doch die Bemühungen der Forscher schreiten voran und werden keineswegs überall von Bedenken eingehegt. Das Gesetz in Deutschland und vielen anderen Ländern mag menschliche Keimbahnveränderungen verbieten , aber die ersten Versuche, mithilfe neuer genetischer Methoden Erbkrankheiten in menschlichen Embryos zu beseitigen, haben in China und den USA längst stattgefunden. Ebenso geht die Forschung an Pillen fürs Gehirn und an maschinellen Interventionen weiter. Und auch wenn bislang die meisten Menschen zumindest invasive Eingriffe in das Gehirn oder Veränderungen der menschlichen Keimbahn zur Steigerung von Intelligenz ablehnen, gibt es doch genügend Anhaltspunkte, dass es zu einem Meinungsumschwung kommen könnte, sollten Pioniere erst einmal zeigen, dass Interventionen nicht nur funktionieren, sondern auch risikoarm sind.

Bestimmte Neuroimplantate – vor allem Innenohrprothesen – gehören längst zum klinischen Alltag, Eingriffe in die menschliche Keimbahn zur Behandlung von Energiestoffwechselerkrankungen – wenn auch „nur“ durch Austausch der Mitochondrien, wurden in den USA erfolgreich erprobt und stehen in Großbritannien kurz vor der Zulassung . Auch an der Einnahme von erprobten kognitionsfördernden Nahrungsergänzungsmitteln stößt sich niemand. Selbst wenn Eingriffe experimentell sind, darf diese grundsätzlich jeder am eigenen Leib ausprobieren – solange dabei niemand anders zu Schaden kommt.

Sollte es künftig gelingen, auch bei drastischeren Interventionen „die Risiken körperlicher wie psychischer Neben- und Nachwirkungen unter die Schwelle des Bagatellhaften zu senken“, so müsse ihre Anwendung sogar bei Kindern erlaubt sein, forderte eine Gruppe von Experten bereits 2009 in ihrem Memorandum „Das optimierte Gehirn“ über pharmakologisches Neuroenhancement. Julian Savulescu, Professor für Praktische Ethik an der Universität Oxford, spricht sogar von einer „moralischen Verpflichtung“ der Menschheit, sich selbst zu optimieren .

Es mag wie Science-Fiction klingen, aber Raymond Kurzweil, Erfolgsautor und bekanntester Fürsprecher des „Transhumanismus“, hat die Verschmelzung menschlicher und künstlicher Intelligenz zu einer „Singularität“ vorausgesagt. Im Hauptberuf ist Kurzweil übrigens Leiter der technischen Entwicklung bei Google.

Dass technische Entwicklungen sich durch Verbote aufhalten lassen, ist angesichts des globalen Informationsaustauschs eher unwahrscheinlich. Wären bestimmte Möglichkeiten zur Intelligenzsteigerung erst einmal verfügbar, wäre vielmehr die Frage zu klären, ob und inwieweit der Staat ihre Nutzung regulieren oder sogar finanziell fördern sollte, um einen gerechten Zugang zu ermöglichen. Wie schon bei anderen kontroversen Technologien – zum Beispiel im Bereich der Fortpflanzungsmedizin – wird darüber letztlich jede Gesellschaft für sich entscheiden müssen.

Bis dahin, so erklärte es der Intelligenz-Forscher Detlev Rost bereits kürzlich der Redaktion , gibt es allerdings „weltweit nur ein wirklich nachhaltiges Intelligenz-Trainingsprogramm, und das ist die Schule.“


*Der Artikel stammt von der Webseite www.dasGehirn.info, einer exzellenten Plattform mit dem Ziel "das Gehirn, seine Funktionen und seine Bedeutung für unser Fühlen, Denken und Handeln darzustellen – umfassend, verständlich, attraktiv und anschaulich in Wort, Bild und Ton." (Es ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem Zentrum für Kunst und Medientechnologie Karlsruhe). Im Fokus des Monats Oktober steht das "Genie", zu dem auch der vorliegende, unter einer cc-by-nc-sa Lizenz stehende Text erschienen ist: https://www.dasgehirn.info/denken/genie/genies-aus-dem-labor.

Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden Abbildungen eingefügt.


Weiterführende Links

Galert, T et al: Das optimierte Gehirn. Gehirn & Geist 11/2009; URL: http://www.spektrum.de/alias/psychologie-hirnforschung/das-optimierte-gehirn/1008082 [Stand 29.7.2017]

DAK-Gesundheitsreport 2015; URL: https://www.dak.de/dak/download/vollstaendiger-bundesweiter-gesundheitsreport-2015-1585948.pdf [Stand 29.7.2017]

Tim Urban: Neuralink and the Brain’s Magical Future. Wait But Why, 20.4.2017; URL: https://waitbutwhy.com/2017/04/neuralink.html / [Stand 29.7.2017].

Stephen Hsu: Super-Intelligent Humans Are Coming. Genetic engineering will one day create the smartest humans who have ever lived. Nautilus, 16.10.2014; URL: http://nautil.us/issue/18/genius/super_intelligent-humans-are-coming [Stand 29.7.2017]


 

inge Thu, 25.10.2018 - 08:00

Impfen oder Nichtimpfen, das ist hier die Frage

Impfen oder Nichtimpfen, das ist hier die Frage

Do, 18.10.2018 - 12:07 — Peter Palese

Peter PaleseIcon MedizinImpfen oder Nichtimpfen - das ist zweifellos keine Frage. Hatten viele Infektionskrankheiten früher zahllose Opfer gefordert. so treten sie heute - dank hocheffizienter Impfungen - praktisch nur selten oder überhaupt nicht mehr auf. Influenza bleibt - auf Grund der raschen Veränderlichkeit zirkulierender Virenarten - eine ernste Bedrohung: Hundert Jahre nach der katastrophalen Epidemie mit Millionen von Toten, fehlen Vakzinen, die langandauernden Schutz vor zirkulierenden und neuen gefährlichen Stämmen von Influenza bieten. Wie eine derartige Universal-Impfung designt werden kann, zeigt der aus Österreich stammende, weltbekannte Virologe Peter Palese (Mount Sinai Medical School, New York) hier auf. Grundlagen zu derartigen, bereits in klinischer Testung befindlichen Vakzinen sind vor vier Jahren im Blog erschienen [1].*

Diphterie - Ein Albtraum aus der Kindheit

Ich muss etwa 3 oder 4 Jahre alt gewesen sein. Ich lag im Bett, habe auf eine weiße Zimmerdecke gestarrt und konnte nur mit Schwierigkeiten atmen. Damals lebte ich bei meiner Großmutter und ich erinnere mich noch heute an meine große Angst und die enorme Panik, dieses schreckliche Gefühl zu ersticken. Der Arzt war nahe daran eine Tracheotomie durchzuführen. Noch heute habe ich Albträume, die durch diese erste Erinnerung verursacht werden.

Was war der Grund, welche Krankheit hat diese fur mich erschreckende Erinnerung hervor gerufen?

Die Diagnose war Diphtherie!

Diphtherie wird durch ein Bakterium hervorgerufen, das die oberen Atemwege infiziert und zum Erstickungstod führen kann. Bei Kindern unter 5 Jahren und ohne medizinische Hilfsmittel kann die Diphtherie eine Sterblichkeitsrate von bis zu 50% (!!) haben. Nach dem 2. Weltkrieg gab es kein Anti-Diphterie Serum, obwohl diese Behandlung, passive Immunisierung, in Deutschland erfunden wurde. Emil von Behring bekam den ersten Nobelpreis in Medizin im Jahre 1901 fur die Entdeckung des Anti-Diphtherie Pferdeserums. Inaktivierte Diphtherie Bakterien wurden in Pferde injiziert und das Serum dieser behandelten Tiere wurde dann als Injektion zur Behandlung der Menschen verwendet. Der Aktiv-Impfstoff gegen Diphtherie, der in den dreissiger Jahren entwickelt wurde, war natürlich in einer Verlierer-Nation auch nicht verfügbar und Penicillin war zu dieser Zeit nur im angelsächsischen Raum erhältlich.

Nach der Erfahrung meiner Diphtherie Erkrankung ist für mich “Impfen oder Nichtimpfen" keine Frage und es gibt nur eine Antwort darauf.

Im Folgenden möchte ich kurz die unglaublichen Erfolge beschreiben, die Impfstoffe für die Menschheit gebracht haben, auch erwähnen, wo es noch viel zu tun gibt und dann auf meine eigene Forschung eingehen, die versucht, einen Universal Impfstoff gegen Influenza zu entwickeln.

Eine Erfolgsgeschichte der Impfstoffe

Impfungen gegen Pocken,…

Vielleicht der größte Erfolg der Medizin (abgesehen von sauberem Wasser und sicherer Ernährung) ist die Einführung der Pocken Impfung. Obwohl es in China schon vor 1000 Jahren Ansätze für eine Pockenimpfung gab, beginnt die erfolgreiche Impfung mit Edward Jenner im Jahre 1796, als er ein Kind mit Kuhpocken impfte. Es dauerte dann noch immerhin fast 200 Jahre bis die Weltgesundheitsbehörde das Ende der Pockenerkrankung bekannt geben konnte.

Die Pocken waren etwas Furchtbares. Der junge Mozart hat als 11 Jähriger die Pocken bekommen und er soll als Pocken Narbiger nie eine Schönheit in seinem kurzen Leben gewesen sein. Im selben Jahr 1767 verlor Kaiser Joseph II seine zweite Ehefrau durch die Pocken. Auch seine erste Frau starb an Pocken.

Eine Stellenanzeige in der London Times von 1774 lautete, dass ein junger Mann als Diener gesucht werde, der Mitglied der Anglikanischen Kirche sein sollte und bereits die Pocken gehabt haben musste. Eine Pockenerkrankung war damals mit einem monatelange Arbeitsausfall verbunden, sofern der Patient überhaupt überlebte.

Die meisten medizinischen Historiker schätzen, dass allein im 20. Jahrhundert bis zu 300 Millionen Menschen an Pocken gestorben sind, die Mehrzahl zwischen den Jahren 1900 bis 1920. Diese Zahlen sind beeindruckend und stellen die Zahlen für die anderen Katastrophen des 20. Jahrhunderts – und da waren genügend – deutlich in den Schatten. Aber selbst damals gab es schon viele Impfgegner. Karikaturen eines Zeitgenossen von Edward Jenner zeigen einen Arzt, der die Pockenimpfung durchführt, wobei seinen Patienten Kühe aus den verschiedenen Gliedmaßen wachsen. Abbildung 1.

Abbildung 1. Impfgegner um 1800. Man fürchtete Edward Jenners aus Kuhpocken hergestellte Vakzine könnte Menschen zu Rindern machen. Bild: James Gillray 1802 (Wikipedia, gemeinfrei).

…Masern,…

Es ist hier wichtig zu verstehen, dass Pocken und Masern viel tödlicher sind, wenn die Infektion erstmals nach dem Kindesalter erfolgt. Hatte man diese Viren während der Kindheit als Kinderkrankheit bekommen, war man dann immun für den Rest seines Lebens.

Für uns ist diese Erfahrung wichtig.

Wenn heute manche Eltern die Masernimpfung (und andere Impfungen) ablehnen, ist das meiner Meinung nach nicht nur nachlässig, sondern auch extrem gefährlich. Wenn z.B. ein ungeimpfter Mensch mit 30 Jahren auf den Seyschellen oder irgendwo in einem anderem Teil der Welt das erste Mal mit Masern in Berührung kommt, dann ist die Todesrate 10-100 mal höher als bei einem Zweijährigen.

…Polio…

Eine andere Erfolgsgeschichte ist die Poliomyelitis Impfung.

Unsere jüngere Bevölkerung weiß wahrscheinlich gar nicht, was das ist — eine eiserne Lunge (Abbildung 2, rechts unten). Diese Maschinen konnten manchmal Kindern helfen, wenn die Lähmung – hervorgerufen durch Polioviren – bereits die Brustmuskeln erreicht hatte und die Kinder nicht mehr aus eigener Kraft atmen konnten. Leider haben die meisten Kinder, die in diese Maschinen als letzte Lösung gebracht wurden, diese Maschinen nicht lebendig verlassen. Eiserne Lungen gibt es heute nicht mehr, dank der Impfung, die wir gegen die Polioviren haben. Wenn es Bill Gates gelänge, die Mohammedanischen Religionsfanatiker dazu zu überreden, ihre Kinder gegen Poliomyelitis impfen zu lassen und damit diese Krankheit auszurotten, wäre das wahrscheinlich das größte Vermächtnis dieses Mannes.

Abbildung 2 zeigt den Erfolg der Impfungen gegen Pocken, Polio und Masern in den US - stellvertretend für viele andere Impfungen. Interressant ist, dass Pockenfälle erst in den 40iger Jahren des letzten Jahrhunderts wirklich drastisch gesunken sind.

Ein historisches On-dit besagt, dass Bismarck die Preußische Armee gegen Pocken impfen ließ, und dass dies auch maßgeblich zum Sieg im Deutsch-Französischen Krieg geführt haben soll.

Abbildung 2. Nach Einführung der Impfungen gegen Pocken, Masern und Polio (Pocken im Jahr 1800, Masern und Polio durch Pfeile gekennzeichnet) sind in allen US Bundesstaaten die Erkrankungen dramatisch zurückgegangen.. Rechts unten: Polio-Kranke in Eisernen Lungen. (Daten: US Center for Diseases Control (CDC)).

…und andere Infektionskrankheiten

Ähnliche Erfolge bringt auch die Impfung gegen Mumps. Wenn dagegen z.B. ein junger ungeimpfter Mann mit 25 oder 30 Jahren das erste Mal mit Mumpsviren infiziert wird, ist die Gefahr relativ hoch, dass er steril wird.

Röteln bei einer Frau im ersten Trimester ihrer Schwangerschaft führt zu den schwersten nur vorstellbaren angeborenen Krankheiten des Babies. Dante’s Hölle ist ein Paradies dagegen.

Auch Keuchhusten gibt es heute praktisch nicht mehr.

Das Problem des Nichtimpfens…

Diphterie-Erkrankungen, mit denen ich meinen Artikel eingeleitet habe, treten seit längerer Zeit in den meisten Ländern nur mehr vereinzelt auf. Eine starke - bis zu fünfzigfache (Anm. Redn.) - Zunahme der Diphterie Fälle wurde allerdings in den neuen Staaten der alten Sowjetunion als Folge des Zusammenbruchs des Gesundheitswesens beobachtet. Dies sind erschreckende Zahlen.

Leider sind es nicht nur politische Umwälzungen, die zum Nichtimpfen führen, sondern auch “falsche Propheten”. Der englische Arzt Andrew Wakefield behauptete, dass Autismus durch Impfungen verursacht wird. Dies wurde mit ABSOLUTER Sicherheit widerlegt. Er wurde wegen Betrugs verurteilt und verlor seine medizinische Zulassung. Trotzdem hat diese unglückselige Episode zu einer Zunahme von Masern in den Vereinigten Staaten und in Europa geführt: Während im Jahr 2016 europaweit 4,643 Masernfälle verzeichnet wurden, waren es 2017 schon nahezu 24 000 Fälle und in den ersten sechs Monaten von 2018 bereits mehr als 41000 Fälle (Anm. Redn.; Quelle: WHO, https://bit.ly/2LGDhVC).

Regierungen dürfen sich daher nicht von falschen Propheten beeinflussen lassen! Die Stadt Wien ist hier vorbildlich und federführend, indem sie die wichtigsten Impfstoffe kostenfrei zur Verfuegung stellt!

…und der Bedarf an neuen Impfstoffen

Wir brauchen nicht weniger Impfstoffe, wir brauchen mehr und bessere Impfstoffe!

  • Wir haben immer noch keine Impfstoffe gegen: HIV, Hepatitis C, Malaria, Cytomegaloviren und
  • wir brauchen bessere Impfstoffe gegen Tuberkulose, Lungenentzündung (Pneumonie) –auch Impfstoffe gegen Krebsformen – aber auch gegen Influenza.

Influenza - mein Spezialgebiet

Die Pandemie von 1918 ist eine der best beschriebenen medizinischen Katastrophen, die in kurzer Zeit – von Ende 1918 bis kurz nach Beginn von 1919, weltweit für den Tod von 50 bis 100 Millionen Menschen verantwortlich war.

Wie auch im Fall von Pocken und Masern sind bei Erstinfektion mit verschiedenen Krankheitserregern Kinder weniger anfällig als Erwachsene. Bekommt eine immunologisch naive Person das erste Mal Masern, Mumps, oder Influenza im "höherem" Alter (d.i. von sechs Jahren aufwärts), dann kann es häufig zu einem tödlichem Ergebnis führen.

Das Influenzavirus von 1918

Zurück zum Jahr 1918. Damals hat die englische Firma Wellcome auch gleich einen Impfstoff produziert, der aus Bacillus influenzae bestand. Leider hatte dieses Bakterium, trotz des schönen Namens nichts mit Influenza zu tun und war daher vollkommen unwirksam.

Der wirkliche Erreger der 1918/19 Pandemie (weltweite Epidemie) war das Influenza Virus. Abbildung 3.

Es ist uns gelungen an der Mount Sinai Medical School in New York das ausgestorbene Virus von 1918 im Laboratorium zu rekonstruieren (Zusammenarbeit der Gruppen von Christoph Basler, Garcia Sastre's und meiner Gruppe am Mount Sinai mit Terry Tumpey am Center for Disease Control). Die Technologie, die ich in meinem Labor entwickelt habe, erlaubt es uns nicht nur ein ausgestorbenes Virus im Labor zu studieren, sondern hilft auch bessere Impfstoffe zu entwickeln.

Abbildung 3. Das H1N1-Influenzavirus im Elektronenmikroskop in mehr als 100 000 facher Vergrößerung (links). Das Glykoprotein Hemagglutinin (H1) bewirkt Andocken und Aufnahme des Virus in die Wirtszelle, das Enzym Neuraminidase (N1) die Freisetzung der in der Wirtszelle vervielfältigten Viruspartikel (Aufnahme stammt von einer meiner Studentinnen, Yi-ying Chou). Rechts: Schematischer Aufbau des Virus mit den Spikes Hemagglutinin (H, rot/rosa), Neuraminidase (N, lila) und dem kleineren Matrixprotein (M2) an der Oberfläche und dem aus acht RNA-Segmenten bestehenden Minichromosom im Inneren.

Die Außenhülle dieses Virus hat Spikes, die aus den Proteinen Hemagglutinin und Neuraminidase bestehen. Diese Spikes sind das, was unser Immunsystem sieht und was wir verwenden können, um verbesserte Impfstoffe zu machen, denn:

Influenza Viren haben nicht nur die Pandemie 1918 verursacht, sie sind in den USA auch heute noch jährlich für bis zu 50 000 Todesfälle, hunderttausende Spitalsaufenthalte und Millionen von Infektionen verantwortlich (und nicht nur dort: für Österreich sollte man die US-Zahlen durch 35 dividieren).

Influenza-Impfstoffe sind nicht optimal

Wir verfügen zwar über Influenza Impfstoffe; diese sind aber leider nicht optimal und werden auch nicht ausreichend angewandt.

In den USA gibt es drei verschiedene Varianten: 1. Inaktiviertes Virus, das intramuskulär gespritzt wird; 2. Lebendvirus, das als Aerosol in die Nase gesprüht wird; und 3. ein synthetisches (rekombinantes) Protein, das injiziert wird. Warum sind Influenza Impfstoffe nicht optimal?

  • Erstens ändern sich die Viren-Stämme von Jahr zu Jahr.
  • Zweitens gibt es vier verschiedene Evolutionslinien, das heißt, dass der Impfstoff drei bis vier Komponenten haben muss um den zirkulierenden Stämmen Rechnung zu tragen; dies macht die Produktion technisch schwierig.
  • Letztlich können ganz neue Stämme auftauchen wie im Jahre 1918 oder im Jahre 2009 und dann ist mit den heutigen Mitteln und Technologien nicht genug Zeit, um einen halbwegs effizienten Impfstoff herzustellen.

Design für einen Universal- Influenza Impfstoff

Ziel ist es

  • einen Impfstoff zu designen, der nach der Impfung eine Immunantwort induziert, die gegen alle Stämme, die jetzt zirkulieren und die in der Zukunft auftreten werden, wirksam ist und
  • dass diese schützende Immunantwort eine lange Zeit anhält, das heißt nicht nur ein Jahr sondern lebenslang.

Wir konnten zeigen, dass das Haemagglutinin nicht nur einen kugelförmigen Kopf hat, der immunodominant ist (d.i. gegen den sich die Immunantwort richtet), sondern dass dieser Kopf auch sehr tolerant gegenüber Veränderungen und Mutationen ist. Wir haben systematisch 15 Nukleotide (5 Aminosäuren) durch genetische Manipulation in das Virus eingeführt und dabei festgestellt, dass es genetisch nicht veränderbare Domänen gibt.

Indem wir Konstruktionen erzeugen, welche die Immundominanz des Kopfes des Hemagglutinins reduzieren, sodass dieser vom Immunsystem nicht erkannt wird, versuchen wir das Immunsystem auf die nicht-variablen (konservierten) Teile des Influenzavirus - das heißt im Stamm des Haemagglutinins, in der Neuraminidase und allem was sich nicht ändert - zu lenken und damit einen langzeitlichen Immunschutz gegen alle Influenzaviren zu bewirken. Abbildung 4.

Unsere Konstrukte enthalten, was wir chimaerische Hemagglutinine nennen, z.B. chimaerisches H8/1 (cH8/1). Im Tierversuch an Mäusen, Frettchen und Meerschweinchen schützen zwei Dosen chimärischen Hemagglutinins mit verschiedenen Köpfen aber denselben konservierten Domänen des Stamms gegen Influenzaviren, mit denen wir diese Versuchstiere infiziert hatten. Abbildung 4.

Abbildung 4. Ein Universal Influenza Impfstoff: Der immundominante variable Kopf des Hemagglutinin wird genetisch so verändert, dass er vom Immunsystem nicht mehr erkannt wird und die Immunantwort (Antikörper) nun gegen die konservierten Domänen des Stammes umgeleitet wird. Derartige Konstrukte haben sich in Tierversuchen bereits als wirksam erwiesen und werden in der Klinik am Menschen getestet (F. Krammer, A. Garcia-Sastre, P.Palese)

Universal Impfstoff in der klinischen Prüfung

Seit neun Monaten werden diese Konstrukte auch in der Klinik getestet. Die Bill und Melinda Gates Foundation führt Versuche am Menschen durch, welche Sicherheit und Wirksamkeit dieses neuen Impfstoffes prüfen. Der Gates Trial hat fünf Arme mit zwei Impfungen und den erforderlichen Kontrollen, alle basierend auf den chimaerischen Haemagglutinen, die wir entwickelt haben.

Ein zweiter Impfstoffversuch am Menschen wird jetzt von GSK (Glaxo Smith Kline) durchgeführt, der sich in Phase I/II mit über vierhundert Teilnehmern befindet. Es ist vielleicht eine Ironie, dass die Firma Wellcome einen wirkungslosen Impfstoff im Jahre 1919 gegen Influenza entwickelt hatte und dass jetzt die Nachfolge-Firma GSK unseren Universal Influenzaimpfstoff an Menschen prüft – hoffentlich mit besserem Erfolg!!


[1] Peter Palese, 10.05.2013: Influenza-Viren – Pandemien: sind universell wirksame Impfstoffe in Reichweite? http://scienceblog.at/influenza-viren-%E2%80%93-pandemien-sind-universell-wirksame-impfstoffe-reichweite#.


* Peter Palese hat am 2. Oktober 2018 einen gleichnamigen Vortrag in der Industriellenvereinigung in Wien gehalten und das Manuskript ScienceBlog.at zur Verfügung gestellt. Der Text wurde von uns weitestgehend unverändert beibehalten (Untertitel wurden eingefügt).


Weiterführende Links

Pocken

Arnold C. Klebs (1914): Die Variolation im achtzehnten Jahrhundert. Ein historischer Beitrag zur Immunitätsforschung. Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

J. F. Draut (1829): Historia de Insitione variolarum genuiarum, Dissertation (deutsch) . Google book: Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich

Robert W. Rosner, 24.08.2017: Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese

Bill and Melinda Gates Foundation

Influenza (siehe auch [1]):

Zur Evolution von Pathogenen

inge Thu, 18.10.2018 - 00:07

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit

Do, 11.10.2018 - 08:52 — Philipp Gunz Philipp GunzIcon Gehirn

Neue Fossilien und Steinwerkzeuge aus Jebel Irhoud (Marokko) belegen den Ursprung des heutigen Menschen vor etwa 300.000 Jahren in Afrika. Diese Fossilien sind rund 100.000 Jahre älter als die ältesten bislang bekannten Funde und dokumentieren wichtige Veränderungen im Aussehen und Verhalten in einer frühen evolutionären Phase des Homo sapiens. Der Anthropologe Philipp Gunz, Forschungsgruppenleiter am Max-Planck-Instituts für evolutionäre Anthropologie (Leipzig), berichtet über Forschungsergebnisse, die unser Bild von der frühen Phase der Evolution von Homo sapiens grundlegend verändern.*

In der kargen Wüstenlandschaft der Sahara zeugen fossile Knochen von einer Zeit, als hier in einer fruchtbaren Savanne steinzeitliche Jäger mit Speeren nach Gazellen, Gnus und Zebras jagten. Sowohl genetische Daten heute lebender Menschen als auch Fossilien weisen auf einen afrikanischen Ursprung des Homo sapiens hin. Lange Zeit glaubte man, dass alle heute lebenden Menschen von einer Population abstammen, die vor etwa 200.000 Jahren in Ostafrika lebte.

Bei archäologischen Ausgrabungen in Jebel Irhoud (Marokko) - Abbildung 1 - unter der Leitung von Jean-Jacques Hublin vom Max-Planck-Institut für evolutionäre Anthropologie (Leipzig) und Abdelouaded Ben-Ncer vom Nationalen Institut für Archäologie (INSAP, Rabat, Marokko) wurden jedoch deutlich ältere fossile Knochen des Homo sapiens sowie Tierknochen und Steinwerkzeuge entdeckt [1].

Abbildung 1. Grabungen in Jebel Irhoud (Marokko). Vor etwa 300.000 Jahren befand sich an dieser Stelle eine Höhle in einer fruchtbaren Savannenlandschaft. Archäologen fanden hier die versteinerten Knochen von fünf frühen Homo sapiens sowie Steinwerkzeuge und die Knochen gejagter Tiere.© Shannon McPherron, MPI EVA Leipzig (Lizenz CC-BY-SA 2.0)

Die Fundstücke sind rund 300.000 Jahre alt [2] und damit die ältesten sicher datierten fossilen Belege unserer eigenen Art – mehr als 100.000 Jahre älter als Homo sapiens-Funde in Äthiopien.

Sensationsfunde in Marokko

Schon in den 1960er-Jahren stießen Minenarbeiter in der Jebel-Irhoud-Höhle durch Zufall auf menschliche Fossilien und Steinwerkzeuge. Die Interpretation dieser Funde wurde allerdings durch eine unsichere Datierung erschwert – und Nordafrika daher jahrzehntelang in Debatten um den Ursprung unserer Spezies vernachlässigt. Als frisch berufener Direktor am Max-Planck-Institut für evolutionäre Anthropologie kehrte Jean-Jacques Hublin 2004 mit einem internationalen Team an diese Fundstelle zurück.

Die neue Ausgrabung führte zur Entdeckung weiterer Skelettreste des Homo sapiens (die Zahl der Fossilien erhöhte sich so von ursprünglich 6 auf 22), fossiler Tierknochen und Steinwerkzeuge. Die Überreste von Schädeln, Unterkiefern, Zähnen und Langknochen von mindestens fünf Individuen dokumentieren eine frühe Phase der menschlichen Evolution.

Die Steinwerkzeuge aus Jebel Irhoud wurden mit der Levallois-Technik vor allem aus hochwertigem Feuerstein hergestellt. Dieses Rohmaterial wurde über weite Strecken transportiert. Das Team um den Geochronologie-Experten Daniel Richter bestimmte das Alter erhitzter Feuersteine aus den archäologischen Fundschichten mithilfe der Thermolumineszenzmethode auf rund 300.000 Jahre.

Die Funde von Jebel Irhoud sind daher die derzeit besten Belege für die frühe Phase der Evolution des Homo sapiens in Afrika.

Evolution von Gesicht und Gehirn

Die Schädel heute lebender Menschen zeichnen sich durch eine Kombination von Merkmalen aus, die uns von unseren fossilen Vorfahren und Verwandten unterscheiden: Das Gesicht ist klein und der Hirnschädel ist rund.

Die Fossilien von Jebel Irhoud haben einen modernen Gesichtsschädel und eine moderne Form der Zähne und einen großen, aber archaisch anmutenden Gehirnschädel. Abbildung 2.

Modernste Computertomografie (micro-CT) und statistische Analysen der Schädelformen auf Basis von Hunderten von Messpunkten zeigen, dass sich der Gesichtsschädel der Jebel-Irhoud-Fossilien kaum von dem heute lebender Menschen unterscheidet. Allerdings ist der Hirnschädel der Jebel-Irhoud-Fossilien eher länglich und nicht rund wie bei heute lebenden Menschen

Abbildung 2: Der älteste Homo sapiens. Zwei Ansichten einer Computer-Rekonstruktion des ältesten bekannten Homo sapiens aus Jebel Irhoud (Marokko). Die Funde sind auf 300.000 Jahre datiert und zeigen einen modernen Gesichtsschädel, aber einen archaisch anmutenden Hirnschädel. Die Gestalt des Gehirns (blau) und möglicherweise auch die Funktion des Gehirns haben sich innerhalb der Homo sapiens-Linie weiter entwickelt.© Philipp Gunz, MPI EVA Leipzig (Lizenz CC-BY-SA 2.0)

Die Gestalt des inneren Hirnschädels lässt Rückschlüsse auf die Gestalt des Gehirns zu. Die Fossilien aus Marokko zeugen daher von einer evolutionären Veränderung der Gehirnorganisation – und damit möglicherweise auch der Gehirnfunktion – innerhalb unserer Art. Dazu passen auch die Erkenntnisse der Leipziger Genetiker vom Max-Planck-Institut für evolutionäre Anthropologie. Vergleicht man die DNA heute lebender Menschen mit der DNA von Neandertalern und Denisova-Menschen – also ausgestorbenen archaischen Menschenformen –, zeigen sich Unterschiede in Genen, die das Gehirn und das Nervensystem beeinflussen. Evolutionäre Veränderungen der Gehirngestalt stehen daher vermutlich im Zusammenhang mit genetischen Veränderungen der Organisation, Vernetzung und Entwicklung des Gehirns, die den Homo sapiens von unseren ausgestorbenen Vorfahren und Verwandten unterscheiden.

Der Mensch entwickelt sich auf dem gesamten afrikanischen Kontinent

Die neuen Forschungsergebnisse von Jebel Irhoud verändern unser Verständnis der frühen Phase der Evolution von Homo sapiens grundlegend. Die ältesten Homo sapiens-Fossilien finden sich auf dem gesamten afrikanischen Kontinent: Jebel Irhoud in Marokko (300.000 Jahre), Florisbad in Südafrika (260.000 Jahre) und Omo Kibish in Äthiopien (195.000 Jahre). Die Ähnlichkeit dieser fossilen Schädel spricht für frühe Wanderungsbewegungen innerhalb Afrikas. Lange bevor der Homo sapiens vor etwa 100.000 Jahren Afrika verließ, hatte er sich bereits in Afrika ausgebreitet.

Für eine frühe Ausbreitung innerhalb Afrikas sprechen auch die steinernen Klingen und Speerspitzen. Die Homo sapiens-Fossilien in Jebel Irhoud wurden gemeinsam mit Knochen von gejagten Tieren und Steinwerkzeugen aus der Epoche der Afrikanischen Mittleren Steinzeit gefunden. Da vergleichbare Steinwerkzeuge aus ganz Afrika dokumentiert sind, vermuten die Leipziger Forscher, dass die technologische Entwicklung der Afrikanischen Mittleren Steinzeit vor mindestens 300.000 Jahren mit der Entstehung des Homo sapiens zusammenhängt. Die Ausbreitung in ganz Afrika bezeugt also eine Veränderung der menschlichen Biologie und des Verhaltens. Die weit verstreuten Homo sapiens-Populationen waren aufgrund der Größe Afrikas und durch sich verändernde Umweltbedingungen (wie etwa der Wandel der Sahara von einer Savanne zur Wüste) oft für viele Jahrtausende nicht nur geografisch, sondern auch genetisch voneinander getrennt. Diese Komplexität spielte für unsere Evolution eine wichtige Rolle.

Der gesamte afrikanische Kontinent ist die Wiege der Menschheit.


Danksagung

Das Jebel-Irhoud-Projekt wird gemeinsam von dem marokkanischen Institut National des Sciences de lʼArchéologie et du Patrimoine und der Abteilung Humanevolution des Max-Planck-Instituts für evolutionäre Anthropologie Leipzig durchgeführt. Mein Dank gilt dem gesamten Projektteam und vor allem Jean-Jacques Hublin, Shannon McPherron und Daniel Richter für ihre Beiträge zu dieser Zusammenfassung unserer Forschungsarbeit


Literaturhinweise

[1] Hublin, J.-J.; Ben-Ncer, A.; Bailey, S. E.; Freidline, S. E.; Neubauer, S.; Skinner, M. M.; Bergmann, I.; Le Cabec, A.; Benazzi, S.; Harvati, K.; Gunz, P. New fossils from Jebel Irhoud, Morocco and the pan-African origin of Homo sapiens. Nature 546 (7657), 289–292 (2017)

[2] Richter, D.; Grün, R.; Joannes-Boyau, R.; Steele, T. E.; Amani, F.; Rué, M.; Fernandes, P.; Raynal, J.-P.; Geraads, D.; Ben-Ncer, A.; Hublin, J.-J.; McPherron, S. P. The age of the hominin fossils from Jebel Irhoud, Morocco, and the origins of the Middle Stone Age. Nature 546 (7657), 293–296 (2017)


*Der im Jahrbuch 2018 der Max-Planck Gesellschaft 2015 erschienene Artikel "Die Ersten unserer Art" https://www.mpg.de/11820357/mpi_evan_jb_2018?c=12090594 wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle ScienceBlog.at zur Verfügung gestellt. Der Artikel erscheint hier unter einem aus dem Text stammenden Titel, ansonsten aber unverändert.


Weiterführende Links

Max-Planck-Institut für evolutionäre Anthropologie (Leipzig) . https://www.eva.mpg.de

Das Max-Planck-Institut für evolutionäre Anthropologie beschäftigt sich mit Fragen zur Entstehung des Menschen. Die Wissenschaftler des Instituts untersuchen dabei ganz unterschiedliche Aspekte der Menschwerdung. Sie analysieren Gene, Kulturen und kognitive Fähigkeiten von heute lebenden Menschen und vergleichen sie mit denen von Menschenaffen und bereits ausgestorbenen Menschen. Am Institut arbeiten Forscher aus verschiedenen Disziplinen eng zusammen: Genetiker sind dem Erbgut ausgestorbener Arten wie dem Neandertaler auf der Spur. Verhaltensforscher und Ökologen wiederum erforschen das Verhalten von Menschenaffen und anderen Säugetieren.

Aug in Aug mit dem Neandertaler (2017). Klaus Wilhelm https://www.mpg.de/11383679/F001_Fokus_018-025.pdf

Mutter Neandertalerin, Vater Denisovaner! (22.8.2018) https://www.mpg.de/12205753/neandertaler-denisovaner-tochter

Artikel von Philipp Gunz im ScienceBlog:

24.05.2015: Die Evolution des menschlichen Gehirns. http://scienceblog.at/die-evolution-des-menschlichen-gehirns.


 

inge Thu, 11.10.2018 - 13:21

Nobelpreis für Chemie 2018: Darwins Prinzipien im Reagenzglas oder "Gerichtete Evolution von Enzymen"

Nobelpreis für Chemie 2018: Darwins Prinzipien im Reagenzglas oder "Gerichtete Evolution von Enzymen"

Do, 04.10.2018 - 14:03 — Inge Schuster Inge SchusterIcon Chemie

Eine Revolution, die auf Evolution basiert - so kündigte Claus Gustafsson, Vorsitzender des Nobel-Komitees die bahnbrechenden Arbeiten zur "Gerichteten Evolution von Enzymen und Bindungsproteinen" an, die gestern mit dem Nobelpreis 2018 für Chemie ausgezeichnet wurden. Eine Hälfte des Preises ging an Frances H. Arnold, die mit Hilfe evolutionärer Methoden Enzyme optimiert und neu designt, sodass sie auch in der Natur noch unbekannte Reaktionen ausführen. Die andere Hälfte ging an George P. Smith und Sir Gregory P. Winter für die Methode des Phagen-Display, die von eminenter Bedeutung für die Herstellung von Biopharmaka, insbesondere von hochspezifischen Antikörpern ist. In Hinblick auf die Länge des Artikels wird im Folgenden nur über die Arbeiten von France H. Arnold berichtet.

Frances H. Arnold, aus Pittsburgh stammende US-Amerikanerin hatte ursprünglich Maschinenbau studiert, wandte sich dann aber der chemischen Verfahrenstechnik zu, worin sie 1985 an der University of Berkeley (California) promovierte. Beginnend als Postdoc am California Institute of Technology (Caltech) wurde sie zur Pionierin in der gerichteten Evolution von Enzymen; sie ist nun am Caltech Linus-Pauling-Professor für Chemieingenieurwesen, Biochemie und Bio-Ingenieurwesen. Ihre bahnbrechenden Arbeiten führen zu Enzymen mit Tausenden Male schnellerem Umsatz, zu neuen Enzymen, die in der Natur noch unbekannte Reaktionen katalysieren. Es ist gleichermaßen Grundlagenforschung und angewandte Forschung, die zur umweltfreundlichen, kostensparenden Herstellung eines sehr breiten Spektrums von Produkten führt: von Arzneimitteln bis zu Biotreibstoffen.

Die Erfolge haben Arnold (Abbildung 1) viele hochrangige Preise und Mitgliedschaften eingebracht. Besonders zu erwähnen ist der mit 1 Million € dotierte Milleniums-Technologie-Preis, den sie als erst Frau 2016 erhielt.

Abbildung 1. Frances H. Arnold um 2012. (Bild: Wikipedia, Beaverchem2. cc-by-sa-Lizenz)

Was ist gerichtete Evolution?

Seit Leben auf unserem Planeten entstanden ist, musste es sich an eine ständig verändernde Umwelt anpassen und in Konkurrenz mit anderen Lebensformen treten. Diese Anpassung erfolgte durch natürliche Evolution: Mutationen in Genen führten manchmal zu Proteinen, die besser mit der neuen Umwelt zurechtkamen und dies konnte dann in einer Selektion der betreffenden Spezies resultieren. Selektion bevorzugter Eigenschaften ist auch die Basis auf der wir Menschen über Jahrtausende Pflanzen und Haustiere für unsere Zwecke optimierten.

Seit der zweiten Hälfte des 20. Jahrhundert nimmt das Wissen über Strukturen und Funktionen von Proteinen zu und Wissenschafter sind bestrebt Proteine/Enzyme zu optimieren - für technische Anwendungen (z.B. Waschmittel) und ebenso zur Synthese von Arzneimitteln. Es ist ein ziemlich mühsames, langwieriges Unterfangen, da wir noch ziemlich weit davon entfernt sind aus punktuellen Änderungen in der Struktur auf Änderungen in den Eigenschaften schließen zu können: Jedes mutierte Gen wird isoliert in einem Mikroorganismus zur Expression gebracht, das betreffende Genprodukt dann auf Aktivität getestet, in den meisten Fällen wegen unbefriedigender Eigenschaften verworfen und anschliessend dann die nächste Genvariante getestet. Die gerichtete Evolution folgt dem natürlichen Prozess von Mutation und Selektion ist aber ungleich rascher als die konventionelle "Variante nach Variante" Vorgangsweise. Abbildung 2:

Abbildung 2. Die gerichtete Evolution von Enzymen ist ein iterativer Prozess, der so lange wiederholt wird, bis die gewünschten Eigenschaften erreicht sind (Bild: ©Johan Jarnestad/The Royal Swedish Academy of Sciences”; Lizenz: cc-by-nc)

Es beginnt damit, dass in das Gen für das zu optimierende Enzym Punktmutationen nach dem Zufallsprinzip eingefügt werden (Schritt 1; Mutationen rot markiert). Alle mutierten Gene werden dann in Bakterien zur Expression gebracht - eine ganze Bibliothek von Enzymvarianten entsteht (Schritt 2). Alle diese Varianten werden dann auf ihre Aktivität für eine bestimmte chemische Reaktion getestet (Schritt 3), diejenigen mit der höchsten Aktivität selektiert (die anderen verworfen) und in einen neuen Zyklus von Mutation und Selektion eingebracht (Schritt 4). Bereits nach einigen Zyklen können so Enzyme erhalten werden, die nun Tausend Mal schneller katalysieren als das Ausgangsenzym.

Dass diese Strategie funktioniert, konnte Arnold 1993 an Hand einer relativ kleinen Protease (Subtilisin E) demonstrieren: bereits nach vier Zyklen von Mutation und Selektion resultierte eine Form, die 256 mal schneller als das ursprüngliche arbeitete.

Enzyme der Cytochrom P450 Familie

Arnold hat in der Folge unterschiedliche Enzyme optimiert (hinsichtlich Thermostabilität, Aktivität in bestimmten Lösungsmitteln, etc.). Eine zentrale Rolle spielen Enzyme der sogenannten Cytochrom P450 Familie. Es ist dies eine riesengroße Familie an Enzymen, deren erster Vertreter bereits vor fast genau 60 Jahren entdeckt wurde. Derartige Enzyme finden sich bereits in den frühesten Lebensformen; ausgehend von einem Ur-P450 haben sie sich im Laufe der Evolution an die erstaunlichsten Lebensbedingungen angepasst und finden sich in Prokaryoten ebenso wie in praktisch allen höheren Organismen im Pilz-, Pflanzen-und Tierreich. Die Cytochrom P450 Enzyme katalysieren von Natur aus bereits eine Vielfalt an Reaktionen, die alle auf der Basis von Oxydation - in den meisten Fällen durch Einführung von reaktivem Sauerstoff in ein organisches Molekül - zu verstehen sind: es sind u.a. Hydroxylierungen aliphatischer und aromatischer C-H-Bindungen, Epoxydierungen, Desalkylierungen, Sulfoxydierungen, Nitrierungen, etc. Viele physiologischen Substanzen, wie z.B. Alkaloide, Cholesterin, Steroidhormone, Vitamin D, etc. benötigen spezifische P450-Formen für Synthese und Abbau, andere P450 Enzyme sind in den Abbau/die Entgiftung von Fremdstoffen - organischen Molekülen - involviert. Sofern sie lipophil (fettlöslich) sind und ihre Größe (Molekulargewicht) 1000 D nicht wesentlich übersteigt, werden praktisch alle Fremdstoffe aus Umwelt und Synthese über P450 Enzyme abgebaut.

Trotz ihrer einzigartigen enzymatischen Fähigkeiten konnten bis vor kurzem P450-Formen nicht in die industrielle Produktion von Substanzen eingesetzt werden. Der Grund dafür: die meisten P450-Formen sind Membranproteine und damit in wässrigem Milieu unlöslich, sie haben ungenügende Stabilität und häufig unbefriedigende Aktivität. Mit gerichteter Evolution lassen sich diese Eigenschaften nun optimieren. Die Einsatzmöglichkeiten sind Legion - um nur ein Beispiel zu nennen: mittels optimierter P40-Formen können - umweltverträglich, effizient und kostensparend - Biotreibstoffe (z.B. Isopropanol) aus kurzkettigen Alkanen produziert werden.

Neben der Optimierung vorhandener Cytochrom P450 Enzyme hat Arnold neue Fornen designt, die ungewöhnliche Reaktionen ausführen, welche in der synthetischen Chemie wohl möglich sind, jedoch nicht dem natürlichen Spektrum der P450-Formen entsprechen. Varianten der designten Form P411 (Abbildung 3) reduzieren beispielsweise Azide, führen Amingruppen ein und katalysieren andere für P450-Enzyme völlig neue Reaktionen - dabei geht alles im gewünschten Milieu mit sehr hoher Aktivität und Selektivität vor sich.

Abbildung 3. Struktur der Cytochrome P450-Variante P411: PDB 4H23 (Quelle: Proteindata Bank; Artikel: A serine-substituted P450 catalyzes highly efficient carbene transfer to olefins in vivo. Coelho PS, et al., Nat. Chem. Biol. (2013) 9 p.485-487)

Wohin geht die Reise?

Anwendungsorientiert entstehen immer mehr Enzyme mit katalytischen Fähigkeiten, die denen der klassischen synthetischen Chemie gleichwertig sind oder diese sogar übertreffen. Völlig neu sind beispielsweise Enzymvarianten eines Cytochrom c (ein Haemprotein wie P450), welche Kohlenstoff-Silicium-Bindungen knüpfen können - eine technologisch sehr wichtige Reaktion, die aber in der Natur nicht vorkommt. Das Ergebnis der gerichteten Evolution ergab ein Enzym, das 15 mal schneller arbeitete als der bislang beste Katalysator in der chemischen Synthese. Anwendungsmöglichkeiten der Reaktionsprodukte sind sehr weit, finden sich u.a. in der Produktion von Elastomeren, in der medizinischen Chemie, in bildgebenden Verfahren, u.a.

Die mittels gerichteter Evolution erhaltenen Enzyme zeichnen sich dadurch aus, dass sie innerhalb von lebenden Zellen funktionieren, für unterschiedliche Substrate, Aktivitäten und Selektivitäten optimiert werden können.Wir erleben einen Paradigmenwechsel: Favorisierte Reaktionen der synthetischen Chemie können mit der herausragenden Selektivität und Adaptierbarkeit enzymatischer Prozesse "vermählt" werden.

Tatsächlich wird Arnolds Methode der gerichteten Evolution heute bereits weltweit in sehr vielen Labors und Industrien eingesetzt. Die modifizierten Enzyme treten zunehmend an die Stelle von Prozessen der synthetischen Chemie, die zu kostspielig, langwierig und/oder kompliziert sind oder auch von solchen Prozessen, für die inadäquate Mengen fossiler Rohstoffe eingesetzt werden müssten. Oder, wie es Frances Arnold bereits 1999 ausgedrückt hat:

"My vision is of a biotechnology-based chemicals industry that makes no messes to clean up"


Weiterführende Links

2018 Nobelpreis für Chemie

TEDxUSC - Frances Arnold - Sex, Evolution, and Innovation Video 16:26 min (2012) (USC Stevens Center for Innovation cc-by-Lizenz)

Frances H. Arnold: New Enzymes by Evolution Lecture at the Molecular Frontiers Symposium at the Royal Swedish Academy of Sciences, Sweden, May 2017. Video 38:38 min.

Artikel im ScienceBlog zu verwandten Themen

inge Thu, 04.10.2018 - 14:03

Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind

Erkältungen - warum möglichweise manche Menschen häufiger davon betroffen sind

Do, 27.09.2018 - 11:20 — Francis S.Collins

Francis S.CollinsIcon MedizinSchnupfen, Husten, Halsweh - kurz gesagt Erkältungen - sind Infektionskrankheiten der oberen Atemwege, die vor allem durch Rhinoviren aber auch durch viele andere unterschiedliche Viren hervorgerufen werden. Es sind weltweit die häufigsten Erkrankungen - nahezu alle Menschen leiden darunter mindestens 1-2mal im Jahr. Dafür, dass nicht jede Infektion zu Symptomen führt, sorgen wirksame Systeme in den Zellen, welche die Atemwege auskleiden indem sie einerseits Viren abwehren aber auch vor anderen Schädigungen (u.a. vor oxydativem Stress) schützen. Wie eine neue NIH-unterstützte Untersuchung nun zeigt, reagieren Zellen, die gleichzeitig oxydativem Stress und Viren ausgesetzt werden, weniger effizient auf die Infektion - Erkenntnisse, die erklären könnten, warum u.a. Raucher, Menschen mit Allergien oder mit anderen chronischen Defekten dazu neigen, schwerere Virusinfektionen zu bekommen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese wichtigen Ergebnisse.*

Viele Leute betrachten Erkältungen als ein Übel, das halt gelegentlich auftritt, einige Menschen scheinen davon aber viel häufiger betroffen zu sein als andere.

Warum dies so ist? Diesbezüglich haben NIH-finanzierte Forscher einige neue Indizien entdeckt. In ihrer Untersuchung haben sie heraus gefunden, dass die Zellen, die unsere Atemwege auskleiden, sehr geeignet sind den Erkältungen verursachenden Rhinoviren entgegenzuwirken. Dabei kommt es aber zu einem Kompromiss. Wenn diese Zellen damit beschäftigt sind, Gewebeschädigungen durch Zigarettenrauch, Pollen, Schadstoffe und/oder andere Reizstoffe aus der Luft abzuwehren, wird ihre Fähigkeit, solche Viren abzuwehren, signifikant reduziert [1].

Die neuen Befunde könnten den Weg zu besseren Strategien öffnen, wie man Erkältungskrankheiten sowie anderen Arten von Atemwegsinfektionen durch Nicht-Grippeviren vorbeugen könnte. Bereits kleine Fortschritte in der Prävention könnten große Auswirkungen auf die Gesundheit und Wirtschaft unserer Nation haben. Jedes Jahr gibt es in den US mehr als 500 Millionen Fälle an Erkrankten. die an Erkältungen und ähnlichen Infektionen leiden. Die Konsequenzen sind verringerte Arbeitsproduktivität, Krankheitskosten und andere Ausgaben, die insgesamt bis zu 40 Milliarden US-Dollar betragen können [2].

Infektionen mit Rhinoviren

Während des letzten Jahrzehnts stellt sich heraus, dass Infektionen mit Rhinoviren (Abbildung 1; von der Redn. eingefügt) viel häufiger erfolgen, als dass Betroffene dann tatsächlich Symptome einer Erkältung entwickeln. Dieser Befund hat das Interesse von Ellen Foxman an der Yale University School of Medicine (New Haven, CT) erweckt . Es war für sie ein Indiz, dass der Körper, insbesondere die Zellen, welche die Nasenwände auskleiden, sehr gut adaptiert sein dürften, um Viren, die Erkältungen verursachen, von uns abzuwehren.

Abbildung 1. Die Oberfläche des humanen Rhinovirus-3 PDB 1D: 1RHI. Rhinoviren, von denen man rund 160 verschiedene Arten kennt, sind kleine Viren von ca. 30 nm Durchmesser, deren Genom aus einem RNA-Einzelstrang besteht. Das Genom ist von einem sogenannten Kapsid ummantelt, das sich aus je 60 Kopien von 4 regelmäßig angeordneten Proteinen (pink, blau, braun, grün) zusammensetzt, die u.a. dem Andocken und Eindringen in die Wirtszelle dienen (Bild und Text von der Redaktion eingefügt; die Struktur stammt aus der Proteindatenbank PDB: https://www.ncbi.nlm.nih.gov/Structure/pdb/1RHI)

Könnte man diesen biologischen Prozess besser verstehen, dachte Foxman, so müsste es möglich sein, dass man Atemwegsinfektionen noch viel weniger spürbar ablaufen lassen könnte. Einen möglichen Hinweis hatte Foxman bereits. Ihre früheren Arbeiten hatten gezeigt, dass die Art und Weise wie Zellen auf Virusinfektionen reagieren, von der umgebenden Temperatur abhängt. Sie vermutete daher, dass Zellen, welche die kühleren Nasenwege auskleiden, anders funktionieren müssten als die, welche die wärmeren Atemwege innerhalb der Lungenflügel belegen.

Untersuchungen an Zellkulturen

In der Untersuchung, die nun in Cell Reports [1] veröffentlicht wurde, haben Foxman und Kollegen Zellkulturen von Epithelzellen angelegt, welche die Atemwege in der Nase und der Lunge von gesunden Spendern auskleiden. Abbildung 2 (von der Redaktion eingefügt). Sie haben diese Zellen dann mit einem Rhinovirus infiziert oder mit niedrigmolekularen Substanzen inkubiert, welche eine Virusinfektion imitieren und beobachtet, wie die Zellen darauf reagieren würden.

Abbildung 2. Der menschliche Atmungstrakt. Epithelzellen aus dem Nasenraum und den Luftwegen der Lunge wurden entnommen, Kulturen angelegt und diese dann auf ihre antivirale Reaktion und Schutz vor oxydativem Stress getestet. (Bild und Text von der Redaktion eingefügt. Das Bild i stammt von http://cancer.gov, ist gemeinfrei und wurde deutsch beschriftet.)

Was die Forscher entdeckten war, dass die antivirale Reaktion in den Nasenzellen stärker ausgeprägt war als in den Zellen der Lunge. Die aus der Lunge stammenden Zellen zeigten dagegen eine stärkere Abwehr von oxydativem Stress, der durch reaktive Sauerstoffmoleküle verursacht wurde, wie sie während des normalen Prozesses der Atmung erzeugt werden. Wie zu erwarten ist, müssen sich die Lungenzellen nicht nur gegen reaktiven Sauerstoff zur Wehr setzen, sondern auch gegen andere in der Luft vorhandene Substanzen wie beispielsweise Rauch, Pollen oder anderen Reizstoffe.

Ein Kompromiss zwischen Schutz vor Viren und vor oxydativem Stress

Diese (und weitere) Untersuchungen legen nahe, dass es im Atmungstrakt einen Kompromiss gibt zwischen der Abwehr von viralen Infektionen und dem Schutz vor anderen Arten von Gewebeschädigungen. Dies konnten die Forscher demonstrieren indem sie Zellen aus den Nasenschleimhäuten zuerst dem Rauch von Zigaretten aussetzten und sodann mit Rhinoviren in Kontakt brachten: Wie erwartet, wiesen diese Zellen nun eine größere Anfälligkeit für eine Virusinfektion auf.

Die Ergebnisse zeigen, dass die Auskleidung unserer Atemwege über wirksame Systeme zur Abwehr von Virusinfektionen und zum Schutz vor anderen Arten von Schädigungen verfügt. Allerdings funktionieren diese nicht so gut, wenn sie beiden Bedrohungen gleichzeitig ausgesetzt werden. Damit könnte diese Entdeckung eine Erklärung bieten, warum Raucher und Menschen mit Allergien oder anderen chronischen Defekten dazu neigen, schwerere Virusinfektionen zu bekommen als andere Menschen.

Man hofft nun, dass diese Erkenntnisse letztendlich zu Strategien führen werden, die natürlichen Abwehrkräfte des Körpers zu verbessern, so dass mehr Menschen auch nach dem Kontakt mit Erkältungsviren gesund bleiben. Allerdings heute gilt noch: will man Erkältungen auf ein Minimum beschränken, so ist der beste Weg sich häufig die Hände zu waschen, nicht zu rauchen und alles zu tun, um sich von den erkälteten Personen fernzuhalten.


[1] Regional differences in airway epithelial cells reveal tradeoff between defense against oxidative stress and defense against rhinovirus. Mihaylova VT, , Kong Y, Fedorova O, Sharma L, Dela Cruz CS, Pyle AM, Iwasaki A, Foxman EF. Cell Rep. 2018 Sep 11;24(11):3000-3007. (open access)

[2] The economic burden of non-influenza-related viral respiratory tract infection in the United States. Fendrick AM, Monto AS, Nightengale B, Sarnes M. Arch Intern Med. 2003 Feb 24;163(4):487-94 (open access)


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " T Possible Explanation for Why Some People Get More Colds" zuerst (am 18. September 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/09/18/possible-explanation-for-why-some-get-more-colds-than-others/#more-11294

Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert. Zur Illustration wurden zwei Abbildungen von der Redaktion eingefügt. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

inge Thu, 27.09.2018 - 11:20

Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

Wer betreibt Klimamodellierung und wie vergleichbar sind die Ergebnisse?

Do, 20.09.2018 - 20:04 — Carbon Brief

Carbon BriefIcon GeowissenschaftenWeltweit gibt es mehr als zwei Dutzend wissenschaftliche Institutionen, die Klimamodelle entwickeln, die meisten davon sind in Europa und den US. Viele dieser Modelle sind für Wissenschafter frei verfügbar und werden intensiv genutzt. Um alle an den verschiedenen Modellierungszentren durchgeführten Experimente vergleichbar zu machen, wurde das Modellvergleichsprojekt - CMIP - entwickelt und laufend verfeinert. Dies der fünfte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -4 [1, 2, 3, 4]).*

Weltweit gibt es mehr als zwei Dutzend wissenschaftliche Institutionen, die Klimamodelle entwickeln; oft baut und verfeinert jedes dieser Zentren mehrere verschiedene Modelle gleichzeitig.

Üblicherweise werden die so produzierten Modelle - ziemlich phantasielos - nach den Institutionen selbst benannt. So hat beispielsweise das Met Office Hadley Centre (der nationale meteorologische Dienst des UK ) mit "HadGEM3" eine Familie von Modellen entwickelt. Das in Princeton (US) ansässige NOAA Geophysical Fluid Dynamics Laboratory hat das Erdsystemmodell "GFDL ESM2M" geschaffen (NOOA: National Oceanic and Atmospheric Administration). Abbildung 1.

Abbildung 1. Was im Erdsystemmodell des Geophysical Fluid Dynamics Laboratory (GFDL) enthalten ist (Quelle: https://www.gfdl.noaa.gov/earth-system-model/)

In zunehmendem Maße gehen Modelle aus Kooperationen hervor

und das spiegelt sich oft in ihren Namen wider. In Großbritannien hat beispielsweise das Hadley Centre zusammen mit dem Forschungsrat für Umweltforschung (Natural Environment Research Council - NERC) das Erdsystemmodell "UKESM1" entwickelt, dessen zentrales Element das oben erwähnte HadGEM3-Modell des Met Office Hadley Centre ist.

Ein anderes Beispiel ist das Community Earth System Model (CESM), das Anfang der 1980er Jahre vom National Center for Atmospheric Research (NCAR) in den USA gestartet wurde. Wie "Community" in der Bezeichnung andeutet, ist dieses Modell das Ergebnis von Tausenden zusammenarbeitenden Wissenschaftlern (das Modell kann frei heruntergeladen und angewandt werden).

Dass es weltweit zahlreiche Modellierungszentren gibt, die in ähnlicher Weise vorgehen, ist „ein sehr wichtiger Aspekt der Klimaforschung“, sagt Dr. Chris Jones, der am Met Office Hadley Centre die Forschung zur Modellierung von Vegetation, Kohlenstoff-Kreislauf und deren Wechselwirkungen mit dem Klima leitet. Er erzählt Carbon Brief:

"Größenordnungsmäßig existieren so an die 10, 15 große globale Zentren für Klimamodellierung, die Simulationen und Ergebnisse produzieren. Indem man vergleicht, was die verschiedenen Modelle und unterschiedlichen Ansätze aussagen, kann man beurteilen, worauf man sich verlassen kann, worin sie übereinstimmen, und worauf wir weniger Verlass haben, wo sie sich widersprechen. Das leitet den Prozess der Modellentwicklung."

"Gäbe es nur ein einziges Modell oder nur ein einziges Modellierungszentrum, so hätte man von dessen Stärken und Schwachstellen viel weniger Ahnung", sagt Jones. "Und während die verschiedenen Modelle miteinander verwandt sind - zwischen den Gruppen entwickelt sich ja eine Menge an gemeinsamer Forschung und Diskussion - gehen sie normalerweise nicht so weit, dass sie dieselben Codezeilen verwenden.

Jones erklärt: "Wenn wir ein neues (Modell) -Schema entwickeln, so ist es üblich die Gleichungen dieses Schemas in der wissenschaftlichen Literatur zu publizieren, demzufolge wird es von Experten begutachtet. Es ist öffentlich verfügbar und andere Zentren können es mit dem vergleichen, was sie verwenden."

Zentren der Klimamodellierung...

Carbon Brief hat eine Karte der Klimamodellierungszentren erstellt, die zum fünften Modellvergleichsprojekt CMIP5 (Coupled Model Intercomparison Projekt 5) beigetragen haben. Abbildung 2. CMIP5 ist in den 2015 veröffentlichten Fünften Sachstandsbericht des IPCC (Intergovernmental Panel of Climate Change) eingeflossen, der den (damaligen) Wissensstand der Klimaforschung repräsentiert. (Details zu CMIP: unten und in [4])

Abbildung 2. Zentren für Klimamodellierung weltweit und in Europa. Es sind nur Zentren angeführt, die zum fünften Coupled Model Intercomparison Projekt (CMIP5) beigetragen haben. (Die im Original interaktive Karte zeigt Details zu den einzelnen Zentren: https://carbonbrief.carto.com/viz/a0465df3-64a9-42e5-8796-7cecbd64ae40/public_map)

Die meisten Modellierungszentren befinden sich in Nordamerika und Europa. Dazu ist jedoch anzumerken, dass die CMIP5-Liste kein vollständiges Verzeichnis der Modellierungszentren darstellt - insbesondere, weil sie sich auf Institutionen mit globalen Klimamodellen konzentriert. Dies bedeutet, dass die Liste keine Zentren enthält, die sich auf regionale Klimamodelle oder Wettervorhersagen konzentrieren, sagt Jones:

"Beispielsweise arbeiten wir viel mit den Brasilianern zusammen, die ihre Globalen Klimamodelle (GCMs) auf Wettervorhersagen und saisonale Vorhersagen konzentrieren. In der Vergangenheit haben sie sogar eine Version von HadGEM2 verwendet, um Daten an CMIP5 zu übermitteln. Für das kommende CMIP6 hoffen sie, das brasilianische Erdsystemmodell ("BESM") zu verwenden."

... und Verfügbarkeit der Modelle

Wieweit jedes Modellierungszentrum den Computercode öffentlich zur Verfügung stellt, ist von Institution zu Institution verschieden. Viele Modelle sind für die wissenschaftliche Gemeinschaft kostenlos erhältlich. Erforderlich dafür ist in der Regel das Unterzeichnen einer Lizenz, welche die Nutzungsbedingungen und die Verbreitung des Codes definiert.

So steht das vom Max-Planck - Institut für Meteorologie in Deutschland entwickelte "ECHAM6 GCM" im Rahmen einer Lizenzvereinbarung zur Verfügung, die besagt, dass die Nutzung seiner Software "nur für legitime wissenschaftliche Zwecke in Forschung und Lehre erlaubt" ist , aber "nicht für kommerzielle Zwecke".

Laut Institut besteht der Hauptzweck des Lizenzvertrags darin, dass es erfährt, wer die Modelle verwendet und so die Möglichkeit erhält mit den Nutzern in Kontakt zu treten. Es sagt:

"Die entwickelte MPI-M-Software muss kontrollierbar und dokumentiert bleiben. Das ist die Idee der Lizenzvereinbarung ... Ebenso wichtig ist es auch den Modellentwicklern Feedback zu geben, Fehler zu melden und Verbesserungen des Codes vorzuschlagen."

Zu weiteren Beispielen von Modellen, die unter einer Lizenz erhältlich sind, zählen: die "NCAR CESM" Modelle (bereits oben erwähnt), die "Model E GCMs" des NASA Goddard Instituts für Raumfahrtstudien und die verschiedenen Modelle des Institut Pierre Simon Laplace (IPSL) Klimamodellierungszentrums in Frankreich.

CMIP -Wie vergleichbar sind Ergebnisse an unterschiedlichen Klimamodellen?

Wenn so viele Institutionen Klimamodelle entwickeln und anwenden, besteht das Risiko, dass jede Gruppe in anderer Art und Weise an die Modellierung herangeht und so die Vergleichbarkeit ihrer Ergebnisse reduziert.

Hier kommt das Coupled Model Intercomparison Project ("CMIP") ins Spiel. CMIP ist ein Rahmenwerk für Klimamodell-Experimente, mit dem Wissenschaftler GCMs systematisch analysieren, validieren und verbessern können. "Coupled" bedeutet dabei, dass alle Klimamodelle im CMIP gekoppelte Atmosphäre-Ozean-GCMs sind. Was mit "Intercomparison" gemeint ist, erklärt Dr. Chris Jones vom Met Office:

"Die Idee zu einer Vergleichbarkeit ergab sich aus dem vor vielen Jahren üblichen Umstand, dass unterschiedliche Gruppen von Modellierern unterschiedliche Modelle hatten, diese auch in jeweils etwas anderer Weise zu erstellen pflegten und an diesen Modellen verschiedenartige numerische Experimente durchführten. Wollte man die Ergebnisse dann vergleichen, so war man nie ganz sicher, ob die Differenzen auf die unterschiedlichen Modelle oder ihr andersartiges Design zurück zu führen wären."

CMIP wurde entwickelt, um alle an verschiedenen Modellierungszentren durchgeführten Experimente an Klimamodellen vergleichbar zu machen. Seit seinen Anfängen im Jahr 1995 gab es bereits mehrere Generationen von CMIPs und jede davon wird immer ausgereifter in Bezug auf das Design der Experimente. Alle 5-6 Jahre erscheint eine neue Generation.

In den frühen Jahren haben CMIP-Experimente beispielsweise simuliert, wie sich ein jährlicher Anstiegs des atmosphärischen CO2 um 1% auf das Klima auswirkt (siehe [4]). In späteren CMIP-Experimenten wurden dann detailliertere Emissionsszenarien eingesetzt, wie es die Representative Concentration Pathways ("RCPs") sind.

Werden Modelle auf die gleiche Weise erstellt und dieselben Eingaben verwendet, ist es für die Forscher klar, dass unterschiedliche Projektionen zum Klimawandel auf Unterschiede in den Modellen selbst zurückzuführen sind. Dies ist der erste Schritt, um zu verstehen, was diese Unterschiede verursacht.

Der Output jedes Modellierungszentrums wird dann auf ein zentrales Webportal geladen und vom Program for Climate Model Diagnosis and Intercomparison (PCMDI) verwaltet. Weltweit können dann Wissenschaftler aus vielen Disziplinen dann frei darauf zugreifen. Verantwortlich für CMIP ist die Arbeitsgruppe für gekoppelte Modelle, die Teil des Weltklimaforschungsprogramms (WCRP) der Weltorganisation für Meteorologie in Genf ist. Darüber hinaus überwacht das CMIP-Panel das Design der Experimente, der Datensätze, sowie die Lösung aller Fragestellungen.

Das nächste Vergleichsprogramm: CMIP6

Die Zahl der Forscher, die auf CMIP-Daten basierende Publikationen veröffentlichen, "ist von ein paar Dutzend auf weit über tausend gewachsen", sagte die Vorsitzende des CMIP-Gremiums, Prof. Veronika Eyring, kürzlich in einem Interview mit dem Fachjournal Nature Climate Change. Und weiter: "Die Modellierungen für CMIP5 sind abgeschlossen und CMIP6 läuft jetzt an, an dem weltweit mehr als 30 Modellierungszentren beteiligt sein werden".

Neben einem zentralen Set von Modellierungsexperimenten zu Diagnose, Evaluierung und Charakterisierung des Klimas - kurz "DECK" -, wird CMIP6 auch einen Satz zusätzlicher Experimente beinhalten, um spezifische wissenschaftliche Fragen zu beantworten. Diese Fragen sind in einzelne Modellvergleichsprojekte oder "MIPs" unterteilt. Bisher wurden 21 solcher MIPs bestätigt, Eyring sagt:

"Vorschläge dazu wurden dem CMIP-Panel vorgelegt und erhielten eine Bestätigung, wenn sie 10 von der Gemeinschaft festgelegte Kriterien erfüllten, zusammengefasst sind dies: Fortschritte bei den in früheren CMIP-Phasen identifizierten Lücken, Beiträge zu den Großen Herausforderungen des Weltklimaforschungsprogramms (WCRP) und Teilnahme von mindestens acht Modellierergruppen."

Über CMIP6 gibt es eine Sonderausgabe der Zeitschrift Geoscientific Model Development mit 28 Artikeln, die das Gesamtprojekt und die spezifischen MIPs abdecken (open access, https://www.geosci-model-dev.net/special_issue590.html) .

Ein Überblick über die 21 MIPs und das experimentelle Design ist in Abbildung 3 gezeigt.

Abbildung 3. Übersicht über Bezeichnung und Inhalte der bestätigten 21MIPS im angelaufenen CMIP6 Programm (Reproduced with permission from Simpkins, 2017.)

Die Ergebnisse der CMIP6-Simulationen werden eine Grundlage für einen Großteil der Forschungsarbeiten bilden, die in den sechsten Sachstandsbericht des IPCC einfließen werden. Anzumerken ist dabei, dass CMIP völlig unabhängig vom IPCC ist.


*Der Artikel ist der Homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter den Titeln"Who does climate modelling around the world? und What is CMIP? ist es die Fortsetzung einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Die unter einer cc-by-nc-nd 4.0 Lizenz stehenden Artikel wurden im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

[4] Teil 4 (23.8.2018): Welche Fragen stellen Wissenschaftler an Klimamodelle , welche Experimente führen sie durch?


Weiterführende Links

Artikel im ScienceBlog

Wir haben einen eigenen Schwerpunkt Klima und Klimawandel gewidmet, der aktuell 29 Artikel enthält.

inge Thu, 20.09.2018 - 20:04

Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools

Zielgerichtete Krebstherapien für passende Patienten: Zwei neue Tools

Do, 13.09.2018 - 11:18 — Ricki Lewis

Ricki LewisIcon MedizinEine Choreografie von Mutationsereignissen, treibt Krebszellen dazu invasiv zu werden und Metastasen zu bilden Das verändert die Biologie in einer Weise, dass die "abtrünnigen" Zellen nun resistent gegen Behandlungen werden. Während die traditionellen Ansätze von Chemotherapie und Strahlung - "Ausschneiden und Ausbrennen" - Zellen angreifen, die sich schnell teilen, greifen zielgerichtete Behandlungen veränderte Proteine an, die präzise genetische Veränderungen in Tumorzellen widerspiegeln. Es sind dies somatische Mutationen, d.i. Mutationen nur in den betroffenen Zellen, nicht aber ererbte Mutationen, die in allen Zellen eines Patienten vorhanden sind.

Zwei neue Veröffentlichungen stellen nun Tools vor, mit denen man Patienten besser an zielgerichtete Behandlungen oder Immuntherapien anpassen kann und diese basieren auf der Interpretation von Mutationen, die der Initiierung und Ausbreitung eines Tumors zugrunde liegen. Bei einem der Tools - Cerebro genannt -geht es um maschinelles Lernen, beim anderen Tool gibt es eine Skala auf der Ärzte die Evidenz, dass eine bestimmte zielgerichtete Behandlung gegen einen Tumor mit spezifischen Mutationen wirkt, ranken. Die Genetikerin Ricki Lewis berichtet darüber.*

Eine kurze Geschichte der zielgerichteten Krebsmedikamente...

Als meine Mutter vor 30 Jahren an Brustkrebs erkrankte, erhielt sie eine brutale und sinnlose Tortur. Entsprechend einem Vorgehen "one size fits all - eine Größe passt für alle" und "töte alle teilungsfähigen Zellen" litt sie unter einer Therapie mit Standard-Chemotherapeutika, gefolgt von fünf Jahre langer Einnahme von Tamoxifen. Abbildung 1 zeigt eine Brustkrebszelle.

Abbildung 1. Fast ein Gemälde - eine Brustkrebszelle (NHGRI)

Tamoxifen

war damals bereits so etwas wie ein Präzisionsansatz: es blockierte die im Übermaß auf ihren Krebszellen vorhandenen Östrogenrezeptoren, welche das Hormon ansonsten befähigten, den Zellzyklus zu starten. Der Nachweis zusätzlicher Östrogen- und Progesteronrezeptoren, die bei allen Brusttumoren durchgeführt werden, verwendet allerdings Immunhistochemie, nicht Gentests. Meine Mutter tat, was ihre Ärzte diktierten. Die Fernsehwerbung bombardierte damals Krebspatienten nicht mit den Details zu Taxol, Cisplatin oder Adriamycin.

Herceptin

In den 1990er Jahren kam dann Herceptin auf. Dies ist ein Antikörper gegen einen anderen Rezeptor - HER2 -, der auf den Zellen von 25 bis 30 Prozent der Brusttumoren besonders häufig vorkommt. Herceptin verhindert die Bindung von Molekülen an den Rezeptor für den humanen epidermalen Wachstumsfaktor ("HER"), welche das Signal für die Zellteilung auslösen. Auch normale Zellen besitzen bis zu 100 000 solcher Rezeptoren, Krebszellen dagegen 1 bis 2 Millionen.

Gleevec

Mit Gleevec, das auch ein Signal zur Zellteilung blockiert, trat erstmals ein erstaunlich zielgerichtetes Krebsmedikament auf den Plan. Das New England Journal of Medicine vom 5. April 2001 berichtete, dass 53 von 54 Patienten mit chronischer myeloischer Leukämie darauf ansprachen. Heute wird Gleevec auch zur Behandlung verschiedener anderer Krebsarten eingesetzt, ein früher Hinweis für den Paradigmenwechsel Krebs auf Basis der Mutation und nicht der Lokalisierung zu bekämpfen.

Heute testen Tumortyp-unabhängige Untersuchungen ("Basket Studies") neue Medikamente gegen Krebsarten, die verschiedene Körperteile betreffen, aber die gleichen Mutationen aufweisen. Die Liste der gezielten Therapien wächst. Abbildung 2.

Abbildung 2. Tumoren in verschiedenen Organen können dieselben Mutationen aufweisen. (Jonathan Bailey, NHGRI)

Im Jahr 2017 kam die FDA-Zulassung für Zelboraf und Tafinlar. Es sind Medikamente gegen metastasierendes Melanom, die auf eine Mutation (V600E) im B-RAF-Gen abzielen, dessen Proteinprodukt wiederum Teil eines Signalwegs ist, der die Zellteilung beschleunigt.

Keytruda und Opdivo, ebenfalls vor kurzem zugelassen, arbeiten auf andere Weise. Es sind Antikörper, die über eine "Immun Checkpoint Blockade" Moleküle hemmen, welche bei manchen Krebsarten die Immunantwort ausschalten. Die Zielstruktur von Keytruda und Opdivo ist ein Protein - PD-L1 -, das normalerweise T-Zellen abschaltet, die eine Immunantwort auslösen. Opdivo behandelt 12 Krebsarten in Kombination mit anderen Behandlungen oder als letztes Mittel; Keytruda ist derzeit nur für nicht-kleinzelligen Lungenkrebs zugelassen.

...und ärgerliche Verbraucherwerbung

Keytruda und Opdivo sind in den US durch ihre ärgerliche TV-Werbung bekannt. So zeigt ein älterer Herr mit einer schönen Frau an seiner Seite auf einen Wolkenkratzer. Opdivo gab ihm "eine Chance, länger zu leben!" Dass "länger leben" rund 3 Monate bedeutete, hatte der Hersteller Bristol-Myers Squibb zunächst weggelassen und erntete dafür heftige Kritik ; jetzt steht die Information im Kleingedruckten. Keytruda erging es besser als Opdivo: man hatte die klinische Studie auf Patienten beschränkt, bei denen mehr als 50% ihrer Krebszellen übermäßig hohes PD-L1 aufwiesen. Das ist ein sehr wichtiger Punkt: Werden für klinische Studien die passenden Patienten ausgewählt, so beeinflusst dies die beobachtete Wirksamkeit.

In jüngerer Zeit wendet sich die Verbraucherwerbung mit ihrer "strahlenden-, glücklichen-Menschen-Taktik" an die Behandlung von metastasierendem Brustkrebs - konkret mit Verzenio von Eli Lilly, das 2017 von der FDA zugelassen wurde: Eine Mutter sieht ihrer jungen Tochter beim Tanzen zu, zwei Freunde backen Kuchen, eine Familie bläst Seifenblasen in der Nähe des Gartens - weit und breit sind aber weder ein Strahlungsmarker noch ein Chemo-Port zu sehen. Das Kleingedruckte gibt an, dass mit Verzenio die Progression verzögert ist, aber noch kein Überlebensvorteil nachgewiesen wurde. Mit ähnlich reizvollen Szenarien wird auch für Pfizers Ibrance (gegen fortgeschrittenen Brustkrebs) geworben. Nur bei Kisqali von Novartis werden tatsächlich echte Patientinnen gefragt, wie sie sich fühlen. "Ich habe Angst", sagt eine Frau, während eine andere traurig ist. "Wenn Sie herausfinden, dass Sie an metastasierendem Brustkrebs leiden, ist dies eine Qual." Die drei Brustkrebs-Medikamente sind sogenannte CDK-Hemmer, die einen Teil des Zellteilungszyklus blockieren.

Über ein einzelnen Krebsgens hinaus

Opdivo hat eine Ansprechrate von 30%. Das ist für ein Krebsmedikament akzeptabel. Bedenkt man, dass Opdivo ein defininiertes Zielmolekül angreift, jedoch mehrere genetische Wege den Krebs treiben, so ist es besser biologische Übergänge ins Auge zu fassen, die zur Behandlungsresistenz führen. Und eine umfassendere genetische Analyse ist jetzt machbar - die Kosten für Multi-Gen-Tests und Exom- und Genomsequenzierung sind ja stark zurückgegangen.

"Hunderte Laboratorien in den Vereinigten Staaten bieten NGS- (Next Generation Sequencing) Krebs-Profiling an, geben jährlich Zehntausende von Berichten heraus", schreiben Derrick Wood (Johns Hopkins University School of Medicine) und Kollegen in einem neuen Artikel im Journal Science Translational Medicine. Sie weisen darauf hin, dass diese Analysen zwar den "CLIA" -Regeln (Clinical Laboratory Improvement Amendments) entsprechen, das heißt, sie erkennen, worauf sie testen, aber sie sind noch nicht von der FDA als diagnostische Tests für die Zuordnung von Krebsmutationsprofilen zu bestimmten Medikamenten zugelassen.

Dennoch werden die Daten aus all diesen Tests letztlich zu einem wesentlich zielgerichteteren Ansatz in der Krebstherapie führen. Ein Großteil der Daten wird von der American Association for Cancer Research und vom Cancer Genome Atlas zusammen getragen.

Eine Herausforderung für die Bioinformatik

"Bei Krebs wurde das Genom in die Hölle geschossen", sagte mir einst ein prominenter Forscher. Mit Hunderten von Onkogenen und Tumorsuppressor-Genen, von denen jedes auf unzählige Arten mutieren kann, mit Stücken von Chromosomen, die abgetrennt werden, während andere sich wiederholen, wiederholen, wiederholen... So wird ein Anpassen des "genomischen Profils" einer vorherrschenden Krebszelle - ein Tumor kann aus genetisch unterschiedlichen Zellen bestehen - an ein spezifisch zielgerichtetes Medikament zu einem Problem der Bioinformatik.

Genug Daten analysieren, um den Mutations-Weizen von der Spreu genau zu trennen - um dies zu erreichen, wandte sich das Team von der John Hopkins Universität dem maschinellen Lernen zu und erfand Cerebro.

Besser als ein Gehirn

Beim maschinellen Lernen werden Rechner auf Basis realer Daten trainiert, um Muster in Datensätzen zu identifizieren, die für ein menschliches Gehirn zu komplex oder zu subtil sind.

Cerebro wendet den Random-Forest-Algorithmus an, der zunächst viele Zufalls-Entscheidungsbäume generiert, basierend auf dem, was bereits vorhanden ist (echte Daten zu Mutationen und zu klinischem Ansprechen), sowie "in silico" -Mutationen, die - basierend auf der DNA-Sequenz eines Gens - theoretisch möglich sind. Vorbereitet durch den Trainingsdatensatz leitet Cerebro dann ab, welche Mutationen in neuen Datensätzen durch bestimmte Medikamente verwundbar sein werden.

Je mehr Daten für das Training verwendet werden, desto größer wird die Vorhersagekraft. Angesichts der riesigen Datensätze von all den Menschen, deren Krebsgenome untersucht wurden, ist die Zeitnun reif für diesen Ansatz.

Cerebro hat an 30.000 Mutationen und 2 Millionen fehlerhaften Genvarianten trainiert, welche das medikamentöse Ansprechen tatsächlich nicht vorhersagten. Es kam heraus, dass Zellen eines einzelnen Tumors im Durchschnitt 267 somatische Mutationen und Veränderungen auf Chromosomenebene aufweisen (Range 1 - 5.871). Krebs ist ein Wechselbalg, die Zellen unterscheiden sich genetisch auch innerhalb desselben Tumors.

Nach der Validierung an großen Datensätzen, wie solchen aus dem Cancer Genome Atlas, übertraf Cerebro menschliche Gehirne im Anpassen neuer Patienten an zielgerichtete Medikamente. Cerebro berücksichtigte nicht nur das, was bekannterweise existiert, sondern auch das, was möglich wird: so folgert Cerebro, wie eine Mutation die Konformation eines Proteins verändert und wie sich diese Veränderung auf den damit verbundenen biochemischen Weg von Karzinogenese, Invasion oder Metastasierung auswirkt. Cerebro war in beiden Aspekten genauer. Zum Beispiel identifizierte das Tool bei einer Gruppe von Patienten mit nicht-kleinzelligem Lungenkrebs eine geringere Zahl an relevanten Mutationen als die Standardtechniken, fand jedoch mehr relevante Mutationen bei Patienten mit metastasiertem Melanom.

In der Zwischenzeit…

Bis maschinelles Lernen soweit ausgereift ist, dass Krebspatienten schnell an eine optimale zielgerichtete Behandlung angepasst werden können, führt ein weiterer neuer Artikel, der in Annals of Oncology veröffentlicht wurde, ein anderes Tool ein. Es ist eine Skala, welche die zielgerichteten Medikamente rankt und abgekürzt mit ESCAT bezeichnet wird (ESMO (European Society for Medical Oncology) Scale for Clinical Actionability of Molecular Targets).

Fabrice André, der die Skala entwarf und Onkologe (am Gustave Roussy-Krebs-Center in Villejuif, Frankreich) ist, erklärt: "Ärzte erhalten zunehmende Mengen an Information über die genetische Zusammensetzung des Tumors jedes Patienten, es kann aber schwierig sein dies zu interpretieren, um optimale Behandlungsmöglichkeiten auszuwählen. Die neue Skala wird uns dabei helfen, zwischen Veränderungen in der Tumor-DNA zu unterscheiden, die für Entscheidungen über gezielte Medikamente oder den Zugang zu klinischen Studien relevant sind, und solche, die es nicht sind."

Basierend auf den Mutationen des Tumors (Abbildung 3) sieht ESCAT sechs Stufen klinischer Evidenz vor, um eine Auswahl von Medikamenten zu treffen:

  • >Stufe 1 = "Bereit für den Einsatz bei routinemäßigen klinischen Entscheidungen" basierend auf einem klaren Überlebensvorteil, wie bei Herceptin und Keytruda.
  • Stufe II = "Zu prüfende Ziele - definieren wahrscheinlich eine Patientenpopulation, die von einem zielgerichteten Medikament profitiert, zusätzliche Daten werden aber noch benötigt." (Klinische Verbesserung, aber noch keine Überlebensdaten vorhanden.)
  • Stufe III = "Klinischer Nutzen, der zuvor bei anderen Tumorarten oder ähnlichen molekularen Zielen nachgewiesen wurde".
  • Stufe IV = "präklinischer Nachweis der Wirksamkeit " (in menschlichen Zellen oder Tiermodellen)
  • Stufe V = "Evidenz, die ein Co-Targeting unterstützt" (ein zusätzliches Zielmolekül wird benötigt)
  • Stufe X = "Fehlende Evidenz der Wirkung"

Stufe-I-Mutationen bestimmen die Auswahl der Medikamente.

Die Skala wird es Onkologen auch ermöglichen, sinnvolle Gespräche mit Patienten zu führen, die verzweifelt alles versuchen wollen. "ESCAT wird Ordnung in den aktuellen Mutationsanalyse-Dschungel bringen, damit wir alle die gleiche Sprache sprechen, um Mutationen zu klassifizieren und Prioritäten zu setzen, wie wir sie zur Verbesserung der Patientenversorgung einsetzen", schließt André.

Abbildung 3. Mutationen, die zur Tumorbildung führen

Zusatz

In Zusammenhang mit Krebs verwende ich nie das Wort "Heilung", allerdings "kein Hinweis auf eine Krankheit" scheint zu vorsichtig. Ich hoffe, dass Patienten, die heute zielgerichtete Medikamente nehmen, zusammen mit häufigen Tests zur Identifizierung neuer Mutationen in ihren Krebszellen, eine zukünftige Enzyklopädie des Wissens zur Verfügung stellen, welche die Auswahl von Medikamenten erleichtert, um eine Progression zu verhindern, das Überleben zu verlängern oder sogar einen normalen Zellzyklus wiederherzustellen.


*Der Artikel ist erstmals am 6. September 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " Matching Cancer Patients to Targeted Drugs: Two New Tools " erschienen (https://blogs.plos.org/dnascience/2018/09/06/matching-cancer-patients-to-targeted-drugs-two-new-tools/ und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen.


Weiterführende Links

Zu maschinellem Lernen

Bessere Medizin dank Machine Learning und künstlicher Intelligenz (KI). Dr. Marco Schmidt (2018) Video 14:01 min. https://www.youtube.com/watch?v=ufCP7dnBrWs

Künstliche Intelligenz und maschinelles Lernen: Eine Prognose(2018). Video 9:14 min. Prof. Peter Buxmann (TU Darmstadt) .hr info. https://www.youtube.com/watch?v=LWcMEDjM-6A

Zu ESCAT

Mateo et al., (21.8.2018): A framework to rank genomic alterations as targets for cancer precision medicine: the ESMO Scale for Clinical Actionability of molecular Targets (ESCAT). open access. https://academic.oup.com/annonc/advance-article/doi/10.1093/annonc/mdy263/5076792

Zu Herceptin Einen ausführlichen Artikel über Herceptin gibt es von Ricky Lewis im Scientist (April 2001): Herceptin Earns Recognition in Breast Cancer Arsenal. https://www.the-scientist.com/news/herceptin-earns-recognition-in-breast-cancer-arsenal-54751

Artikel zu ähnlichen Themen im ScienceBlog

inge Thu, 13.09.2018 - 11:18

Freund und Feind - Die Sonne auf unserer Haut

Freund und Feind - Die Sonne auf unserer Haut

Do, 06.09.2018 - 13:13 — Inge Schuster

Inge SchusterIcon MedizinLicht aus dem UV-Bereich des Sonnenspektrums löst in den Schichten der Haut eine Vielzahl und Vielfalt (photo)chemischer Reaktionen aus, die überaus negative aber auch stark positive Auswirkungen auf unsere Gesundheit und unser Wohlbefinden haben. Wie Strahlung aus dem UVA- und UVB-Bereich mit welchen Haustrukturen interagiert, ist hier an Hand einiger repräsentativer Beispiele beschrieben. Welche Maßnahmen die Haut zum Schutz vor den UV-Strahlen entwickelt hat - von Radikalfängern, Pigmentierung zu Reparatursystemen und morphologischen Anpassungen - soll in einem nachfolgenden Artikel aufgezeigt werden.

Die Haut prägt unser Aussehen und (zum Teil) unsere Persönlichkeit und ist mit rund 16 % des Körpergewichts unser größtes Organ. Häufig wird sie bloß als eine sehr effiziente Barriere gegen eine oft feindliche Umwelt angesehen, bietet sie doch Schutz vor vielen Gefahren: vor physikalischen und chemischen Angriffen, vor dem Austrocknen des Organismus oder dem Eindringen von Fremdstoffen und Mikroorganismen. Der Komplexität der Haut in ihrem Aufbau, ihrer Dynamik und ihren Funktionen wird man sich erst seit rund vierzig Jahren mehr und mehr bewußt. Tatsächlich ist die Haut ein stoffwechselaktives, neuro-immuno-endokrines Organ, ein Sinnesorgan, das unterschiedlichste Informationen aus der Umwelt verarbeitet, Schäden abwehrt und repariert und über Signale mit dem Körperinneren kommuniziert.

Sensor für UV-Licht

Eine besonders wichtige Rolle für das Sinnesorgan Haut spielt das Licht der Sonne und hier insbesondere die Strahlung aus dem UV-Bereich des Sonnenspektrums, d.i. Licht von 200 bis 400 nm Wellenlänge. UV-Photonen lösen in den Schichten der Haut eine Vielzahl und Vielfalt (photo)chemischer Reaktionen aus, die überaus negative aber auch stark positive Konsequenzen für Gesundheit und Wohlbefinden nach sich ziehen.

Die kürzestwellige und damit energiereichste Strahlung (UVC) spielt allerdings keine Rolle, da sie bereits in der Stratosphäre durch Ozon (O3)völlig absorbiert wird. Dies ist auch für den Großteil der längerwelligen UVB-Strahlen der Fall. So gelangt nur ein kleinerer Teil der UVB Strahlung- zwischen 5 - 10 % - auf die Erdoberfläche - wie viel ankommt hängt u.a. von der geographischen Lage, der Jahreszeit, der Höhe, der Wetterlage, etc. ab. Die energieärmere langwellige UVA-Strahlung trifft dagegen praktisch ungefiltert auf uns. Abbildung 1.

UV-Strahlung, die auf die Haut fällt, dringt abhängig von der Wellenlänge - d.i. vom Energiegehalt - in diese unterschiedlich tief ein:

UVB-Photonen werden bereits in der Epidermis, die bis in eine Tiefe von rund 0,15 mm reicht, vollständig absorbiert. Die meiste Strahlung wird bereits in der obersten Schichte, dem sogenannten Stratum Corneum, abgefangen - einer Schichte, die aus toten verhornten,in einen "Mörtel" aus Lipiden (Fettsäuren, Ceramiden und Cholesterin) eingebetteten Keratinozyten besteht und eine weitgehend undurchdringliche Barriere zur Außenwelt bildet.Graduell reduziert durchdringen UVB-Strahlen die darunter liegenden Schichten differenzierender Keratinozyten und erreichen auch noch die proliferierenden Zellen (Stammzellen) der Basalschicht. Zwischen den basalen Epithelzellen eingesprengt finden sich dendritischeZellen: Melanozyten und Langerhanszellen - Immunzellen, die auf mikrobielle und andere Antigene aus der Umwelt reagieren. (Zur Architektur der Haut: siehe [1]).

UVA-Strahlen gelangen tiefer, auch noch in die unter der Epidermis liegende Dermis ("Lederhaut"), eine bis zu 3 mm dicke Schicht Bindegewebe. Abbildung 1.

Abbildung 1. Elektromagnetisches Spektrum der Sonnenstrahlung (oben). Die auf die Haut treffende UV-Strahlung besteht aus UVA (90 - 95 %) und UVB (5 - 10 %) Strahlen (unten). Die kürzestwelligen UVC-Strahlen und ein Großteil der UVB-Strahlen werden in der Atmosphäre absorbiert. Während UVB-Strahlen vollständig in der Epidermis absorbiert werden, reichen die längerwelligen UVA-Strahlen bis in die Dermis. (Quelle: oben Wikimedia Commons file Sonne Strahlungsintensitaet.svg; cc-by-sa. Unten modifiziert nach J. D'Orazio et al., Int. J. Mol. Sci. 2013, 14, 12222-12248; open access, cc-by-3.0)

Die Dermis ist heterogen aufgebaut. UVA-Strahlen treffen hier auf verschiedene Zelltypen - vor allem auf Fibroblasten, die Produzenten der gelartigen extrazellulären Matrix, der Kollagenfasern und elastischen Fasern sind, welche unsere Haut stützen und ihr Elastizität verleihen. Dazu kommt ein breites Spektrum an (patrouillierenden) Zellen des Immunsystems. Weiters finden sich Blut- und Lymphkapillaren, welche die gefäßfreie Epidermis und die Dermis versorgen und entsorgen, Zellen der Haarfollikel, der Drüsen (Talg, Schweißdrüsen) und Nervenenden (Thermorezeptoren, Mechanorezeptoren).

Was bewirkt UV-LIcht in der Haut?

Eine Vielzahl unterschiedlicher Moleküle in den Zellen und in extrazellulären Bereichen der Haut enthält Strukturen - sogenannte Chromophore -, die Licht im Bereich der UV-Strahlung absorbieren. Im UVB-Bereich sind das beispielsweise die Nukleobasen (Purine- und Pyrimidine) - essentielle Bausteine, deren Basenpaarung und Abfolge die Erbinformation, den genetischen Code, in unserer DNA festlegen -, aber auch Aminosäuren mit einem aromatischen Rest - Tyrosin, Tryptophan, Phenylalanin und Histidin. Abbildung 2.

Abbildung 2. Absorptionsspektren essentieller Bausteine von Nukleinsäuren und Proteinen liegen im Bereich der UVB-Strahlung. (Plot: log Absorption vs Wellenlänge). Für die Nukleobasen repräsentativ stehen das Purin Adenin und das Pyrimidin Cytosin (hier nicht gezeigt: Thymin, das ein etwa doppelt so hohes Absorptionsmaximum aufweist).Die Absorption der Aminosäure Tryptophan (nicht gezeigt) ist rund 5mal höher als von Tyrosin. (Quelle:modifiziert nach Internet Archive: Cytology (1961), p.239; https://archive.org/details/cytology00wils.)

Die energiereichen UV-Photonen regen die Moleküle an und führen in Folge zu einer breiten Palette an chemischen Reaktionen, die positive aber auch negative Auswirkungen für die Haut selbst und auch den ganzen Organismus haben können.

Auswirkungen von UVB-Photonen auf Nukleinsäuren,…

und hier insbesondere auf die Nukleobasen (Purine- und Pyrimidine) der DNA, wurden auf Grund ihrer schädigenden Effekte bis jetzt am intensivsten untersucht. Die Absorption von UVB verursacht die Bildung charakteristischer Photoprodukte (UVB-Signaturen). In der Hauptsache reagieren benachbarte Pyrimidinbasen (Thymin und Cytosin) an einem Strang zu Dimeren und können daher nicht mehr Paarungen mit den komplementären Partnern am anderen Strang (Adenin und Guanin) eingehen. Abbildung 3.

Abbildung 3.UVB-Photonen erzeugen u.a. Dimere aus benachbarten Pyrimidinen (hier Thymin in gelb, das mit einem Adenin -grün - am anderen Strang paart) und brechen damit die Basenpaarungen der Doppelhelix auf. Ohne entsprechende Reparaturmechanismen können Gene nicht mehr korrekt abgelesen werden. (Bild links: NASA/David Herring,Bild rechts:chem.libretexts.org https://bit.ly/2MNUeCU; beide Quellen unter cc-by Lizenz)

UVB-Licht erzeugt aber auch zahlreiche weitere Läsionen in den Nukleobasen, die potentiell mutagen sind und - wenn die Zellen nicht über ausreichende Reparaturfunktionen verfügen - Hautkrebs verursachen können. Bereits normale, morphologisch unauffällige Haut hat - je nach Länge der Exposition und Hauttyp - mehr Mutationen akkumuliert als man in verschiedenen Tumoren - Brust, Lunge und Leber - findet. In Hauttumoren ist dann die Dichte solcher Mutationen noch um ein Vielfaches höher; beispielsweise kann die DNA einer einzigen Basaliomzelle an die 500 000 Mutationen aufweisen.

Hautkrebs gehört zu den häufigsten Krebserkrankungen: am sogenannten "weißen" Hautkrebs (Basaliom und Plattenepithelkarzinom), der von geschädigten Keratinozyten in der Basalschichte der Epidermis ausgeht und erfolgreich behandelbar ist, erkranken in Österreich jährlich rund 20 000 bis 30 000 zumeist ältere Menschen. Seltener, aber wesentlich gefährlicher ist das Melanom, das seinen Ursprung in den Melanozyten hat (Statistik Austria 2018: gibt für 2015 rund 1700 Fälle an).

…auf Aminosäuren mit einem aromatischen Rest…

Tyrosin, Tryptophan, Phenylalanin und Histidin werden ebenfalls durch UVB angeregt. Anders als im Fall geschädigter Nukleobasen entstehen hier auch physiologisch benötigte Photoprodukte.

Als Beispiel soll hier die vor kurzem entdeckte Dimerisierung von Tryptophan durch UV-Licht zu einem FICZ (6-Formylindolo(3,2-b)carbazole) genannten Produkt beschrieben werden. Abbildung 4.

FICZ ist offensichtlich ein lang gesuchter, überaus potenter endogener Agonist des Transkriptionsfaktors Arylhydrocarbon-Rezeptor (AHR), der massiv in der Epidermis exprimiert ist. Bereits in äußerst niedrigen Konzentrationen aktiviert FICZ den AHR und dies führt zur Expression von zahlreichen, für die Intaktheit und Funktion der Haut wichtigen Genen. Abbildung 4.

Abbildung 4. Aus 2 Molekülen Tryptophan entsteht durch UV-Licht der endogene Ligand des Arylhydrocarbon Rezeptors (AHR): FICZ (6-Formylindolo(3,2-b)carbazole). Der FICZ-aktivierte Rezeptor reguliert die Expression von Genen, die für Schutz und Funktion der Haut wichtig sind.

Es sind dies Gene, die u.a. in der Regulierung der Homöostase von Stammzellen eine Rolle spielen, in der Modulierung der Immunantwort u.a. eine Balance zwischen Abwehr von Pathogenen und Unterdrückung einer schädigenden Entzündung herstellen und vor allem auch effizienten Schutz vor Fremdstoffen bieten. Letzteres geschieht durch die AHR-induzierte Expression von Enzymen (vor allem aus der CYP1-Familie), die insbesondere planare aromatische Kohlenwasserstoffe aus Umwelt und Industrie abbauen und dadurch (zumeist) "entgiften". Substrate dieser Enzyme sind aber auch endogene Verbindungen wie beispielsweise mehrfach ungesättigte Fettsäuren (u.a. Arachidonsäure) aus denen (patho)physiologische Signalmoleküle entstehen. Auch das Hormon Melatonin, das in der Haut (ebenfalls aus Tryptophan) synthetisiert wird und dort über Rezeptoren wirkt, ist Substrat dieser Enzyme, verliert dabei seine hormonelle Aktivität und fungiert nun als effizienter Fänger von Radikalen.

…aber auch viele andere chemische Strukturen,

beispielsweise Intermediärprodukte in der Synthese des Cholesterins, werden durch UVB-Licht angeregt: gut untersucht ist hier die Aktivierung der direkten Vorstufe des Cholesterins zu Vitamin D, das in zwei Stufen (auch in der Haut) zum aktiven Hormon umgewandelt wird (Synthese und Funktion sind ausführlich beschrieben in [2]).

UVA-Photonen interagieren

im Gegensatz zu den UVB-Photonen vorwiegend indirekt: Es werden sogenannte Photosensibilisatoren angeregt, d.i. Molekülstrukturen, welche die absorbierte Lichtenergie auf ein weiteres Molekül übertragen, das in Folge reaktiven Sauerstoff (ROS; siehe unten) generiert. Welche Moleküle als derartige Photosensibilisatoren für UVA-Photonen fungieren, ist nur ansatzweise bekannt; beschrieben sind einige Kandidaten wie Melanin, Vitamin E, das Sebum-Lipid Squalen und Porphyrine. Auch das oben erwähnte, durch UVB entstandene FICZ dürfte neben der Funktion als AHR-Ligand auch durch UVA angeregt werden.

Reaktiver Sauerstoff - das Superoxid-Radikal, Wasserstoffperoxid und das Hydroxyl-Radikal - reagiert sofort mit beliebigen Molekülen der Umgebung und kann diese durch Oxydation zerstören - ob es sich um die Stoffklassen der Nukleinsäuren, Proteine, Lipide und Kohlehydrate handelt, deren Struktur und Funktion durch ROS ruiniert werden kann, um endogene Stoffwechselprodukte oder auch um Fremdstoffe, die an der Oberfläche der Haut oder in darunterliegenden Schichten liegen. Abbildung 5. 

Abbildung 5. Reaktiver Sauerstoff als Folge von UVA-Strahlung kann Schädigungen in allen Molekülen und Strukturen hervorrufen. Sind ausreichend anti-oxidative Moleküle und Enzyme vorhanden können die Schäden klein gehalten werden. (Bild: modifiziert nach J. D'Orazio et al., Int. J. Mol. Sci. 2013, 14, 12222-12248; open access, cc-by-3.0)

Eine bekannte Auswirkung der UVA-Strahlung betrifft das Bindegewebe in der Dermis. Schäden an dem Collagen-Netzwerk und den elastischen Fasern führen zu einer stetigen Reduktion der Hautspannung und Elastizität,zur Bildung von Falten und frühzeitigen Alterung der Haut.

Dass nicht nur UVB-Strahlen als Cancerogene für die Haut einzustufen sind, sondern auch UVA Strahlen , die über lange Zeit als unschädlich angesehen wurden, ist nun hinlänglich nachgewiesen: UVB-Photonen indem sie direkt Mutationen in der DNA generieren, UVA-Photonen indirekt durch reaktiven Sauerstoff, der die Basen oxydiert und die korrekte Basenpaarung verhindert.

Besitzen Zellen in ausreichendem Maße "Radikalfänger", anti-oxidative Moleküle wie z.B. Glutathion und Enzyme, welche die reaktiven Spezies inaktivieren - u.a. Superoxid-Dismutase , Katalase und Glutathion-Peroxidase - so können Schäden verhindert werden. Abbildung 5.

Welche Maßnahmen die Haut zum Schutz vor den UV-Strahlen entwickelt hat - von Radikalfängern, Pigmentierung zu Reparatursystemen und morphologischen Anpassungen - soll in einem nachfolgenden Artikel beschrieben werden.


[1] Inge Schuster, 17.07.2015: Unsere Haut – mehr als eine Hülle. Ein Überblick. http://scienceblog.at/unsere-haut.

[2] Inge Schuster, 10.05.2012: Vitamin D — Allheilmittel oder Hype? http://scienceblog.at/vitamin-d-%E2%80%94-allheilmittel-oder-hype.


Weiterführende Links

Artikel zum Thema Haut im ScienceBlog

inge Thu, 06.09.2018 - 13:13

Schlaf zwischen Himmel und Erde

Schlaf zwischen Himmel und Erde

Do, 30.08.2018 - 15:47 — Niels C. Rattenborg

Niels C. RattenborgIcon Gehirn

Die Frage, ob Vögel auf langen Nonstop-Flügen schlafen, beschäftigt die Menschheit bereits seit Jahrhunderten. Dennoch fehlte bis vor kurzem ein eindeutiger Beweis. Forschern des Max-Planck-Instituts für Ornithologie (Seewiesen) ist es erstmals gelungen, die Gehirnaktivität von Fregattvögeln in freier Wildbahn zu messen. Niels Rattenborg, Leiter der Forschungsgruppe Vogelschlaf berichtet, dass diese Vögel während des Fluges tatsächlich schlafen, entweder jeweils nur mit einer oder mit beiden Gehirnhälften gleichzeitig. Insgesamt schliefen die Vögel jedoch weniger als eine Stunde pro Tag, ein Bruchteil der Zeit, die sie an Land schlafend verbringen.

Schlaf ist für die meisten Lebewesen ein essenzieller Bestandteil des Lebens - selbst bei Quallen wurde er bereits nachgewiesen. Obwohl es gefährlich ist, die Umgebung aus den Augen zu lassen, ist Schlafen zwingend notwendig. Warum dies so ist, ist noch immer nicht restlos geklärt. Offenbar finden im Schlaf wichtige Vorgänge im Gehirn statt, die im Wachzustand nicht oder nur eingeschränkt ablaufen können. Schlaf ist sogar derart wichtig, dass das Gehirn Schlafmangel anschließend mit tieferem Schlaf ausgleicht und so eine Mindestmenge davon sicherstellt. Der Zwang, den Schlafmangel auszugleichen, kann dabei so stark sein, dass wir selbst dann einschlafen, wenn es lebensbedrohliche Konsequenzen hat, wie etwa am Steuer eines Autos.

Nonstop-Flüge

Auch Vögel müssen demnach schlafen – manche möglicherweise sogar im Flug. Pfuhlschnepfen (Limosa lapponica baueri) etwa fliegen in acht Tagen von Alaska nach Neuseeland und legen dabei 12.000 Kilometer zurück. Der Bindenfregattvogel (Fregata minor) umkreist bis zu zwei Monate lang den Indischen Ozean, ohne jemals auf dem Wasser zu landen. Der Rekordhalter der Vogelwelt ist aber wohl der Mauersegler (Apus apus), der nahezu die gesamten zehn Monate zwischen den Brutzeiten in der Luft verbringt.

Schlaf im Flug?

Wie kann ein Vogel im Flug schlafen, ohne mit möglichen Hindernissen zu kollidieren oder vom Himmel zu fallen? Eine Lösung wäre es, immer nur eine Hälfte des Hirns schlafen zu lassen (unihemisphärischer Schlaf), wie es in Stockenten (Anas platyrhynchos) nachgewiesen wurde. In einer Gruppe schlafender Enten halten jene Tiere, die am Rand sitzen, das nach außen gerichtete Auge offen, und die dazugehörige Gehirnhälfte bleibt wach [2]. Auf Basis dieser Erkenntnisse und der Tatsache, dass Delfine im unihemisphärischen Schlaf schwimmen können, könnten auch Vögel sich beim Navigieren in der Luft und in der Aufrechterhaltung der Aerodynamik auf eine Art Autopilot verlassen.

Es ist aber auch möglich, dass Vögel einen Weg gefunden haben, den Schlaf auszutricksen. Die Seewiesener Ornithologen fanden heraus, dass männliche Graubrust-Strandläufer (Calidris melanotos) sich im Dauerwettstreit um die Weibchen während der Brutzeit derart anpassen, dass sie über mehrere Wochen hinweg nur sehr wenig schlafen [3]. Es besteht also die Möglichkeit, dass Vögel einfach während ihrer langen Flüge auf Schlaf verzichten.

m letztlich wirklich beweisen zu können, ob und wie Vögel im Flug schlafen, musste eine Möglichkeit gefunden werden, die Gehirnaktivität der Tiere aufzuzeichnen. Diese unterscheidet sich im Wachzustand von der Aktivität während der beiden Schlafarten der Vögel, des SW-Schlafs (slow-wave sleep) mit langsam schwingenden und des REM-Schlafs (rapid eye movement) mit schnell schwingenden Gehirnwellen. Alexei Vyssotski (Universität und ETH Zürich) entwickelte ein Gerät, das klein genug war, um die EEG-Aktivitäten und Kopfbewegungen fliegender Vögel aufzuzeichnen. Damit untersuchten die Max-Planck-Forscher an Fregattvögeln, ob sie während des Fluges schlafen.

„Flugdatenrekorder“

Diese Seevögel kreisen über Wochen nonstop über dem Ozean auf der Suche nach fliegenden Fischen und Kalmaren, die von Delfinen und anderen Raubfischen an die Wasseroberfläche getrieben werden. Auf dem Kopf von weiblichen Fregattvögeln, die auf den Galápagos Inseln nisteten, wurden zeitweise „Flugdatenrekorder“ befestigt. Da sie sich um eine Brut kümmerten, kehrten alle Vögel nach Flügen von bis zu 10 Tagen und 3.000 Kilometern wieder zu ihrem Nest zurück, wo die Rekorder wieder entfernt werden konnten. Während des Fluges nahm der Rekorder die EEG-Aktivitäten beider Gehirnhälften sowie die Bewegungen des Kopfes auf, während ein GPS-Gerät am Rücken des Vogels die Position und Flughöhe aufzeichnete. Abbildung 1.

Abbildung 1. Fregattvögel haben eine Flügelspannweite von über 2 Meter und sind hervorragende Flieger , die mehrere 100 Kilometer am Tag zurücklegen (links, © Bryson Voirin). Mittels GPS-Logger können die Flugrouten genau verfolgt werden (rechts: © MPI für Ornithologie)

Die Daten zeigten, dass Fregattvögel während des Fluges teils auf erwartete und teils auf unerwartete Art und Weise schlafen [4].

Am Tag blieben die Vögel während der aktiven Nahrungssuche wach. Nach Sonnenuntergang veränderte sich die EEG-Struktur vom Wachzustand zu SW-Schlafperioden von bis zu mehreren Minuten. Überraschenderweise trat der SW-Schlaf nicht nur auf einer Gehirnhälfte auf, sondern auch auf beiden gleichzeitig. Das Auftreten des bi-hemisphärischen Schlafes deutet an, dass einseitiges Wachbleiben einer Gehirnhälfte nicht notwendig ist, um die aerodynamische Kontrolle zu wahren. Dennoch trat einseitiger SW-Schlaf deutlich häufiger während des Fluges auf als an Land. Abbildung 2.

Abbildung 2. Einseitiger Schlaf während des Flugs. (Bild: http://www.orn.mpg.de/2696/Forschungsgruppe_Rattenborg)

Die Aufzeichnungen der Bewegungen des Vogelkopfes ergaben einige Hinweise darauf, warum die Vögel im Flug einseitig schlafen. Beim Segeln in den Luftströmungen bleibt meistens eine Seite wach, und zwar diejenige, die mit dem in Flugrichtung blickenden Auge verbunden ist. Die Vögel gaben also durchaus acht darauf, wohin sie flogen. Neben dem SW-Schlaf registrierten die Messgeräte hin und wieder auch kurze Episoden von sogenanntem REM-Schlaf. Diese waren durch ein kurzes Absinken des Kopfes charakterisiert, wie es auch während des REM-Schlafes an Land beobachtet wurde. Trotzdem beeinflusste dies nicht den generellen Flugweg.

Die größte Überraschung war allerdings, dass sich die Vögel trotz ihrer Fähigkeit, im Flug schlafen zu können, kaum Schlaf gönnen: Fregattvögel schliefen während des Flugs nur 42 Minuten pro Tag. Im Vergleich dazu schliefen sie zurück an Land mehr als 12 Stunden pro Tag. Außerdem waren die einzelnen Schlafphasen an Land deutlich länger und tiefer. Daraus lässt sich schließen, dass Fregattvögel während des Fluges an Schlafmangel litten. Dennoch, wie schon bei den Graubrust-Strandläufermännchen beobachtet, und im Unterschied zu anderen unter Schlafentzug leidenden Tieren (einschließlich einiger Vögel [5]), scheinen Fregattvögel sich an den Schlafmangel anzupassen.

Wie und warum Fregattvögel und Graubrust-Strandläufer die negativen Effekte des Schlafmangels kompensieren können, bleibt zunächst ein Rätsel. Indem wir diese Erkenntnisse mit dem Wissen über die Bedeutung des Schlafes in anderen Tierarten in Einklang bringen, können wir künftig ein neues Verständnis für den Schlaf und die negativen Auswirkungen des Schlafverlustes erlangen.

Literaturhinweise

1. Rattenborg, N. C. Sleeping on the wing. Interface Focus 7, 20160082 (2017). http://rsfs.royalsocietypublishing.org/content/7/1/20160082 (open access)

2. Rattenborg, N.C.; Lima, S. L.; Amlaner, C. J. Half-awake to the risk of predation. Nature 397, 397–398 (1999). https://www.nature.com/articles/17037

3. Lesku, J. A.; Rattenborg, N. C.; Valcu, M.; Vyssotski, A. L.; Kuhn, S.; Kuemmeth, F.; Heidrich, W.; Kempenaers, B. Adaptive sleep loss in polygynous pectoral sandpipers. Science 337, 1654–1658 (2012). http://science.sciencemag.org/content/337/6102/1654

4. Rattenborg, N. C.; Voirin, B.; Cruz S. M.; Tisdale, R.; Dell’Omo, G.; Lipp, H-P.; Wikelski, M.; Vyssotski, A. L. Evidence that birds sleep in mid-flight. Nature Communications 7, 12468 (2016). https://www.nature.com/articles/ncomms12468 (open access)

5. Lesku, J. A.; Vyssotski, A. L.; Martinez-Gonzalez, D.; Wilzeck, C.; Rattenborg, N. C. Local sleep homeostasis in the avian brain: convergence of sleep function in mammals and birds? Proceedings of the Royal Society of London B 278, 2419–2428 (2011) https://dx.doi.org/10.1098/rspb.2010.2316 (open access)


* Der Artikel ist unter dem gleichnamigen Titel: "Schlaf zwischen Himmel und Erde" (http://www.orn.mpg.de/3994492/research_report_11816031?c=1700143) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt, zwei Bilder der Forschergruppe wurden beigefügt.


Weiterführende Links

Max-Planck-Institut für Ornithologie. http://www.orn.mpg.de/

Brigitte Osterath (26.10.2017): Nickerchen im Vogelreich: Vögel schlafen anders. https://www.dw.com/de/nickerchen-im-vogelreich-v%C3%B6gel-schlafen-anders/a-41109447

How can birds sleep while they're flying? Video 4:13 min https://www.youtube.com/watch?v=Z4wUhh_xgSQ


 

inge Thu, 30.08.2018 - 15:47

Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

Welche Fragen stellen Wissenschaftler an Klimamodelle, welche Experimente führen sie durch?

Do, 23.08.2018 - 06:54 — Carbon Brief Carbon BriefIcon Geowissenschaften

Ein breites Spektrum an Klimamodellen - von einfachsten Energiebilanzmodellen bis zu hochkomplexen Erdsystemmodellen - ermöglicht es Antworten auf viele verschiedene Fragen zu finden, einschließlich des Problems, warum sich das Klima der Erde ändert: Was hat die in der Vergangenheit beobachtete Erwärmung verursacht, wie groß ist die Rolle, die natürliche Faktoren im Vergleich zu anthropogenen Faktoren gespielt haben und wie wird sich das Erdklima in der Zukunft ändern, wenn die Emissionen von Treibhausgasen anhalten? Es ist dies der vierte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 -3 [1, 2, 3]).*

Um Klimasituationen der Vergangenheit, Gegenwart und Zukunft zu simulieren, führen Wissenschaftler zahlreiche unterschiedliche Experimente an ihren Modellen durch. Ebenso entwickeln sie Tests, um die Leistung spezifischer Teile der verschiedenen Klimamodelle zu prüfen. Simulationen befassen sich auch damit, was geschehen würde, wenn wir beispielsweise die CO2-Konzentrationen plötzlich vervierfachten oder Geoengineering-Konzepte zur Klimakühlung einsetzen sollten.

Coupled Model Intercomparison Projects - CMIPs

Viele verschiedene Forschergruppen lassen dieselben Experimente in ihren Klimamodellen laufen - daraus entstehen sogenannte Modell-Ensembles. Diese Modell-Ensembles ermöglichen es Unterschiede zu untersuchen, die zwischen den Modellen bestehen und auch die Unsicherheiten in Zukunftsprognosen besser zu erkennen. Mehr als 30 Forschergruppen in aller Welt mit mehr als 1000 Wissenschaftern teilen und vergleichen die Ergebnisse ihrer Experimente im Rahmen der vom World Climate Research Programme (WCRP) organisierten Coupled Model Intercomparison Projects - CMIPs https://www.wcrp-climate.org/wgcm-cmip ). Diese Experimente beinhalten:

Simulationen der historischen Vergangenheit

Klimamodelle werden über die historische Periode beginnend um 1850 - vor Beginn der industriellen Revolution - bis in die Gegenwart laufen gelassen. Es werden dazu die besten Abschätzungen von Klima beeinflussenden Faktoren eingesetzt; diese inkludieren die Konzentrationen der Treibhausgase CO2, CH4 und N2O, Änderungen der Sonneneinstrahlung, Aerosole, die aus Vulkanausbrüchen stammen und durch menschliche Aktivitäten hervorgerufen wurden und Änderungen der Landnutzung.

Diese historischen Läufe werden nicht an die tatsächlich erfassten Temperaturen oder Niederschläge angepasst, sie resultieren vielmehr aus der Physik des Modells. In anderen Worten: Wissenschafter können die sich aus dem Modell ergebenden Prognosen für das vergangene Klima ("Hindcasts") mit den aufgezeichneten Klimabeobachtungen vergleichen. Sind Klimamodelle in der Lage vergangene Klimavariable, wie etwa die Temperatur der Erdoberfläche, erfolgreich wiederzugeben, so haben Wissenschafter mehr Zutrauen in das, was die Modelle für die Zukunft voraussagen.

Historische Simulationen eignen sich auch, um zu bestimmen, wie groß der Anteil menschlicher Aktivitäten ("Attribution") am Klimawandel ist. Abbildung 1 vergleicht beispielsweise zwei simulierte Varianten mit dem tatsächlich beobachteten Klima (schwarze Linie). Die Simulation unter Berücksichtigung ausschließlich natürlicher Klimatreiber ist hier blau schattiert, unter Berücksichtigung von menschlich verursachten plus natürlichen Klimatreibern ergibt sich die rosa schattierte Kurve, die mit der tatsächlich beobachteten Erwärmung übereinstimmt.

Abbildung 1. Modellrechnungen zeigen den Anteil menschlicher Aktivitäten an der Erderwärmung. (Bild aus dem 4. Sachstandsbericht des IPCC, Hegerl et al., 2007; Beschriftung übersetzt von Redn.) Eine Aufschlüsselung der natürlichen Klimatreiber ist in Abbildung 2 erfolgt.

Simulationen, die nur natürliche Klimatreiber berücksichtigen, beinhalten Faktoren wie Änderungen der Sonneneinstrahlung und der Vulkantätigkeit und gehen davon aus, dass Emissionen von Treibhausgasen und andere menschlich verursachte Faktoren unverändert auf vorindustriellem Niveau verbleiben. In Simulationen, die nur anthropogen verursachte Faktoren annehmen, werden dagegen die natürlichen Klimatreiber konstant gehalten und es werden nur die Auswirkungen menschlicher Aktivitäten, wie zum Beispiel die steigenden atmosphärischen Treibhausgaskonzentrationen einbezogen. Abbildung 2.

Abbildung 2. Mittlere globale Temperaturen der Erdoberfläche von 1850 - 2017. Natürliche und anthropogen verursachte Klimatreiber. (Bild aus: Zeke Hausfather, 13.12.2017; https://www.carbonbrief.org/analysis-why-scientists-think-100-of-global-warming-is-due-to-humans. Beschriftung übersetzt von Redn).

Durch den Vergleich dieser beiden Szenarien (und eines kombinierten "Alle Faktoren" -Laufs) können Wissenschaftler die relativen Beiträge von menschlich und natürlich verursachten Klimatreibern zu beobachteten Klimaänderungen abschätzen. Dies hilft herauszufinden, wie groß der Anteil menschlicher Aktivitäten am Klimawandel der Gegenwart ist.

Szenarien einer künftigen Klimaerwärmung

Im Fokus des fünften Sachstandssberichts des IPCC stehen vier Szenarien einer zukünftigen Erd-Erwärmung , die sogenannten Repräsentativen Konzentrationspfade (Representative Concentration Pathway - RCP Scenarios). Diese Szenarien simulieren, wie sich das Klima von heute bis 2100 und darüber hinaus verändern könnte.

Viele Faktoren, die Treiber zukünftiger Emissionen sein können, wie etwa das Wachstum der Bevölkerung und der Wirtschaft, lassen sich schwer prognostizieren. Daher umfassen diese Szenarien eine breite Palette zukünftiger Möglichkeiten, von einer Business-as-usual-Welt, in der wenig oder gar keine Klimaschutzmaßnahmen ergriffen werden (Szenarien RCP6.0 und RCP8.5), bis hin zu einer Welt, in der eine couragierte Reduktion der Erderwärmung auf unter 2o C erfolgen soll (Szenario RCP2.6). (Mehr dazu gibt es unter : https://www.carbonbrief.org/analysis-four-years-left-one-point-five-carbon-budget.) Die Simulation des Szenarios RCP6.0 ist in Abbildung 3 dargestellt.

Abbildung 3. Mittlere globale Temperaturen der Erdoberfläche von 1850 - 2100. Prognose unter Annahme des Szenarios RCP 6.0. (Bild aus: Zeke Hausfather, 13.12.2017; https://www.carbonbrief.org/analysis-why-scientists-think-100-of-global-warming-is-due-to-humans. Beschriftung übersetzt von Redn).

Diese RCP-Szenarien spezifizieren unterschiedliche Mengen an Strahlungsantrieben. Die Modelle wenden diese Antriebe an, um zu untersuchen, wie sich das System der Erde unter jedem der verschiedenen Szenarien ändern wird. Die kommenden, mit dem sechsten IPCC-Sachstandsbericht assoziierten Coupled Models Intercomparison Projects (CMIP6) werden vier neue RCP-Szenarien hinzufügen, um Lücken zwischen den vier bereits verwendeten RCPs zu schließen, einschließlich eines Szenarios, das die Grenze der Erwärmung bei 1,5 ° C ansetzt.

Kontroll-Läufe

Kontrollläufe sind nützlich, wenn man untersuchen will, wie - in Abwesenheit anderer Änderungen - natürliche Schwankungen in Modellen aufscheinen. Kontrollläufe werden auch angewendet, um einen "Modelldrift" zu festzustellen, d.i. scheinbare Langzeitänderungen, die weder mit natürlichen Schwankungen noch mit externen Klimatreibern in Zusammenhang stehen. Wenn ein Modell driftet, so zeigt sich das in Veränderungen, die über die normale natürliche Schwankungsbreite von Jahr zu Jahr und von Jahrzehnt zu Jahrzehnt hinausgehen, auch wenn Klima beeinflussende Faktoren, wie es Treibhausgaskonzentrationen sind, unverändert bleiben. Kontrollläufe starten das Modell zu einer Zeit, bevor die moderne Industrialisierung die Treibhausgase drastisch erhöht hatte. Dann lässt man das Modell über Zeiträume von Hunderten oder Tausenden Jahren laufen ohne die Treibhausgase zu verändern, Sonnenaktivität oder andere externe Faktoren, die das Klima beeinflussen. Diese Kontrollen unterscheiden sich von einem Lauf, der ausschließlich natürliche Klimatreiber berücksichtigt, da hier sowohl menschlich als auch natürlich verursachte Faktoren unverändert bleiben.

Simulationen des Atmospheric Model Intercomparison Project (AMIP)

Klimamodelle inkludieren Atmosphäre, Land und Ozeane. AMIP-Läufe schalten dagegen alles außer der Atmosphäre ab indem sie fixe, auf Beobachtungen basierende Werte für Land und Ozeane einsetzen. Beispielsweise dienen gemessene Temperaturen der Meeresoberflächen als Eingabe in das Modell, um die Temperatur von Landoberfläche und von verschiedenen Schichten der Atmosphäre zu erhalten.

Normalerweise weisen Klimamodelle ihre eigenen internen Schwankungen auf - kurzzeitige Klimazyklen in den Ozeanen wie El Niño und La Niña (komplexe entgegengesetzte Wetterphasen: https://oceanservice.noaa.gov/facts/ninonina.html) -, die zu anderen Zeiten stattfinden als was sonst in der Welt geschieht. AMIP-Läufe ermöglichen es Modellierern, simulierte mit gemessenen Meerestemperaturen in Übereinstimmung zu bringen, so dass die internen Schwankungen in den Modellen zur gleichen Zeit wie in den Beobachtungen auftreten und Änderungen im Zeitverlauf leichter zu vergleichen sind.

Simulationen einer plötzlichen Vervierfachung der CO2 Konzentrationen ("4x CO2")

Vergleichende Klimamodellprojekte, wie die CMIP5, fordern generell, dass alle Modelle eine Reihe von "diagnostischen" Szenarien durchführen, um die Leistungsfähigkeit in Hinblick auf verschiedene Kriterien zu testen.

Einer dieser Tests sieht einen "abrupten" Anstieg des atmosphärischen CO2 vom vorindustriellen Niveau auf das Vierfache vor - von 280 parts per million (ppm) auf 1.120 ppm -wobei alle anderen Klima treibenden Faktoren konstant gehalten werden. (Aktuell liegen die CO2-Konzentrationen knapp über 400ppm.) Daraus können Wissenschaftler erkennen, wie schnell die Erdtemperatur in ihrem Modell auf Änderungen des CO2 anspricht.

Simulationen eines 1 % CO2 Anstiegs("1% CO2")

Ein weiterer diagnostischer Test erhöht die CO2-Emissionen ausgehend von vorindustriellen Werten um 1% pro Jahr, bis sich das CO2 schließlich vervierfacht und 1.120 ppm erreicht. Auch diese Szenarien halten alle anderen Klima beeinflussenden Faktoren konstant.

So können Modellierer die Auswirkungen von allmählich zunehmendem CO2 Emissionen isoliert von anderen Veränderungen - wie beispielsweise von Aerosolen und anderen Treibhausgasen wie Methan - betrachten.

Simulationen des Paläoklimas

Es wurden dazu Modelle entwickelt, die das Klima der Vergangenheit für eine Reihe unterschiedlicher Zeiträume simulieren, d.i. für die letzten 1.000 Jahre, für das Holozän, das die letzten 12.000 Jahre umfasst, für das letzte Maximum der Vereisung vor 21.000 Jahren, für die letzte Zwischeneiszeit vor etwa 127.000 Jahren; für die Warmzeit im mittleren Pliozän vor 3,2 Millionen Jahren und für die ungewöhnliche Periode der sehr kurzen raschen Erwärmungsphase, dem sogenannten Paläozän-Eozän Temperaturmaximum, vor etwa 55 Millionen Jahren.

Diese Modelle wenden die besten verfügbaren Abschätzungen von Faktoren an, die das frühere Klima der Erde beeinflussten - einschließlich der solaren Einstrahlung und der vulkanischen Aktivität - sowie längerfristige Veränderungen der Erdumlaufbahn und der Lage der Kontinente.

Solche paläoklimatischen Modellläufe helfen den Forschern zu verstehen, wie große Schwankungen des Erdklimas in der Vergangenheit entstanden sind - beispielsweise in den Eiszeiten - und wie sich Meeresspiegel und andere Faktoren während der Erwärmungs- und Abkühlungsphasen verändert haben. Diese Änderungen in der Vergangenheit bieten eine Orientierungshilfe für die Zukunft, wenn die Erderwärmung anhält.

Spezielle Modellversuche

Im Rahmen von CMIP6 (siehe oben) führen Forschungsgruppen in aller Welt eine Vielzahl unterschiedlicher Experimente an ihren Modellen durch. Dazu gehören Simulationen zum Verhalten von Aerosolen, zur Bildung von Wolken und zu Rückkopplungen, zur Reaktion der Eisschilde auf die Erwärmung, zu Änderungen des Monsuns, zum Anstieg des Meeresspiegels, zu Änderungen der Landnutzung und zu Auswirkungen von Vulkaneruptionen.

Geplant ist auch ein Modellvergleichsprojekt zum Geo-Engineering-. Neben anderen denkbaren Interventionen soll untersucht werden, welche Folgen ein Einsprühen von gasförmigen Schwefelverbindungen in die Stratosphäre zur Klimakühlung haben kann.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel " What types of experiments do scientists run on climate models? ist es der 4. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


[1] Teil 1 (19.04.2018): Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

[2] Teil 2 (31.05.2018): Klimamodelle: von einfachen zu hoch komplexen Modellen

[3] Teil 3 (21.06.2018): Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen


Weiterführende Links

Artikel im ScienceBlog

inge Thu, 23.08.2018 - 06:54

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Do, 16.08.2018 - 10:38 — Norbert Bischofberger Norbert BischofbergerIcon MINT

Auf dem Weg zu einer Medizin von Morgen werden wir Zeuge einer der aufregendsten Entwicklungen, deren Ziel es ist Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie einzusetzen. Vorerst skeptisch, ist der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio) nun überzeugt, dass Künstliche Intelligenz die heutige Medizin revolutionieren wird: von der gegenwärtigen Form, die erst reagiert, wenn etwas "passiert" ist, zu einer proaktiven, d.i. voraus schauenden Form, die Risiken vorher erkennt und personenbezogen agiert.*

In der Menge an Daten, die wir verarbeiten können, ist uns Menschen von vornherein eine Grenze gesetzt. Anfänglich steigt der Wert des Outputs je mehr Daten wir zur Verfügung stellen. Es wird aber bald eine Obergrenze erreicht und wenn dann weitere Angaben einfließen, kann man daraus nicht mehr zusätzlichen Nutzen gewinnen.

Maschinen sind anders. Sie sind in keiner Weise durch die Menge an Daten limitiert, die wir ihnen zuführen. Je mehr Informationen man in sie einspeist, umso mehr wertvolle Ergebnisse können sie produzieren. Abbildung 1.

Abbildung 1. Big Data & Künstliche Intelligenz. Künstliche Intelligenz ist der Oberbegriff für jede Art Technik, die Computer zu menschenähnlicher Intelligenz befähigt. Darunter fällt Maschinelles Lernen: Rechner lernen indem sie trainiert werden Muster in Datensätzen zu erkennen und Assoziationen zu generieren, die in Form von Algorithmen umgesetzt werden. Deep Learning ist eine Unterform des Maschinellen Lernens, die beispielsweise in der Gesichts- und Spracherkennung eingesetzt wird. Hier erfolgt die Musterkennung in hierarchisch aufgebauten Ebenen eines sogenannten neuronalen Netzwerks. (Text von der Redaktion eingefügt. Bild: modifiziert nach Andrew Ng "What Data scientists should know about Deep Learning" slide 30, in https://www.slideshare.net/ExtractConf).

Künstliche Intelligenz - Wie Maschinen lernen

Wir stehen am Beginn eines neuen Zeitalters - einem Zeitalter der maschinellen Intelligenz. Wir schreiten dabei entlang einer aufwärts strebenden Kurve fort. Begonnen hat alles mit einer rein deskriptiven Phase: Daten wurden gelistet und kombiniert. Daran schloss sich eine Phase an, die aus den Daten Schlussfolgerungen ("Inferenzen") generierte. Nun befinden wir uns in einer prädiktiven Phase, d.i. Daten dienen zur Vorhersage zukünftigen Geschehens; von hier wollen wir zu einer präskriptiven Phase kommen - d.i. welche Maßnahmen können getroffen werden, wenn X eintritt? Das Ziel in der Zukunft wird dann eine Kombination von menschlicher und künstlicher Intelligenz sein. Abbildung 2.

Abbildung 2. Wohin sich die Künstliche Intelligenz entwickelt.

Überwachtes Lernen - Maschinen werden an Hand von Beispielen trainiert

Begonnen hat es mit Big Blue – einem Großrechner von IBM –, der 1996 den damals amtierenden Weltmeister im Schach, Gary Kasparov, schlug. Erstmals besiegte eine Maschine einen überaus routinierten Spieler, zeigte, dass sie im Schach Menschen überlegen war!

Ein zweites Beispiel folgte 2011, als das Computerprogramm Watson als Sieger in der US-Quizsendung Jeopardy hervorging.

Ein weiteres Beispiel lieferte das Google Unternehmen DeepMind (UK), das ein Computerprogramm namens AlphaGo entwickelte und darüber 2016 im Fachjournal Nature publizierte. (Bei dem Spiel Go handelt es sich um ein altes chinesisches Brettspiel , das eine ungleich höhere Zahl an Kombinationen gestattet als das Schach - man schätzt die Zahl der Go-Kombinationen auf 1080, also eine höhere Zahl als es Atome im Universum gibt.) Das System wurde durch Überwachtes Lernen (Human Supervised Learning) trainiert: d.i. man wählte rund 100 000 frühere Go-Spiele als Ausgangspunkt und zeigte, wie die Spieler vorgegangen waren. Die Maschine lernte und besiegte schließlich Nummer 1 auf der Weltrangliste der Go-Spieler. Abbildung 3.

Abbildung 3. AlphaGo gegen den Go-Champion Lee De-Sol im 3. Match. (Bild: Buster Benson, https://www.flickr.com/photos/erikbenson/25717574115. Lizenz: cc-by-sa)

Weitere Beispiele für derartiges Überwachtes Lernen sind in Spracherkennungssystemen zu finden, wie sie u.a. in Smartphones eingesetzt werden (Siri für Apple-Systeme, Amazon's Alexa für Smartphones und PCs, Google Assistant für Handy, PC, TV, Auto, etc.) und in der Bilderkennung (Hier können Sie beispielsweise Ihr neues iPhone dadurch entsperren, dass es Ihr Gesicht erkennt.) In allen diesen Beispielen wurden die Maschinen mittels "Überwachtem Lernen" trainiert, das heißt, man teilte den Rechnern mit, wie Experten in der jeweiligen Fragestellung zuvor vorgegangen waren.

Unüberwachtes Lernen - Maschinen lernen von alleine

Überaus erstaunlich sind aber Beispiele, in denen Maschinen ohne den Input menschlichen Wissens – d.i. unüberwacht – gelernt haben.

Das erste Beispiel, in dem ein Rechner von der Pike auf lernte, stammt von YouTube. Diese zu Google gehörende Plattform enthält enorm viele Videos: vor etwa fünfeinhalb Jahren schätzte man diese bereits auf rund 800 Millionen Videos; wie viele es heute sind, weiß niemand genau – vermutlich sind es Milliarden. Man stellte nun an den Rechner die Frage: "Welches Bild kommt am häufigsten in Youtube-Videos vor?".

Nun hatte der Computer a priori keine Ahnung, wie Dinge eigentlich aussehen - er musste überhaupt erst lernen, was ein Bild ist. Selbst im Management von Google zeigte man sich recht skeptisch, ob eine derartige Frage mittels Künstlicher Intelligenz zu lösen wäre. Das Ergebnis bekehrte die Zweifler. Die Antwort auf die Frage lautete: es sind dies Katzen. Abbildung 4.

Wir alle wissen natürlich, wie eine Katze aussieht - sie hat Barthaare, vier Pfoten, zwei Ohren, etc. Der Computer musste sich all diese Charakteristika erst selbst beibringen. Er fand heraus: so sieht eine Katze aus; dazu kam noch, dass er Katzen in den verschiedensten Positionen erkannte - stehend, liegend, springend, etc.

Abbildung 4. Welches Bild kommt in den mehr als eine Miliiarde YouTube Videos am Häufigsten vor?

Ein weiteres Beispiel , das kürzlich aufschien, hieß AlphaGo-Zero. Es ging hier wiederum um ein Programm für das Go-Spiel, allerdings fehlte dem Computer jeglicher Input zuvor erfolgter menschlicher Erfahrungen. Man ging von einer Tabula rasa, also von einem leeren Blatt Papier, aus. Basierend auf selbst-verstärkendem Lernen war AlphaGo-Zero sein eigener Lehrer und der Computer spielte drei Tage gegen sich selbst. Das Ergebnis war, dass AlphaGo-Zero den Weltmeister - einen Koreaner namens Lee Se-Dol - besiegte, von insgesamt 100 Spielen gewann der Computer alle Spiele.

Es ist einfach unglaublich, was Computer können und wohin Künstliche Intelligenz uns führen wird.

Deep Learning in der Medizin

Die erste Anwendung von Deep Learning, die in die Medizin voll Eingang gefunden hat, ist die medizinische Bildverarbeitung. Vier Veröffentlichungen aus dem letzten Jahr (für 2017 listet die Literaturdatenbank PubMed insgesamt 277 Arbeiten zu dem Thema auf; Anm. Redn.) zeigen ein breites Spektrum der Anwendungen: so geht es darin um hoch spezifische und sensitive Erkennung von Retinopathien, um die automatische höchst spezifische Diagnose von Lungentuberkulose, um die Erkennung von Arrhythmien, welche die Erfolgsrate von Kardiologen bereits übertrifft und um die Klassifizierung von Hauttumoren, die es mit Leistung aller Experten aufnehmen kann.

Können Computer auch neurologische Krankheiten erkennen?

Eine kürzlich in Neuroscience & Behavioral Reviews (Vieira et al., 2017) erschienene Arbeit hält Deep Learning für ein leistungsfähiges Instrument in der aktuellen Forschung zu psychiatrischen und neurologischen Erkrankungen. Eine Reihe von Unternehmen in der Bay Area von San Francisco arbeitet bereits in diesem Gebiet; so analysiert eine dieser Firmen (Mindstrong Health, Anm. Redn) die Art und Weise, wie wir das Handy benutzen - - d.i. wann man das Handy berührt, wie man es berührt, was man damit dann tut, wie man e-mails verfasst, wie man Texte schreibt, etc. - und erstellt daraus Algorithmen, um Depressionen zu erkennen.

Wohin führt diese Entwicklung?

Vor rund einem Jahr hat Verily (eine den Lebenswissenschaften gewidmete Tochter von Alphabet, wie Google jetzt heißt) zusammen mit der Duke University School of Medicine und Stanford Medicine die Studie Baseline gestartet. Rund 10 000 Personen nehmen an der über vier Jahre laufenden Studie teil, deren Ziel das Verstehen und Vermessen der menschlichen Gesundheit (Understanding and Mapping Human Health) ist.

Die Baseline-Studie – wie wird eigentlich Gesundheit definiert?

Die Idee dahinter ist von jedem Teilnehmer alles zu bestimmen, was nur denkbar ist: also das gesamte Genom zu sequenzieren, Proteom & Mikrobiom zu analysieren, Signalmoleküle (Cytokine) zu erfassen, diverse Gesundheitsparameter zu messen, das allgemeine Befinden und den Lebensstil zu erfassen, usw. Zu einer kontinuierlichen Bestimmung werden u.a. Wearables verwendet, die wie eine Uhr aussehen und ständig Blutdruck und Puls messen, oder auch Kontaktlinsen, die den Glukosespiegel in den Tränen messen. Abbildung 5.

Abbildung 5. Was ist Gesundheit? Was wird gemessen? Die Baseline-Studie von Verily (Bild: cc Verily, https://www.projectbaseline.com/)

Diese Bestimmungen werden nun Milliarden und Abermilliarden Daten generieren. Auf Basis dieser Big Data sollen mittels Deep Learning zwei Ziele erreicht werden:

  • Es soll eine Basislinie der Gesundheit festgelegt werden, (was als gesund und nicht gesund betrachtet wird, hängt dabei von der Zusammensetzung der Population ab - beispielsweise korreliert bei älteren Menschen ein niedriger Blutdruck mit einer erhöhten Mortalität, ist daher nicht immer positiv zu sehen).
  • Es sollen Vorhersagen für die Entwicklung des Gesundheitszustandes getroffen werden. Anstatt darauf zu warten, dass etwas passiert, kann man ein Risikoprofil erstellen, und daraus ableiten, wie hoch das Risiko ist, das man - in welchem Fall - auch immer hat.

Fazit

Künstliche Intelligenz führt uns weg von der gegenwärtigen Medizin, die sporadisch und reaktiv ist, d.i. einer Medizin, die erst reagiert, wenn etwas bereits "passiert" ist. Die Medizin wird sich vielmehr komplett in eine kontinuierlich verfolgbare, vorausschauende - proaktive - Form verwandeln, die personenbezogen agiert und rechtzeitig Risiken erkennt und diesen vorbeugt.


* Dies ist der zweite Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (http://scienceblog.at/auf-dem-weg-zu-einer-medizin-der-zukunft#). Beispiele für "Personalisierte Medizin" sollen im dritten Teil an Hand der CAR-T Zell Therapie aufgezeigt werden. Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Christopher Nguyen Algorithms of the Mind. https://arimo.com/featured/2015/algorithms-of-the-mind/

New DeepMind AI Beats AlphaGo 100-0 | Two Minute Papers #201, Video 5:52 min (30.10.2017). https://www.youtube.com/watch?v=9xlSy9F5WtE

AlphaGo Zero: Learning from scratch. https://deepmind.com/blog/alphago-zero-learning-scratch/

Project Baseline (Verily). https://www.projectbaseline.com/; Video 1:17 min https://www.youtube.com/watch?v=ufOORB6ZNaA Standard-YouTube-Lizenz

Jürgen Schmidhuber: Vortrag „Künstliche Intelligenz wird alles ändern“ 2016, Video 49:17 min. https://www.youtube.com/watch?v=rafhHIQgd2A

Artikel im ScienceBlog

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen". http://scienceblog.at/deep-learning-wie-man-computern-beibringt-das-unsichtbare-lebenden-zellen-zu-sehen.

Gerhard Weikum, 20.06.2014: Der digitale Zauberlehrling. http://scienceblog.at/der-digitale-zauberlehrling.

Peter Schuster, 28.03.2014: Eine stille Revolution in der Mathematik. http://scienceblog.at/eine-stille-revolution-der-mathematik.


 

inge Thu, 16.08.2018 - 10:38

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Mit Künstlicher Intelligenz zu einer proaktiven Medizin

Do, 16.08.2018 - 10:38 — Norbert Bischofberger

Norbert BischofbergerIcon MINTAuf dem Weg zu einer Medizin von Morgen werden wir Zeuge einer der aufregendsten Entwicklungen, deren Ziel es ist Künstliche Intelligenz in biomedizinischer Forschung, Diagnose und Therapie einzusetzen. Vorerst skeptisch, ist der Chemiker Norbert Bischofberger (ehem. Forschungsleiter des Top Pharmakonzerns Gilead, jetzt Präsident des Startups Kronos Bio) nun überzeugt, dass Künstliche Intelligenz die heutige Medizin revolutionieren wird: von der gegenwärtigen Form, die erst reagiert, wenn etwas "passiert" ist, zu einer proaktiven, d.i. voraus schauenden Form, die Risiken vorher erkennt und personenbezogen agiert.* In der Menge an Daten, die wir verarbeiten können, ist uns Menschen von vornherein eine Grenze gesetzt. Anfänglich steigt der Wert des Outputs je mehr Daten wir zur Verfügung stellen. Es wird aber bald eine Obergrenze erreicht und wenn dann weitere Angaben einfließen, kann man daraus nicht mehr zusätzlichen Nutzen gewinnen. Maschinen sind anders. Sie sind in keiner Weise durch die Menge an Daten limitiert, die wir ihnen zuführen. Je mehr Informationen man in sie einspeist, umso mehr wertvolle Ergebnisse können sie produzieren. Abbildung 1.

Abbildung 1. Big Data & Künstliche Intelligenz.

Künstliche Intelligenz ist der Oberbegriff für jede Art Technik, die Computer zu menschenähnlicher Intelligenz befähigt. Darunter fällt Maschinelles Lernen: Rechner lernen indem sie trainiert werden Muster in Datensätzen zu erkennen und Assoziationen zu generieren, die in Form von Algorithmen umgesetzt werden. Deep Learning ist eine Unterform des Maschinellen Lernens, die beispielsweise in der Gesichts- und Spracherkennung eingesetzt wird. Hier erfolgt die Musterkennung in hierarchisch aufgebauten Ebenen eines sogenannten neuronalen Netzwerks. (Text von der Redaktion eingefügt. Bild: modifiziert nach Andrew Ng "What Data scientists should know about Deep Learning" slide 30, in https://www.slideshare.net/ExtractConf).

Künstliche Intelligenz - Wie Maschinen lernen

Wir stehen am Beginn eines neuen Zeitalters - einem Zeitalter der maschinellen Intelligenz. Wir schreiten dabei entlang einer aufwärts strebenden Kurve fort. Begonnen hat alles mit einer rein deskriptiven Phase: Daten wurden gelistet und kombiniert. Daran schloss sich eine Phase an, die aus den Daten Schlussfolgerungen ("Inferenzen") generierte. Nun befinden wir uns in einer prädiktiven Phase, d.i. Daten dienen zur Vorhersage zukünftigen Geschehens; von hier wollen wir zu einer präskriptiven Phase kommen - d.i. welche Maßnahmen können getroffen werden, wenn X eintritt? Das Ziel in der Zukunft wird dann eine Kombination von menschlicher und künstlicher Intelligenz sein. Abbildung 2. Abbildung 2. Wohin sich die Künstliche Intelligenz entwickelt.

Überwachtes Lernen - Maschinen werden an Hand von Beispielen trainiert

Begonnen hat es mit Big Blue – einem Großrechner von IBM –, der 1996 den damals amtierenden Weltmeister im Schach, Gary Kasparov, schlug. Erstmals besiegte eine Maschine einen überaus routinierten Spieler, zeigte, dass sie im Schach Menschen überlegen war! Ein zweites Beispiel folgte 2011, als das Computerprogramm Watson als Sieger in der US-Quizsendung Jeopardy hervorging. Ein weiteres Beispiel lieferte das Google Unternehmen DeepMind (UK), das ein Computerprogramm namens AlphaGo entwickelte und darüber 2016 im Fachjournal Nature publizierte. (Bei dem Spiel Go handelt es sich um ein altes chinesisches Brettspiel , das eine ungleich höhere Zahl an Kombinationen gestattet als das Schach - man schätzt die Zahl der Go-Kombinationen auf 1080, also eine höhere Zahl als es Atome im Universum gibt.) Das System wurde durch Überwachtes Lernen (Human Supervised Learning) trainiert: d.i. man wählte rund 100 000 frühere Go-Spiele als Ausgangspunkt und zeigte, wie die Spieler vorgegangen waren. Die Maschine lernte und besiegte schließlich Nummer 1 auf der Weltrangliste der Go-Spieler. Abbildung 3.

Abbildung 3. AlphaGo gegen den Go-Champion Lee De-Sol im 3. Match. (Bild: Buster Benson, https://www.flickr.com/photos/erikbenson/25717574115. Lizenz: cc-by-sa)

Weitere Beispiele für derartiges Überwachtes Lernen sind in Spracherkennungssystemen zu finden, wie sie u.a. in Smartphones eingesetzt werden (Siri für Apple-Systeme, Amazon's Alexa für Smartphones und PCs, Google Assistant für Handy, PC, TV, Auto, etc.) und in der Bilderkennung (Hier können Sie beispielsweise Ihr neues iPhone dadurch entsperren, dass es Ihr Gesicht erkennt.) In allen diesen Beispielen wurden die Maschinen mittels "Überwachtem Lernen" trainiert, das heißt, man teilte den Rechnern mit, wie Experten in der jeweiligen Fragestellung zuvor vorgegangen waren.

Unüberwachtes Lernen - Maschinen lernen von alleine

Überaus erstaunlich sind aber Beispiele, in denen Maschinen ohne den Input menschlichen Wissens – d.i. unüberwacht – gelernt haben. Das erste Beispiel, in dem ein Rechner von der Pike auf lernte, stammt von YouTube. Diese zu Google gehörende Plattform enthält enorm viele Videos: vor etwa fünfeinhalb Jahren schätzte man diese bereits auf rund 800 Millionen Videos; wie viele es heute sind, weiß niemand genau – vermutlich sind es Milliarden. Man stellte nun an den Rechner die Frage: "Welches Bild kommt am häufigsten in Youtube-Videos vor?". Nun hatte der Computer a priori keine Ahnung, wie Dinge eigentlich aussehen - er musste überhaupt erst lernen, was ein Bild ist. Selbst im Management von Google zeigte man sich recht skeptisch, ob eine derartige Frage mittels Künstlicher Intelligenz zu lösen wäre. Das Ergebnis bekehrte die Zweifler. Die Antwort auf die Frage lautete: es sind dies Katzen. Abbildung 4. Wir alle wissen natürlich, wie eine Katze aussieht - sie hat Barthaare, vier Pfoten, zwei Ohren, etc. Der Computer musste sich all diese Charakteristika erst selbst beibringen. Er fand heraus: so sieht eine Katze aus; dazu kam noch, dass er Katzen in den verschiedensten Positionen erkannte - stehend, liegend, springend, etc.

Abbildung 4. Welches Bild kommt in den mehr als eine Miliiarde YouTube Videos am Häufigsten vor?

Ein weiteres Beispiel , das kürzlich aufschien, hieß AlphaGo-Zero. Es ging hier wiederum um ein Programm für das Go-Spiel, allerdings fehlte dem Computer jeglicher Input zuvor erfolgter menschlicher Erfahrungen. Man ging von einer Tabula rasa, also von einem leeren Blatt Papier, aus. Basierend auf selbst-verstärkendem Lernen war AlphaGo-Zero sein eigener Lehrer und der Computer spielte drei Tage gegen sich selbst. Das Ergebnis war, dass AlphaGo-Zero den Weltmeister - einen Koreaner namens Lee Se-Dol - besiegte, von insgesamt 100 Spielen gewann der Computer alle Spiele. Es ist einfach unglaublich, was Computer können und wohin Künstliche Intelligenz uns führen wird.

Deep Learning in der Medizin

Die erste Anwendung von Deep Learning, die in die Medizin voll Eingang gefunden hat, ist die medizinische Bildverarbeitung. Vier Veröffentlichungen aus dem letzten Jahr (für 2017 listet die Literaturdatenbank PubMed insgesamt 277 Arbeiten zu dem Thema auf; Anm. Redn.) zeigen ein breites Spektrum der Anwendungen: so geht es darin um hoch spezifische und sensitive Erkennung von Retinopathien, um die automatische höchst spezifische Diagnose von Lungentuberkulose, um die Erkennung von Arrhythmien, welche die Erfolgsrate von Kardiologen bereits übertrifft und um die Klassifizierung von Hauttumoren, die es mit Leistung aller Experten aufnehmen kann. Können Computer auch neurologische Krankheiten erkennen? Eine kürzlich in Neuroscience & Behavioral Reviews (Vieira et al., 2017) erschienene Arbeit hält Deep Learning für ein leistungsfähiges Instrument in der aktuellen Forschung zu psychiatrischen und neurologischen Erkrankungen. Eine Reihe von Unternehmen in der Bay Area von San Francisco arbeitet bereits in diesem Gebiet; so analysiert eine dieser Firmen (Mindstrong Health, Anm. Redn) die Art und Weise, wie wir das Handy benutzen - - d.i. wann man das Handy berührt, wie man es berührt, was man damit dann tut, wie man e-mails verfasst, wie man Texte schreibt, etc. - und erstellt daraus Algorithmen, um Depressionen zu erkennen.

Wohin führt diese Entwicklung?

Vor rund einem Jahr hat Verily (eine den Lebenswissenschaften gewidmete Tochter von Alphabet, wie Google jetzt heißt) zusammen mit der Duke University School of Medicine und Stanford Medicine die Studie Baseline gestartet. Rund 10 000 Personen nehmen an der über vier Jahre laufenden Studie teil, deren Ziel das Verstehen und Vermessen der menschlichen Gesundheit (Understanding and Mapping Human Health) ist.

Die Baseline-Studie – wie wird eigentlich Gesundheit definiert?

Die Idee dahinter ist von jedem Teilnehmer alles zu bestimmen, was nur denkbar ist: also das gesamte Genom zu sequenzieren, Proteom & Mikrobiom zu analysieren, Signalmoleküle (Cytokine) zu erfassen, diverse Gesundheitsparameter zu messen, das allgemeine Befinden und den Lebensstil zu erfassen, usw. Zu einer kontinuierlichen Bestimmung werden u.a. Wearables verwendet, die wie eine Uhr aussehen und ständig Blutdruck und Puls messen, oder auch Kontaktlinsen, die den Glukosespiegel in den Tränen messen. Abbildung 5.

Abbildung 5. Was ist Gesundheit? Was wird gemessen? Die Baseline-Studie von Verily (Bild: cc Verily, https://www.projectbaseline.com)

Diese Bestimmungen werden nun Milliarden und Abermilliarden Daten generieren. Auf Basis dieser Big Data sollen mittels Deep Learning zwei Ziele erreicht werden:

  • Es soll eine Basislinie der Gesundheit festgelegt werden, (was als gesund und nicht gesund betrachtet wird, hängt dabei von der Zusammensetzung der Population ab - beispielsweise korreliert bei älteren Menschen ein niedriger Blutdruck mit einer erhöhten Mortalität, ist daher nicht immer positiv zu sehen).
  • Es sollen Vorhersagen für die Entwicklung des Gesundheitszustandes getroffen werden. Anstatt darauf zu warten, dass etwas passiert, kann man ein Risikoprofil erstellen, und daraus ableiten, wie hoch das Risiko ist, das man - in welchem Fall - auch immer hat.

Fazit

Künstliche Intelligenz führt uns weg von der gegenwärtigen Medizin, die sporadisch und reaktiv ist, d.i. einer Medizin, die erst reagiert, wenn etwas bereits "passiert" ist. Die Medizin wird sich vielmehr komplett in eine kontinuierlich verfolgbare, vorausschauende - proaktive - Form verwandeln, die personenbezogen agiert und rechtzeitig Risiken erkennt und diesen vorbeugt.


* Dies ist der zweite Teil einer Artikelserie des Autors, die sich im Teil 1 "Auf dem Weg zu einer Medizin der Zukunft" mit dem sich abzeichnenden Paradigmenwechsel in der Medizin – Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten, personalisierten Behandlung - befasst hat (http://scienceblog.at/auf-dem-weg-zu-einer-medizin-der-zukunft). Beispiele für "Personalisierte Medizin" sollen im dritten Teil an Hand der CAR-T Zell Therapie aufgezeigt werden. Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

Artikel im ScienceBlog


 

inge Thu, 16.08.2018 - 10:38

Roboter mit eigenem Tatendrang

Roboter mit eigenem Tatendrang

Do, 09.08.2018 - 10:04 — Georg Martius

Georg MartiusIcon Gehirn

Roboter als Helfer im Alltag könnten in Zukunft unser Leben besser machen. Der Weg dahin ist aber noch weit. Einerseits muss an geeigneter alltagstauglicher Hardware geforscht werden. Andererseits, und das ist das weitaus größere Problem, muss das richtige „Gehirn” entwickelt werden. Um auch nur annähernd an die menschlichen Fertigkeiten heranzureichen, muss ein Roboter Vieles selbst lernen. Georg Martius, Leiter der Forschungsgruppe Autonomes Lernen am Max-Planck-Institut für Intelligente Systeme (Tübingen) arbeitet an der Programmierung eines künstlichen Spieltriebs und den dazugehörigen Lernverfahren, so dass sich künstliche Systeme in Zukunft selbst verbessern können.*

Roboter als Helfer im Alltag könnten in Zukunft unser Leben besser machen. Sie könnten uns lästige Arbeit im Haushalt abnehmen oder sie könnten älteren und behinderten Menschen assistieren, so dass diese unabhängig leben können. Für die Menschen bliebe dann mehr Zeit für interessantere Dinge.

Der Weg dahin ist aber noch weit. Einerseits muss an geeigneter alltagstauglicher Hardware geforscht werden, denn heutige Roboter sind entweder zu schwer oder nicht stark und robust genug. Außerdem fehlt es ihnen an Sensoren für die Wahrnehmung der Umgebung und von sich selbst. Andererseits, und das ist das weitaus größere Problem, muss das richtige „Gehirn” entwickelt werden. Ein bestimmtes Verhalten vorzuprogrammieren ist jedoch nur bedingt erfolgversprechend, weil man zur Entwicklungszeit schon alle Eventualitäten vorhersehen müsste. Wenn wir an echte Alltagssituationen denken, dann wird schnell klar, dass es dazu aber viel zu viele Ungewissheiten gibt und dass darüber hinaus ständig neue, unvorhersehbare Situationen auftreten können.

Der Mensch hingegen hat nur ganz wenig „vorprogrammiertes” Verhalten und lernt stattdessen kontinuierlich: Bereits als Fötus knüpft er erste Zusammenhänge zwischen Muskelaktionen und sensorischen Signalen; als Baby erlernt er erste koordinierte Bewegungen, und während des gesamten Entwicklungsprozesses baut er ein Verständnis von der Welt auf und verfeinert dieses immer mehr. Uns scheint die Interaktion mit der Welt überhaupt keine Mühe zu kosten, das Einschenken einer Tasse Kaffee oder das Laufen durch den Wald funktionieren scheinbar wie von selbst. Das war aber nicht von Anfang an so, diese Fähigkeiten hat jeder von uns erlernt.

Um auch nur annähernd an die menschlichen Fertigkeiten heranzureichen, muss ein Roboter Vieles selbst lernen. Aber wie geht das? Kinder sind da ein ideales Vorbild: Sie entdecken die Welt spielerisch. Kinder versuchen, grob gesagt, immer das eigene Verständnis der Welt zu verbessern und führen kleine Experimente durch. Jeder kennt die Situation, wenn ein Kleinkind untersucht, was passiert, wenn es die Tasse vom Tisch schiebt.

Bei den Eltern unbeliebt – aber notwendig, um zu verstehen, dass Dinge herunterfallen, wenn man sie nicht festhält. Die Forscher der Arbeitsgruppe Autonomes Lernen am Max-Planck-Institut für Intelligente Systeme (Tübingen) arbeiten am künstlichen Spieltrieb und den dazugehörigen Lernverfahren, so dass sich künstliche Systeme in Zukunft selbst verbessern können.

Zielfreies Verhalten

Um den Spieltrieb zu verstehen, muss man sich erst einmal davon lösen, dass der Roboter bestimmte vorgegebene Aufgaben erledigen soll. Aber wie kann man dem Roboter einen Spieltrieb einprogrammieren? Das geht jedenfalls nicht durch vorgefertigte Muster oder Abläufe. Es geht vielmehr ganz allgemein über Konzepte wie beispielsweise jenes des Informationsgewinns. Mit Methoden der Informationstheorie, ursprünglich entwickelt um Informationsübertragung bei der Telekommunikation zu beschreiben und zu optimieren, lässt sich der Informationsgewinn mathematisch beschreiben und berechnen.

Eine Möglichkeit besteht darin, dass der Roboter anstrebt sich so zu verhalten, dass die beobachteten Sensorwerte viel Information beinhalten, um künftige Sensorwerte vorherzusagen. Das schließt unter anderem aus, dass er gar nichts tut, denn dann beinhalten die Sensorwerte nur eine insgesamt minimale Informationsmenge. Auch darf er nicht chaotisch herumzappeln, denn dann kann er nicht gut vorhersagen, was passieren wird.

Den Forschern am MPI für Intelligente Systeme ist es gelungen, aus diesem allgemeinen Prinzip eine Lernregel abzuleiten [1]. Diese erlaubt den Robotern, verschiedene Verhaltensmuster eigenständig zu probieren. Die Steuerung übernimmt ein kleines künstliches Neuronales Netz. Die Verbindungsstärke zwischen den künstlichen Neuronen wird aufgrund der Lernregel ständig geändert, ähnlich wie im menschlichen Gehirn. Was passiert, hängt entscheidend vom Aufbau des Roboters und dessen Interaktion mit der Umwelt ab. Um sich nicht ständig mit kaputten Robotern herumschlagen zu müssen, wird viel mit physikalisch realistischen Simulationen gearbeitet jedoch auch an echten Systemen getestet. Abbildung 1.

Abbildung 1. Alle simulierten Roboter haben das gleiche Gehirn und starten ohne Vorwissen. Sie versuchen spielerisch, ihren Körper und die Interaktion mit der Umwelt zu entdecken. © Georg Martius Um diese oder andere selbstlernende Systeme besser charakterisieren zu können, bedarf es neuer Methoden in der Auswertung durch Informations- und Komplexitätsmaße [3].

Der Natur nachempfunden

Die Forscher haben die oben erwähnte Lernregel weiter verbessert und dahin entwickelt, dass sie im Prinzip auch durch natürliche Neuronen umgesetzt werden könnte [3]. Mit dem neuen “Robotergehirn” gelingt es, noch klareres Verhalten von selbst zu erlernen. Zum Beispiel lernt ein simulierter Humanoider Roboter in wenigen Minuten zu kriechen oder an einem Fitnesstrainer Räder zu drehen (s. Abbildung 1). Die meisten Roboter haben starre Glieder und Getriebe in den Gelenken - hochpräzise und sehr robust. Diese sind gut für den industriellen Einsatz aber auch schwer und starr. Im Umfeld von Menschen sind weichere Roboter, die insbesondere nachgeben wenn man sie wegdrückt, deutlich weniger gefährlich. In Anlehnung an die menschliche Anatomie wurden vor kurzem Roboter mit Sehnen und künstlichen Muskeln konstruiert. Allerdings gestaltet sich deren Ansteuerung sehr schwierig und das Lernen wird noch essentieller. Die Verfahren der Forschungsgruppe kommen auch mit solchen Systemen klar und erzeugen viele verschiedene und potentiell nützliche Verhaltensmuster, wie zum Beispiel das eigenständige Schütteln einer Flasche oder das Abschrubben eines Tisches. Abbildung 2. [4].

Abbildung 2. Ein sehnengetriebener Roboterarm. Links sieht man gut das Kugelgelenk in der Schulter und die Seile als Sehnen. Rechts schrubbt der Roboter den Tisch. © Georg Martius

Ausblick

Die Roboter sollen zum einen lernen, irgendwelche Bewegungen auszuführen, zum anderen, gewünschtes Verhalten zu zeigen und darüber hinaus ein gewisses Verständnis von der Welt und ihren Fähigkeiten zu erlangen. Um dies zu erreichen, arbeiten die Forscher an Verstärkungslernen, dem Erlernen von Repräsentationen und internen Modellen, die es den Robotern erlauben genaue Vorhersagen zu machen. Um nicht nur zufällig zusammen auftretende Ereignisse zu verknüpfen, sondern die tatsächlichen Zusammenhänge aufzudecken, benötigt es neue Lernverfahren. Ein kleiner Baustein ist den Forschern schon gelungen, nämlich das automatische Herausfinden der tatsächlich zugrunde liegenden Gleichungen aus Beobachtungen [5]. Damit lassen sich Vorhersagen in unbekannten Situationen treffen.

Bis jetzt sind die selbstlernenden Roboter noch im “Babystadium”, aber sie lernen schon zu kriechen und einfache Dinge zu tun. Das langfristige Forschungsziel ist, dass sie eines Tages zu zuverlässigen Helfern in allen möglichen Situationen “heranwachsen” werden.

Literatur

1. Martius G.; Der R.; Ay N. Information driven self-organization of complex robotic behaviors. PLoS ONE, 8, e63400 (2013)

2. Martius G.; Olbrich E. Quantifying emergent behavior of autonomous robots. Entropy 17, 7266 (2015)

3. Der R.; Martius G.Novel plasticity rule can explain the development of sensorimotor intelligence. Proceedings of the National Academy of Sciences, 112, E6224-E6232 (2015)

4. Der R.; Martius G. Self-organized behavior generation for musculoskeletal robots. Frontiers in Neurorobotics, 11 (2017) 5. Martius G.; Lampert C. H. Extrapolation and learning equations. arXiv preprint https://arxiv.org/abs/1610.02995, 2016.


* Der Artikel ist unter dem gleichnamigen Titel: "Roboter mit eigenem Tatendrang" " (https://www.mpg.de/11868495/mpi-mf_jb_2018?c=1342916) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung desAutors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt.


Weiterführende Links

Max-Planck-Institut für Intelligente Systeme homepage: http://www.is.mpg.de/

Research Network for Self-Organization of Robot Behavior http://robot.informatik.uni-leipzig.de/

The playful machine. http://playfulmachines.com.

Ralf Der & Georg Martius (2011): The playful machine. Theoretical Foundation and Practical Realization of Self-Organizing Robots (for personal use; Springer Verl. ) http://playfulmachines.com./the-playful-machine.pdf

Georg Martius (2013): Playful Machines - self-learning robots. Video 3:15 min. https://bit.ly/2McYvi5

Georg Martius (2015): Playful Machines Playful Machines - Robots learn coordinated behavior from scratch. Video 3:23 min. https://bit.ly/2MrZjMZ.

Georg Martius (2017): Playful Machines - Elastic tendon driven arm explores itself and its environment. Video 4:11 min. https://bit.ly/2OXAQAW

Google Accelerated Science. https://ai.google/research/teams/applied-science/gas/

Jürgen Schmidhuber: Vortrag „Künstliche Intelligenz wird alles ändern“ 2016, Video 49:17 min. https://www.youtube.com/watch?v=rafhHIQgd2A

Artikel im ScienceBlog

Ilse Kryspin-Exner, 31.01.2013: Assistive Technologien als Unterstützung von Aktivem Altern.

Francis S. Collins, 26.04.2018: Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen".


 

inge Thu, 09.08.2018 - 10:04

Übergewicht – Auswirkungen auf das Gehirn

Übergewicht – Auswirkungen auf das Gehirn

Do, 02.08.2018 - 12:29 — Nora Schultz Nora SchultzIcon Gehirn

Wer dick ist, bekommt eher Diabetes und muss mit kognitiven Einschränkungen rechnen. Welche Aspekte der Ernährung Übergewicht begünstigen und das Gehirn beeinträchtigen können, ist hingegen weniger klar. Die Entwicklungsbiologin Nora Schultz gibt einen Überblick über Zucker und Fette, die zu den Hauptverdächtigen gehören: über zu viel Zucker im Blut, der Zellen und Gefäße auch im Gehirn schädigt, aber auch über Nahrungsfette, die – je nach Typ - positiv oder negativ wirken können. Eine wesentliche Rolle spielen auch Nahrungsmittel, die von der Industrie gezielt so entwickelt werden, dass sie möglichst verlockend auf das Belohnungssystem des Gehirns wirkenund Sucht erzeugen können.*

Dick sein wollen die wenigsten, aber dick werden immer mehr. Zwei Drittel der Männer und die Hälfte der Frauen in Deutschland schleppen zu viel Körperfett mit sich herum, ein Viertel aller Erwachsenen sogar so viel, dass sie als fettleibig gelten (Abbildung 1). Weltweit hat sich die Zahl der dicken Männer verdreifacht und die der Frauen immerhin verdoppelt [1].

Abbildung 1. Dramatische Zunahme der Übergewichtigen (Body-Mass Index 30 - 34,9 kg/m2) und schwer Übergewichtigen (Body-Mass Index >- 34,9 kg/m2) in den US und in Deutschland von 1975 bis 2014 (Bild von der Redaktion aus den Tabellen der NCD Risk Factor Collaboration [1] erstellt)

Dem Gehirn tut so viel Speck nicht gut, das steht fest. Dicke bekommen häufiger Diabetes [2], eine Krankheit, deren Häufigkeit sich in den letzten 20 Jahren ebenfalls weltweit verdoppelt hat und die das Gehirn schrumpfen lässt [3] und das Risiko für Schlaganfälle und Demenzerkrankungen erhöht. Und auch wer nur dick ist und (noch) nicht an Diabetes leidet, muss mit einem verkleinerten Gehirnvolumen und kognitiven Einschränkungen rechnen.

Woran liegt’s?

Die langfristigen Zusammenhänge zwischen Essen, Übergewicht und dem Gehirn sind notorisch schwer zu untersuchen. Wir nehmen täglich wechselnde komplexe Mischungen von Nährstoffen zu uns, die sich weder leicht exakt dokumentieren noch gut dauerhaft kontrollieren lassen. Ihre Effekte auf den Körper bauen sich über Jahrzehnte auf und können von vielen anderen Aspekten des Lebensstils beeinflusst werden. Eine zentrale Rolle spielen dabei die unterschiedlichen Wirkweisen verschiedener Zucker und Fette auf den Körper sowie die Hormone, die dieser einsetzt, um seine Energiebalance aufrechtzuerhalten.

Kohlenhydrate

bestehen aus unterschiedlichen Einfachzuckern, darunter Traubenzucker (Glucose), aus dem sich Stärkemoleküle zusammensetzen und Fruchtzucker (Fructose), der zusammen mit Glucose weißen Haushaltszucker (Sucrose) bildet. Glucose ist ein wichtiger Brennstoff für den Körper und insbesondere für das Gehirn. Zu viel davon im Blut kann aber auch schaden, vor allem, weil Überschüsse sich an Eiweiße anlagern. Die so entstehenden Glykoproteine bilden Ablagerungen und tragen zu lokalen Entzündungsprozessen bei, die Zellen und Gefäße schädigen, sei es im Rahmen von Diabeteskomplikationen oder degenerativen Erkrankungen des Nervensystems.

Glucose und Insulin

Steigt der Traubenzuckerspiegel im Blut, schüttet die Bauchspeicheldrüse das Hormon Insulin aus, das es Zellen erlaubt, Traubenzucker aufzunehmen und ihn aus dem Blut zu entfernen. Zellen können Glucose entweder direkt als Energiequelle verwenden oder sie nach biochemischer Umwandlung speichern – in Muskelzellen und Leber in Form des Vielfachzuckers Glykogen, in Fettzellen als Fettsäuren. Gelangt über längere Zeit kein oder nur wenig Traubenzucker ins Blut, stimulieren andere Hormone – wie z. B. das ebenfalls in der Bauspeicheldrüse hergestellte Glucagon – gegenläufige Prozesse, um den Energiebedarf des Körpers zu decken: Glykogenvorräte werden abgebaut; Fettzellen setzen ihre Vorräte frei und die Leber stellt aus Eiweißabbauprodukten bei Bedarf selbst Traubenzucker her.

Bei diesem Herzstück des Energiestoffwechsels beginnt eine Kontroverse: Wenn ein ständiger Zuckeransturm im Blut dank erhöhter Insulinausschüttung Fetteinlagerungen begünstigt, sollte Essen mit weniger Kohlenhydraten es leichter machen, auf Körperfettreserven zuzugreifen und so den eigenen Appetit in Zaum und die Figur schlank zu halten, sagen Verfechter einer kohlenhydratreduzierten Ernährung. Darauf sei der Mensch auch eingestellt, da Kohlenhydratbomben erst durch die moderne Landwirtschaft möglich geworden seien. Die Gegenposition sieht das Problem eher beim Nahrungsüberangebot insgesamt, das unabhängig vom Kohlenhydratgehalt in modernen Industriegesellschaften zu exzessivem Fressvergnügen führe. Wer ständig mehr isst, als er verbraucht, wird eben dick, so die Prämisse.

Einig sind sich die Kontrahenten darin, dass der Insulinstoffwechsel im Gleichgewicht bleiben sollte. Klappt das nicht, droht Insulinresistenz, ein Zustand, bei dem Körperzellen unempfindlich für Insulin werden, und der das Risiko für Diabetes und andere Erkrankungen erhöht [siehe Kasten Insulinresistenz]. Auch dass zu viel Zucker ungesund ist, gilt zumindest inzwischen als akzeptiert. Die Weltgesundheitsorganisation rät seit 2015 dazu, den Konsum zugesetzten Zuckers auf unter 10 Prozent der täglichen Energiezufuhr zu reduzieren, eventuell sogar auf unter 5 Prozent (http://www.who.int/mediacentre/news/releases/2015/sugar-guideline/en/) . Das liegt auch daran, dass süße Sachen in der Regel nicht nur Glucose enthalten, sondern dank der Zusammensetzung der beliebtesten Zuckersorten ungefähr genauso viel Fructose.

Fructose

Dieser besonders süß schmeckende Einfachzucker löst keine Insulinausschüttung aus. Über lange Jahre hinweg wurde Fructose daher gerade für Diabetiker als gesunde Alternative zu Haushaltszucker empfohlen und vielen Lebensmitteln zugesetzt. Inzwischen gilt Fructose jedoch als viel ungesünder als Glucose. Denn Fructose wird vor allem in der Leber verstoffwechselt - und dort überwiegend in Fett umgewandelt. Dieser Zucker geht also direkt auf die Hüften – und stimuliert darüber hinaus auch die Fetteinlagerung aus anderen Bestandteilen der Nahrung. Hinzu kommt, dass Fructose noch stärker als Glucose mit Eiweißen reagiert und die Insulinresistenz insbesondere in der Leber erhöhen kann.

Ob sich der regelmäßige Verzehr kohlenhydratreicher Nahrung auch unabhängig von einem hohen Zuckeranteil negativ auf den Stoffwechsel auswirkt, bleibt allerdings umstritten. Vertreter einer kohlenhydratreichen Mischkost argumentieren, dass viele Kohlenhydrate unproblematisch sind, solange unverarbeitete Nahrungsmittel wie z.B. Vollkornprodukte konsumiert werden, die den Blutzuckerspiegel nicht so schlagartig erhöhen wie z. B. Weißmehlprodukte oder süße Getränke.

Nahrungsfette

Kontrovers diskutiert wird auch die Rolle von Nahrungsfetten. Die Deutsche Gesellschaft für Ernährung beispielsweise rät in ihren Leitlinien dazu, wenig Fett zu essen, da Fett aufgrund seiner hohen Energiedichte zur Aufnahme von zu vielen Kalorien und somit zu Übergewicht führe. Unterschiedliche Fette wirken allerdings verschieden auf den Stoffwechsel und auch auf das Gehirn. Relativ gut belegt ist, dass so genannte Transfette, die z. B. bei der industriellen Fetthärtung und beim Braten, Backen oder Frittieren entstehen, dem Körper nicht gut tun. Sie beeinflussen die Blutfettverteilung und Entzündungswerte ungünstig und erhöhen das Risiko, Herz-Kreislauf-Erkrankungen zu entwickeln und daran zu sterben. Des Weiteren werden sie auf Grundlage bisheriger Studien zumindest verdächtigt, auch zu Übergewicht, Insulinresistenz und Diabetes beizutragen, kognitive Leistungen zu beeinträchtigen, und Depressionen, Aggressionen und Demenzerkrankungen zu befördern.

Ungesättigte Fette,

die bei Raumtemperatur flüssig sind, genießen hingegen überwiegend einen deutlich besseren Ruf. Das gilt vor allem für einfach ungesättigte Fettsäuren, die z. B. in Oliven, Avocados aber auch in Fleisch, Nüssen und Milchprodukten enthalten sind, und mehrfach ungesättigte Omega-3-Fettsäuren, die insbesondere in fettem Seefisch vorkommen. Sie bilden einen wichtigen strukturellen Bestandteil biologischer Membranen und helfen, diese flexibel zu halten und Entzündungen zu vermeiden. Das Gehirn baut besonders gerne mit der Omega-3-Fettsäure DHA, die sich vor allem in den Zellmembranen von Nervenzellen anreichert. So überrascht es kaum, dass Omega-3-Fettsäuren als zu den wenigen Nährstoffen gehörend gelten, die einen nachweislich und konsequent positiven Effekt auf die kognitive Entwicklung und Leistung, psychische Gesundheit und die Widerstandskraft gegen Demenz haben.

Sie können ihre Wirkung jedoch nur entfalten, wenn nicht gleichzeitig zu viele Omega-6-Fettsäuren, die in vielen Ölsaaten enthalten sind, um die Enzyme buhlen, die im Omega-3-Stoffwechsel zum Einsatz kommen. Nehmen Omega-6-Fettsäuren überhand, steigen Entzündungswerte und die damit verbundenen Risiken zu erkranken – z. B. an einer Alzheimer-Demenz. Da viele beliebte Speiseöle wie z. B. Sonnenblumen- oder Rapsöl reich an Omega-6-Fettsäuren sind, fällt das Mengenverhältnis zwischen diesen und Omega-3-Fettsäuren in Industrieländern oft ungünstig aus. Eine weitgehend einhellige Ernährungsempfehlung lautet daher, durch verstärkten Verzehr von öligem Fisch und Fetten, die weniger Omega-6 enthalten, ein günstigeres Omega-Verhältnis anzupeilen.

Gesättigte Fette

Wie gesättigte Fette – die typischerweise bei Raumtemperatur fest sind – sich gesundheitlich auswirken, ist weniger klar. Während sich jahrzehntelange Annahmen, dass sie den Stoffwechsel grundsätzlich negativ beeinflussen, bislang kaum erhärten ließen, hält sich der Verdacht, dass sie kognitive Funktionen beeinträchtigen und Demenz befördern, hartnäckiger. Die Studienlage bleibt jedoch vorerst uneindeutig. Dass gesättigte Fette grundsätzlich schlecht für den Gehirnstoffwechsel sein sollten, ist jedenfalls schon allein deshalb unwahrscheinlich, weil der Körper selbst einen Großteil seiner Energievorräte in Form gesättigter Fettsäuren speichert. Kommt es vorübergehend zu Nahrungsmangel, werden diese freigesetzt und verwertet. Auf das Gehirn wirken sich solche Phasen keineswegs negativ aus.

Crosstalk zwischen Hormonen und Nährstoffen

Dass sich einfache Aussagen über die Vor- und Nachteile von Fett, Zucker und ihren einzelnen Varianten nur so schwer treffen lassen, liegt im Übrigen auch daran, dass Nährstoffe ständig miteinander und mit den jeweiligen Gegebenheiten des Körpers interagieren und sich dementsprechend unterschiedlich auswirken können. Neben Insulin beeinflussen zum Beispiel eine Reihe weiterer Hormone den Energiestoffwechsel, darunter Leptin, Ghrelin und Cortisol. Sie werden situationsabhängig von verschiedenen Geweben produziert und können den Appetit zügeln oder anregen. Körperfett gehört dabei zu den hormonell aktivsten und vielfältigsten Geweben – Unterhautfett produziert z. B. Sättigungshormone, Hüftspeck eine Substanz, die Insulinsensitivität fördert, und Bauchfett scheidet entzündungsfördernde Stoffe aus.

Braunes Fett

Es gibt sogar eine Fettsorte, das so genannte braune Fett, das besonders viele Mitochondrien enthält und sich darauf spezialisiert, Fett in Hitze umzuwandeln. Dachte man früher noch, dass nur Säuglinge, die stark vom Auskühlen bedroht sind, braunes Fett haben, wurde es inzwischen auch im Körper von Erwachsenen entdeckt. Da braunes Fett beim Abnehmen helfen und sich insgesamt günstig auf den Stoffwechsel auswirken kann, suchen Forscher intensiv nach Wegen, es zu stimulieren. Das klappt zum Beispiel mit milden Kältereizen. Wer seinem Stoffwechsel definitiv Gutes tun will, muss sich dennoch nicht allein auf bibbernde Spaziergänge ohne Jacke beschränken. Denn so komplex die Zusammenhänge zwischen Makronährstoffen und Menschenkörpern auch sein mögen, gibt es doch Nahrungsmittel, die über jeglichen Zweifel erhaben dick machen und den Energiestoffwechsel durcheinanderbringen können. Das gilt insbesondere für Leckereien, die gleich mehrere verdächtige Nahrungsgruppen in sich vereinen. Vor allem industriell verarbeitete Knabbereien, Süßigkeiten, Gebäcke und Fertiggerichte enthalten meist viel Fett und viele Kohlenhydrate (Abbildung 2).

Abbildung 2. Zu viele Kohlehydrate, zu viel Fett und zusätzlich ein Suchtpotential

Nahrungsmittel, die süchtig machen,

sind zudem nicht nur überall verfügbar, sondern werden von der Nahrungsmittelindustrie gezielt so entwickelt, dass sie möglichst verlockend auf das Belohnungssystem des Gehirns wirken. Auch z. B. der Salzgehalt, Duft-, Geschmacks- und andere Zusatzstoffe sowie mechanische Eigenschaften wie etwa die Knusprigkeit können dazu beitragen, dass das Gehirn auf solche Nahrungsangebote mit hilflosem Verlangen reagiert.

Manche Forscher ziehen sogar Parallelen zur Drogensucht [4]. Sie argumentieren, dass das ständige Angebot von Junk-Food und die Dopaminausschüttung, die seinen Konsum stimuliert, langfristig die Plastizität im Gehirn dahingehend beeinflussen, dass Betroffene solchen Lebensmitteln schlichtweg nicht mehr widerstehen können. Tatsächlich zeigen viele übergewichtige Kinder und Jugendliche eingeschränkte exekutive Funktionen – jene kognitiven Fähigkeiten, die uns dazu in die Lage versetzen, unsere Aufmerksamkeit und Handlungen gezielt zu steuern und Impulsen zu trotzen.

Inwieweit dies Ursache oder Ergebnis von bestimmtem Ernährungsverhalten ist – oder beides gilt – bleibt vorerst noch offen. Doch es lohnt sich, Wege zu finden, sich dem ständigen Ansturm des Schrottessens zu entziehen: Eine britische Untersuchung an 14.500 Familien zeigte kürzlich, dass Kleinkinder, die Muttermilch und frisches, selbst gekochtes Essen bekamen, auch nach Kontrolle aller anderen Faktoren später leicht intelligenter waren als ihre Altersgenossen, die mit stark verarbeiteter, fett- und zuckerreicher Industriekost ins Leben gestartet waren.


*Der von Prof. Dr. Stefan Knecht wissenschaftlich betreute Artikel erschien am 1.3.2018 unter dem Titel "Dick ist doof fürs Hirn" und steht unter einer cc-by-nc -sa Lizenz: https://www.dasgehirn.info/handeln/ernaehrung/zucker-fett-uebergewicht . Die Webseite www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der Neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM | Zentrum für Kunst und Medientechnologie Karlsruhe Der Artikel wurde von der Redaktion geringfügig für den Blog adaptiert (Überschriften und Absätze eingefügt) und es wurden Abbildungen eingefügt.


Literatur

[1] NCD Risk Factor Collaboration: Trends in adult body-mass index in 200 countries from 1975 to 2014: a pooled analysis of 1698 population-based measurement studies with 19·2 million participants. Lancet 2016; 387: 1377–96 https://www.thelancet.com/action/showPdf?pii=S0140-6736%2816%2930054-X (open access)

[2] Peter Nordström et al., Risks of Myocardial Infarction, Death, and Diabetes in Identical Twin Pairs With Different Body Mass Indexes. JAMA Intern Med. 2016;176(10):1522-1529. Open access. https://jamanetwork.com/journals/jamainternalmedicine/article-abstract/2540539

[3] R.N. Bryan et al., Effect of Diabetes on Brain Structure: The Action to Control Cardiovascular Risk in Diabetes MR Imaging Baseline Data. Radiology 2014; 272, 1. https://pubs.rsna.org/doi/abs/10.1148/radiol.14131494 (" Longer duration of diabetes is associated with brain volume loss, particularly in the gray matter, possibly reflecting direct neurologic insult")

[4] J-P. Morin et al., Palatable Hyper-Caloric Foods Impact on Neuronal Plasticity. Front. Behav.Neurosci (Feb, 2017), 11,19. https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5306218/pdf/fnbeh-11-00019.pdf


Weiterführende Links

Deutsches Diabetes Informationszentrum: https://diabetesinformationsdienst.de/#6 (informiert Sie über Diabetes, seine Prävention, Diagnose, Therapie, mögliche Begleit- und Folgeerkrankungen, Diabetes im Alltag, Reisen, Kochrezepte und vieles mehr.)

Nicole Paschek: Das Gehirn hat immer Hunger (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/das-gehirn-hat-immer-hunger (So viel Energie wie das Gehirn verbrennt sonst kaum ein anderes Organ. Wie stillt das Gehirn seinen Hunger?)

Jochen Müller: Überflieger durch Nervennahrung (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/ueberflieger-durch-nervennahrung (Können wir uns durch Brainfood schlau futtern? Welche Nahrungsmittel sind gut für unseren Kopf?)

Natalie Steinmann: Einflussreiche Winzlinge (1.3.2018). https://www.dasgehirn.info/handeln/ernaehrung/einflussreiche-winzlinge (Auf bis zu 100 Billionen wird die Zahl der Mikroorganismen in unserem Darm geschätzt, die mit dem Gehirn kommunizieren und neuesten Forschungen zufolge auch unser Essverhalten und unsere Stimmung beeinflussen könnten)

Artikel im ScienceBlog:

Jens C. Brüning & Martin E. Heß, 17.4. 2015: Veranlagung zu Übergewicht: ein Wechselspiel von Genom und Umwelt? http://scienceblog.at/uebergewicht-genom-umwelt#.

Hartmut Glossmann, 10.4.2015: Metformin: Vom Methusalem unter den Arzneimitteln zur neuen Wunderdroge? http://scienceblog.at/metformin-vom-methusalem-unter-den-arzneimitteln-zur-neuen-wunderdroge.

I. Schuster, 15.2.2018: Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken. http://scienceblog.at/coenzym-q10-kann-der-entwicklung-von-insulinresistenz-und-damit-typ-2-diabetes-entgegenwirken.

F.S.Collins, 25.1.2018: Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas. http://scienceblog.at/prim%C3%A4re-zilien-auf-nervenzellen-m%C3%B6gliche-schl%C3%BCssel-zum-verst%C3%A4ndnis-der-adipositas.


 

inge Thu, 02.08.2018 - 00:29

Herausforderungen für die Wissenschaftsdiplomatie

Herausforderungen für die Wissenschaftsdiplomatie

Do, 26.07.2018 - 13:35 — IIASA IIASAIcon Politik & Gesellschaft

Das Internationale Institut für angewandte Systemanalyse - IIASA - (in Laxenburg bei Wien) stellt in dem halbjährlich erscheinenden Magazin "Options" seine neuesten Forschungsergebnisse in einer für Laien leicht verständlichen Form vor. In der Sommerausgabe 2018 spricht Sir Peter Gluckman* - wissenschaftlicher Berater des Premierministers von Neuseeland und Distinguished Visiting Fellow des IIASA - über eine neue Form der Diplomatie: Unter Nutzung von (Natur)Wissenschaft und Technologie sollen nationale und internationale diplomatische Ziele vorangebracht, vertiefte Kooperationen eingegangen und gemeinsame Strategien zur Bewältigung internationaler/globaler Herausforderungen entwickelt werden[1].*

Was ist Wissenschaftsdiplomatie?

Wissenschaftsdiplomatie und internationale Wissenschaftskooperation sind Bereiche, die überlappen, jedoch nicht unbedingt die gleichen Ziele haben. Wissenschaftliche Joint Ventures - wie beispielsweise das IIASA- produzieren wichtige Erkenntnisse und überschneiden sich teilweise mit der Welt der internationalen Diplomatie. Während es das Ziel der internationalen Wissenschaft ist Wissen zu produzieren, geht es in der Wissenschaftsdiplomatie eher darum, wie Länder die Wissenschaft nutzen, um ihre Interessen voran zu bringen - Diplomatie dient ja schließlich dazu die nationalen Interessen eines Landes auf der internationalen Bühne durchzusetzen. Abbildung 1.

Abbildung 1. Wozu Wissenschaftsdiplomatie? P.Gluckman nennt in [2] drei Kategorien der Motivation.(Bild und Text von der Redaktion eingefügt.)

Diese nationalen Interessen können auf verschiedenen Ebenen mit Hilfe von (Natur)Wissenschaft gefördert werden. Die direkteste Ebene: Wissenschaft hilft einem Land Einfluss zu gewinnen oder Brücken zu einem Land zu bauen, an dem es Interesse hat. Wissenschaft kann ein Land beispielsweise nutzen, um seine Sicherheits- oder Handelsinteressen voranzutreiben oder um Zugang zu benötigten Technologien zu erhalten. Wissenschaft kann zu besserem Management von gemeinsam mit einem andern Land genutzten Ressourcen verhelfen, wie etwa in Fragen von grenzüberschreitender Wasserbewirtschaftung. Wissenschaft spielt auch dort eine Rolle, wo globales Interesse auf dem Spiel steht, etwa beim Klimawandel oder bei der Verschmutzung der Meere.

Jedes Land, ob Industrie- oder Entwicklungsland, steht in Beziehungen zu anderen Ländern und diese Beziehungen weisen in zunehmendem Maße technologische und naturwissenschaftliche Elemente auf. Geht es um die wichtigsten globalen Interessen, so ist zur Erreichung jedes der Ziele für nachhaltige Entwicklung (Sustainable Development Goals) Wissenschaft unabdingbar (Abbildung 2).

Abbildung 2. Die 17 Ziele für nachhaltige Entwicklung sind politische Ziele der Vereinten Nationen, die mit 1.1.2016 in Kraft getreten sind und bis 2030 laufen. (Natur)wissenschaft und Technologien sind zur Erreichung dieser Ziele unabdingbar (Bild: WP:NFCC#7 Wikipedia, deutsche Version: © Bundeskanzleramt Österreich; Bild von der Redaktion eingefügt.)

Einbindung von Wissenschaftsberatung

Angesichts der zentralen Bedeutung, die Wissenschaft für die Bewältigung internationaler Herausforderungen hat, ist es überraschend, dass wir keine besseres Vorgehen haben, um Wissenschaft in die internationale Diplomatie einzubinden. Nur wenige Außenministerien verfügen über wissenschaftliche Berater. Die Vereinten Nationen haben kein durchgängiges System, um wissenschaftlichen Rat in ihre Entscheidungen einzubeziehen. Im Allgemeinen werden politische Entscheidungen von den einzelnen Ländern getroffen und nicht von internationalen Organisationen - es bedarf somit einer stärkeren vertikalen Integration zwischen internationalen Organisationen und inländischen Systemen der Wissenschaftsberatung. Dies kann vielleicht am besten durch Wissenschaftsberater erreicht werden, die in ihren diplomatischen Dienst eingebunden sind. Auch heute noch müssen Länder oft davon überzeugt werden, dass es in ihrem nationalen Interesse liegt, zusammenzuarbeiten und Wissenschaft für den globalen Fortschritt zu nutzen.

Wenn wir die Ziele für nachhaltige Entwicklung (Abbildung 2)erreichen wollen, müssen wir viel intensiver darüber nachdenken, wie wir wissenschaftliche Erkenntnisse, Entscheidungsfindung, Völkergemeinschaft, UN-Organisationen und Innenpolitik miteinander in Verbindung bringen.

Als Erstes müssen Vereinte Nationen und internationale Organisationen ihre wissenschaftlichen Beratungsnetzwerke besser einbinden. Während wir über die Ziele nachdenken und die Wissenslücken, die noch zu füllen sind, müssen wir uns auch ein Wissenschaftssystem überlegen, das derartige Bestrebungen unterstützen wird. Das System der Vereinten Nationen verfügt derzeit über kein aufeinander abgestimmtes Wissenschaftssystem. Ein solches wird dringend benötigt und muss über das stark abgeschottete System der UN-Organisationen nach außen dringen.

Zum Zweiten müssen Außenministerien die Wissenschaft besser in ihr Vorgehen einbinden. In einer Reihe von Ländern geschieht das bereits. Wir sehen das an Hand zweier Organisationen (in denen ich den Vorsitz innehabe): dem Internationalen Netzwerk für Regierungsberater (International Network for Government Science Advice - INGSA) und dem Wissenschafts - und Technologieratgeber-Netzwerk der Außenminister (Foreign Ministers’ Science and Technology Advisors Network). Beide Organisationen kooperieren und verknüpfen und forcieren die Berufe der Wissenschaftsberatung und Wissenschaftsdiplomatie. Das Netzwerk der Außenminister hat sich dabei stark ausgedehnt: von vier Ländern beim Start vor zwei Jahren auf aktuell über 25 Länder. Was wir dabei beobachten, ist, dass sich eine wachsende Zahl von Ländern dafür interessiert Teil eines Forums zu sein, in dem Themen von hoch engagierten Personen diskutiert werden können.

Letztendlich wird der Erfolg dieser Bestrebungen auf Vorteilen beruhen, die sie nachweislich den Ländern bringen. Wenn ein Land sieht, wie andere Länder davon profitieren, dass sie die Instrumente der Wissenschaftsdiplomatie besser oder effizienter handhaben, wird es das ernst nehmen.


Anm. d. Redaktion

Wissenschaftsberatung hat bereits in der Antike zu Erfolgen geführt. Abbildung 3.

Abbildung 3. Der Naturphilosoph und Wissenschaftstheoretiker Aristoteles als Berater von Alexander dem Großen. Stich von Charles Laplante, Paris 1866; das Bild ist gemeinfrei. (Bild und Text von der Redaktion eingefügt.)


*Sir Peter Gluckman (*1949, Auckland, Neuseeland) hat an der Universität Otago Pädiatrie und Endokrinologie studiert, graduierte zum MMedSc und zum Doktor der Naturwissenschaften. Er ist Professor für Pädiatrie und perinatale Biologie an der Universität Auckland und war dort u.a. Dekan der medizinische Fakultät und Gründungsdirektor des Liggins Institut, eines der weltweit führenden translationalen Forschungseinrichtungen, die Grundlagenforschung in Therapien überführen.

2009 wurde er zum ersten wissenschaftlicher Berater des Premierministers von Neuseeland ernannt , 2014 wurde er Mitvorsitzender der WHO-Kommission zu Ending Childhood Obesity (ECHO). Im selben Jahr kam es zur Gründung des International Network for Government Science Advice - INGSA, dessen Vorsitz er inne hat. Seitdem hat sich Gluckman zu einem der weltbesten Experten für globale Wissenschaftsberatung und Wissenschaftsdiplomatie profiliert. Im Oktober 2016 hat er am IIASA den ersten globalen Workshop über Wissenschaftsberater in Außenministerien geleitet.


[1] Sir Peter Gluckman: Opinion: Challenges to science diplomacy. Options, Sommer 2018. p.10. http://www.iiasa.ac.at/web/home/resources/publications/options/Challenges_to_science_diplomacy.html

[2] Sir Peter Gluckman (2017), Science diplomacy – looking towards 2030. 45th Anniversary lecture at IIASA. http://www.pmcsa.org.nz/wp-content/uploads/17-11-14-Science-diplomacy-looking-towards-2030.pdf


* *Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von Sir Peter Gluckman und ist im aktuellen Option Magazin des IIASA zu finden: “Opinion: Challenges to science diplomacy." Options, Sommer 2018. p.10. http://www.iiasa.ac.at/web/home/resources/publications/options/Challenges_to_science_diplomacy.html. IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der Text wurde von der Redaktion durch passende Abbildungen ergänzt.


Weiterführende Links

inge Thu, 26.07.2018 - 13:35

Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen

Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen

DoDmitry Semenov, Thomas Henning19.07.2018 - 10:03 — Dmitry Semenov, Thomas Henning Icon Astronomie

Die Frage nach dem Ursprung des Lebens auf der Erde ist eine der grundlegenden Fragen der Wissenschaft. Astronomen der McMaster University und des Max-Planck-Instituts für Astronomie (MPIA) haben ein stimmiges Szenario für die Entstehung von Leben auf der Erde berechnet, das auf astronomischen, geologischen, chemischen und biologischen Modellen basiert [1]. Dmitry Semenov und Thomas Henning vom MPIA beschreiben hier dieses Szenario, in welchem sich das Leben nur wenige hundert Millionen Jahre, nachdem die Erdoberfläche soweit abgekühlt war, dass flüssiges Wasser existieren konnte, formte. Die wesentlichen Bausteine für das Leben wurden während der Entstehung des Sonnensystems im Weltraum gebildet und durch Meteoriten in warmen kleinen Teichen auf der Erde deponiert.*

Wie auf der Erde vor rund vier Milliarden Jahren das erste Leben entstand, ist eine der großen Fragen der Wissenschaft. Neue Ergebnisse von Forschern der McMaster University (Hamilton, Kanada) und des Max-Planck-Instituts für Astronomie deuten darauf hin, dass Meteoriten dabei eine wesentliche Rolle gespielt haben dürften. Diese Körper landeten in warmen kleinen Teichen auf der Erde (Abbildung 1) und deponierten dort organische Stoffe, welche die Entstehung des Lebens in Form von selbstreplizierenden RNA-Molekülen ermöglichten [1].

Abbildung 1. Ein kleiner warmer Teich auf der heutigen Erde, auf dem Bumpass Hell Trail im Lassen Volcanic National Park in Kalifornien. Die kleinen warmen Teiche, in denen das erste Leben entstanden sein könnte, sahen vermutlich nicht unähnlich aus. © B. K. D. Pearce

Lebensentstehung - Ein Modell, das Astronomie, Geologie, Chemie und Biologie zusammenfasst

Die Schlussfolgerungen der Astronomen basieren auf einem Modell, das heutiges Wissen zu Planetenentstehung, Geologie, Chemie und Biologie zusammenfasst - Berechnungen, die unser Wissen über die Geologie der frühen Erde, die chemischen Bedingungen, die Eigenschaften der beteiligten Moleküle und astronomische Informationen über die Eigenschaften von Meteoriten und interplanetaren Stäuben miteinander verbinden. Dass solch eine quantitative Analyse nun erstmals möglich ist, verdanken wir Fortschritten auf vielen Gebieten: von der Mikrobiologie über die Suche nach Exoplaneten bis hin zu Beobachtungen planetarer Kinderstuben bei anderen Sternen.

Das vielleicht interessanteste Ergebnis der Berechnungen ist, dass das Leben vergleichsweise früh entstanden sein dürfte: Nur wenige hundert Millionen Jahre nachdem die Erde ausreichend abgekühlt war, um flüssiges Oberflächenwasser wie Teiche oder Ozeane zuzulassen. Damals trafen ungleich viel mehr Meteorite auf die Erde als heutzutage.

Bis jetzt hatte niemand diese Berechnungen tatsächlich durchgeführt. Weil das neue Modell so viele Ergebnisse aus so vielen verschiedenen Bereichen einschließt, ist es erstaunlich, dass alles so schlüssig zusammenhängt. Jeder Schritt des Modells führte ganz natürlich zum nächsten. Dass dabei am Ende ein klares Bild herauskam, ist ein klares Indiz dafür, dass das Szenario so falsch nicht sein kann.

Um den Ursprung des Lebens zu verstehen, müssen wir die Erde so verstehen, wie sie vor Milliarden von Jahren war. Wie die Studie des Max-Planck-Instituts zeigt, liefert die Astronomie einen wichtigen Teil der Antwort. Die Details der Entstehung unseres Sonnensystems haben direkte Folgen für den Ursprung des Lebens auf der Erde.

Meteorite transportieren Bausteine des Lebens in kleine warme Teiche

Die neue Arbeit unterstützt die Hypothese, Leben sei in kleinen warmen Gewässern entstanden. (Der Ausdruck "kleiner warmer Teich", „warm little pond“, geht übrigens auf eine der frühesten Spekulationen über den Ursprung des Lebens zurück: einen Brief von Charles Darwin an den Botaniker Joseph Hooker aus dem Jahr 1871.) In den Zyklen, in denen flache Teiche erst austrocknen und sich dann wieder mit Wasser füllen, werden die chemischen Inhaltsstoffe gehörig konzentriert, was Bindungen zwischen den Nukleotiden (aus Nukleobasen, Phosphatgruppen und Zuckerresten zusammengesetzte Bausteine der Nukleinsäuren; Anm. Redn.) und damit die Entstehung längerer RNA-Ketten begünstigt. Die Forscher konnten zeigen, dass Meteoriten eine ausreichende Menge an Nukleobasen zu Tausenden solcher Teiche auf der Erde transportiert haben könnten und damit die Entstehung selbstreplizierender RNA-Moleküle in mindestens einem dieser Teiche anstießen. Abbildung 2.

Abbildung 2. Schematische Darstellung der verschiedenen Einflüsse auf chemische Verbindungen in kleinen warmen Teichen im Wasser und während der Trockenphase: Materialnachschub durch Meteoriten und interplanetare Staubkörnern, Versickerung, Verdunstung, Wiederbefüllung durch Niederschlag, Hydrolyse komplexerer Moleküle und Photodissoziation durch UV-Photonen der Sonne. (Anm. Redn.: Nucleobasen - hier im Bild Adenin - werden in Meteoriten in Konzentrationen bis zu 515 ppb gefunden [1]; IDP bedeutet interplanetare Staubpartikel) © McMaster University

Basierend auf dem bekannten Wissen über die Planetenbildung und die Chemie des Sonnensystems haben die Forscher des MPIA ein konsistentes Szenario für die Entstehung des Lebens auf der Erde vorgeschlagen. Sie liefern plausible physikalische und chemische Informationen über die Bedingungen, unter denen das Leben hätte entstehen können. Jetzt sind die Experimentatoren an der Reihe, herauszufinden, wie das Leben unter diesen ganz spezifischen frühen Bedingungen tatsächlich entstanden sein könnte.

Eine frühe RNA-Welt

Damit ist zwar noch lange keine definitive Antwort auf die fundamentale Frage nach dem Ursprung des Lebens auf der Erde gefunden, aber in den letzten Jahrzehnten haben sich einige interessante mögliche Antworten ergeben. Eine in den 1980er Jahren näher ausgearbeitete Theorie postuliert eine RNA-Welt: Die genetische Information höherer Organismen wird in der Doppelhelix der DNA-Moleküle gespeichert, aber es gibt auch eng verwandte Moleküle, RNA (Ribonukleinsäure), die eine herausragende Rolle in modernen Zellen spielen. Insbesondere katalysieren sie in den Zellen bestimmte chemische Reaktionen und sind für die Weiterleitung genetischer Informationen ebenso unentbehrlich wie für die Synthese spezifischer Proteine (sozusagen den Dekreten der Zellregierung) auf der Grundlage des genetischen Codes. Bei einigen Viren wird für die Speicherung der genetischen Information überhaupt keine DNA verwendet, sondern alle Informationen sind in Virus-RNA kodiert.


[1] Ben K. D. Pearce, Ralph E. Pudritz, Dmitri Semenov, Thomas K. Henning. Origin of the RNA World: The Fate of Nucleobases in Warm Little Ponds. Proc. Nat. Acad. Sci,114,11327 (2017). Die Arbeit ist unter https://arxiv.org/pdf/1710.00434.pdf frei zugänglich.

Vor wenigen Wochen wurden die Autoren Ben K. D. Pearce ( McMaster University), Ralph E. Pudritz (McMaster University, Max-Planck-Institut für Astronomie und Zentrum für Astronomie der Universität Heidelberg) und Dmitri Semenov und Thomas K. Henning (beide Max-Planck-Institut für Astronomie) für diese bahnbrechende Arbeit von der US National Academy of Sciences mit dem renommierten Cozzarelli Preis ausgezeichnet.


* Der Artikel ist eben unter dem gleichnamigen Titel: " Wie die Bausteine des Lebens aus dem Weltall auf die Erde kamen" (https://www.mpg.de/11813292/mpia_jb_2018?c=12090594) im Jahrbuch 2018 der Max-Planck-Gesellschaft erschienen. Der Artikel wurde mit freundlicher Zustimmung der Autoren und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt; von der Redaktion eingefügt wurden Untertitel und zwei Sätze wurden aus der Seite des MPIA http://www.mpia.de/aktuelles/wissenschaft/2017-10-rna-teiche?page=2&seite=2.


Weiterführende Links

Max-Planck-Institut für Astronomie (Heidelberg)

Bausteine, die vom Himmel fallen (18.06.2018) (ausführliche Darstellung der Arbeit von Dimitrov und Henning)

Ursprung des Lebens (02.07.2018) Podcast, 22:45 min.

Heidelberg Initiative for the Origins of Life – HIFOL

Neueste MPIA-Wissenschaftsmeldungen

Weitere

Entstehung des Lebens - Abiogenese. Übersetzung des Videos "The Origin of Life - Abiogenesis" von cdk007. Video 9:59 min. Standard YouTube Lizenz.

Universum für alle. 70 online Videos. (Ein schöner Überblick über die Forschung sowohl am MPIA als auch an den anderen Heidelberger Instituten)

Petra Schwille: Campus TALKS: Zelle 0:0: Was braucht es, um zu leben? Video: 12:46 min.

Artikel im ScienceBlog

inge Thu, 19.07.2018 - 10:03

Eine Dokumentation zur Geschichte der Wiener Vorlesungen 1987 - 2017

Eine Dokumentation zur Geschichte der Wiener Vorlesungen 1987 - 2017

Do, 12.07.2018 - 09:01 — Inge Schuster Inge SchusterIcon Politik & Gesellschaft

Die "Wiener Vorlesungen" stellen ein bis jetzt wohl einzigartiges Projekt der Wissensvermittlung dar [1]. Sie sind einzigartig in Hinblick auf das ungeheuer breite Spektrum an behandelten Themen - von Kultur über Wirtschaft, Politik, Religion, Sozialwissenschaften bis hin zu Naturwissenschaften und Medizin -, außerordentlich, was die sehr hohe Qualität der Vorträge betrifft und die riesige Zahl der Veranstaltungen, die in den 30 Jahren des Bestehens dieser Initiative stattfanden. Hirn, Herz und Motor der "Wiener Vorlesungen" finden sich in der Person von Hubert Christian Ehalt. Der Historiker, Soziologe und Wissenschaftsreferent der Stadt Wien hat diese Veranstaltungen 1987 ins Leben gerufen und bis 2017 mit Kreativität und enormen Enthusiasmus organisiert und moderiert. Nun fasst er die Geschichte dieser Vorlesungen in Form eines reichbebilderten Buchs zusammen; die Titel der Vorträge und die Bilder von den Veranstaltungen spiegeln die kulturellen, politischen und wissenschaftlichen Strömungen der letzten dreißig Jahre wider.

Sapere Aude

Die "Wiener Vorlesungen" sollten ein "intellektuelles Scharnier zwischen den Wiener Universitäten und dem Rathaus" werden. Sie sollten Wissen vermitteln, Volksbildung sein, aufklären, kritikfähig machen und Utopien Raum geben.

Mit diesen ambitionierten Zielvorstellungen startete Christian Ehalt - als Wissenschaftsreferent der Stadt Wien für Wissenschaft und Forsuchung zuständig - die "Wiener Vorlesungen" im Mai 1987. Ehalt war damals jung, künstlerisch hochbegabt, er hatte Wirtschafts-, Sozialgeschichte und Soziologie studiert und sich darüber hinaus ein sehr breites transdisziplinäres Wissen angeeignet. Es sind 10 Ziele, die Ehalt mit den "Wiener Vorlesungen" erreichen wollte:

  • Aufklärung statt Vernebelung
  • Differenzierung statt Vereinfachung
  • Analyse statt Infotainment
  • Tiefenschärfe statt Oberflächenpolitur
  • Empathie statt Egomanie
  • Utopien statt Fortschreibung
  • Widerspruch statt Anpassung
  • Auseinandersetzung statt Belehrung
  • Gestaltungswille statt Fatalismus
  • Werte statt anything goes"

Eine Zeitreise

Als Ehalt im Mai 1987 sein Projekt startete, existierte noch der eiserne Vorhang. Vorträge und Vortragende reflektieren die politische Landschaft, die sich in den folgenden dreißig Jahren dann völlig ändern sollte (unter den Vortragenden war u.a. auch Gorbatschow zu finden), sie reflektierten den Wandel der Wirtschaftssysteme, Finanzkrisen, das Erstarken von Religionen und von religiösem Fanatismus (dazu gab es mehrere Vorträge von Basam Tibi), aufkommende Migrationsbewegungen, usw, usf. Die Vorlesungen setzten sich ebenso mit dem kulturellen Erbe unseres Landes und dessen Zukunft auseinander. Für den ScienceBlog besonders interessant: Ein ansehnlicher Teil der Vorlesungen widmete sich auch naturwissenschaftlich/technischen und medizinischen Themen und zeigte die rasante Entwicklung in diesen Disziplinen.

Das eben erschienene Buch "Wiener Vorlesungen 1987 - 2017 Standortbestimmung, Aufklärung, Navigation" (Abbildung 1) fasst nun alle Veranstaltungen zusammen, zeigt eine Fülle von Fotos und nennt alle (zum Teil höchst renommierten) Vortragenden und die Titel ihrer Vorträge. Aus diesen Titeln erkennen wir, welche Fragen in den letzten 30 Jahren als wichtig angesehen wurden, welche Probleme sich bereits frühzeitig angedeutet hatten und welche Lösungswege man vielleicht einschlagen hätte können. In allen Disziplinen gab es auch Visionäre, die statt eines (in Österreich so gern geübten) Rückblicks auf die "glorreiche" Vergangenheit Utopien für eine fruchtbare Zukunft in den Raum stellten, die zum Teil viel, viel schneller Realität wurden, als man es erträumte (beispielsweise die Digitalierung).

Abbildung 1. Die Geschichte der Wiener Vorlesungen. Wiener Vorlesungen 1987 – 2017. Standortbestimmung, Aufklärung, Navigation. Hubert Christian Ehalt (Hsg), Susanne Strobl und Andrea Traxler (redaktionelle Mitarbeit). Enzyklopädie des Wiener Wissens, Band XXX. (Verlag Bibliothek der Provinz A-3970 Weitra) ISBN 978-3-99028-757-6

Einige Zahlen

In den 30 Jahren ihres Bestehens, gab es rund 1500 Veranstaltungen der "Wiener Vorlesungen" mit teilweise mehreren Vortragenden, sodass insgesamt etwa 5000 Vortragende resultierten. Viele Vortragende gehörten zu den Spitzen in ihren Disziplinen. An die Vorträge schlossen sich zumeist Diskussionen an (sehr häufig von Christian Ehalt moderiert) - insgesamt dauerten Vorträge und Diskussionen 5000 Stunden.

Die Zahl der Veranstaltungen stieg anfänglich steil an und erreichte um 1998 einen Plateauwert von durchschnittlich 50/Jahr (nur in den letzten beiden Jahren gab es einen Rückgang). Auch der anfangs "unterbelichtete" Anteil an naturwissenschaftlich/technischen und medizinischen Themen steigerte sich auf rund 20 % der Veranstaltungen in den letzten 15 Jahren. Abbildung 2.

Abbildung 2. Wiener Vor­les­ungen (Mai 1987 - Oktober 2017). Nach einer Anfangsphase hat sich die Zahl der jähr­li­chen Ver­an­stal­tun­gen auf rund 50 ein­ge­pen­delt. Erfreulicherweise liegt der Anteil natur­wissen­schaft­lich/medizinischerThemen bei rund 20 % aller Ver­an­stal­tun­gen (ak­tua­li­sier­te Darstellung der Ab­bild­ung 1 aus [1]; Daten wurde zusammengestellt aus den Vortragstiteln in: https://www.wien.gv.at/kultur/abteilung/vorlesungen/Veranstaltungsarchiv und dem Buch in Abbildung 1).

Die Pfosten sind, die Bretter aufgeschlagen,
Und jedermann erwartet sich ein Fest.

Die Vorträge waren kostenlos und meistens sehr gut besucht; fanden sie im Festsaal des Rathauses statt, so waren Tausend und mehr Besucher keine Seltenheit. Das Publikum vermittelte dabei den Eindruck eher im Theater oder in einem Konzertsaal zu sitzen als in einem Vortragsaal - dies ist zweifellos durch den Festsaal und auch schon durch den Aufgang zu diesem bedingt, der Veranstaltungen eine fast feierliche Aura verleiht. Abbildung 3. Abbildung 3. Feststiege (links) und der volle Festsaal (rechts) des Wiener Rathauses. (Bilder: links Wikipedia, rechts Uni Wien cc-by-nc-nd)

Insgesamt schätzt man, dass etwa 600 000 Besucher aus allen Bevölkerungsschichten an den Veranstaltungen teilgenommen haben. Als ab 2011 die Wiener Vorlesungen von den TV-Sendern ORFIII und OKTO gezeigt wurden, erhöhte sich die Reichweite der Wissensvermittlung auf das Dreifache (leider können wissenschaftliche Veranstaltungen auch bei höchster Reichweite nicht mit Popkonzerten oder Sportevents Schritt halten).

Wie machen wir's, daß alles frisch und neu
Und mit Bedeutung auch gefällig sei?

Zweifellos ist es gelungen Referenten zu rekrutieren, die zur Weltspitze der Philosophen, Künstler, Politiker und Wissenschafter in In-und Ausland zählen. Es waren Vortragende zum Anfassen - die Form der Veranstaltung ermöglichte es dem Publikum mit den Vortragenden auf Augenhöhe diskutieren.

Insbesondere sind hier acht Nobelpreisträgerseminare zu erwähnen, die von dem Physiker Helmuth Hüffel (Univ. Wien) organisiert wurden und in den Jahren 2006 bis 2013 stattfanden; fünf dieser Seminare waren naturwissenschaftlichen Gebieten gewidmet und insgeamt 20 Nobelpreisträger trugen vor. Es waren dies absolute Highlights und der Festsaal des Rathauses war jedes Mal bis auf den letzten Platz gefüllt. (Leider gab es einige Redner, die nicht bedachten, dass viele Zuhörer völlige Laien waren). Im Folgenden sind die Namen der Redner und - in Klammer - das Jahr, in dem sie die Auszeichnung erhielten, sind im Folgenden gelistet:

  • 2006 war das Seminar dem Vermächtnis des 100 Jahre zuvor verstorbenen österreichischen Physikers Ludwig Boltzmann gewidmet. Es trugen vor : Claude Cohen-Tannoudji (Physik 1997), Roy Glauber (Physik 2005), Walter Kohn (Chemie 1998) und Chen Ning Yang (Physik 1957).
  • 2007 lag der Schwerpunkt auf Physiologie, Gentechnologie und Biochemie. Es sprachen Tim Hunt (Medizin 2001), Roger Kornberg (Chemie 2006) und Richard Roberts (Medizin 1993)
  • 2009 lag der Schwerpunkt auf Chemie (der Biomoleküle). Es sprachen Robert Huber (Chemie 1988), Jean-Marie Lehn (Chemie 1987), Roger Tsien (Chemie 2008), Kurt Wüthrich (Chemie 2002), Ahmed Zewail (Chemie 1999)
  • 2011 war wieder die Physik dran mit Theodor W. Hänsch(Physik 2005), Gerardus T. Hooft (Physik 1999) und Geirge F. Smoot (Physik 2006)
  • 2012 ging es um biologische Prozesse mit Sidney Altman (Chemie 1989), Elizabeth Blackburn (Medizin 2009), Günter Blobel (Medizin 1999), Martin Evans (Medizin 2007) und Thomas Steitz und Ada Yonath (beide Chemie 2009).

Wie geht es weiter?

Die "Wiener Vorlesungen" wurden unter Christian Ehalt zur Erfolgsgeschichte. Dieser hat nach seiner Pensionierung im vergangenen Jahr auch die Organisation der Wiener Vorlesungen niedergelegt. Seine Nachfolge hat heuer Daniel Löcker, Wissenschaftsreferent der Stadt Wien, angetreten. Löcker will die Wiener Vorlesungen umkrempeln - modernisieren, wie er sagt. Medienmeldungen vom 9. Jänner zufolge (https://wien.orf.at/news/stories/2888441/) will Löcker stärker an „unerwartete Orte“ in die Bezirke statt ins Rathaus gehen, die Anzahl der Veranstaltungen merkbar auf 12 - 15 pro Jahr reduzieren, u.a. auf "lustig oder originell anmutende" Formate setzen und die "Wiener Vorlesungen" außerdem verjüngen - und zwar nicht nur, was das Publikum betrifft. Im Zuge einer ab Herbst geplanten Reihe in Kooperation mit dem Radiokulturhaus sollen junge Talente vor den Vorhang gebeten werden. Ab sofort soll esein Jahresthema geben, das gewissermaßen den inhaltlichen Rahmen vorgibt. Heuer ist dies das Gedenkjahr 1918 bzw. 100 Jahre Republik.

Dass es mit diesen Änderungen zu einer Reduzierung der Reichweite und damit der Wissensvermittlung kommen wird, ist offensichtlich. Ob die für die Entwicklung unserer Gesellschaft enorm wichtigen, in Medien und Bildungstandards aber völlig unterrepräsentierten Naturwissenschaften noch in die "inhaltlich und formal neuen Akzente" der "Wiener Vorlesungen" passen, erscheint eher fraglich.


[1] Inge Schuster, 20.10.2016: Wissensvermittlung - Wiener Stil. 30 Jahre Wiener Vorlesungen.


Weiterführende Links

Wiener Vorlesungen - das Dialogforum der Stadt Wien

Publikationen der Wiener Vorlesungen: https://www.wien.gv.at/kultur/abteilung/vorlesungen/publikationen.html 61 Videos diverser Vorlesungen

Hubert Christian Ehalt in ScienceBlog

inge Thu, 12.07.2018 - 09:01

Jurassic World - Das gefallene Königreich oder die "entfesselte Macht der Genetik"

Jurassic World - Das gefallene Königreich oder die "entfesselte Macht der Genetik"

Do, 05.07.2018 - 01:04 — Ricki Lewis Icon Politik & Gesellschaft

Wie werden Biowissenschaften in Filmen dargestellt? Die US-amerikanische Science-Fiction- Filmreihe Jurassic Park gehört zu den finanziell erfolgreichsten Serien aller Zeiten; sie schürt Ängste vor genetischer Manipulation und unverstandenen, weltweiten Folgen. Ein Vierteljahrhundert nach dem ersten Film über die geklonten Dinosaurier ist nun der fünfte Teil " Das gefallene Königreich" angelaufen. Es soll darin um die "entfesselte Macht der Genetik" der Dinosaurier gehen. Nur ist das de facto nicht der Fall; es wird ein grotesker Eindruck von der Genetik vermittelt, wissenschaftliche Seriosität bleibt auf der Strecke. In ihrer Rezension weist die Genetikerin Ricki Lewis auf einige der Ungereimtheiten hin (ihre Meinungen sind in Kursiv gesetzt).*

Die Handlung des Streifens ist oberflächlich, oberflächlich. Die vorhandenen Rezensionen weisen auf den dünnen Handlungsfaden hin, scheinen sich ansonsten mehr auf das, seit der vorigen Folge besser gewordene Schuhwerk der Hauptdarstellerin Bryce Dallas Howards zu kümmern. Viele Rezensenten vermissten aber Einzelheiten und Begründungen aus der Wissenschaft. Ich saß im dunklen Theater und kritzelte, wie ich es ein paar Wochen zuvor für eine Rezension des lächerlichen Science Fiction Films Rampage getan hatte. Im Vergleich dazu ist Das gefallene Königreich besser - zumindest sind einige Gedankengänge eingeflossen.

Rettet die Dinosaurier!

2015 haben wir die Dinos zum letzten Mal gesehen; damals liefen sie auf Isla Nublar, 150 Meilen westlich von Costa Rica, Amok (Abbildung 1). In der neuen Folge hat dort nun ein riesiger Vulkan zu speien begonnen.

Was soll man tun?

"Schließlich haben wir sie zurückgeholt" postuliert Jeff Goldblum, wiederholt damit was er in der ersten Szene seinen vom Mathematiker zum Biologen konvertierten Ian Malcolm sagen lässt und verwendet komplizierte Ausdrücke, wenn er zu einem verdatterten Senator spricht.

Die Tiere stehen vor einem Massenaussterben.

Abbildung 1. Die fiktionelle Insel Isla Nublar, auf der der Multimilliardär John Hammond einen Erlebnispark mit geklonten Dinosauriern geschaffen hat.

Szenenwechsel

Benjamin Lockwood (gespielt von dem aus Ein Schweinchen namens Babe bekannten James Crowell), Partner des Vaters der Dinosaurier John Hammonds, lebt in einem Schloss in Nordkalifornien. Es ist ein riesiges Schloss, das auch drei unterirdische Stockwerke eines "eingeschränkten Zugangsbereichs" aufweist. Es ist dies ein Labyrinth aus Kammern, Käfigen und dazwischen Laptops, die frühere Dressureinheiten mit Dinosauriern zeigen. In Brutkästen liegen große Eier. Lockwood setzt den Traum von Hammonds fort und zieht die Jurassic-Dinosaurier auf. Und mittendrin läuft seine quicklebendige Enkelin Maisie herum - Lockwoods Tochter, Maisies Mutter, war bei einem Autounfall getötet worden.

Lockwood will die auf der Insel im Stich gelassenen Dinosaurier retten, doch sein Assistent, der schmierige Eli Mills, verabredet sich mit Tierhändlern, die die Dinos nur retten wollen, um sie an die Meistbietenden zu verkaufen, dies aber nicht nur zum Zweck des Entertainments. Jede der gewünschten elf Spezies produziert ein einzigartiges Biopharmazeutikum.

Der Genetiker Dr. Wu (gespielt von Law and Order B.D. Wong) ist immer noch an Bord. "Wissen Sie, wie schwierig es ist, noch eine weitere Lebensform zu erschaffen?" äußert er frustriert. Ich kann es mir nur vorstellen.

Dinos zum Verkauf!

Die elf Dino-Arten sollen versteigert werden, um Startkapital für das Konstruieren von "Kreaturen der Zukunft aus Stücken der Vergangenheit" zu beschaffen (tatsächlich macht dies ja die Natur mit den Genomen jedes sich sexuell fortpflanzenden Organismus'). Das neue Reptil, Indoraptor, soll als Waffe taugen! Es wird irgendwie genetisch programmiert, sodass es auf einen Laserpointer reagiert und auf ein darauffolgendes "akustisches Signal" mit Angreifen reagiert. Ich habe keine Ahnung, wo die genetische Manipulation herkommt - es handelt sich hier ja um eine klassische konditionierte Reaktion. Und diese ist kaum neu. Katzen verfolgen seit Jahren Laserpointer. Abbildung 2.

Abbildung 2. Kona, Luna und Lydia verfolgen hypnotisiert den Lichtfleck eines Laser Pointers (Rachel Ware)

Aber die Guten wie auch die Bösen müssen zuerst die Dinosaurier finden, um sie vor dem Lava speienden Vulkan zu retten. Und hier tritt nun die von Bryce Dallas Howards gespielte Figur, Claire Dearing, auf. Als ehemalige Direktorin des zerstörten und verlassenen Jurassic-Themenparks weiß sie, wo die Dinos zu finden sind. Doch zuerst schleppt sie den attraktiven Tier-Verhaltensforscher Owen Grady (gespielt von Chris Pratt) dorthin zurück.

Mit vereinigten Kräften schaffen sie es, die meisten Kolosse von der Insel zu transportieren, einschließlich einiger Babys und Jungtiere. Die Dinosaurier werden gefangen und hinter Gittern eingesperrt , einschließlich der Kleinen, während diejenigen, die nicht sicher transportiert werden können, zurückgelassen werden, um in einer gespenstischen Szenerie hinter brennendem Blattwerk zu sterben. Das Ganze erinnerte ein bisschen an die Nachrichten der letzten Woche.

Genetische Veränderung oder Verhaltensänderung?

An mehreren Stellen des Films zeigt ein Video den Verhaltensforscher Owen, der eine Gruppe von Baby Theropoden dressiert. Theropoden sind eine Unterordnung der Dinosaurier, die hohle Knochen und drei Zehen pro Gliedmaßen aufweist und zu der auch die wilden Velociraptoren, Stars der vergangenen Filme, gehören. Zunächst scheint die Interaktion mit den Babys eine Variation der klassischen Prägung zu sein, die Baby-Dinosaurier folgen Owen wie die Gänse, die hinter dem berühmten Ethologen Konrad Lorenz her watschelten und ihn für ihre Mutter hielten. Aber während sie heranwachsen, rückt für Owen ein kluger Velociraptor, Blue, in den Vordergrund. Abbildung 3.

Abbildung 3. Das Theropodenweibchen Blue und der Verhaltensforscher Owen interagieren miteinander.

Im Dressieren von Blue geht Owen über die angeborene Prägungs-Reaktion hinaus und fördert Verhaltensweisen, die Zuneigung, Bindung, Interesse, Neugier und Empathie zeigen. Der Genetiker Dr. Wu nimmt davon Kenntnis und möchte die Verhaltensweisen in seine Schöpfungen einbringen. Offenbar ist es ihm nicht bewusst, dass es sich dabei um angelernte und nicht um angeborene Eigenschaften handelt. Vermutlich hat er einen Einführungskurs in die Psychologie versäumt.

Der Film stellt die durch das Klonen eingeführte genetische Veränderung, die vor oder bei der Befruchtung stattfindet, dem Lernen und der klassischen Konditionierung, wie sie nach der Geburt auftreten, gegenüber.

Wie also fördert genetische Veränderung die neuronalen Verknüpfungen, die den erst nach der Geburt gelernten Verhaltensweisen zugrundeliegen? Ist es nicht besser die Epigenetik einzubringen, die Genexpression zu verändern und damit ein Widerspiegeln der Umwelteinflüsse? Dies ist einfacher zu kontrollieren.

Wie in vielen Stücken, die über Genetik gehen, geben die Drehbuchautoren leider kein zusammenhängendes Bild. Stattdessen lassen sie ein Stakkato von Hokuspokus niederprasseln, so dass Zuschauer oder Leser meinen, dass damit Lücken im Verständnis gefüllt sind, und es das Ganze Sinn macht - wenn dies tatsächlich aber nicht der Fall ist. Vielleicht haben das die Rezensenten gemeint, als sie von einer dünnen Handlung sprachen.

Eine unverständliche Transfusion

Der Velociraptor Blue verliert viel Blut und braucht eine Transfusion! Warum nicht Blut des Tyrannosaurus Rex (T. Rex) nehmen, der betäubt im nächsten Käfig döst - so der Vorschlag des jungen Paläo-Veterinärs.

Was ist, wenn es sich nun um verschiedene Arten handelt? Blue hätte nahezu augenblicklich eine Abstoßungsreaktion erleiden müssen - zum Glück war dies nicht der Fall.

Das liegt daran, dass Bryce Dallas Howard das Blut des Spenders, des schnarchenden T. rex, fachmännisch untersuchte und genau wusste, wo sie in seine schuppige Haut einstechen sollte. Ihre Erfahrung bezog sie von einer freiwilligen Teilnahme an einer Blutspendeaktion des Roten Kreuzes. Okay.

Die Transfusion wird sich später zumindest für Dr. Wu als wichtig erweisen als er predigt, dass Blue "in jeder Zelle des Körpers" reine DNA hat.

Aber nein!

Wenn eine hämatopoetische Stammzelle des Spenders T. rex in den Empfänger gelangte - und dies war wahrscheinlich der Fall -, könnte die genetische Reinheit von Blue mit einer T. rex-Zelllinie verunreinigt sein. Dieses Phänomen (Mikrochimerismus) ist der Grund, warum eine Frau, die eine Knochenmarkspende von einem Mann erhält, Blutzellen enthalten könnte, die Y-Chromosomen tragen. Dr. Wu sollte das begriffen haben, weil er auch der forensische Psychiater Special Agent in der Spezialeinheit "Law & Order Special Victim" ist, wo der Mikrochimerismus manchmal falsch zugeordnete Blutgruppen erklärt. Aber keine Sorge. Solange die Spenderzellen nicht in Dinosauriersperma oder -ei gelangen, wird die Veränderung nicht weiter vererbt.

Der Fauxpas mit der Transfusion ist nicht das Einzige, was mit der Taxonomie und Evolution nicht stimmt. Die elf Dinosaurierarten produzieren jeweils ein einzigartiges Biopharmazeutikum, aber sie sind nahe genug verwandt, um Blut zu spenden/empfangen. Zufällig sagt dann Dr. Wu " in Hinblick auf seine DNA ist ein Stier kaum von einer Bulldogge zu unterscheiden". Ich denke, es ist Zeit, noch ein paar Genetiker aufzutreiben.

Auktion und Aktion

Die Auktion läuft und die bösen Jungs verdienen Millionen für ihre Dinosaurier.

"Was höre ich für den jugendlichen Allosaurus? Verkauft! ", brüllt der gnomartige Auktionator. "Oder wie wäre es mit diesem Vierfüßer aus der Kreidezeit, Ankylosaurus? Einer der größten Panzerdinosaurier, ein lebendiger Panzer!

" Dann enthüllt der hämmernde Gnom einen Prototypen des Indoraptors, "eine perfekte Waffe für die heutige Zeit!" Und die Menge tobt.

Dr. Wu jammert: "Er ist nicht zu verkaufen! Er ist der Prototyp! " "Beruhigen Sie Sich. Wir werden mehrere davon produzieren ", antwortet der Gnom, während er ein Gebot von 28 Millionen Dollar akzeptiert.

Was ein Action-Film ist, muss natürlich mit einer Verfolgungsjagd enden. Die Jagd in Jurassic World: Das gefallene Königreich wird nicht von dem eingesperrten und wütenden Indoraptor ausgelöst, sondern von dem gepanzerten Ankylosaurus, der auskommt, unglücklicherweise mit seinem Kopf auf ein Rohr schlägt und durch die Menge der Investoren rast, die hektisch für den gepanzerten Prototyp bieten.

Menschen oder Teile von diesen werden gefressen, einschließlich des Arms des Gierigsten unter ihnen, der während des gesamten Films heimlich Dinosaurierzähne gesammelt hatte. Der gnomartige Versteigerer läuft um sein Leben, sein Toupet flattert hoch wie Donald Trumps orangefarbene Fransen, wenn er in ein Flugzeug steigt. Und die im Keller eingeschlossenen Dinosaurier werden auf mysteriöse Weise gasförmiger Blausäure ausgesetzt und fangen an zu husten. (Sie erinnern mich an den alten Gary-Larsen-Cartoon von Dinosauriern, die beim Rauchen ausstarben.)

Irgendwo in dem Chaos liegt das kleine Mädchen in einem Bett unter der Decke, als sich ein wilder Dinosaurier nähert und in letzter Minute von einem anderen Dinosaurier abgelenkt wird. Das passiert dann noch oft, ein Reptil greift ein anderes an. Und in einem kurzem Augenblick ist eine spiralenförmige Wendeltreppe in Form einer Doppelhelix zu sehen.

Am Ende fliehen Claire, Owen, Maizie, der Paläo-Veterinär und ein nerdiger IT-Typ. Zwischen Owen und Blue kommt es zu einer berührenden Szene. Aber alles ist nicht gut. Ein Knopfdruck wird die Dinosaurier befreien! Sollte die weinende Claire es tun? "Sei vorsichtig, wir sind nicht mehr auf einer Insel!"- wohlwollend warnt Owen.

Ian Malcolm bekommt das letzte Wort. "Die Macht der Genetik wurde jetzt entfesselt. Jetzt passiert es. Sie waren vor uns hier und, wenn wir nicht vorsichtig sind, werden sie danach hier sein. Wir treten in eine neue Ära ein. Willkommen in der Jurassic World. " Ich denke, wir werden sehen, was am 11. Juni 2021 passiert, wenn der nächste Film anläuft.

Inzwischen Spielverderber Alarm: eine menschliche Figur ist ein Klon, und dies ist entscheidend für den Übergang zum nächsten Film. Uns bleiben die riesigen Reptilien in Nordkalifornien, die uns von Berggipfeln aus beobachten und Surfer terrorisieren. Ich kann mich nur fragen, ob sie sich mit den Flüchtlingen vom Planeten der Affen treffen werden. ------------------------------------------------------------------------------------------------------- Nachsatz der Redaktion: in den wenigen Monaten seit seinem Erscheinen ist der erste Trailer zu dem Film (siehe Link, unten) bereits mehr als 7,5 Millionen Mal angeklickt worden. Die dubiosen wissenschaftlichen Inhalte des Films setzen sich millionenfach in den Köpfen fest. Dagegen sind auch die besten, verständlichsten und unterhaltsamsten Videos mit seriösen wissenschaftlichen Inhalten chancenlos - sie erreichen gerade Bruchteile im Promill- bis unteren Prozentbereich!


*Der Artikel ist erstmals am 28. Juni 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " The Genetic Power of Jurassic World: Fallen Kingdom " erschienen (http://blogs.plos.org/dnascience/2018/06/28/the-genetic-power-of-jurassic-world-fallen-kingdom/) und steht unter einer cc-by Lizenz. Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich den englischen Fassungen folgen.


Weiterführende Links

Jurassic World: Das gefallene Königreich, ausführliche Inhaltsangabe und Links in Wikipedia.

JURASSIC WORLD 2: Fallen Kingdom Trailer (Extended) 2018. Video 5:16 min. Standard-YouTube-Lizenz

Life finds a way in the absurdly entertaining Jurassic World: Fallen Kingdom: EW review.

inge Thu, 05.07.2018 - 13:04

Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts

Do, 28.06.2018 - 08:02 — Dario R. Valenzano Dario R. ValenzanoIcon BiologieMikroorganismen im Darm beeinflussen die Gesundheit des Wirts. Aus dem Gleichgewicht geratene Mikrobengemeinschaften im Darm sind mit verschiedenen Krankheiten assoziiert. Die Wiederherstellung einer gesunden Darmflora kann zur Heilung von akuten und lebensgefährlichen Infektionen beitragen. Dario R. Valenzano, Forschungsgruppenleiter am Max-Planck-Institut für Biologie des Alterns (Köln) berichtet hier über aktuelle Forschungsarbeiten mit dem Türkisen Prachtgrundkärpfling, dem sogenannten Killifisch (Nothobranchius furzeri). An diesem Modellorganismus zeigt er, dass die Darmmikroben aus jungen Fischen den allgemeinen Gesundheitszustand und sogar die Lebenserwartung gesund alternder Artgenossen beeinflussen.*

Altern: Innere Faktoren, Mikrobiota und die Umwelt

Die Interaktionen zwischen Organismen und ihrer Umgebung gestalten sich komplex und hängen entscheidend von den Barriereorganen ab, wie beispielsweise den Membranen und Zellwänden einzelliger Lebewesen und den komplexen Integumenten vielzelliger Organismen. Diese Barrieresysteme können direkte physische Schäden eindämmen, ermöglichen aber gleichzeitig die Kommunikation und den Austausch zwischen der Außenwelt und dem jeweiligen Organismus. Bemerkenswerterweise wird der direkte Kontakt zwischen Organismen und Umwelt oft über eine komplexe Gemeinschaft von Mikroorganismen vermittelt, die die Außenflächen unter normalen Umständen reichlich bedecken.

Wirt-Darmflora-Interaktionen

Man schätzt, dass jeder Mensch neben seinen eigenen Zellen ebenso viele Wirtszellen wie Mikrobenzellen trägt [1], die sich größtenteils im Dickdarm befinden. Die Anzahl mikrobieller Gene wiederum macht das Hundertfache der Anzahl menschlicher Gene aus.

Unter normalen Umständen fördern die mikrobiellen Gemeinschaften, auch als Mikrobiota bezeichnet, außerdem die Abwehrmechanismen des Wirts gegen Pathogene. Ein Auszehren dieser Gemeinschaften, wie es beispielsweise nach einer antibiotischen Behandlung vorkommen kann, könnte sich nachfolgend zu einer Hauptursache für schwerwiegende Infektionen entwickeln. Trotz einer langen Koevolution von Wirt und Mikroorganismen bricht demnach ein vormals vitales Gleichgewicht im Krankheitsfall zusammen, weil sich mikrobielle Gemeinschaften von kommensalen in hartnäckig pathogene Faktoren verwandelt haben. Umgekehrt zeigte sich, dass die Wiederherstellung nicht-pathogener Mikrobengemeinschaften durch eine mikrobielle Transplantation eine wirksame Behandlung gegen lebensbedrohliche Infektionen beispielsweise mit dem Bakterium Clostridium difficile sein kann [2]. Allerdings war bis vor kurzem nicht klar, ob die Wiederherstellung einer jugendlichen Darmflora im normal verlaufenden Alterungsprozess für den Wirt von Nutzen sein und seine Lebenserwartung letztendlich verlängern kann.

Ein von Natur aus kurzlebiger Fisch als Modell für die Alterung von Wirbeltieren

Labormäuse und Zebrafische weisen eine äußerst komplexe Zusammensetzung ihrer Darmflora, ähnlich der des Menschen, auf, die aus Hunderten oder sogar Tausenden von bakteriellen Taxa besteht. Mäuse und Zebrafische sind jedoch wesentlich arbeitsintensiver und zeitaufwändiger als kurzlebige wirbellose Arten; unter Laborbedingungen werden sie zweieinhalb bis drei Jahre alt. Der Türkise Prachtgrundkärpfling (Killifisch; Nothobranchius furzeri) ist vergleichsweise ein von Natur aus kurzlebiger Süßwasserfisch mit einer Lebensdauer von nur vier bis acht Monaten. Durch diese im Vergleich zu Labormäusen oder Zebrafischen kurze Lebensspanne hat er sich zunehmend zu einem populären Alterungsmodell entwickelt, an dem sich der Effekt experimenteller Manipulationen bezüglich der Lebenserwartung von Wirbeltieren schnell und innerhalb eines Zeitrahmens untersuchen lässt, der mit wirbellosen Tieren vergleichbar ist (Abbildung 1).

Abbildung 1: Alterung des Türkisen Prachtgrundkärpflings (Killifisch; Nothobranchius furzeri). Repräsentative Vertreter für drei unabhängige Altersklassen: jung (links), erwachsen (Mitte) und alt (rechts). Oben sind männliche und unten weibliche Artgenossen abgebildet. © Max-Planck-Institut für Biologie des Alterns/Valenzano

Der Killifisch ist ein im Süßwasser lebender Bodenfisch, der sich an extrem raue Umweltbedingungen mit kurzen Regenzeiten und langanhaltenden Trockenzeiten angepasst hat. Diese Fische können bereits drei bis vier Wochen nach dem Schlüpfen Geschlechtsreife erreichen. Zudem haben sie eine spezielle Anpassung entwickelt, die man als „Diapause“ bezeichnet, um in der Trockenzeit im ausgedörrten Boden als Embryonen im Dauerruhestand überleben zu können [3].

Wiederherstellung einer jungen Darmflora im Erwachsenenalter verlängert die Lebenserwartung eines kurzlebigen Wirbeltiers

Killifische sind mit einer komplexen mikrobiellen Darmflora ausgestattet, die in ihrer taxonomischen Komplexität der von anderen Wirbeltieren gleichkommt [4]. Ein direkter Transfer von Darminhalten junger Fische auf ihre mittelalten Artgenossen, die zuvor einer Antibiotikabehandlung unterworfen worden waren, um ihre eigene gealterte Darmflora zu entfernen, war ausreichend, um deren Lebensdauer erheblich zu verlängern. Dies deutet darauf hin, dass die mikrobielle Zusammensetzung der Darmflora die Lebensdauer ursächlich beeinflussen kann. Auffallend war, dass bei Fischen der Kontrollgruppe ein rapider, altersabhängiger Verfall des Bewegungsapparats einsetzte, während diejenigen Fische, die zuvor Darminhalte von jungen Spendern erhalten hatten, bis in die spätere Lebensphase körperlich aktiv blieben (Abbildung 2).

Abbildung 2: Übersicht über das Darmflora-Transferexperiment beim Türkisen Prachtgrundkärpfling (Killifisch; Nothobranchius furzeri). Genaue Erläuterungen im Text. © Max-Planck-Institut für Biologie des Alterns/Valenzano

Weiterführende Untersuchungen haben zur Identifizierung einer Reihe von Bakteriengattungen, wie zum Beispiel Exiguobacterium, Planococcus, Propionigenium und Psychrobacter, beigetragen, deren reichhaltiges Vorkommen in den Därmen der Wirtstiere mit einem jugendlichen Zustand und einer längeren Lebenserwartung korrelierten [4]. Diese Forschungsergebnisse zeigen, dass die Darmmikroorganismen innerhalb einer komplexen Mikrobengemeinschaft die Lebenserwartung und Alterung enorm beeinflussen können. Es wird jetzt darum gehen zu untersuchen, ob ein solcher heterochroner Darmflora-Transfer auch den Alterungsprozess von Laborsäugetieren und sogar Menschen positiv beeinflussen kann. Darüber hinaus haben neue Arbeiten gezeigt, dass Darmmikroorganismen im Allgemeinen vorteilhafte systemische Wirkungen ausüben können, sodass sich die Manipulation wirtsassoziierter mikrobieller Gemeinschaften bei Krankheiten und Alterungsprozessen zu einer neuartigen Strategie bei der Beeinflussung der Wirtsphysiologie im Sinne einer besseren Gesundheit entwickeln könnte.

Literaturhinweise

1. Han, B.; Sivaramakrishnan, P.; Lin, C.J.; Neve, I. A. A.; He, J.; Tay, L. W. R.; Sowa, J. N.; Sizovs, A.; Du, G.; Wang, J.; Herman, C.; Wang, M. C. Microbial genetic composition tunes host longevity. Cell 169, 1249-1262 (2017)

2. Dodin, M.; Katz, D. E. Faecal microbiota transplantation for Clostridium difficile infection. International Journal of Clinical Practice 68, 363-368 (2014)

3. Kim, Y.; Nam, H. G.; Valenzano, D. R. The short-lived African turquoise killifish: an emerging experimental model for ageing. Disease Models & Mechanisms 9, 115-129 (2016)

4. Smith, P.; Willemsen, D.; Popkes, M.; Metge, F.; Gandiwa, E.; Reichard, M.; Valenzano, D. R. Regulation of life span by the gut microbiota in the short-lived African turquoise killifish. eLife 6: e27014 (2017)


Der Artikel erscheint unter dem gleichnamigen Titel: " Mikroorganismen im Darm sind Schlüsselregulatoren für die Lebenserwartung ihres Wirts" im Jahrbuch 2018 der Max-Planck-Gesellschaft (https://www.mpg.de/11790231/mpi_age_jb_2018?c=155461). Der Artikel wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt mit den zugehörigen zugänglichen Zitaten in der Fachliteratur ([1] - [4].


Weiterführende Links

Max-Planck-Institut für Biologie des Alterns

Feed Your Microbes - Nurture Your Mind (2017)| John Cryan | TEDxHa'pennyBridge. Video 16:10 min. (John Cryan: Principal Investigator at the APC Microbiome Institute). Standard-YouTube-Lizenz

Follow Your Gut: Microbiomes and Aging with Rob Knight - Research on Aging (2017). Video 56:09 min. (Rob Knight, University California, discusses the important influence the microbiome may have on the aging process and many end-of-life diseases.) Standard-YouTube-Lizenz

Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind. Video 17:24 min. TED-Talk 2014 (deutsche Untertitel)

How Bacteria Rule Over Your Body – The Microbiome. Video 7:38 min, Standard-YouTube-Lizenz

Darmflora und Mikrobiom: Warum wir ohne Keime nicht leben können - 1. Freiburger Abendvorlesung 2014 (Video 58:17 min. Standard Youtube Lizenz)

Artikel im ScienceBlog

inge Thu, 28.06.2018 - 08:02

Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

Klimamodelle: Rohstoff und Produkt — Was in Modelle einfließt und was sie errechnen

Do, 21.06.2018 - 10:21 — Carbon Brief Carbon BriefIcon MINT

Wie sich das hochkomplexe Klimasystem in Zukunft entwickeln wird, kann nur auf Basis von Klimamodellen abgeschätzt werden. In den letzten Jahrzehnten ist ein breites Spektrum an derartigen Modellen entwickelt worden, in die immer mehr klimarelevante Prozesse Eingang fanden - beginnend von einfachsten Energiebilanzmodellen bis zu hochkomplexen Erdsystemmodellen, die auch biogeochemische Kreisläufe und gesellschaftliche Aspekte von Bevölkerung, Wirtschaftswachstum und Energieverbrauch mit einbeziehen. Welche Informationen nun in ein Klimamodell einfließen und welche Ergebnisse man daraus erwarten kann, ist Thema des folgenden Berichts. Es ist dies der dritte Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?", die von der britischen Plattform Carbon Brief stammt (Teile 1 und 2 [1, 2]).*

Klimamodelle laufen mit Daten über die Faktoren, die das Klima beeinflussen und mit Prognosen, wie sich diese Faktoren in Zukunft verändern könnten. Dies kann zu gigantischen Datenmengen - bis zu Petabytes (102 Gigabytes) - führen und Messungen enthalten, die alle paar Stunden über Tausende von Variablen in Raum und Zeit erhoben werden - dies geht von Temperaturmessungen über die Wolkenbildung bis hin zum Salzgehalt der Ozeane.

Der Input

Die hauptsächlichen Eingaben in Klimamodelle betreffen externe Faktoren, welche die Energiebilanz der Erde beeinflussen, d.i. wie viel an Sonnenenergie von der Erde absorbiert wird oder, wie viel davon in der Atmosphäre abgefangen wird.

Externe Faktoren - Forcings

Diese externen Faktoren werden als "Forcings" (Klimaantreiber; vom IPPC eingeführter Begriff , Anm. Redn.) bezeichnet. Dazu gehören Veränderungen in der Sonneneinstrahlung, langlebige Treibhausgase - wie CO2, Methan (CH4), Stickoxide (N2O) und halogenierte Kohlenwasserstoffe - sowie winzige Partikel, sogenannte Aerosole, die bei der Verbrennung fossiler Brennstoffe, bei Waldbränden und Vulkanausbrüchen emittiert werden Abbildung 1. Aerosole reflektieren einfallendes Sonnenlicht und beeinflussen die Wolkenbildung.

Abbildung 1. Ausbruch des Schildvulkans Soufriere Hills auf der Karibikinsel Montserrat 1/2/2010. (Dazu Wikipedia: Im Februar 2010 brach der Lavadom teilweise zusammen. Darauf kam es zu pyroklastischen Strömen, die bis 400 m auf das offene Meer hinausreichten, sowie zu einer Aschenwolke bis in mehr als 15 km Höhe. (Credit: Stocktrek Images, Inc./Alamy Stock Photo.)

Üblicherweise lässt man alle diese einzelnen Klimatreiber in einem Modell entweder als beste Schätzung aus Situationen der Vergangenheit laufen oder als Teil zukünftiger "Emissionsszenarien". Bei den letzteren handelt es sich um mögliche Pfade, wie sich die Konzentrationen von Treibhausgasen in der Atmosphäre entwickeln werden, basierend auf Veränderungen von Technologien, Energieverbrauch und Landnutzung in den kommenden Jahrhunderten.

"Representative Concentration Pathways"

Aktuell wenden die meisten Prognosen einen oder mehrere der "Representative Concentration Pathways" an (RCPs; „Repräsentative Konzentrationspfade“. Es handelt sich um vier, von Wissenschaftern entwickelte Szenarien, die in den 5. Sachstandbericht des IPPC aufgenommen wurden, Anm. Redn.). Diese RCPs liefern denkbare Beschreibungen der Zukunft und beruhen auf sozioökonomischen Szenarien, d.i. wie die globale Gesellschaft wachsen und sich entwickeln wird. (Mehr über die RCPs ist in diesem Carbon Brief Artikel zu lesen: https://www.carbonbrief.org/analysis-four-years-left-one-point-five-carbon-budget.)

Klimatreiber der Vergangenheit

Um zu untersuchen, wie sich das Klima in den letzten 200, 1.000 oder sogar 20.000 Jahren verändert hat, wenden Modelle auch Abschätzungen von Klimatreibern aus der Vergangenheit an. Derartige Abschätzungen erfolgen anhand von nachgewiesenen Veränderungen in der Erdumlaufbahn, von historischen Treibhausgaskonzentrationen, vergangenen Vulkanausbrüchen, Änderungen im Ausmaß der Sonnenflecken und mittels anderer Fakten aus der fernen Vergangenheit.

Kontrollen

Schließlich gibt es "Kontrollläufe" des Klimamodells. In diesen wird der Strahlungsantrieb über Hunderte oder Tausende Jahre konstant gehalten. Dies ermöglicht Wissenschaftlern, das modellierte Klima mit und ohne Veränderungen der menschlichen oder natürlichen Antriebe zu vergleichen und abzuschätzen, wie viel "unerzwungene" natürliche Variabilität auftritt.

Die Outputs

Klimamodelle generieren ein nahezu vollständiges Bild des Erdklimas mit Tausenden unterschiedlichen Variablen über Zeiträume von Stunden, Tagen und Monaten.

Allgemeine Ergebnisse

Zu diesen Ergebnissen gehören Temperaturen und Feuchtigkeitsgehalte, die in den verschiedenen Schichten der Atmosphäre von der Erdoberfläche bis zur oberen Stratosphäre vorliegen, sowie Temperaturen, Salzgehalte und Säuregrade (pH-Wert) der Ozeane von der Oberfläche bis zum Meeresboden. Die Modelle ergeben auch Abschätzungen zu Schneefall, Regen, Schneedecke und zur Ausdehnung von Gletschern, Eisschilden und Meereis. Sie generieren Ergebnisse zu Windgeschwindigkeiten, -stärken und -richtungen sowie zu Klimamerkmalen wie den Jetstreams (Schnelle Winde in großer Höhe, verursacht durch das Temperaturgefälle der Atmosphäre; Anm. Redn.) und den Meeresströmungen.

Unüblichere Ergebnisse

der Modellrechnungen betreffen die Wolkendecke und ihre Höhe sowie mehr technische Variablen wie die vom Boden aufsteigende langwellige Strahlung - d.i. wie viel Energie von der Erdoberfläche zurück in die Atmosphäre abgegeben wird - oder wie viel Meersalz während der Verdunstung aus dem Ozean abgeht und sich an Land ansammelt. Klimamodelle liefern auch eine Einschätzung der "Klimasensitivität". Das heißt, sie berechnen, wie empfindlich die Erde auf steigende Konzentrationen von Treibhausgasen reagiert, wobei verschiedene Klima-Rückkopplungen berücksichtigt werden, beispielsweise von Wasserdampf und von Änderungen der Reflektivität oder "Albedo" der Erdoberfläche, die an den Verlust von Eismassen geknüpft ist.


Eine vollständige Liste der allgemeinen Ergebnisse der Modellrechnungen ist im CMIP6-Projekt verfügbar (das Coupled Model Intercomparison Project 6 - oder CMIP6 - ist eine internationale Initiative, um vergangene, gegenwärtige und zukünftige Klimaänderungen besser zu verstehen https://www.wcrp-climate.org/wgcm-cmip/wgcm-cmip6). Modellierer speichern Petabytes von Klimadaten an Orten wie dem Nationalen Zentrum für Atmosphärenforschung (NCAR) und stellen die Daten oft als netCDF-Dateien zur Verfügung, die für die Forscher leicht zu analysieren sind.


[1] Teil 1: Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung.

[2] Teil 2: Klimamodelle: von einfachen zu hoch komplexen Modellen.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel What are the inputs and outputs for a climate model? ist es der 3. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Peter Lemke: Dossier: Die Wetter- und Klimamaschine

Alfred-Wegener Institut, Helmholtz Zentrum für Polar-und Meeresforschung: Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen (13.5.2016). Video 7:24 min (2016).

Klimamodelle: http://wiki.bildungsserver.de/klimawandel/index.php/Klimamodelle Max-Planck Institut für Meteorologie: Überblick. http://www.mpimet.mpg.de/wissenschaft/ueberblick/

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&time_continue=51&v=ouPRMLirt5k. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klimamodelle - Wärmepumpe Ozean (26.10.2015), Video 9:27 min. https://www.youtube.com/watch?v=jVwSxx-TWT8. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima – der Kohlenstoffkreislauf (1.6.2015), Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima - der Atem der Erde (1.6.2015), Video 9:00 min https://www.youtube.com/watch?v=aRpax... (Anmerkung: Es hat sich leider ein kleiner Grafik-Fehler in den Film eingeschlichen: CO2 ist natürlich ein lineares Molekül, kein gewinkeltes!). Standard YouTube Lizenz

Max-Planck-Gesellschaft: Meereis - die Arktis im Klimawandel. (8.6.2016), Video 6:40 min. https://www.youtube.com/watch?v=w77q4Oa9UK8. Standard YouTube Lizenz.

Artikel im ScienceBlog

Dem Thema Klima & Klimawandel ist ein eigener Schwerpunkt gewidmet, der aktuell 21 Artikel enthält: http://scienceblog.at/klima-klimawandel

inge Thu, 21.06.2018 - 10:21

Entdecker der Blutgruppen – Karl Landsteiner zum 150. Geburtstag

Entdecker der Blutgruppen – Karl Landsteiner zum 150. Geburtstag

Do, 14.06.2018 - 08:34 — Inge Schuster

Inge SchusterIcon WissenschaftsgeschichteDie sogenannte Zweite Wiener Medizinische Schule - vom 19. Jahrhundert bis 1938 - erlangte hohes internationales Ansehen. Zu ihren hervorragendsten Forschern gehörte zweifellos der heute vor 150 Jahren geborene Immunologe Karl Landsteiner. Als er 1900 die Blutgruppen (das ABO-System) und später den Rhesusfaktor entdeckte, legte er damit den Grundstein für gefahrlose Bluttransfusionen, die seitdem jährlich das Leben von Millionen und Abermillionen Menschen retten.

Karl Landsteiner (Abbildung 1), geboren am 14. Juni 1868, stammte aus einer angesehenen, liberalen jüdischen Wiener Familie - sein Vater war der erste Chefredakteur der 1848 gegründeten Tageszeitung Die Presse. Landsteiner studierte Medizin an der Universität Wien und promovierte dort 1891. Er war ein begeisterter Experimentator und vor allem an der (Bio)Chemie interessiert, die medizinischen Phänomenen zugrundeliegt. So schloss er seinem Studium eine mehrere Jahre dauernde Ausbildung in den damals bedeutendsten chemischen Labors an. Er lernte in München bei Eugen Bamberger, der sich vor allem mit Mechanismen organischer Reaktionen befasste, in Zürich bei Arthur Hantzsch, der u.a. über heterozyklische Stickstoffverbindungen arbeitete und schließlich bei Emil Fischer in Würzburg, dem "Vater der klassischen organischen Chemie" und späteren Nobelpreisträger (Nobelpreis 1902).

Abbildung 1. Karl Landsteiner (14.6. 1868 - 26. 6.1943) um 1920 (Bild Wikipedia, gemeinfrei)

An der Universität Wien

Zurückgekehrt an die Wiener Universität war Landsteiner vorerst Assistent am Hygiene Institut und befasste sich mit serologischen Fragstellungen, wechselte aber 1898 an die Lehrkanzel für pathologische Anatomie, wo unter Leitung von Anton Weichselbaum vor allem mikrobiologische Fragen im Vordergrund standen. Landsteiner arbeitete dort bis 1908 als Prosektor, konnte sich aber auch ein Labor einrichten, in dem er sich mit immunologischen Fragestellungen befasste. Er entschlüsselte wesentliche Fakten u.a. zur Syphilis und ihrer Serodiagnostik, zur Natur von Antikörpern und Antigenen (von ihm stammt auch der Begriff Haptene für partielle Antigene, die einen Träger brauchen, um eine Immunreaktion auszulösen), zu Ursache und Immunologie der Poliomyelitis, u.a.m.

Entdeckung der Blutgruppen

Die bahnbrechendste Entdeckung betraf zweifellos die Aufklärung der Ursachen der Blutagglutination, d.i. des Zusammenklumpens der roten Blutkörperchen (Erythrocyten) und der Freisetzung von Hämoglobin, wenn Bluttransfusionen von einem ungeeigneten Spender erfolgten. In einer 1900 publizierten Arbeit hatte Landsteiner beobachtet, dass die Globulin-Fraktion aus Rinderserum viel stärker agglutinierend auf die Erythrozyten eines Meerschweinchens wirkte als die Globulin-abgereicherte Fraktion. In einer berühmten Fußnote erwähnte er erstmals die unterschiedlich agglutinierende Wirkung von Sera gesunder Menschen auf Erythrozyten anderer Individuen. Abbildung 2.

Abbildung 2. Karl Landsteiner: Zur Kenntnis der antifermentativen, lytischen und agglutinierenden Wirkungen des Blutserums und der Lymphe. Centralblatt fur Bakteriologie, Parasitenkunde und Infektionskrankheiten, vol. 27, pp. 357-362 1900.

1901 erklärte er dann in der Publikation „Agglutinationserscheinungen normalen menschlichen Blutes“ die individuellen Unterschiede mit der Existenz von Blutgruppen, die er A, B und C nannte (1902 wurde die Gruppe AB gefunden) - daraus wurde dann später das international gültige AB0-System. Landsteiner hatte Blut von sich und 5 Mitarbeitern genommen und wechselweise die unterschiedlichen Erythrozytenproben mit den einzelnen Sera versetzt und auf Agglutinierung untersucht (Abbildung 3, oben). Die einzelnen Gruppen unterschieden sich durch ein Set von Molekülen (Glykoproteinen /Glykolipiden) - Antigenen - an der Oberfläche der Erythrozyten, die mit Agglutininen (Antikörpern) im Serum eines anderen Individuums reagieren oder nicht reagieren konnten. Landsteiner beschreibt:

„In einer Anzahl von Fällen (Gruppe A) reagiert das Serum auf die Körperchen einer anderen Gruppe (B), nicht aber auf die der Gruppe A, während wieder die Körperchen A vom Serum B in gleicher Weise beeinflusst werden. In der dritten Gruppe (C) agglutinirt das Serum die Körperchen von A und B, während die Körperchen C durch die Sera von A und B nicht beeinflusst werden. Man kann der üblichen Ausdrucksweise zufolge sagen, dass in diesen Fällen zumindestens zwei verschiedene Arten von Agglutininen vorhanden sind, die einen in A, die anderen in B, beide zusammen in C. die Körperchen sind für die Agglutinine, die sich im selben Serum befinden, naturgemäss als unempfindlich anzusehen".

Im Serum eines Individuums fehlt also jenes Agglutinin, das gegen die eigene Blutgruppe gerichtet ist (Landsteiner‘sche Regel). Eine schematische Darstellung des AB0-Systems ist in Abbildung 3 unten aufgezeigt.

Abbildung 3. Landsteiner's Entdeckung der Blutgruppen. Oben: die Versuchsanordnung in der Publikation: K. Landsteiner (1901) „Agglutinationserscheinungen normalen menschlichenBlutes“ (Quelle: https://bit.ly/2sAePQ7, frei zugänglich). Unten: Das AB0-System: Serum der Gruppe A enthält Antikörper gegen Antigene der Gruppe B und umgekehrt. Gruppe AB weist beide Antigentypen auf und das Serum enthält keine Antikörper - AB-Individuen können demnach Blut von allen Gruppen empfangen. Gruppe 0 hat keine Antigene auf den Erythrozyten, kann daher allen anderen Typen gespendet werden. (Bild modifiziert nachWikipedia, gemeinfrei).

In der Folge habilitierte sich Landsteiner und wurde 1911 zum a.o. Professor der pathologischen Anatomie ernannt (allerdings ohne Besoldung). Ab 1908 leitete er bis zum Zusammenbruch der k.u.k Monarchie die Prosektur am Wiener Wilheminenspital.

Landsteiner verlässt Österreich

Um seine Familie vor den tristen wirtschaftlichen Nachkriegsverhältnissen zu bewahren, nahm Landsteiner dann eine Stelle als Prosektor in einem kleinen Spital in Den Haag an. Schließlich erhielt er im Jahr 1923 ein Angebot des Rockefeller Institute for Medical Research in New York auf Lebensdauer dort seine Forschungen fortsetzen zu können. Es wurde eine sehr aktive und fruchtbare Zeit. Landsteiner entdeckte weitere erbliche Blutfaktoren und schließlich 1940 gemeinsam mit seinem Mitarbeiter Alexander S. Wiener, ein Hauptantigen, den sogenannten Rhesusfaktor (benannt nach dem Versuchstier, dem Rhesusaffen).

Landsteiner war bis zu seinem Tod aktiv; im Alter von 75 Jahren erlitt er im Labor – wie es heißt: mit der Pipette in der Hand – einen tödlichen Herzanfall.


Landsteiners Entdeckungen hatten die Basis für ungefährliche Bluttransfusionen geschaffen und damit die Chirurgie und die Behandlung von Verletzten revolutioniert. Mit den von ihm entwickelten Verfahren zur Typisierung der Blutgruppen wurde 1907 die erste Transfusion (am Mount Sinai Hospital in New York) durchgeführt und hat dann im Ersten Weltkrieg zahllose Leben gerettet. Für seine Verdienste wurde Landsteiner 1930 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet. Unzählige Ehrungen erfolgten weltweit. In Österreich allerdings erst lange nach seinem Ableben.

Transdisziplinärer Wissenschafter

Landsteiner war Mediziner, Immunologe und ebenso Naturwissenschafter. Die Chemie, die bereits in seiner Jugend eine wesentliche Rolle spielte, ist auch in seinen späteren Arbeiten essentiell. Fragen nach der chemischen Struktur, nach der Spezifität von Wechselwirkungen, nach dem Mechanismus (bio)chemischer Reaktionen bestimmen seine Abhandlungen. Als Beispiel sei hier sein 1933 erschienenes Buch "Die Spezifität der serologischen Reaktionen" angeführt, das als ein Klassiker der immunologischen Literatur gilt. Das Inhaltsverzeichnis zeigt klar die chemische"Grundnote". Abbildung 4.

Abbildung 4. Karl Landsteiner (1933): Die Spezifität serologischer Reaktionen. Springer Verl.Berlin. Digitalisiert 2017 durch das Internet Archiv, unterstützt durch Wellcome Library. https://ia800805.us.archive.org/28/items/b29808790/b29808790.pdf (open access)

Es ist ein auch für Laien durchaus lesenswertes Buch. Eine Leseprobe aus den "Einleitenden Bemerkungen" (p, 4 - p.6) soll dies veranschaulichen.

Leseprobe

"Die morphologischen Eigentümlichkeiten der Tier- und Pflanzenarten sind der Hauptgegenstand der beschreibenden Naturwissenschaften sowie der Schlüssel ihrer Systematik. Erst die letzten Dezennien brachten die Erkenntnis, dass, wie im Reiche der Krystalle, auch bei den Lebewesen Unterschiede des chemischen Baues den Unterschieden der Gestaltung parallel laufen. Dieses Resultat wurde auf einem Umwege gefunden, nicht als das Ergebnis einer daraufhin gerichteten Untersuchung.

Den Anstoß gab die bekanntlich zuerst von Jenner bei Blattern praktisch verwendete Erfahrung, dass das Überstehen einer Infektionskrankheit öfters eine Immunität hinterlässt, die sich auf die betreffende Erkrankung beschränkt. Das Suchen nach der Ursache der merkwürdigen Erscheinung führte zur Auffindung eigenartiger Stoffe im Blutserum, der sogenannten Antikörper, die zum Teil als Schutzstoffe fungieren und außer infolge von Infektionen auch nach Injektion gewisser von Bakterien, höheren Pflanzen und Tieren stammender hochmolekularer Gifte (Toxine) und abgetöteter Bakterien gebildet werden. Eine neue Ara serologischer Forschung begann mit der in erster Linie Bordet zu verdankenden Entdeckung, dass die Immunisierung gegen Mikrobien und Toxine nur ein besonderer Fall einer allgemeinen Gesetzmäßigkeit ist, und derselbe Mechanismus zur Wirkung kommt, wenn Tieren organische Materialien, die keine ausgesprochen schädliche Wirkung haben, wie artfremde Eiweißkörper oder Zellen, injiziert werden. Es entstehen auch dann Antikörper, welche die Zellen zusammenballen (Agglutinine) oder zerstören (Lysine) und die Eiweißkörper fällen (Präcipitine). Allen diesen Antikörpern ist die Eigenschaft der Spezifizität gemeinsam, d. i. einer Wirkung, die sich auf die für die Immunisierung benützten oder ihnen ähnliche Substanzen beschränkt, z. B. auf bestimmte Bakterien oder Blutkörperchen einer Spezies und der nahe verwandten Arten.

So war durch die Entdeckung der Präcipitine eine allgemeine Methode gefunden, Proteine zu differenzieren, die mit den zur Verfügung stehenden chemischen Verfahren nur schwierig oder nicht zu unterscheiden waren, und es zeigte sich, dass jede Art von Tieren und Pflanzen besondere und für die Spezies charakteristische Eiweißkörper besitzt.

Die Spezifizität der Antikörper, deren Wirkungsbereich, wie man jetzt weiß, weit über die Klasse der Proteine hinausreicht und auch einfach gebaute chemische Substanzen umfasst, ist die Grundlage der Erfolge der Serologie und neben der Frage der Antikörperbildung in theoretischer Beziehung ihr hauptsächlichstes Problem. Zum vollen Verständnis der spezifischen Serumreaktionen reichen die gegenwärtigen chemischen Theorien nicht aus, und man war bisher nicht im Stande, die serologischen Spezifizitätserscheinungen in Modellversuchen mit bekannten Substanzen nachzuahmen. Es handelt sich hier um ein besonderes Gebiet der Chemie, in das wahrscheinlich viele wichtige biochemische Reaktionen einzureihen sind. Als solche sind in erster Linie die Fermentwirkungen sowie die pharmakologischen und chemotherapeutischen Effekte zu nennen. Auf auslösende Vorgänge verwandter Art weist vielleicht die feine Differenzierung der durch chemische Reize angeregten Geschmacks- und Geruchsempfindungen hin.

Die Bezeichnung "Spezifizität" wird häufig benützt um auszudrücken, dass ein bestimmtes Immunserum nur auf eine, unter einer Anzahl biologisch ähnlicher Substanzen einwirkt, z. B. Tetanusantitoxin auf kein anderes als das von Tetanusbacillen produzierte Toxin. In Wirklichkeit ist, wie schon angedeutet, die Elektivität in der Regel nicht absolut, wenn Stoffe verwandter Herkunft mit einem Immunserum geprüft werden. Man spricht dann von Spezifizität in dem Sinne, dass die Reaktion mit einer der geprüften Substanzen, nämlich der zur Immunisierung verwendeten, dem sogenannten homologen Antigen, stärker ist als mit allen anderen. Auch diese Begriffsbestimmung ist aber zu enge, da sie eine Reihe von Erscheinungen nicht umfasst, die mit den Serumreaktionen in allen wesentlichen Punkten übereinstimmen."


Weiterführende Links

Blutgruppen - Karl Landsteiner - Meilensteine der Naturwissenschaft und Technik (Video 14:42 min. Standard YouTube Lizenz)

Biographie Karl Landsteiner Nobelpreis (1930)

Karl Landsteiner: On individual differences in human blood, Nobel Lecture (PDF-Download)

OeNB - Karl Landsteiner Biographie

inge Thu, 14.06.2018 - 08:34

Wie neue Gene entstehen - Evolution aus Zufallssequenzen

Wie neue Gene entstehen - Evolution aus Zufallssequenzen

Do, 07.06.2018 - 07:44 — Diethard Tautz Diethard TautzIcon BiologieWie entstehen in der Evolution neue Gene? Lange nahm man an, dass dies nur durch Duplikation und Rekombination existierender Gene möglich ist. Der Genetiker Diethard Tautz, Direktor am Max-Planck-Institut für Evolutionsbiologie, zeigt nun an Hand eines Evolutionsexperiments, dass ein großer Teil zufällig zusammengesetzter Proteine das Wachstum von Zellen positiv oder negativ beeinflussen kann. Mit diesem Ergebnis lässt sich erklären, wie Gene auch aus nicht-kodierender DNA im Genom entstehen können. Gleichzeitig eröffnet sich damit eine praktisch unerschöpfliche Quelle für neue bioaktive Moleküle für pharmakologische und biotechnologische Anwendungen.*

Entstehung neuer Gene

Die Genome höherer Organismen enthalten rund 20.000 bis 40.000 Gene, die transkribiert werden und unterschiedliche Proteine kodieren. Viele dieser Gene haben einen gemeinsamen evolutionären Ursprung, der sich aus Sequenzähnlichkeiten ablesen lässt. Aber für circa ein Drittel der Gene ist dies nicht der Fall, sie werden nur in einzelnen evolutionären Linien gefunden. Da ihr genauer Ursprung unklar ist, werden sie meist als Waisen, im englischen als orphans, bezeichnet. Die Frage, wie neue Gene entstehen und sich evolutionär weiter entwickeln können, wird seit fast einhundert Jahren diskutiert. Grundsätzlich sind zwei Möglichkeiten denkbar.

  • Die erste besagt, dass neue Gene durch Verdopplung bereits vorhandener Gene entstehen. Nach einer solchen Verdopplung kann eine Kopie die ursprüngliche Funktion aufrechterhalten, während die zweite Kopie Mutationen ansammelt, die dann letztlich zu einer neuen Funktion des Genprodukts führen können.
  • Die zweite Möglichkeit ist, dass neue Gene aus nichtkodierenden Bereichen des Genoms entstehen können. Die Genome höherer Organismen beinhalten nämlich neben den etablierten Genen auch sehr viel nicht-kodierende DNA, oft 90% und mehr. Wenn es innerhalb dieser Bereiche durch weitere Mutationen dazu kommt, dass ein Teil davon in RNA transkribiert wird, dann kann daraus potenziell eine neue Genfunktion entstehen.

Lange Zeit wurde angenommen, dass nur Duplikation und Divergenz zu neuen Genen führen kann. Duplikationen innerhalb von Chromosomen wurden schon Anfang des letzten Jahrhunderts beschrieben und mit der Entschlüsselung des genetischen Codes fand man, dass viele Gene in Genfamilien zusammengefasst werden können. Detaillierte Analysen zeigen, dass es nur rund 2000 Protein-Domänen gibt, die in verschiedenen Kombinationen wiederholt in mehreren Genen auftauchen. Solche Domänen bestehen aus circa 50 bis 100 Aminosäuren und nehmen bestimmte Faltungsstrukturen ein. Sie können sich auf verschiedene Art und Weise duplizieren und kombinieren und bilden damit sozusagen die Bausteine eines Genbaukastens. Im Jahr 1977 deklarierte der französische Nobelpreisträger Francois Jacob diese Art der Genentstehung zum generellen Prinzip [1]. In seinem Artikel "Evolution and tinkering" formulierte er, dass in der Natur Neues nur durch die Duplikation von Altem entsteht. Insbesondere schloss er aus, dass aus Zufalls-Sequenzen neue Informationen entstehen können. Denn wenn man die Größe einer Proteindomäne beispielsweise mit 75 Aminosäuren annimmt und in der Natur zwanzig verschiedene Aminosäuren genutzt werden, ergeben sich 2075 Kombinationsmöglichkeiten. Das ist eine Zahl, die größer ist als die geschätzte Zahl der Atome im Universum - wie sollte also da durch Zufall eine bestimmte funktionale Gensequenz entstehen? Wenn aber Neues nur aus der Kombination von Altem entsteht, dann lautet die berechtigte Frage, woher das "Alte" eigentlich kommt. Jacob schlug vor, dass es in der Anfangszeit der Entstehung des Lebens biochemische Bedingungen gegeben haben muss, die es erlaubten, dass diese ersten Bausteine des Lebens entstanden.

Diesen an sich schlüssigen Überlegungen stehen jetzt aktuelle Befunde entgegen, nämlich dass es dennoch auch zur de novo Evolution von neuen Genen aus nicht-kodierenden Sequenzen kommen kann [2, 3]. Tatsächlich steckt in der Überlegung ein Denkfehler. Denn obwohl es eine scheinbar unendlich große Kombinationsmöglichkeit von Aminosäuren gibt, könnte es sein, dass ein großer Anteil dieser Kombinationen bereits bestimmte Funktionen besitzt. Forscherinnen und Forscher der Abteilung für Evolutionsgenetik haben daher ein Evolutionsexperiment durchgeführt, in dem die Frage gestellt wurde, welcher Anteil von Zufallssequenzen vielleicht schon eine Funktion in Zellen hat [4].

Experimenteller Ansatz

Das Experiment wurde mit Bakterien (Escherichia coli) durchgeführt. Dazu wurde mithilfe eines Plasmid-Vektors eine Genbibliothek etabliert, die einige Millionen Varianten eines 65 Aminosäure langen Proteins exprimiert. Fünfzig der Aminosäuren innerhalb dieses Proteins bestanden aus Zufallssequenzen (Abbildung 1). Diese Bibliothek wurde in die Zellen transformiert, sodass jede Zelle nur eine der Varianten exprimiert. Lässt man diese Zellen gemeinsam wachsen, dann würden alle Zellen, in denen die Expression des neuen Proteins keinen Einfluss hat, gleich schnell wachsen, während Zellen, in denen das neue Protein einen Vorteil oder Nachteil bringt, schneller oder langsamer wachsen. Abb. 1: Experiment zur Expression von Proteinen mit zufälliger Sequenz. Im oberen Teil ist schematisch die Konstruktion des Vektors abgebildet. Die Expression erfolgt durch einen induzierbaren Promotor. Der offene Leserahmen beginnt mit dem Startcodon M und drei weiteren vorgegeben Aminosäuren. Danach kommen 50 Aminosäuren (im Einbuchstaben-Code, siehe z.B. Wikipedia; Anm. Redn.) in zufälliger Reihenfolge und zum Schluss weitere elf Aminosäuren mit vorgegebener Sequenz. Darunter sind 15 tatsächliche Sequenzen gezeigt, wobei die Punkte identische Aminosäuren aus der ersten Reihe symbolisieren. Rechts ist das Ergebnis eines der Experimente gezeigt. Die X-Achse repräsentiert den Grad der Veränderung im Wachstum der Klone (log2 Maßstab), die Y-Achse die relative Häufigkeit des Vorkommens eines Klons im Experiment (log10 Maßstab). Rot sind diejenigen Klone dargestellt, die eine signifikante Verlangsamung des Wachstums zeigen, und grün diejenigen Klone, die eine signifikante Beschleunigung des Wachstums zeigen. Klone ohne signifikante Veränderung sind schwarz dargestellt. © Max-Planck-Institut für Evolutionsbiologie/Tautz

Das Experiment wurde in sieben Variationen wiederholt und ergab sehr konsistente Ergebnisse. Bis zu 52% der Sequenzen hatten einen negativen Effekt auf das Wachstum, bis zu 25% aber hatten einen positiven Effekt. Dies lässt darauf schließen, dass Zufallssequenzen tatsächlich oft eine Funktion in der Zelle haben können, die für die evolutionäre Fitness relevant ist. Die oben angestellte Rechnung ist daher zu relativieren: Es ist durchaus zu erwarten, dass aus nicht-kodierenden Regionen des Genoms Gene mit neuer Funktion entstehen können. Interessanterweise ergab ein vergleichbares Experiment mit der Modellpflanze Arabidopsis ein sehr ähnliches Ergebnis [5].

Ausblick

Mit dem Nachweis, dass Zufallssequenzen von Proteinen einen Effekt auf Wachstum und Zellteilung haben können, kann die Evolution der orphan Gene erklärt werden. Zudem ergeben sich auch praktische Konsequenzen. Bisher basiert ein Großteil der pharmakologischen Wirkstoff-Forschung auf dem Screening von chemisch synthetisierten Molekülen. Mit der Entdeckung der Funktionalität biologisch hergestellter Zufallssequenzen erschließt sich eine neue, nahezu unendliche Quelle von möglichen neuen Wirkstoffen. Zum Beispiel könnten negativ wirkende Proteine als Antibiotika oder Zytostatika fungieren und positiv wirkende Proteine die Ausbeute biotechnologischer Verfahren erhöhen.


* Der Artikel erscheint unter dem Titel: "Evolution von Genen aus Zufallssequenzen " im Jahrbuch 2018 der Max-Planck-Gesellschaft (https://www.mpg.de/11817314/_jb_2018?c=153370). Er wurde mit freundlicher Zustimmung des Autors und der MPG-Pressestelle dem ScienceBlog zur Verfügung gestellt. Der Artikel erscheint ungekürzt, allerdings ohne die nicht frei zugänglichen Zitate ([1] - [5]; diese sind im Original ersichtlich, Literatur kann auf Wunsch zugesandt werden).


Weiterführende Links

Max-Planck-Institut für Evolutionsbiologie http://www.evolbio.mpg.de/

Where do genes come from? - Carl Zimmer (2014) TED-Ed Video 4:23 min. https://www.youtube.com/watch?v=z9HIYjRRaDE Standard YouTube Lizenz

Diethard Tautz, Do New Genes Stem From the Non-Coding Part of the Genome During Fast Adaptation Processes? LT Video Publication DOI: https://doi.org/10.21036./LTPUB10468;

Artikel im ScienceBlog


 

inge Thu, 07.06.2018 - 07:44

Klimamodelle: von einfachen zu hoch komplexen Modellen

Klimamodelle: von einfachen zu hoch komplexen Modellen

Do, 31.05.2018 - 09:57 — Carbon Brief Carbon BriefIcon MINT

Um künftige Klimaänderungen abschätzen und Maßnahmen zu deren Milderung treffen zu können, sind möglichst aussagekräftige Klimamodelle unabdingbar. Wissenschaftler haben in den letzten Jahrzehnten ein breites Spektrum an derartigen Modellen entwickelt, die von einfachsten Arten bis - dank enorm gestiegener Rechnerleistung - zu hochkomplexen Erdsystemmodellen reichen, die auch biogeochemische Kreisläufe und gesellschaftliche Aspekte von Bevölkerung, Wirtschaftswachstum und Energieverbrauch mit einbeziehen. Über diese verschiedenen Arten informiert hier die britische Plattform Carbon Brief. In Fortsetzung von [1] ist dies der zweite Teil einer umfassenden, leicht verständlichen Artikelserie "Q&A: How do climate models work?"*

Von einfachen Energiebilanzmodellen...

Die ältesten und einfachsten numerischen Klimamodelle sind Energiebilanzmodelle (Energy Balance Models -EBMs). Diese Energiebilanzmodelle sind nicht in der Lage das Klima abzubilden, sie bestimmen bloß die Bilanz aus der Energie, die von der Sonne in die Erdatmosphäre eingestrahlt wird, und der Wärme, die zurück in den Weltraum abgestrahlt wird. Als einzige Klimavariable berechnen sie die Temperatur an der Erdoberfläche (global gemittelt und in Bodennähe; Anm. Redn). Die einfachsten Energiebilanzmodelle benötigen nur wenige Zeilen Computercode und lassen sich in Form einfacher Tabellen ausführen.

Derartige Modelle sind häufig "nulldimensional", das bedeutet, dass sie die Erde als Ganzes wie einen einzelnen Punkt behandeln. Es gibt auch eindimensionale Modelle, beispielsweise solche, die zusätzlich den meridionalen - d.i. horizontal quer über verschiedene Breitengrade der Erdoberfläche (vorwiegend vom Äquator zu den Polen) verlaufenden - Energietransport berücksichtigen.

...über Strahlungskonvektionsmodelle,...

Von den Energiebilanzmodellen geht es im nächsten Schritt zu den Strahlungskonvektionsmodellen (Radiative Convective Models - RCMs), die den Energietransport in die Höhe der Atmosphäre simulieren - zum Beispiel durch Konvektion, da warme Luft aufsteigt. (Konvektion: Energie wird über den Transport von Masse übertragen; Anm. Redn.) Strahlungskonvektionsmodelle können die Temperatur und Feuchtigkeit in verschiedenen Schichten der Atmosphäre berechnen. Diese Modelle sind typischerweise eindimensional - berücksichtigen dabei nur den Energietransport in die Atmosphäre hinauf - sie können aber auch zweidimensional sein.

...Globale Zirkulationsmodelle,...

Auf der nächsthöheren Ebene finden sich die sogenannten Allgemeinen Zirkulationsmodelle (General Circulation Models -GCMs). Diese, auch als Globale Klimamodelle bezeichneten Modelle simulieren die physikalischen Prozesse des Klimasystems. Dies bedeutet, sie erfassen die Strömungen von Luft und Wasser in der Atmosphäre und/oder den Ozeanen, ebenso wie den Wärmetransfer. Anfänglich haben Globale Klimamodelle jeweils nur einen Aspekt des Erdsystems simuliert - etwa in "Nur Atmosphäre" oder "Nur-Ozean"-Modellen. Es waren jedoch dreidimensionale Simulationen in dutzenden Modellschichten - viele Kilometer hinauf in die Höhe der Atmosphäre oder hinab in die Tiefe der Ozeane.

...Gekoppelte Modelle,...

Diese verschiedenen Aspekte wurden in anspruchsvolleren gekoppelten Modellen dann zusammengeführt und zahlreiche Modelle miteinander verknüpft, um so eine umfassende Darstellung des Klimasystems zu schaffen. Beispielsweise können Gekoppelte Atmosphäre-Ozean-Zirkulationsmodelle (oder "AOGCMs") den Austausch von Wärme und Wasser zwischen der Land- und Meeresoberfläche und der darüber liegenden Luft abbilden.

Die folgende Abbildung 1 zeigt, wie die Klimamodellierer über die letzten Jahrzehnte hin schrittweise einzelne Modell-Module in globale gekoppelte Modelle integriert haben.

Abbildung 1. Wie sich die Klimamodelle von einfachen Energiebilanzmodellen zu komplexen Globalen Gekoppelten Modellen entwickelt haben. Seit Jahrzehnten nutzen Wissenschaftler mathematische Modelle (blau), um mehr über das Klimasystem der Erde zu lernen. Diese Klimamodelle werden von den physikalischen Prozessen in Atmosphäre und Ozeanen und dem Kreislauf chemischer Substanzen zwischen Lebewesen und Umwelt gesteuert. Indem sich eigenständige Subsysteme (Modelle für Atmosphäre, Ozean, Meereis, Aerosole, etc.) zu gekoppelten Systemen (grün) vereinigten, wurden die Modelle im Laufe der Zeit immer komplexer. (Grafik:Rosamund Pearce; basierend auf den Arbeiten von Dr Gavin Schmidt.)

Im Laufe der Zeit haben die Wissenschaftler dann die Allgemeinen Zirkulationsmodelle schrittweise um andere, ehemals eigenständige Modelle des Erdsystems erweitert - wie beispielsweise Modelle für Landhydrologie, Meereis und Landeis.

...zu Erdsystemmodellen,...

Das neueste Subsystem der Globalen Klimamodelle erfasst jetzt biogeochemische Kreisläufe - den Transfer von chemischen Substanzen zwischen Lebewesen und ihrer Umwelt - und wie diese mit dem Klimasystem interagieren. Diese "Erdsystem Modelle" (ESMs) können den Kohlenstoffkreislauf, den Stickstoffkreislauf, die Atmosphärenchemie, die Meeresökologie und Veränderungen in Vegetation und Landnutzung simulieren - alle diese Systeme haben einen Einfluss darauf, wie das Klima auf die vom Menschen verursachten Treibhausgasemissionen reagiert. Man hat hier die Pflanzenwelt, die auf Temperatur und Niederschlag reagiert und im Gegenzug Aufnahme und Freisetzung von CO2 und anderen Treibhausgasen in die Atmosphäre verändert.

Pete Smith, Professor für Böden und globalen Wandel an der Universität von Aberdeen, beschreibt Erdsystemmodelle als "auffrisierte" Versionen der globalen Klimamodellen:

"Die Globalen Klimamodelle waren die Modelle, die man vielleicht in den 1980er Jahren verwendet hatte. Da diese Modelle größtenteils von den Atmosphärenphysikern gebaut wurden, ging dementsprechend alles um die Erhaltung von Energie, von Masse und von Wasser und um die Physik ihrer Transportprozesse. Die Darstellung, wie die Atmosphäre dann mit dem Ozean und der Landoberfläche interagiert, war allerdings ziemlich mäßig. Dagegen versucht ein Erdsystemmodell diese Wechselwirkungen mit der Landoberfläche und mit den Ozeanen zu integrieren - man kann es also als eine "auffrisierte" Version eines globalen Klimamodells betrachten."

...Regionalen Klimamodellen...

Weiters gibt es Regionale Klimamodelle ("RCMs"), die ähnlich fungieren wie die Globalen Klimamodelle, allerdings nur für einen begrenzten Abschnitt der Erde gelten. Weil sie einen kleinere Fläche abdecken, können Regionale Klimamodelle im Allgemeinen schneller und mit einer höheren Auflösung als Globale Klimamodelle ausgeführt werden. Ein Modell mit hoher Auflösung hat kleinere Gitterzellen und kann daher Klimainformationen für ein bestimmtes Gebiet detaillierter erstellen. Regionale Klimamodelle bieten eine Möglichkeit, um globale Klimainformationen auf eine lokale Skala zu reduzieren. Dies bedeutet, dass man Informationen, die von einem Globalen Klimamodell oder Beobachtungen in grobem Maßstab stammen, nimmt und auf einen bestimmten Bereich oder eine Region anwendet.

...und schliesslich Integrierten Bewertungsmodellen (Integrated Assessment Models - IAMs)

Ein Subsystem der Klimamodellierung hat schließlich Integrierte Bewertungsmodelle (Integrated Assessment Models - IAMs) zum Gegenstand. Diese beziehen Aspekte der Gesellschaft in ein einfaches Klimamodell ein, indem sie simulieren, wie Bevölkerung, Wirtschaftswachstum und Energieverbrauch das physikalische Klima beeinflussen und mit ihm wechselwirken.

Integrierte Bewertungsmodelle erzeugen Szenarien zu den künftig möglichen Änderungen der Treibhausgasemissionen. Die Wissenschaftler spielen diese Szenarien dann in Erdsystemmodellen durch, um Prognosen zum Klimawandel zu erstellen - sie bieten damit Informationen, die weltweit zur Orientierung von Klima- und Energiepolitik genutzt werden können.

In der Klimaforschung werden Integrierte Bewertungsmodelle üblicherweise verwendet, um Prognosen über künftige Treibhausgasemissionen zu erstellen und Vorteile und Kosten politischer Optionen abzuschätzen, um mit diesen Emissionen zurecht zu kommen. Beispielsweise werden so die "sozialen Kosten der CO2-Emisssionen" ("social cost of carbon") abgeschätzt - d.i. der monetäre Gegenwert von sowohl positiven als auch negativen Auswirkungen, die jede zusätzlich emittierte Tonne CO2 verursacht.


[1] Teil 1: "Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung" ist am 19. April 2018 im ScienceBlog erschienen (http://scienceblog.at/was-sie-schon-immer-%C3%BCber-klimamodelle-wissen-wollten-%E2%80%93-eine-einf%C3%BChrung#)


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen (https://www.carbonbrief.org/qa-how-do-climate-models-work). Unter dem Titel "What are the different types of climate models? ) ist es der 2. Teil einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde. Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief - https://www.carbonbrief.org/ - ist eine britische Website, welche die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von Seiten der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Peter Lemke: Dossier: Die Wetter- und Klimamaschine http://www.klimafakten.de/klimawissenschaft/dossier-die-wetter-und-klima...

Alfred-Wegener Institut, Helmholtz Zentrum für Polar-und Meeresforschung: Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen (13.5.2016). Video 7:24 min (2016). https://www.youtube.com/watch?v=tqLlmmkLa-s

Klimamodelle: http://wiki.bildungsserver.de/klimawandel/index.php/Klimamodelle

Max-Planck Institut für Meteorologie: Überblick. http://www.mpimet.mpg.de/wissenschaft/ueberblick/

Max-Planck-Gesellschaft: Klimamodelle - die Welt im Computer (26.10.2015), Video 5:05 min. https://www.youtube.com/watch?reload=9&time_continue=51&v=ouPRMLirt5k. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klimamodelle - Wärmepumpe Ozean (26.10.2015), Video 9:27 min. https://www.youtube.com/watch?v=jVwSxx-TWT8. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima – der Kohlenstoffkreislauf (1.6.2015), Video 5:25 min. https://www.youtube.com/watch?v=KX0mpvA0g0c. Standard YouTube Lizenz.

Max-Planck-Gesellschaft: Klima - der Atem der Erde (1.6.2015), Video 9:00 min https://www.youtube.com/watch?v=aRpax... (Anmerkung: Es hat sich leider ein kleiner Grafik-Fehler in den Film eingeschlichen: CO2 ist natürlich ein lineares Molekül, kein gewinkeltes!). Standard YouTube Lizenz

Max-Planck-Gesellschaft: Meereis - die Arktis im Klimawandel. (8.6.2016), Video 6:40 min. https://www.youtube.com/watch?v=w77q4Oa9UK8. Standard YouTube Lizenz.


Artikel im ScienceBlog


 

inge Thu, 31.05.2018 - 09:57

Auf dem Weg zu einer Medizin der Zukunft

Auf dem Weg zu einer Medizin der Zukunft

Do, 24.05.2018 - 12:32 — Norbert Bischofberger Norbert BischofbergerIcon MedizinWir erleben in der Medizin einen Paradigmenwechsel. Rasante Fortschritte im Management von "Big Data" und in diversen analytischen Verfahren werden zu einer neuen Daten-gesteuerten Medizin führen, die ein verbessertes Verstehen von Krankheitsursachen ermöglicht und Therapien entsprechend dem individuellen genetischen und epigenetischen Status eines Patienten. Der Chemiker Norbert Bischofberger bis April 2018 Forschungsleiter von Gilead (2017: Nummer 6 unter den Top 10 Pharmakonzernen) und dzt. Präsident des Startups Kronos Bio- zeigt den Weg zu einer Medizin von Morgen.*

Wohin wird sich die Medizin weiter entwickeln, was lässt sich bereits heute absehen?

Die Medizin von Heute

Ein Charakteristikum der Medizin von heute ist bereits an der Art und Weise erkennbar, wie sie an medizinischen Hochschulen gelehrt wird: es wird eingeteilt nach Körper-Systemen, es gibt den Spezialisten für die Leber, einen anderen für das Herz-Kreislaufsystem, wieder einen anderen für die Lunge, für das Zentralnervensystem usw.

Was die Diagnose betrifft, so erfolgt sie heute auf Grund von Symptomen und von Laborbefunden, die von der Norm - dem statistischen Mittelwert - abweichen. Dies bedeutet beispielweise im Fall der rheumatoiden Arthritis eine Diagnose auf Grund von geschwollenen Gelenken und eines erhöhten CRP-Wertes (CRP: c-reaktives Protein, ein unspezifischer Entzündungsparameter; Anm. Redn). Dazu möchte ich anmerken, dass die sogenannten Normalbereiche von Laborwerten statistisch erhoben werden. In diese Normalbereiche passen 95 % der an einer großen Population erhobenen Messwerte; ein Messwerts der den oberen Grenzwert signifikant überschreitet - beispielsweise ein 2 x höherer Wert des Leberenzyms - wird als anormal betrachtet.

"One size fits all‘ – eine Größe passt für alle

Die Entwicklung von Arzneimitteln ist bis jetzt im Wesentlichen nach dem Schema "one size fits all" erfolgt - quer durch die Bevölkerung, ohne Berücksichtigung von Alter, Geschlecht, ethnischer Zugehörigkeit etc.

Von "one size fits all" gibt es bislang nur einige wenige Ausnahmen und diese sind hauptsächlich in der Onkologie zu finden. Ein Beispiel ist Imatinib (Gleevec), das bereits vor fast rund 2 Jahrzehnten zur Behandlung der chronischen myelogenen Leukämie zugelassen wurde. Gleevec blockiert hier das bei mehr als 90 % der Patienten vorhandene Fusionsprotein BCR-ABL, das ein unkontrolliertes Wachstum der weißen Blutkörperchen verursacht. Ein weiteres Beispiel ist der Antikörper Trastuzumab (Herceptin): dieser blockiert den auf manchen Krebszellen sitzenden Wachstumsfaktor-Rezeptor HER2 und wird bei HER2 positivem Brustkrebs (rund 20 % der Brustkrebsfälle) eingesetzt. In beiden Fällen handelt es sich um Medikamente, die auf definierte Körperteile/Organe wirken.

Aus der jüngsten Zeit stammt eine weitere Ausnahme: der Antikörper Pembrolizumab. Meines Wissens nach ist dies das erste Mal, dass die amerikanische Gesundheitsbehörde FDA ein Medikament zugelassen hat, das nicht auf einen Tumor (z.B. Colon Ca, Brustkrebs) spezifisch wirkt, sondern breit auf alle Tumoren angewandt werden kann, die bestimmte genetische Anomalien aufweisen.

Warum ist die Medizin (noch) auf Symptomatik ausgerichtet, warum vertrauen wir auf statistische Mittelwerte, warum behandeln wir entsprechend definierter Systeme/Organe unseres Körpers? Das ist, weil wir unglaublich komplex sind. (Abbildung 1).

Abbildung 1: Die menschliche Komplexität wird durch unser genetisches Rüstzeug, durch die Umgebung, in der wir leben und durch unsere Lebensführung bedingt.

Zur Komplexität des Menschen

Komplex ist zum Ersten unser ererbtes, genetisch determiniertes Rüstzeug. Wir besitzen 2 Sets von jeweils 23 Chromosomen und unser Genom setzt sich aus 3,2 Milliarden Basenpaaren zusammen.

Darauf baut die Epigenetik auf. Ohne die in den Genen gespeicherte Information zu beeinflussen, wird - epigenetisch - mittels chemischer Markierungen (Einführung von Methylgruppen) an der DNA, an ihren Gerüstproteinen und an RNAs die Expression der einzelnen Gene und damit die Entwicklung und Steuerung von Körperzellen und deren weiteres Geschick bestimmt.

Dazu kommt dann die Ebene des Transkriptoms, das alle von der DNA in RNA umgeschriebenen (20 000 -25 000) Gene enthält und auch wie die Transkription reguliert wird u.a.m.

Überaus komplex ist auch das, was mit uns lebt, was uns umgibt: das Mikrobiom -Mikroorganismen in uns und um uns herum, die an Zahl die rund 30 Billionen Körperzellen noch übertreffen. Wesentlich zur Komplexität trägt auch unser Lebensstil bei, d.i. wovon wir uns ernähren, welche Schadstoffe wir aufnehmen, wie wir uns bewegen etc.

Bis jetzt war es praktisch unmöglich alle diese hochkomplexen Systeme zusammenzubringen. Wir stehen nun aber am

Beginn einer neuen Daten-gesteuerten Medizin von Morgen

Die Möglichkeit riesige Datenmengen - Big Data - zu speichern und zu verarbeiten und die enorme Effizienzsteigerung und Kostenreduktion neuer analytischer Verfahren lassen uns unglaubliche Durchbrüche erleben, welche die Basis für ein neues Zeitalter einer Daten-gesteuerten Medizin bilden. Triebkräfte sind hier vor allem die Fortschritte

  • in der Sequenzierung der DNA,
  • im Überwachen physiologischer und umweltbedingter Vorgänge,
  • in bildgebenden Verfahren und in der Informationstechnologie,
  • und insbesondere in der künstlichen Intelligenz

Megatrends in vielen großen Disziplinen der modernen Systembiologie

sind zu erwarten und zeichnen sich bereits jetzt ab: von der Genomik und Transkriptomik (s.u.) über die Proteomik (die Gesamtheit aller zu einem Zeitpunkt in einem System exprimierten Proteine), die Metabolomik (Gesamtheit aller zu einem Zeitpunkt in einem System vorhandenen Stoffwechselprodukte), den Immunstatus und die Epigenetik bis hin zum Mikrobiom (s.u.).

Beginnen wir mit dem Megatrend Genomik,…

d.i, der systematischen Analyse unseres vollständigen Genoms. Das erste Humangenom-Projekt wurde von den US National Institutes of Health (NIH) finanziert. Sein Start erfolgte 1990, sein Abschluss wurde 2003 offiziell verkündet. Aus diesem Projekt gingen zwei zukunftsweisende Veröffentlichungen hervor, die 2001 - praktisch gleichzeitig - in den Topjournalen Nature und Science erschienen.

Seit damals gab es in dieser Disziplin unglaublich rasante Fortschritte.

Um dies zu veranschaulichen, möchte ich auf das sogenannte Moore'sche Gesetz eingehen: Diese, aus den 1970er Jahren stammende Voraussage von Gordon Moore besagt, dass die Zahl der auf einen Computerchip passenden Transistoren sich alle 18 Monate verdoppelt - eine Prognose die sich bis jetzt als völlig zutreffend erwiesen hat (Abbildung 2). Enthielt um 1970 ein Chip 1000 Transistoren, so sind es heute bereits 10 Milliarden (der Grund, warum heute Handys viel, viel mehr können als die größten Computer in den 1970ern).

Im Vergleich zur Entwicklung, welche die Sequenzierung des Humangenoms genommen hat, fällt der enorme Fortschritt in der Halbleiterindustrie aber geradezu bescheiden aus. Als das Humangenom 2001 sequenziert vorlag, hätte eine weitere Sequenzierung um die 100 Millionen Dollar verschlungen und bei einer dem Moore'schen Gesetz entsprechenden, weiteren Entwicklung würden die Kosten heute bei 1 Million Dollar liegen. Tatsächlich betragen sie aber nur mehr wenige Tausend Dollar und werden in den nächsten Jahren auf wenige 100 Dollar weiter sinken (Abbildung 2).

Abbildung 2. Der rasante Fortschritt in der Halbleiterindustrie folgt dem Moore'schen Gesetz, d.i. es tritt eine Verdopplung der Transistoren pro Chip alle 18 Monate ein (rote Punkte sind Intel Transistoren). Noch schneller verlief die Entwicklung effizienterer Verfahren zur DNA-Sequenzierung und die Reduktion der anfallenden Kosten.

…und ihrer Bedeutung für die Medizin

Primär wird die Genomik zu einem verbesserten Verstehen von Erkrankungen und wirksameren Therapien führen. Bereits heute werden pränatale Diagnosen erstellt; die Untersuchung des Fruchtwassers von Schwangeren ermöglicht die Analyse der fötalen DNA.

Auf der Basis der Genom-Analysen wird eine Neu-Klassifizierung von Krankheiten stattfinden -nach Ursachen und nicht mehr nur nach Symptomen und anormalen Laborbefunden (wie im oben erwähnten Beispiel der rheumatoiden Arthritis, aus der dann möglicherweise 10 unterschiedliche Krankheitsbilder werden). Eine Klassifizierung der sogenannten Seltenen Erkrankungen (Orphan Diseases) ist bereits erfolgt.

Es sind neue Disziplinen entstanden: die Pharmakogenomik, d.i. der Einfluss des persönlichen Genoms auf die Wirkung von Arzneimitteln, und Personal Genomics, der Zugang des Einzelnen zu seinem vollständigen Genom.

Megatrend Epigenetik: Die Horvath'sche Uhr verrät unser Alter

Wenn man jemanden fragt "wie alt sind Sie", wird die Antwort lauten" ich bin x Jahre alt". Das ist natürlich das chronologische Alter und wie wir wissen, ist chronologisches Alter nicht dasselbe wie biologisches Alter. Einige Leute altern rascher, andere schauen für ihr Alter noch relativ jung aus.

Interessanterweise spiegelt sich das biologische Alter im Epigenom wieder. Die Muster der epigenetischen Markierungen - Methylierungen - verändern sich mit dem Alter der Zellen. Dies hat der an der Universität von Los Angeles tätige Humangenetiker Steve Horvath festgestellt. Aus der Untersuchung von 353 Methylierungsstellen an der DNA hat Horvath einen mathematischen Algorithmus des Musters dieser Stellen entwickelt, der mit dem biologischen Alter korreliert und als sogenannte Horvathsche Uhr bezeichnet wird.

Auf Grund des Musters der 353 Stellen, kann man nun recht genau bestimmen, wie alt jemand tatsächlich ist. Eine positive Differenz zwischen chronologischem und biologischem Alter wird dann als "beschleunigtes Altern" definiert. Langsameres Altern trifft offensichtlich auf hundert (und mehr)jährige Menschen zu (Abbildung 3, links), beschleunigtes Altern ist bei vielen Krankheiten anzutreffen, beispielsweise sind HIV-Kranke im Mittel um 5 Jahre älter als die durchschnittliche Bevölkerung. (Abbildung 3, rechts)

Abbildung 3 . Die klinische Relevanz der Horvath'schen Uhr. Auf Grund des epigenetischen Methylierungsmusters kann das biologische Alter recht genau bestimmt werden. Links: Hundertjährige altern um einige Jahre langsamer als die Normalbevölkerung. Rechts: Die epigenetische Alterung ist in zahlreichen chronischen Erkrankungen - wie beispielsweise HIV - beschleunigt1,2 und lässt die Lebenszeit voraussagen3.

Das Alter wird in Zukunft also neu definiert werden - also nicht wie alt wir unserer Geburtsurkunde nach sind, sondern wie alt wir biologisch sind. Dies hat auch Auswirkungen auf medizinische Behandlungen: beispielsweise vertragen ältere Menschen Chemotherapie wesentlich schlechter als jüngere.

Megatrend: das Mikrobiom

Es ist dies ein Trend der letzten 5 - 10 Jahre. Mikroorganismen in uns und um uns gibt es mehr als Körperzellen. Bis vor kurzem fehlten uns die Methoden um diese Systeme zu analysieren und die Datenflut zu managen. Nun aber können wir durch Sequenzierung der 16s-RNA beispielsweise in Speichel-, Haut- oder Stuhlproben recht einfach auf die Zusammensetzung des dortigen Mikrobioms schließen. Abbildung 4.

Abbildung 4. Der menschliche Organismus ist Wirt einer Vielfalt und Vielzahl an Mikroorganismen, die auch Einfluss auf unsere Stoffwechselvorgänge und Inzidenz für Krankheiten haben. Taxonomische Zusammensetzung der Prokaryoten an 10 Stellen (Habitaten) des Verdauungsystems, im Mund-/Rachenraum (9 Stellen: G1-G3) und in Stuhlproben(G4). Links: Stämme (Phyla) und Arten (Genera) in den Habitaten G1 - G4. Rechts: Kladogramm - phylogenetische Verwandschaft der Stämme. Quelle: Nicola Segata et al., Genome Biology 2012 13:R42; https://doi.org/10.1186/gb-2012-13-6-r42 (Lizenz: cc-by)

Was man heute dazu bereits aussagen kann:

  • zwischen der Genetik des Wirtsorganismus und der des Mikrobioms besteht keine Korrelation,
  • das Mikrobiom erklärt aber Parameter wie den Body-Mass-Index (BMI) und den Bauchumfang, den "Nüchternzucker" und Lipoproteine (HDL),
  • einige Erkrankungen sind mit einer reduzierten Bakteriendichte assoziiert (beispielsweise Asthma, rheumatoide Arthritis und entzündliche Darmerkrankungen (IBD))

Das Mikrobiom hat aber auch Einfluss auf Vorgänge, an die man so nicht gedacht hätte, Ein Beispiel ist die jüngst erfolgte Schilderung, wie Krebskranke - Melanom-Patienten - auf eine Behandlung mit sogenannten "checkpoint Inhibtioren" - immunstimulierenden Molekülen -, reagierten. Interessanterweise zeigte sich hier, dass Patienten mit einer hohen Diversität von Mikroorganismen wesentlich länger überlebten als solche mit einer mittleren oder niedrigen Diversität.

Fazit

Rasante Effizienzsteigerungen in neuen analytischen Verfahren und die Möglichkeit ungeheure Datenmengen zu speichern und zu verwerten, lassen uns nun einen Paradigmenwechsel in der Medizin erleben. A la longue werden wir von einer Diagnostik abkommen, die auf Grund von Symptomen und von der Norm abweichenden Laborbefunden erstellt wird und dazu gelangen, die überaus komplexe individuelle Situation des Patienten zu erfassen. Das bedeutet ein Abgehen von Therapien nach dem Schema "Eine Größe passt allen" hin zu einer zielgerichteten Behandlung, einer personalisierten Medizin.


* Dies ist die Einleitung zu einer Artikelserie des Autors, die sich im Teil 2 mit dem Einsatz künstlicher Intelligenz und der Bedeutung von "deep learning" auf die Medizin befassen wird und im dritten Teil an Hand der CAR-T Zell Therapie mit Beispielen für "Personalisierte Medizin". Über das gesamte Thema hat Norbert Bischofberger am 6. Dezember 2017 einen Vortrag "The future of medicine: Technology and personalized therapy" in der Österreichischen Akademie der Wissenschaften gehalten.


Weiterführende Links

  • Kronos Bio: http://www.kronosbio.com; "Pursuing therapies against some of the most intractable cancer targets"

  • Gilead Sciences:http://www.gilead.com/

  • Steve Horvath: Die Uhr des Lebens (2018) Video 03:57 Min. https://www.youtube.com/watch?v=5qQcUzTma74 Standard-YouTube-Lizenz
  • Interview with Dr. Steve Horvath (2017) Video 4:36 min. https://www.youtube.com/watch?v=iIP0OhzxmFM, Standard-YouTube-Lizenz

  • Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind Video 17:24 min. TED-Talk 2014 (deutsche Untertitel). https://www.ted.com/talks/rob_knight_how_our_microbes_make_us_who_we_are/transcript?language=de

  • Urs Jenal: Der Mensch und sein Mikrobiom.Weltenreise 2016 Video 23:49 min. https://www.youtube.com/watch?v=7S5-okH7Myo Standard-YouTube-Lizenz

Artikel im ScienceBlog:


 

inge Thu, 24.05.2018 - 00:32

Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Die Bevölkerungsentwicklung im 21. Jahrhundert - Szenarien, die Migration, Fertilität, Sterblichkeit, Bildung und Erwerbsbeteiligung berücksichtigen.

Do, 17.05.2018 - 15:43 — IIASA IIASAIcon Politik & Gesellschaft

Vor Kurzem ist eine faszinierende Zusammenstellung von Daten und darauf basierenden Prognosen, wie sich weltweit die Bevölkerung im 21. Jahrhundert entwickeln wird, erschienen [1]. Es ist dies eine Zusammenarbeit des Internationalen Instituts für angewandte Systemanalyse (IIASA) in Laxenburg bei Wien und der Gemeinsamen Forschungsstelle der Europäischen Kommission (JRC). Mittels Methoden multidimensionaler demografischer Analysen wurden Prognosen für eine Reihe möglicher Zukunftsszenarien erstellt, die nicht nur die Altersstruktur, Geburts- und Sterberaten der Bevölkerungen berücksichtigen sondern auch die Auswirkungen von Migration, Bildungsstrukturen und Erwerbsbeteiligung.*

Eben ist das Buch "Szenarien der Demografie und des Humankapitals im 21. Jahrhundert" (Demographic and human capital scenarios for the 21st century) erschienen [1]. Es ist das Werk des Kompetenzzentrums für Bevölkerung und Migration (Centre of Expertise on Population and Migration – CEPAM), einer Kooperation zwischen dem World Population Program des IIASA und dem Joint Research Centre (JRC) der Europäischen Kommission. Die CEPAM-Partnerschaft wurde ins Leben gerufen, um umfassend zu evaluieren, wodurch zukünftige Migration nach Europa verursacht werden wird und -zur Information der europäischen Politik ab 2019 -, um zu untersuchen, welche Auswirkungen alternative Migrationsszenarien haben würden. Das Buch bietet dafür eine essentielle Grundlage. Es dient auch als Aktualisierung zu einem früheren Buch, Weltbevölkerung und Humankapital im einundzwanzigsten Jahrhundert (World Population and Human Capital in the Twenty-First Century), das im Jahr 2014 veröffentlicht wurde [2].

Faktoren…

Wenn die Geburtenraten so niedrig sind, wie dies derzeit in Europa der Fall ist, wird die internationale Migration zum Hauptfaktor für das Bevölkerungswachstum. In Hinblick auf das Wirtschaftswachstum sind jedoch die Größe des Arbeitsmarkts und die Produktivität wichtiger. Frühere demografische Prognosen haben nur Alter und Geschlecht in der Bevölkerungsentwicklung berücksichtigt, in dieser neuen Studie werden dagegen auch Bildungsstand und Erwerbsbeteiligung in den EU-Mitgliedstaaten mit einbezogen.

…und Szenarien

Das Buch untersucht die Entwicklung der Bevölkerung in 201 verschiedenen Ländern (d.i. mehr als 99 % der Weltbevölkerung werden erfasst; Anm. Redn) basierend auf drei verschiedenen Szenarien der Migration, zusätzlich zu unterschiedlichen Szenarien für Fertilität, Mortalität und Bildung. (Anm. Redn.: Analog zu den Szenarien in der Klimaforschung werden hier sogenannte Shared Socioeconomic Pathways – SSPs definiert. SSP1 steht für rasche soziale Entwicklung assoziiert mit hoher Bildung und niedrigen Geburts- und Todesraten. SSP2 - der mittlere Weg - entspricht in etwa der Fortsetzung der derzeitigen Trends. SSP3 bedeutet stagnierende Entwicklung, assoziiert mit niedriger Bildung, hoher Fertilität und Todesrate und Armut.)

Das "mittlere" Szenario geht davon aus, dass die Wanderungsraten von ähnlicher Höhe sein werden, wie sie im Durchschnitt für jedes Land zwischen 1960 und 2015 beobachtet worden waren. Im Szenario "Doppelte Migration" wird eine zweifache Höhe der durchschnittlichen Ein- und Auswanderungsraten angenommen. Das Szenario "Null Migration" geht davon aus, dass keine Migration stattfindet.

Wie die Verfasser der Studie sagen, sind dies "naive" Szenarien; sie dienen eher als Anhaltspunkte, um die Auswirkungen von Migration auf die Bevölkerung zu verstehen als, dass sie realistische Prognosen wären.

"Migration sollte als integraler Bestandteil der Bevölkerungsdynamik gesehen werden. Deshalb betrachtet sie dieses Buch im Kontext alternativer möglicher Szenarien für alle Länder der Welt bis zum Ende dieses Jahrhunderts", sagt Wolfgang Lutz, Direktor des World Population Program des IIASA.

Entwicklung der Weltbevölkerung

Beispielsweise würde einem "mittleren" Szenario zufolge die Weltbevölkerung bis 2070-80 weiter steigen und ein Maximum von 9,8 Milliarden Menschen erreichen, bevor sie zu sinken beginnt. Abbildung 1 (von der Redaktion aus [1] eingefügt; blaue Kurven SSP2) Der Anstieg ist höher als in dem oben erwähnten, 2014 erschienen Buch [2] prognostiziert (schwarze Kurve WIC 2014 SSP2) und dies ist hauptsächlich auf einen schnelleren Rückgang der Kindersterblichkeit in Afrika zurückzuführen. Ein alternatives Szenario, das von einer raschen sozialen Entwicklung und insbesondere von einem besseren Bildungsniveau der Frauen ausgeht, würde zu einer Senkung der Geburtenraten führen, wobei 2055-60 eine Maximum der Bevölkerung von 8,9 Milliarden erreicht werden würde (grüne Kurve, SSP1). Stagnierende soziale Entwicklung und ein niedriges Bildungsniveau würden zu höheren Geburtenraten führen, der Anstieg der Bevölkerung würde sich über das gesamte Jahrhundert fortsetzen und 13,4 Milliarden im Jahr 2100 erreichen. Abbildung 1 (orange Kurve SSP3).

Abbildung 1. Prognosen für die Entwicklung der Weltbevölkerung im 21. Jahrhundert entsprechend den Szenarien SSP1 – SSP3 (siehe Anm Redn. oben) und 3 Migrationsszenarien. (Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

Unterschiedliche Gebiete

der Welt werden sich jedoch verschieden entwickeln. In der Europäischen Union wird die Bevölkerung entsprechend einem mittleren Szenario (SSP2; Anm. Redn.) bis 2035 geringfügig auf rund 512 Millionen Menschen anwachsen, und dies wird hauptsächlich auf die Zuwanderung zurückzuführen sein. Danach wird es einen Rückgang geben, da die Fertilitätsraten niedrig sind und eine deutliche Alterung zu beobachten ist. Abbildung 2 (von der Redaktion aus [1] eingefügt).

Abbildung 2. Die Entwicklung der Bevölkerung in den EU-28 Staaten bis 2060 entsprechend den Szenarien SSP1 – SSP3 (siehe Anm Redn. oben) und 3 Migrationsszenarien. (Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

Die verfügbaren Arbeitskräfte werden jedoch nicht notwendigerweise weniger werden, wenn die Erwerbsbeteiligung der Frauen steigt. Abbildung 3 (von der Redaktion aus [1] eingefügt).

Abbildung 3. Erwerbstätige in der Europäischen Union. Oben: Entwicklung der Gesamtzahl an Arbeitskräften in der EU bis 2060. Szenario SSP2 bei Null Migration, fortgesetzter durchschnittlicher Migration und doppelt so hoher Migration. Equalisation Szenario bedeutet, dass die Erwerbstätigkeit der Frauen die der Männer erreicht. im schwedischen Szenario gilt zusätzlich ein höheres Pensionsantrittsalter. Unten: Veränderung der Erwerbstätigkeit in Abhängigkeit von der Ausbildung. Szenario SSP2 bei fortgesetzter durchschnittlicher Migration. Der Anteil der Arbeitskräfte mit maximal Sekundärstufe-1 Ausbildung wird von 20, 6 % im Jahr 2015 bis auf 6, 5 % (2060) abnehmen. Dagegen werden 2060 knapp 60 % postsekundäre Ausbildung besitzen.(Die Abbildung wurde von der Redaktion aus [1] eingefügt und steht wie das gesamte Buch unter einer cc-by-nc-Lizenz.)

In der Subsahara-Zone Afrikas dürfte sich die Bevölkerung im mittleren Szenario (SSP2) bis 2060 auf rund 2,2 Milliarden Menschen verdoppeln. Bei stockender sozialer Entwicklung und fehlendem Ausbau von Schulen könnte diese Zahl sogar auf 2,7 Milliarden steigen. Dies würde wiederum zu weit verbreiteter Armut und hoher Gefährdung durch den Klimawandel führen und schwerwiegende Folgen einer möglichen Auswanderung nach sich ziehen.

Fazit

Die entwickelten Szenarien werden politischen Entscheidungsträgern dabei helfen, sich einer breiten Palette von Herausforderungen zu stellen, die von den wirtschaftlichen Folgen einer alternden Bevölkerung sich bis hin zur Festlegung von Entwicklungsprioritäten in Afrika erstrecken.

Nach Meinung der Autoren zeigen die Ergebnisse der CEPAM-Untersuchungen, dass Trends in der Bevölkerungsentwicklung innerhalb gewisser Grenzen kein Fixum sind und langfristig durch die Politik noch beeinflusst werden können. Kurzfristig gesehen ist es die Migration, auf die am einfachsten durch politische Maßnahmen eingewirkt werden kann.


[1] Lutz W, Goujon A, KC S, Stonawski M, Stilianakis N eds. (2018) Demographic and human capital scenarios for the 21st century. Luxembourg: Publications Office of the European Union [pure.iiasa.ac.at/id/eprint/15226/] . Das Buch ist open access und steht unter einer cc-by-nc-Lizenz.

[2] Lutz W, Butz WB, KC S (Hsg) (2014)World Population & Human Capital in the 21st Century. Executive Summary. http://pure.iiasa.ac.at/id/eprint/11189/1/XO-14-031.pdf


* Der von der Redaktion möglichst wortgetreu aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der IIASA-Presseaussendung am 18. April 2018 “New book looks at the future of population and migration " http://www.iiasa.ac.at/web/home/about/news/180418-lutz-demographics-book.html . IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt.

Der Text wurde von der Redaktion durch passende Abbildungen aus dem beschriebenen Buch Demographic and human capital scenarios for the 21st century [1] ergänzt.


Weiterführende Links

  • IIASA Policy Brief: Rethinking Population Policies. Why Education Makes a Decisive Difference.(2014) http://www.iiasa.ac.at/web/home/resources/publications/IIASAPolicyBriefs/pb11-web.pdf
  • Wolfgang Lutz: Population, Education and the Sustainable Development Goals (2016) Video: 12:29 min. https://www.youtube.com/watch?v=XsdnVeAGwPo. Standard YouTube Lizenz
  • Wolfgang Lutz: World population and human capital in the twenty-first century (2014). Video: 9:03 min. https://www.youtube.com/watch?v=oNI25eBPBmI. Standard YouTube Lizenz
  • Wolfgang Lutz: The Future Population of our Planet: Why Education Makes the Decisive Difference(2014). Video 22:28 min. https://www.youtube.com/watch?time_continue=5&v=IlKtMAMX-xA. Standard YouTube Lizenz

 

inge Thu, 17.05.2018 - 15:43

Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Anton Weichselbaum und das menschliche Mikrobiom - ein Vortrag vor 125 Jahren

Do, 10.05.2018 - 12:37 — Redaktion RedaktionIcon Biologie

Zu den Gebieten, die derzeit eine enorm dynamische Entwicklung durchmachen, gehört zweifellos die Erforschung des menschlichen Mikrobioms. Dieser Begriff umfasst die ungeheure Vielzahl und Vielfalt an Mikroorganismen, die in und auf unserem Organismus leben - als unschädliche, auch nützliche Partner aber ebenso als Pathogene.

Das Wissen um unser Zusammenleben mit Mikroorganismen ist nicht neu. Verbesserte experimentelle Methoden, insbesondere die Lichtmikroskopie, ermöglichten ab der zweiten Hälfte des 19. Jahrhunderts einen Blick in den Mikrokosmos der Mikroorganismen und führten auch zur Entdeckung vieler Krankheitserreger, wie etwa des Bacillus anthracis (des Erregers von Milzbrand) und des Tuberkelbazillus durch Robert Koch in den Jahren 1876 und 1882.

Abbildung 1. Prof.Anton Weichselbaum (1845 – 1920). (Eine Kurzbiographie findet sich in [1]. Bild: Wellcome M0006622.jpg; cc-by Lizenz)

Zu den Pionieren auf diesem Gebiet gehörte auch österreichische Pathologe Anton Weichselbaum (1845 - 1920). Abbildung 1. Als Professor für pathologische Anatomie an der Universität Wien führte er die Bakteriologie in diese Disziplin ein und erforschte Krankheitsursachen auf Basis anatomischer und histologischer Veränderungen und möglicher Erreger. So entdeckte er 1886 den Erreger der Lungenentzündung Streptococcus pneumoniae und im Jahr danach den Erreger der epidemischen, vor allem bei Kleinkindern auftretenden Hirnhautentzündung, Neisseria meningitidis. Er forschte auch an Tuberkulose, wies als erster Tuberkelbazillen im Blut von an TBC Verstorbenen nach und förderte die Errichtung der ersten Lungenheilstätte in Alland (Niederösterreich).

Weichselbaum hat seine Forschungsergebnisse in zahlreichen Publikationen und umfangreichen Handbüchern eindrucksvoll und in leicht verständlicher Sprache dargestellt. Ein Beispiel dafür ist der 1892 erschienene Grundriss der pathologischen Histologie [2].

In Anlehnung an eines der Buchkapitel hat Weichselbaum knapp ein Jahr später im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien"einen grandiosen Vortrag gehalten - ganz allgemein über die mit uns zusammenlebenden Bakterien und sehr detailliert über die damals bekannten pathogenen Bakterien und die durch sie ausgelösten Krankheiten [3]. Es wurde ein sehr, sehr langer Vortrag, der im Folgenden stark gekürzt und ohne die Schilderung der pathogenen Erreger wiedergegeben wird (Abbildungen und Untertitel wurden von der Redaktion eingefügt):

Anton Weichselbaum: Über die Bedeutung der Bakterien für den menschlichen Organismus.

gekürzte Version des Vortrags am 18. Jänner 1893 [3].

"Der erste, welcher von der Existenz jener mikroskopisch kleinen Lebewesen Kenntnis erlangte, war ein holländischer Forscher (Antoni van Leeuwenhoek, Anm. Redn.) zu Ende des 17. Jahrhunderts, welcher sie mit Hilfe von stark vergrößernden Linsen, die er sich selbst geschliffen hatte, in seinem Zahnschleime und später auch in anderen Flüssigkeiten sehen konnte; er hielt sie wegen der lebhaften Beweglichkeit für tierische Wesen.

Diese Entdeckung blieb lange Zeit unbeachtet; erst als gegen die Mitte dieses Jahrhunderts (19. Jh., Anm. Redn.)unsere optischen Instrumente wesentlich vervollkommnet wurden, lenkte sich die Aufmerksamkeit der Forscher mehr und mehr diesen unsichtbaren Lebewesen zu.

Da man die Bakterien in den verschiedensten Substraten gleichsam aus nichts hervorgehen sah, so glaubte man, sie entstünden durch sogenannte "Generatio aequivoca", d. h. man glaubte, sie gingen aus einer unorganisierten Materie hervor, wie man ja auch bezüglich der Maden im faulenden Fleische einmal geglaubt hatte, dass sie nicht aus Fliegeneiern, sondern aus irgend einem Bestandteile des Fleisches selbst entstünden. Es kostete viele Kämpfe, bis diese ganz unwissenschaftliche Anschauung über den Haufen geworfen werden konnte, und erst mit den exakten Methoden der neuesten Zeit war es möglich, den unumstößlichen Beweis zu erbringen, dass für die Entstehung der Bakterien das gleiche Naturgesetz gelte wie für alle übrigen belebten Wesen.

Überhaupt haben unsere Kenntnisse und Forschungen über die Bakterien erst im letzten Dezennium eine streng wissenschaftliche Basis erhalten, als nämlich unsere optischen Hilfsmittel von neuem eine bedeutende Verbesserung erfuhren und die ganze Untersuchungsmethodik eine viel exaktere geworden war.

Die Bakterien sind außerordentlich kleine,

pflanzliche Wesen, die auch in ihrem Aufbau die größtmögliche Einfachheit zeigen; jedes Bakterium besteht nämlich nur aus einer einzigen Zelle, während die höher organisierten Pflanzen, wie wir wissen, aus einem ganzen Komplex von verschiedenen Zellen und Zellderivaten zusammengesetzt sind. Der Breitendurchmesser eines Bakteriums beträgt häufig nur den tausendsten Teil eines Millimeters oder noch weniger, während die Länge etwa das Zwei- bis Dreifache der Breite erreicht. Die Bakterien können daher nur mit sehr starken Vergrößerungen, also deutlich nur mit einer etwa 1000 fachen Vergrößerung gesehen werden."Abbildung 2.

Abbildung 2. Tuberkelbakterien (Mycobacterium tuberculosis), elektronenmikroskopische Aufnahme. (Photo: gemeinfrei; Credit: Janice Carr Content Providers(s): CDC/ Dr. Ray Butler; Janice Carr)

Einteilung nach ihrer Form

"Wir sind nur wegen der Unvollständigkeit unserer Kenntnisse über Entstehung, Wachsthum und Fortpflanzung der Bakterien noch nicht im Stande, die Arten der Bakterien in ein ähnliches natürliches System zu bringen, wie dies bei den höher organisierten Pflanzen möglich ist; bei der Einteilung der Bakterien bringen wir sie zunächst nach ihrer Form in folgende drei Hauptgruppen" (Abbildung 3):

  1. "in solche, welche von kugeliger Gestalt sind (sogenannte Kokken);
  2. n solche, welche die Form eines geraden Stäbchens haben (sogenannte Bazillen);
  3. in solche, welche die Form eines schraubenartig gekrümmten Stäbchens besitzen (sogenannte Spirillen)".

 

Abbildung 3. Prinzipielle Formen der Bakterien: Kokken und Mikrokokken, stäbchenförmigebakterien und Spirillen. (Bild: p.163 in "Dictionnaire d'horticulture illustré / par D. Bois préface de Maxime Cornu avec la collaboration de E. André ... [et al.]." (1893) https://www.flickr.com/photos/internetarchivebookimages/20911975971/in/photostream/)

Teilung, Sporenbildung und…

"Jedes Bakterium wächst bis zu einer gewissen Größe; ist diese erreicht, so teilt es sich in zwei gleiche Hälften, von denen jede wieder ein neues Individuum darstellt. Bei gewissen Bakterien gibt es noch einen anderen Modus der Fortpflanzung. Es entsteht in der Bakterienzelle durch Verdichtung ihres Inhaltes ein rundes oder ovales Gebilde, welches bald eine sehr resistente Hülle erhält und Spore genannt wird. Später tritt die Spore aus der Bakterienzelle heraus und kann sich in dieser Form sehr lange Zeit und unter sehr ungünstigen äußeren Verhältnissen lebensfähig erhalten."

…Art der Ernährung

"Diese ist bei Bakterien ist wesentlich verschieden von jener der höher stehenden Pflanzen. Die Bakterien benötigen zwar auch für ihren Lebensprozess eine bestimmte Feuchtigkeit, eine bestimmte Temperatur, aber da ihnen in der Regel das Chlorophyll fehlt, so können sie nicht wie die chlorophyllhaltigen Pflanzen ihren Kohlenstoffbedarf durch Zerlegung von Kohlensäure decken, sondern sie benötigen hierzu bereits vorgebildete, komplizierte Kohlenstoffverbindungen. Sehr merkwürdig ist das Verhalten der Bakterien gegenüber dem Sauerstoffe der Luft. Während auf der einen Seite Bakterien den Sauerstoff unumgänglich notwendig zu ihrer Vegetation brauchen, treffen wir auf der anderen Seite Bakterien, die nur dann gedeihen können, wenn absolut kein Sauerstoff aus der Luft zu ihnen dringt - also in tieferen Schichten der Erde, des Meeres, der Seen, in den inneren Organen von Menschen und Tieren u.s. w. - und solche, die sowohl bei Zutritt als bei Abschluss von Luftsauerstoff zu leben vermögen."

"Diese Eigenschaften erklären uns auch die

…außerordentlich große Verbreitung der Bakterien

Sie finden sich allenthalben in der unbelebten und belebten Natur, in der Luft, im Wasser, im Eis, im Schnee, im Boden, aber ebenso in den verschiedensten pflanzlichen und tierischen Wesen, gleichgültig, ob diese leben oder bereits abgestorben sind.

Zu ihrer großen Verbreitung trägt noch ihre enorme Vermehrungsfähigkeit bei. Der Teilungsprozess läuft bei manchen Arten sehr rasch, mitunter schon in 20 Minuten ab. Würde diese Raschheit durch 24 Stunden andauern, so müssten in dieser Zeit aus einem einzigen Individuum 4700 Trillionen Bakterien entstehen. Eine solche schrankenlose Vermehrung müsste bald zu einer Überflutung der ganzen Erde mit Bakterien, ja zu einer Verdrängung aller anderen Lebewesen durch die Bakterien führen. Dafür, dass das Gleichgewicht in der organischen Welt durch die Bakterien nicht gestört werde, gibt es eine Reihe von Hemmungsvorrichtungen, welche einer schrankenlosen Vermehrung der Bakterien einen wirksamen Damm entgegensetzen. Erstlich finden die Bakterien nicht immer und überall jene Wärme, Feuchtigkeit und Nährstoffe, welche für ein rasches Wachstum und eine rasche Vermehrung notwendig sind. Ferner erzeugen die Bakterien durch ihren eigenen Lebensprozess Stoffe, die ihnen schädlich sind und ihre weitere Vermehrung aufhalten.

Wirkungen auf das organische Leben

Bekanntlich baut sich der Körper der Pflanzen und Tiere vorwiegend aus komplizierten, organischen Verbindungen, insbesondere aus Eiweißkörpern auf; durch das Absterben der Pflanzen und Tiere würden diese wichtigen Verbindungen für die organische Welt größtenteils verloren gehen. Eine Reihe von Bakterien erzeugen eigentümliche Körper, die wir Fermente oder Enzyme nennen, und die ihrer chemischen Konstitution nach den Eiweißkörpern nahe stehen. Diese Fermente sind im Stande, spezifische chemische Umwandlungen in bestimmten organischen Substanzen einzuleiten, diese in immer einfachere und schließlich in solche Körper zu zerlegen, welche von den Pflanzen als Nährstoffe benützt werden können. Dadurch, dass in den Pflanzen und Tieren durch ihren Stoffwechsel wieder die komplizierten Eiweißkörper gebildet werden, geht von der organischen Materie nichts verloren.

Die Bakterien bilden auf diese Art in dem geschlossenen Kreislaufe zwischen organischem Leben und Sterben ein äußerst wichtiges, ja unumgänglich notwendiges Verbindungsglied.

Von besonderer Wichtigkeit für uns ist aber, dass die Bakterien auch äußerst heftig wirkende Gifte produzieren können, die sehr mannigfaltiger Art zu sein scheinen. Schon bei jener Zersetzung organischer Körper, welche wir Fäulnis nennen, können von gewissen Bakterienarten Körper gebildet werden, welche für den Menschen sehr giftig sind; die schweren Krankheitserscheinungen, welche mitunter nach dem Genüsse von faulenden Fleischwaren und faulendem Käse beobachtet werden, sind ein Werk von bestimmten Fäulnisbakterien, die bei der Zersetzung der genannten Esswaren in diesen giftige Körper bilden und letztere durch den Genuss der betreffenden Esswaren in uns aufgenommen werden.

Noch wichtiger für uns sind jene spezifischen Gifte, welche in unserem Organismus selbst von bestimmten Bakterien, die zeitweilig im menschlichen Körper ihren Wohnsitz aufschlagen, erzeugt werden. Hiermit komme ich zum eigentlichen Gegenstande meines Vortrages, nämlich zur Erörterung der Bedeutung der Bakterien für den menschlichen Organismus.

Bakterien im menschlichen Organismus…

Ich muss aber noch vorausschicken, dass man die Bakterien bezüglich ihrer Lebensweise in zwei große Lager teilen kann, in saprophytische Bakterien, die auf toten organischen Substraten vegetieren und in parasitische Bakterien, die in lebenden Wesen sich ansiedeln. Gerade die letzteren sind für uns von besonderer Bedeutung, denn unter ihnen finden sich jene, welche bestimmte Krankheiten erzeugen können, und die wir deshalb als pathogene Bakterien bezeichnen.

Bei der allgemeinen Verbreitung der Bakterien darf es uns nicht Wunder nehmen, dass im Körper des lebenden Menschen viele Bakterienarten ihren bleibenden oder vorübergehenden Aufenthalt nehmen. Mit jedem Atemzuge, den wir machen, mit jedem Schluck Wasser, mit dem Genuss vieler anderer Getränke und Speisen, ja sogar mit der Muttermilch, welche der Neugeborene zu sich nimmt, dringen Bakterien in unseren Körper; daher kommt es, dass alle jene Körperhöhlen des Menschen, welche mit der Außenwelt kommunizieren, von zahlreichen Bakterien bewohnt werden.

Manche von diesen sind nur zufällig oder vorübergehend unsere Gäste; andere dagegen siedeln sich für lange Zeit oder selbst dauernd in uns an. Unter letzteren finden sich gewisse Arten, welche schon vom Beginne unseres Daseins bis zum Tode unzertrennlich an uns gekettet sind. Es gilt dies für den Menschen aller Zeiten und aller Erdstriche. So fand man in den Zähnen einer ägyptischen Mumie die gleichen Bakterienarten, wie sie noch heutzutage in unserer Mundhöhle vorzukommen pflegen.

Die Bedeutung der in uns zeitweilig oder andauernd residierenden Bakterien für den menschlichen Organismus ist sehr verschieden. Ein Teil dieser Bakterien verhält sich vollständig indifferent; er lebt einfach von dem Sekrete oder dem Inhalte gewisser Körperhöhlen, ohne seinem Wirte irgendwie zu schaden oder zu nützen.

Andere spielen insofern eine wichtige und wahrscheinlich auch nützliche Rolle, als sie sich an unserem Verdauungsprozess beteiligen, indem sie gewisse Fermente erzeugen: so ein Ferment für die Umwandlung von Stärke in Dextrin und Zucker, ein Ferment für die Auflösung geronnener Eiweißkörper u. a. m.

Unter Umständen können diese Bakterien aber auch schädlich werden, wenn sie sich nämlich in abnormer Menge anhäufen oder wenn die durch sie eingeleiteten Fermentationen übermäßig lang andauern.

Die bisher erwähnten Bakterien leben insgesamt saprophytisch im Menschen, d. h. sie ernähren sich bloß von toten organischen Substanzen, wie sie in der eingeführten Nahrung oder in gewissen Absonderungsstoffen des Organismus gegeben sind.

…als Verursacher von Infektionskrankheiten…

Anders aber ist es bei den pathogenen Bakterien, indem diese die lebenden Gewebe selbst angreifen und dadurch die Ursache bestimmter Krankheiten werden, welche man Infektionskrankheiten oder mit einem mehr populären Ausdrucke ansteckende Krankheiten nennt.

Schon in einer Zeit, in welcher man von den Bakterien kaum etwas wusste, waren einige scharfsinnige Forscher durch das eigentümliche Verhalten der ansteckenden Krankheiten zur Vermutung gekommen, dass die Ursache derselben kleinste lebende Organismen sein müssten. Doch erst in der allerjüngsten Zeit konnte diese Vermutung zur unumstößlichen Gewissheit erhoben werden, und zwar dadurch,

  • dass es gelang, diese Organismen bei den betreffenden Krankheiten konstant nachzuweisen (Abbildung 4),
  • dass es ferner gelang, sie künstlich zu kultivieren und
  • durch ihre Einverleibung bei Tieren und Menschen die gleichen Krankheiten hervorzurufen."

Abbildung 4. Typhusbazillen (d; Salmonella enterica) finden sich in der Milz in kleinen unregelmäßigen Gruppen (links). Membranbildung auf dem Gaumenzäpfchen mit Diphtheriebazillen (a; Corynebacterium diphtheriae) und Sekundärinfektion mit Streptokokken (c) (rechts). (Bilder stammen aus: A. Weichselbaum (1892) Grundriss der pathologischen Histologie [2]).

Dieses Gelingen muss als einer der größten Triumphe nicht etwa der medizinischen Wissenschaften allein, sondern der Naturwissenschaften und des menschlichen Wissens überhaupt bezeichnet werden, ein Triumph, welcher um so höher zu veranschlagen ist, als es sich um die Lösung eines Problems handelte, an welcher sich die Medizin schon durch viele Jahrhunderte vergeblich abgemüht hatte, und deren Tragweite von uns vorläufig noch gar nicht überblickt werden kann."


[1] Kurzbiographie https://www.wien.gv.at/wiki/index.php/Anton_Weichselbaum

[2] Anton Weichselbaum (1892): Grundriss der pathologischen Histologie: Mit besonderer Berücksichtigung der Untersuchungsmethodik. https://archive.org/stream/grundrissderpat00weicgoog#page/n0/mode/2up

[3] Anton Weichselbaum (1893): Über die Bedeutung der Bakterien für den menschlichen Organismus. http://www.zobodat.at/pdf/SVVNWK_33_0229-0266.pdf


Weiterführende Links

  • Robert Knight: Wie unsere Mikroben uns zu dem machen, wer wir sind Video 17:24 min. TED-Talk 2014 (deutsche Untertitel). https://www.ted.com/talks/rob_knight_how_our_microbes_make_us_who_we_are/transcript?language=de
  • Jonathan Eisen: meet your microbes Video 14:12 min. TED-Talk 2012. https://www.ted.com/talks/jonathan_eisen_meet_your_microbes TED2012

Artikel im ScienceBlog:


 

inge Thu, 10.05.2018 - 00:37

Nowitschok - Nervengift aus der Sicht eines Chemikers

Nowitschok - Nervengift aus der Sicht eines Chemikers

Do, 03.05.2018 - 22:06 — Inge Schuster

Inge SchusterIcon ChemieZwei Monate nach dem Anschlagmit einem Nervengift im englischen Salisbury ist es um die ganze Affäre relativ ruhig geworden. Nach Analysen durch zwei unabhängige Institutionen soll es sich um eine Verbindung aus der Gruppe der sogenannten Nowitschok-Substanzen handeln, die ursprünglich als Kampfstoffe in der UdSSR entwickelt worden waren. Nähere Details zu diesem Gift und zur offensichtlich erfolgreichen Behandlung der Opfer wurden nicht bekannt. Im Folgenden soll ein kurzer Überblick über derartige Verbindungen und deren Wirkmechanismus gegeben werden.

Man sieht es nicht, spürt es nicht, riecht es nicht und es ist dennoch unvorstellbar giftig. Als vor zwei Monaten von einem Anschlag mit einem synthetischen Nervengift in Salisbury berichtet wurde, löste dies weltweit Entsetzen aus. Die Empörung kochte hoch und es wurden Szenarien Wirklichkeit, die an die des kalten Krieges erinnerten.

Labors des britischen DSTL (Defence Science and Technology Laboratory ) im nahegelegenen Porton Down und zu einem späteren Zeitpunkt der Organisation for the Prohibition of Chemical Weapons (OPCW) haben das Blut (und andere Körperflüssigkeiten) der beiden Opfer des Anschlags und Proben von Stellen, mit denen diese vermutlich in Kontakt gekommen waren, analysiert.

Die Analysen ergaben, dass die Proben ein Nervengift enthielten, das aus einer mit Nowitschok bezeichneten Gruppe phosphororganischer Verbindungen stammte. Es hieß, es handle sich dabei um eine besonders stabile Verbindung , deren hohe Reinheit nicht auf die (ansonsten auf Grund von Verunreinigungen nachweisbare) Herkunft schließen lasse. Struktur und Bezeichnung wurden der Allgemeinheit nicht mitgeteilt.

Was aber bedeutet Nowitschok?

Während des kalten Krieges hatten viele Länder noch intensiv an chemischen Waffen gearbeitet mit dem Ziel deren Toxizität zu erhöhen und die Nachweisbarkeit und die Möglichkeit sich davor zu schützen zu reduzieren.. In den Militärlabors der damaligen UDSSR wurden in den 1970 - 1980-Jahren phosphororganische Substanzen produziert (Code: Foliant-Programm), die strukturelle Ähnlichkeit mit den seit den 30er und 40er Jahren bekannten Giften Sarin und Soman aufwiesen, jedoch eine vielfach höhere Toxizität hatten. Abbildung 1. Allerdings herrscht über Strukturen und Eigenschaften dieser Verbindungen ziemliche Unklarheit.

Abbildung 1.Toxizität repräsentativer chemischer Nervengifte bei Hautkontakt (logarithmische Skala; LD50: Dosis in mg die 50 % einer Bevölkerung nach Hautkontakt tötet). Nowitschok Verbindungen (hier A-232) sind angeblich noch 5 - 10 x toxischer als VX. Zu den wenigen Autoren, die über diese Verbindungen berichten (s.u.), gehören S. Hönig und W. Mirsajanov - sie geben unterschiedliche Strukturen an. (Toxizität: Quelle J. Newmark, Arch Neurol. 2004;61(5):649-652. doi:10.1001/archneur.61.5.649)

Ein Großteil dessen, was an Information über die Nowitschok Verbindungen an die Öffentlichkeit gelangte, stammt von Wil Mirsajanow, der Leiter der russischen Spionageabwehr war, aber auch als analytischer Chemiker an dem geheimen Foliant-Programm beteiligt war und die Umweltbelastung durch chemische Kampfstoffe untersuchte. Schwere Bedenken hinsichtlich der Kontamination der Umwelt durch die Nowitschok Substanzen brachten Mirsajanov dazu das geheime Projekt an die Öffentlichkeit bringen - es war dies ja schliesßlich in der Ära des Glasnost [1]. (Auch die Bezeichnung der Substanzgruppe Nowitschok (Neuling) geht auf Mirsajanov zurück). Mirsajanov verlor seinen Posten und bekam ein Verfahren auf den Hals, das aber bald wieder eingestellt wurde. Das Interesse des Westens an der Causa schien endendwollend. Später, in die USA emigriert, berichtete Mirsajanov in einer Autobiographie 2008 “State Secrets: An Insider’s Chronicle of the Russian Chemical Weapons Program” über das Foliant-Programm und zeigte auch Strukturen wesentlicher Verbindungen aus diesem Programm auf (da er keinen Verleger fand, gab er das Buch im Eigenverlag heraus).

In einem Derivierungsprogramm sollen über 100 Vertreter solcher Nowitschoks bis zum Zusammenbruch der UDSSR - und noch darüber hinaus (auch als 1993 sich Russland der Chemical Weapons Convention angeschlossen hatte) - synthetisiert und getestet worden sein.

Ein Überblick über diese giftigsten aller Nervengifte ist in Abbildung 2 dargestellt. Die von Mirsajanov aufgezeigten Strukturen sind von mehreren Autoren übernommen worden. Allerdings geht der amerikanische Chemiker (und Chemical Terrorism Coordinator am Florida Dept of Health) Steven Hönig g- offensichtlich basierend auf einschlägigen russischen Veröffentlichungen zur Synthese derartiger Verbindungen - von anderen Strukturen aus [2] (Abbildung 1), ebenso D. Hank Ellison, der auch zahlreiche derartige Arbeiten zitiert.

Abbildung 2. Was sind Nowitschok-Verbindungen? Strukturen nach W. Mirsajanov; die ersten drei Strukturen In der oberen Reihe sind A-230, A-232 und A-234 . In der Reihe darunter sind 2 Guanidino-Derivate, die kürzlich in einem iranischen Labor synthetisiert wurden. (Quelle: http://www.compoundchem.com/2018/03/12/novichok/; Lizenz: cc- by-nc-nd)

Zur Herkunft von Nowitschoks

Auf Grund ihrer enorm hohen Toxizität lassen sich Nowitschoks zweifellos nicht von "Garagen-Startups" herstellen. Dass aber wichtigere, an Nervengiften arbeitende Labors - einschliesslich Porton Down in England, Edgwoodin den US, TNO in Holland, etc. - sich auch mit Nowitschoks beschäftigen, gehört einfach zu deren Aufgabenbereichen. Schließlich müssen für derartige Giftstoffe ja auch empfindlichste analytische Nachweisverfahren aus unterschiedlichsten Probematerialien entwickelt werden und die chemischen und biologischen Eigenschaften solcher Strukturen (und auch ihrer Abbauprodukte) getestet werden, um bei potentiellen Anschlägen rasch Abwehr- und Schutzmaßnahmen einleiten zu können. Derartige Forschung ist demnach - unter Einhaltung bestimmter Bedingungen - auch im Chemiewaffenkontrollabkommen gestattet.

In der Fachliteratur sind Nowitschok-Strukturen nicht unbekannt. Abgesehen von einer Reihe russischer Arbeiten zu Synthese und Reaktionen von A-230, A-232 und A-234 , die in den 1960er und frühen 1970er Jahren im Zhurnal Obshchei Khimii publiziert wurden, gibt es einschlägige Beweise, dass Kenntnis und experimenteller Umgang mit solchen Substanzen in Fachkreisen weltweit Verbreitung gefunden haben. Abbildung 3 führt drei Beispiele aus Amerika, Europa und Asien an: :

  • In einem US-Patent zur Behandlung von Vergiftungen mit phosphororganischen Verbindungen werden Nowitschoks angeführt,
  • Forscher von der Humboldt Universität, Berlin haben über Synthesen rund um derartige phosphororganische Verbindungen berichtet,
  • iranische Forscher haben vor kurzem Synthese und Analyse von Nowitschoks (Guanidino-Derivate) beschrieben.

Soeben erreicht uns übrigens auch eine Pressemitteilung (CTK) des tschechischen Präsidenten Milos Zeman: ein Militär-Forschungslabor in Brünn habe im vergangenen Herbst "kleine Mengen" der Substanz A-230 für Testzwecke hergestellt und anschließend vernichtet. (http://www.praguemonitor.com/2018/05/04/zeman-novichok-was-produced-tested-destroyed-czech-republic)

Abbildung 3. Beispiele für weltweite Forschung an Nowitschoks.

Zum Wirkungsmechanismus..........

Wie auch die anderen phosphororganischen Nervengifte der G-Serie (Sarin, Soman, Tabun, etc.) und der V-Serie (u.a. VX) hemmen Nowitschoks das im Körper produzierte Enzym Acetylcholinesterase und zwar in irreversibler Weise.

Die Aufgabe der Acetylcholinesterase ist es das Signal eines der wichtigsten Neurotransmitter in unserem Organismus, des Acetylcholins, zu limitieren. Acetylcholin vermittelt die Erregungsübertragung an sogenannten cholinergen Synapsen zwischen Neuronen im Zentralnervensystem und zwischen Motoneuron und Muskel (an der motorischen Endplatte). Es wird in der "Senderzelle" synthetisiert , in den synaptischen Spalt ausgeschleust, gelangt an den Rezeptor der "Empfängerzelle", und generiert ein Signal, das die Erregung dort weiterleitet. Wie dieses Signal beispielsweise zur Kontraktion von Muskelfasern führt, ist in Abbildung 4.dargestellt.

Abbildung 4. Erregungsübertragung zwischen Neuron und motorischer(neuromuskulärer) Endplatte. Wenn ein Nervenimpuls über das Axon eines Motoneurons auf die neuromuskuläre Endplatte trifft, wird in Tausenden Vesikeln gespeichertes Acetylcholin in den synaptischen Spalt freigesetzt. Einige Moleküle binden an die, in die Membran der Muskelfaser eingebetteten Ionenkanäle ("Nikotin"rezeptor), die sich in Folge öffnen. Na-Ionen strömen in die Zelle lösen ein Aktionspotential aus, das sich über die erregbare Membran (Sarcolemma) fortpflanzt und durch das T-Tubule System in das Innere der Faser zum Sarcoplasmischen Reticulum gelangt. Aus diesem strömen Ca-Ionen aus und führen zur Muskelkontraktion.(Bild: http://thebrain.mcgill.ca/flash/d/d_06/d_06_m/d_06_m_mou/d_06_m_mou.html; copyleft)

Beim Eintritt in den synaptische Spalt trifft Acetylcholin auch auf die, in die postsynaptische Membran eingebettete Acetylcholinesterase , die Acetylcholin in Cholin und Essigsäure spaltet (Abbildung 4, unten), damit das Signal limitiert und die Empfängerzelle so für das nächste Signal bereit macht. Das Enzym arbeitet ungemein schnell , spaltet bis zu 10 000 Moleküle Acetylcholin pro Sekunde ("diffusionskontrolliert" : jedes Acetylcholin, das in das aktive Zentrum des Enzym trifft, wird sofort gespalten).

Eine Blockierung des Enzyms führt dazu, dass sich Acetylcholin im synaptischen Spalt anreichert und es zu einer andauernden unkontrollierte Stimulierung der Empfängerzellen, z.B. bestimmter Muskeln kommt. Dies ist bei den phosphororganischen Nervengiften der Fall. Diese binden im aktiven Zentrum dieses und verwandter Enzyme irreversibel an einen Aminosäurerest (ein Serin), der für die katalytische Funktion essentiell ist. (Wie sich derartige Strukturen in das aktive Zentrum einpassen, wurde an Hand von Kristallstrukturanalysen gezeigt.) Acetylcholin kann nicht mehr abgebaut werden und akkumuliert - das Signalsystem von Zelle zu Zelle ist unterbrochen, das System bleibt im Erregungszustand. Abbildung 5. Eine Überstimulierung tritt ein, die Folge sind Krämpfe, Lähmungen und schließlich Atemstillstand sind die Folge. (In manchen neurogenerativen Erkrankungen dürfte ein Mangel an Acetylcholin bestehen und man strebt reversible inhibierende Wirkstoffe an.)

Abbildung 5. Wechselwirkung von Nervengiften mit Cholinesterasen. Links: Kristallstruktur der menschlichen Leber-Carboxylesterase mit Soman. Soman liegt in einer tiefen "Schlucht" gebunden an einen Serinrest.(Ausschnitt aus der Struktur 2HRQ, PDB ). Rechts: Blockierung der Acetylcholinesterase (gelb) im synaptischen Spalt durch ein Nervengift (rot). Acetylcholin (blau) kann nicht mehr an das Enzym gelangen. (Quelle: V. Müller https://commons.wikimedia.org/wiki/File:Sarin_Wirkungsweise.png)

................... und zum "Aging" des Targetenzyms

Wie bereits erwähnt, führt die Bindung von phosphororganischen Nervengiften im aktiven Zentrum der Acetylcholinesterase zu deren irreversibler Inaktivierung. Der Vorgang, der von der vorerst reversiblen Bindung zur Inaktivierung führt, wird als "Aging" bezeichnet. Es wird der katalytische Prozess des Enzyms wirksam, der - vereinfacht ausgedrückt - die Ester-/Amidbindungen spaltet: dabei geht die Phosphorgruppierung eine kovalente Bindung mit der Hydroxylgruppe des essentiellen Serins ein und ein Fragment des Moleküls geht ab. Dieser Aging-Prozess dauert bei den einzelnen Substanzen (Strukturen in Abbildung 1)unterschiedlich lang und unterschiedliche Reste verbleiben am Enzym (Daten: K Sutliff, Science):

• Soman wird am schnellsten - innerhalb von 2 Minuten - inaktiviert. Die Fluor- Phosphor -Bindung wird gespalten, Fluor geht ab, der Rest des Moleküls liegt kovalent an das Serin gebunden vor,

• bei Sarin dauert der Aging-Prozess wesentlich länger - 5 Stunden . Auch hier verlässt Fluor das Enzym,

• bei VX braucht es 36,5 Stunden für die Inaktivierun;. hier wird ein großer Rest - der Thioalkohol - abgespalten,

• am langsamsten - 46 Stunden - verläuft der Prozess bei Tabun. Hier kommt es zu einer Abspaltung des Cyano-Rests (-CN).

• Wie lange der Aging-Prozess bei dem, im Salisbury -Anschlag verwendeten Nervengift dauert, ist unbekannt. Es könnte ein sehr langdauernder Prozess sein, da eine Diagnose und damit Behandlung der Opfer erst spät erfolgte. Wie bei Sarin und Soman, dürfte auch hier Fluor abgespalten werden.

Werden während des Aging-Prozesses Substanzen verabreicht - beispielsweise Oxime -, die mit dem Nervengift um die (vorerst reversible) Bindungsstelle konkurrieren, so kann dieses aus der Bindung verdrängt und die Toxizität reduziert werden. Abhängig vom Ausmaß der Intoxikation kann später nur auf eine umfangreiche Neusynthese des Enzyms gehofft werden. (Angaben darüber, ob das inaktivierte Enzym zu Bruchstücken führt, die vom Immunsystem als fremd betrachtet werden und damit Immunprozesse auslösen, habe ich noch nicht gefunden.)

Versuch einer Quantifizerung

Die Frage: welche Dosis Nervengift, auf welchem Weg verabreicht, führt zu einer irreversiblen Schädigung, kann nicht so einfach beantwortet werden. Eine unterste Grenze ist zweifellos mit der Menge an Acetylcholinesterase im Organismus - 62 nmole [3] - gesetzt, d.i. wenn ein Molekül Enzym bereits durch ein Molekül Nervengift inaktiviert wird. Für eine Substanz mit einem Molekulargewicht von 250 - 300 D, würde das einer Dosis von 15 - 18 Mikrogramm entsprechen.

Die Sache wird insofern komplizierter, als auch andere Enzyme in vergleichbarer Weise mit dem Nervengift reagieren (aber nicht ähnliche Schädigungen wie im Acetylcholinsystem verursachen) . Es ist dies vor allem die mit Acetylcholinesterase sehr nahe verwandte Butyrilcholinesterase (Pseudocholinesterase), die in mehr als zehnfach höherer Konzentration vorhanden ist und vermutlich Gifte der Acetylcholinesterase abfängt [3]. Die unterste toxische Konzentration würde sich damit auf 0,15 - 0,18 mg erhöhen.

Auch andere verwandte Carboxylesterasen und Serinproteasen (z.B. Chymotrypsin, Pepsin) könnten die Nervengifte abfangen - damit würde die untere Grenze für irreversible Schäden bereits mehr als einem Milligramm Substanz liegen.

Dazu kommt nun auch noch der Weg, auf dem ein Nervengift in den Organismus eintritt. Ist dies, wie im Salisbury-Anschlag angenommen, über den Kontakt mit der Haut, so diffundiert die Verbindung zuerst langsam durch die obersten Hautschichten (mit Serinproteasen). Üblicherweise gelangt nur ein vhm. kleiner Anteil von topisch applizierten Substanzen in den Blutkreislauf. Dort würden im Fall der Nervengifte vor allem die schützende Butyrilcholinesterase vorliegen und eine in der Erythrozyten-Membran eingebettete Form der Acetylcholinesterase. Erst das, was hier "übrigbleibt", kann dann die Signalübertragung im Nervensystem beeinflussen.

Ob dies mit kolportierten Dosen von 1 mg möglich ist, wage ich zu bezweifeln.


  [1] V.S.Mirzayanov : Dismantling the Soviet/Russian Chemical Weapons Complex: An Insiders View; in: AE Smithson, V.S.Mirzayanov, R Lajoie, M Krepon (1995) Disarmament in Russia: Problems and Prospects. https://web.archive.org/web/20150824060701/http://www.stimson.org/images/uploads/research-pdfs/Report17.pdf

[2] S.L. Hönig, Compendium of Chemical Warfare Agents. (Springer Verlag, 2007)

[3] O. Lockridge et al., Naturally Occurring Genetic Variants of Human Acetylcholinesterase and Butyrylcholinesterase and Their Potential Impact on the Risk of Toxicity from Cholinesterase Inhibitors. Chem. Res. Toxicol. 2016, 29, 1381−1392; open access.


Weiterführende Links

Vil S. Mirsanajov: novichok fomulas are not terrorist weapons (2009) Video 9:00 min https://www.youtube.com/watch?v=G9OOLBN0j7c

Vil S. Mirsanajov: Isn’t it enough is enough? (15.12.20099 http://vilmirzayanov.blogspot.co.at/2009/

Vladimir Pietschmann: Overall View of Chemical and Biochemical Weapons. Toxins 2014,6, 1761-1784; doi:10.3390/toxins6061761 . https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4073128/pdf/toxins-06-01761.pdf


 

inge Thu, 03.05.2018 - 22:06

Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen"

Deep Learning: Wie man Computern beibringt, das Unsichtbare in lebenden Zellen zu "sehen"

Do, 26.04.2018 - 07:38 — Francis S. Collins Francis S. CollinsIcon Medizin

Die Mikroskopie ist eine zentrale Methode in den Biowissenschaften. Um damit zelluläre Details erkennen und verfolgen zu können, müssen diese üblicherweise chemisch markiert (= gefärbt) werden - Verfahren, die zu Schädigungen der Zelle führen können. Eine Zusammenarbeit von Steve Finkbeiner (UCSF und Gladstone Institutes) und Google Accelerated Science Team [1] zeigt nun, dass Computer trainiert werden können ("deep learning"), sodass sie auch in unbehandelten Zellen Details erkennen, die weit über die Möglichkeiten menschlicher Beobachtung hinaus gehen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", berichtet über diese bahnbrechenden, NIH-unterstützten Untersuchungen.*

Seit Jahrhunderten sind Wissenschaftler darauf trainiert, Zellen durch Mikroskope zu betrachten und ihre strukturellen und molekularen Merkmale gründlich zu untersuchen. Die langen Stunden, die so - über ein Mikroskop gebeugt - in der Betrachtung winziger Bilder verbracht werden, könnten allerdings in naher Zukunft nicht mehr erforderlich sein. Zelluläre Merkmale zu analysieren, könnte vielmehr eines Tages zu den Aufgaben von speziell ausgebildeten Computern gehören.

In einer neuen Studie,

die in der Fachzeitschrift Cell veröffentlicht wurde, trainierten die Forscher Computer, indem sie ihnen Millionen Male aufeinanderfolgende Paare von fluoreszenzmarkierten und unmarkierten Bildern von Hirngewebe einspeisten [1]. Dies ermöglichte den Computern in den Bildern Muster zu erkennen, Regeln zu definieren und diese auf das Betrachten künftiger Bilder anzuwenden. Mit diesem Ansatz - dem sogenannten Deep Learning - zeigten die Forscher auf, dass die Computer nicht nur lernten einzelne Zellen erkennen, sondern auch eine fast übermenschliche Fähigkeit entwickelten den Zelltyp zu identifizieren und ob es sich um eine lebende oder tote Zelle handelte. Noch bemerkenswerter ist, dass die trainierten Computer all diese Aufgaben lösten ohne die in Zellstudien üblicherweise verwendeten aggressiven chemischen Färbungen, inklusive Fluoreszenzmarkierungen, zu benötigen.

Mit anderen Worten, die Computer lernten, das Unsichtbare zu "sehen"! Abbildung 1.

Abbildung 1. Bei der Analyse von Gehirnzellen "denkt" ein Computerprogramm darüber nach, welche zelluläre Struktur identifiziert werden soll. Credit: Steven Finkbeiner, University of California, San Francisco and the Gladstone Institutes

Zusammenarbeit von Biologie und Künstlicher Intelligenz

Vor einigen Jahren zeigten sich Philip Nelson und Eric Christiansen von Google Accelerated Science (Mountain View, CA) - einem führenden Unternehmen im Gebiet der Künstlichen Intelligenz - daran interessiert, Maschinelles Lernen für eine Vielzahl von Anwendungen zu adaptieren. Sie hofften Algorithmen für Deep Learning zu entwickeln, um wichtige Probleme, auch in der Biologie, zu lösen. (In Bereichen vom Smartphone bis zum selbstfahrenden Auto sind Anwendungen von Deep Learning ja bereits allgemein bekannt.)

Damit Deep Learning aber funktioniert, sind enorm große Mengen an Trainingsdaten erforderlich. Das Google-Team erfuhr von Steven Finkbeiner (Professor an der University of California, San Francisco (UCSF) und Direktor der Gladstone-Institute), der - unterstützt von den NIH - das erste vollautomatische Roboter-Mikroskop namens Brain Bot entwickelt hatte [2]. Dieses Brain Bot kann bis über Monate hin Tausende einzelner Zellen verfolgen und dabei weit mehr informationsreiche Bilddaten liefern (3 - 5 Terabytes/Tag), als sein Labor vermutlich analysieren kann. Angesichts der Menge und Komplexität der Daten sah Finkbeiner imDeep Learning eine Möglichkeit seine Forschung um ansonsten für ihn nicht erkennbare Details zu erweitern.

Das Google-Team benötigte also ein biomedizinisches Projekt, das eine enorme Datenmenge generierte und trat nun an Finkbeiner heran, der Bedarf für Deep Learning hatte - so entstand eine Zusammenarbeit.

Deep Learning

In ihrer gemeinsamen Untersuchung [1] trainierten die Forscher nun zunächst einen Computer, indem sie ihm Bilder von zwei Sets von Zellen einspeisten. Eines der Sets war fluoreszenzmarkiert, um damit die für die Forscher interessanten Strukturen hervorzuheben, das andere Set war unmarkiert. Den Vorgang wiederholten sie dann Millionen Male, um ein Lernen des Computers zu generieren.

Beim Deep Learning sucht der Computer nach Mustern in den Daten. Während der Computer Bilder Pixel für Pixel durchscannt, beginnt er komplexe Zusammenhänge in einem Netzwerk zu "sehen", verstärkt darin einige Verbindungen und schwächt andere. Wenn der Computer nun weitere Bildpaare untersucht, beginnt er, basierend auf übereinstimmenden Mustern von markierten und unmarkierten Bildern, ein Netzwerk aufzubauen. Dies kann man damit vergleichen, wie die neuronalen Netzwerke unseres eigenen Gehirns Informationen verarbeiten, indem sie lernen sich auf einige Dinge zu konzentrieren, aber nicht auf andere.

Um den Computer zu testen, legten die Forscher ihm neue nicht markierte Bilder vor. Sie stellten fest, dass das neuronale Netzwerk des Computers einzelne Zellen identifizieren konnte, indem es lernte, den unmarkierten Zellkern zu erkennen. Schließlich konnte der Computer auch feststellen, welche Zellen lebendig oder tot waren - er konnte sogar inmitten lebender Zellen eine einzige tote Zelle herausfinden. Das ist etwas, wozu selbst Menschen nicht zuverlässig imstande sinf, auch wenn sie Tag für Tag über ihren Zellen brüten.

Der Computer konnte weiters auch Neuronen auswählen, die in einem Gemenge anderer Zelltypen vorlagen. Er konnte erkennen, ob eine neuronaler Fortsatz ein Axon ist (das Signale sendet) oder ein Dendrit (der eingehende Signale empfängt), obwohl diese beiden zellulären Anhängsel sehr ähnlich aussehen. Mit zunehmendem Wissen benötigte der Computer auch immer weniger Daten, um eine neue Aufgabe zu lernen.

Diese Ergebnisse bieten einen wichtigen Beweis für den proof of principle, den Ansatz, dass Computer so trainiert werden können, dass sie Menschen bei der Analyse von Zellen und anderen komplexen Bildern nicht nur ersetzen, sondern auch übertreffen. Es wird offensichtlich, dass in den Bildern deutlich mehr Informationen vorhanden sind, als das menschliche Auge erfasst.

Eine Revolution in der Biomedizin…

Finkbeiner sieht viele Bereiche, in denen er seine trainierten Computer agieren lassen kann:

Beispielsweise könnten Computer verwendet werden, um herauszufinden, welche Stammzellen für eine Transplantation am besten geeignet sind.

Basierend auf Bildern von Zellen in der Kulturschale könnten Computer in der Lage sein, Krankheiten zu diagnostizieren, zugrundeliegende Ursachen herauszufinden und zu behandeln, einschließlich Schizophrenie, Alzheimer-Krankheit oder Parkinson-Krankheit.

Computer könnten auch trainiert werden, um gesunde Zellen von kranken Zellen zu unterscheiden - diese Fähigkeit könnte eingesetzt werden, um vielversprechende Kandidaten für neue Arzneimittel zu identifizieren.

…und darüber hinaus

Während es noch genügend Spielraum gibt, um die Vorhersagefähigkeiten des Netzwerks zu erweitern und zu verbessern, ist es wichtig anzumerken, dass Deep Learning nicht nur auf Bilddaten beschränkt ist. Tatsächlich können die gleichen Prinzipien auf jede Art von reichlich vorhandener, gut annotierter Information angewendet werden, DNA-Daten miteingeschlossen.

Computer könnten aber auch trainiert werden, um Beziehungen zwischen unterschiedlichen Arten von Daten zu suchen: dies lässt auf Entdeckungen hoffen, die weit über das hinausgehen, was wir Menschen heute verstehen. Und: Computer werden nie müde oder beschweren sich über die Arbeitszeiten.


[1] In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images. Christiansen EM, Yang SJ, Ando DM, Javaherian A, Skibinski G, Lipnick S, Mount E, O’Neil A, Shah K, Lee AK, Goyal P, Fedus W, Poplin R, Esteva A, Berndl M, Rubin LL, Nelson P, Finkbeiner S. Cell. 2018 Apr 9. pii: S0092-8674(18)30364-7.

[2] Automated microscope system for determining factors that predict neuronal fate. Arrasate M, Finkbeiner S. Proc Natl Acad Sci U S A. 2005 Mar 8;102(10):3840-3845.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: " Teaching Computers to “See” the Invisible in Living Cells" zuerst (am 24. April 2018) im NIH Director’s Blog. Der Artikel wurde von der Redaktion möglichst wortgetreu aus dem Englischen übersetzt und geringfügig (mit Untertiteln) für den Blog adaptiert.

Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

inge Thu, 26.04.2018 - 07:38

Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

Was Sie schon immer über Klimamodelle wissen wollten – eine Einführung

Do, 19.04.2018 - 17:34 — Carbon Brief Carbon BriefIcon GeowissenschaftenComputermodelle sind das Herzstück der Klimaforschung. Solche Modelle sind für ein Verstehen des Erdklimas unentbehrlich: ob sie nun Forschern helfen Eiszeitzyklen aufzuklären, die hunderttausende Jahre zurückliegen oder Prognosen für dieses oder auch das nächste Jahrhundert zu erstellen. Die britische Plattform Carbon Brief informiert in leicht verständlicher Form über die neuesten Entwicklungen in Klimaforschung, Klimapolitik und Energiepolitik und hat im Gespräch mit Klimaexperten eine Artikelserie veröffentlicht, die wesentliche Fragen zu Klimamodellen beantwortet. Der erste Teil dieser Serie dreht sich um die Frage: Was ist ein Klimamodell?*

Was ist ein Klimamodell?

Ein globales Klimamodell ist riesengroß. Üblicherweise ist das Programm in kodierter Form ausreichend, um 18 000 Druckseiten zu füllen; Hunderte Wissenschafter haben viele Jahre lang gearbeitet, um ein solche Programm zu erstellen und zu verbessern und ein Riesenrechner von der Größe eines Tennisplatzes kann benötigt werden, um es laufen zu lassen.

Klimamodelle selbst kommen in unterschiedlicher Form daher - von solchen, die eben nur eine bestimmte Region der Erde oder einen bestimmten Teil des Klimasystems erfassen bis hin zu solchen, die Atmosphäre, Ozeane, Eismassen und Landflächen für den ganzen Planeten simulieren.

Die Ergebnisse aus solchen Modellen bringen die Klimaforschung weiter und helfen den Wissenschaftern zu verstehen, wie menschliche Aktivitäten das Klima der Erde beeinflussen. Derartige Fortschritte waren in den letzten fünf Jahrzehnten eine Grundlage für die klimapolitischen Entscheidungen auf nationaler und internationaler Ebene.

In vielerlei Hinsicht ist Klimamodellierung nur eine Erweiterung der Wettervorhersage, allerdings konzentriert man sich auf Änderungen, die über Dekaden anstatt über Stunden verlaufen. Tatsächlich verwendet das britische Met Office Hadley Centre dasselbe "Unified Model" als Grundlage für beide Aufgabenbereiche.

Die enorme Rechenleistung, die für das Simulieren von Wetter und Klima benötigt wird, bedeutet dass moderne Modelle auf massiven Supercomputern laufen. Beispielsweise können die drei neuen Cray XC40 Supercomputer (siehe weiterführende Links) am Met Office Hadley Centre zusammen 14 000 Biillionen Rechenoperationen pro Sekunde ausführen.

Was genau findet nun Eingang in ein Klimamodell?

Grundsätzlich verwenden Klimamodelle Gleichungen, um die Vorgänge und Wechselwirkungen darzustellen, die das Klima der Erde antreiben. Diese Gleichungen umfassen die Vorgänge in der Atmosphäre, in Ozeanen, auf Landflächen und eisbedeckten Regionen der Erde.

Die Modelle basieren auf denselben Gesetzen und Gleichungen, die Grundlage für das Verstehen der physikalischen, chemischen und biologischen Mechanismen im System Erde sind. So verlangen die Wissenschafter von den Klimamodellen, dass sie fundamentalen physikalischen Gesetzen gehorchen müssen, wie

  • dem Satz von der Erhaltung der Energie (dem Ersten Hauptsatz der Thermodynamik), der besagt, dass in einem geschlossenen System Energie nicht entstehen oder verloren gehen kann, sondern nur von einer Form in die andere umgewandelt wird,
  • dem Stefan-Boltzmann Gesetz, das die Wärmeabstrahlung eines schwarzen Körpers in Abhängigkeit von seiner Temperatur beschreibt und mit dem der natürliche Treibhauseffekt erklärbar ist, der die Erdoberfläche um 33oC wärmer macht als sie ansonsten wäre,
  • Gleichungen zur Dynamik im Klimasystem - zur Abhängigkeit von Lufttemperatur und Wasserdampfdruck (Clausius-Clapeyron Gleichung),
  • den wichtigsten dieser Gesetze, den Navier-Stokes-Gleichungen für die Strömung von Flüssigkeiten, die Geschwindigkeit (v), Druck (p), Temperatur und Dichte (ρ) von Gasen in der Atmosphäre und von Wasser in den Ozeanen erfassen (Abbildung 1).

Abbildung 1. Die Navier-Stokes Gleichungen für inkompressible Strömung in drei Dimensionen (x, y, z). (Auch wenn die Luft in unserer Atmosphäre technisch komprimierbar ist, bewegt sie sich relativ langsam und wird daher als inkompressibel behandelt, um die Gleichungen zu vereinfachen.). Hinweis: Dieser Satz von partiellen Differentialgleichungen ist einfacher als diejenigen, die ein Klimamodell verwenden wird, da diese ja Flüsse über eine rotierende Kugel berechnen müssen.

Dieser Satz von partiellen Differentialgleichungen ist jedoch so komplex, dass keine genaue Lösung für sie bekannt ist (außer in einigen wenigen einfachen Fällen). Es bleibt eine der großen mathematischen Herausforderungen (und es wartet ein Preis von einer Million Dollar auf den, der beweisen kann, dass es immer eine Lösung gibt). Stattdessen werden diese Gleichungen im Modell "numerisch" gelöst, was bedeutet, dass es Näherungen sind.

Jedes dieser physikalischen Prinzipien wird in mathematische Gleichungen übersetzt, die Zeile um Zeile des Computercodes füllen - um ein globales Klimamodell zu erstellen, können daraus auch mehr als 1 Million Zeilen entstehen. Globale Klimamodelle werden häufig in "Fortran" geschrieben, einer Programmiersprache, die in den 1950er Jahren von IBM entwickelt wurde und wie eine menschliche Sprache aufgebaut ist. Wie solche Zeilen aussehen, zeigt ein kleiner Ausschnitt aus dem Code des Met Office Hadley Centre Modells (Abbildung 2). Wird das Modell zum Laufen gebracht, so erfolgt automatisch eine Übersetzung in Maschinencode, den der Rechner versteht. Abbildung 2. Ausschnitt aus dem Code für ein globales Klimamodell (HadGEM2-ES) geschrieben in der Programmiersprache Fortran. Er stammt aus dem Abschnitt Pflanzenphysiologie, der sich mit der Absorption von Licht und Feuchtigkeit durch unterschiedliche Vegetationsarten befasst.. Credit: Dr Chris Jones, Met Office Hadley Centre.

Der Klimaforschung stehen nun auch viele andere Programmiersprachen (beispielsweise "C", "Python", "R", "Matlab" und "IDL") zur Verfügung, von denen einige aber langsamer laufen als Fortran. Um ein globales Modell schnell auf einem Rechner laufen zu lassen, werden heute üblicherweise Fortran und "C" verwendet.

Räumliche Auflösung

Die Gleichungen im Programmcode beschreiben die zugrundeliegende Physik des Klimasystems - von der Bildung und dem Abschmelzen des Meereises in den arktischen Gewässern bis hin zum Austausch von Gasen und Feuchtigkeit zwischen Landoberflächen und darüber liegender Luft.

Von der Mitte der 1970er Jahre an wurden laufend mehr und mehr klimarelevante Prozesse in die globalen Klimamodelle eingebaut. Abbildung 3 zeigt die zunehmende Komplexität der Modelle bis zum 4. Sachstandsbericht ("AR4") des Weltklimarats (IPCC) im Jahr 2007, wobei die neu dazu gekommenen physikalischen Beziehungen durch Bilder symbolisiert sind.

Abbildung 3. Wie die globalen Klimamodelle erweitert wurden. Von Mitte 1970 bis zu den ersten vier Sachstandsberichten (Assessment Reports) des Weltklimarats ( International Panel on Climate Change - IPCC): "FAR" (1990), "SAR" (1995), "TAR" (2000) und "AR4" (2007). (Der 2014 erschienene 5. Assessment Report "AR5" wird hier nicht berücksichtigt.). Quelle: https://www.ipcc.ch/publications_and_data/ar4/wg1/en/figure-1-2.html

Wie kann nun ein Modell alle diese Gleichungen berechnen?

Da das Klimasystem hochkomplex ist und die Computerleistung Grenzen hat, kann ein Modell nicht alle klimarelevanten Prozesse für jeden Kubikmeter des Klimasystems rechnen. Stattdessen legt man ein Netz über die Erdoberfläche und teilt diese in eine Reihe von Boxen oder "Gitterzellen" auf. Ein globales Klimamodell kann dabei Dutzende Schichten in die Atmosphäre hinauf und in die Tiefe der Ozeane hinab reichen. Wie man sich das dreidimensional vorstellen kann, ist in Abbildung 4 gezeigt.

Das Modell berechnet nun für jede Zelle den Zustand des Klimasystems unter Berücksichtigung von Temperatur, Luftdruck, Feuchtigkeit und Windgeschwindigkeit.

Abbildung 4. Klimarelevante Prozesse (links unten), die ein Modell für jede Zelle in dem 3D- Gitter berechnet. (Quelle: Geophysical Fluid Dynamics Laboratory, https://www.gfdl.noaa.gov/climate-modeling/)

Für Prozesse, die in Skalen stattfinden, die kleiner sind als die Gitterzelle (beispielsweise Konvektion), verwendet das Modell "Parametrisierungen" - Näherungen, die Prozesse vereinfachen und erlauben, dass sie in das Modell aufgenommen werden. (Parametrisierungen werden in einem späteren Kapitel behandelt werden.)

Die Größe der Zellen bestimmt die räumliche Auflösung. Ein relativ grobes Klimamodell hat Zellen, die sich in mittleren geographischen Breiten rund 100 km in Richtung Längen- und Breitengrade erstrecken. Da die Erde eine Kugel ist, sind die Zellen am Äquator größer als an den Polen. In zunehmendem Maße werden daher alternative Netze verwendet, die dieses Problem nicht haben (Ikosaeder- und "cubed-sphere"-Gittertechniken).

Ein hochauflösendes Modell hat dann mehr und kleinere Zellen. Je höher die Auflösung ist, desto spezifischere Klimainformationen wird dann ein Modell für eine bestimmte Region liefern - da dafür mehr Rechenoperationen erforderlich sind, geht dies aber auf Kosten einer längeren Rechendauer. Im Allgemeinen bedeutet die Erhöhung der räumlichen Auflösung um einen Faktor zwei, dass bei gleichbleibender Rechendauer eine zehnfache Rechnerleistung erforderlich ist.

Wie sich die räumliche Auflösung zwischen dem 1. Sachstandsbericht (FAR 1990) und dem 4. Sachstandsbericht (AR 4 2007) des IPCC verbessert hat, ist in Abbildung 5 dargestellt. Es wird deutlich sichtbar, wie dabei die Topgraphie der Landoberfläche entstanden ist. Abbildung 5. Räumliche Auflösung der Klimamodelle in den Sachstandsberichten des IPCC "FAR" (1990), "SAR" (1995), "TAR" (2000) und "AR4" (2007). (Quelle: IPCC AR4, Fig 1.2). Der 2014 erschienene 5. Assessment Report "AR5" wird hier nicht berücksichtigt.

Zeitliche Auflösung

Ein ähnlicher Kompromiss wie bei der räumlichen Auflösung muss auch bei der zeitlichen Auflösung - d.i. wie oft das Modell den Zustand des Klimas berechnet - gemacht werden. In der realen Welt verläuft die Zeit kontinuierlich, ein Modell muss die Zeit aber in Abschnitte zerstückeln, um die Berechnungen handhabbar zu machen.

"Jedes Klimamodell macht das in irgendeiner Form, der häufigste Ansatz ist so eine Art "Bocksprung" ("Leapfrogging")- Methode, erklärt Paul Williams, Professor für Atmosphärenforschung an der Universität Reading. "Wie ein Kind am Spielplatz einen Bocksprung über ein anderes Kind macht, um von hinten nach vorne zu kommen, so springt das Modell über die Gegenwart, um von der Vergangenheit in die Zukunft zu gelangen."

Das Modell nimmt also die Information, die es von dem vergangenen und dem gegenwärtigen Zeitabschnitt hat, um auf den nächsten Abschnitt zu extrapolieren und fährt dann in dieser Weise weiter fort.

So wie bei der Größe der Gitterzellen, bedeuten kürzere Zeitabschnitte , dass das Modell genauere Informationen zum Klima liefert. Es bedeutet aber auch mehr Rechenoperationen in jedem Schritt.

Um beispielsweise den Zustand des Klimasystems für jede Minute eines ganzen Jahrhunderts zu berechnen, würden mehr als 50 Millionen Rechenoperationen je Gitterzelle erforderlich sein, für jeden Tag dagegen nur 36 500 Operationen. Das ist eine ziemliche Bandbreite - wie also entscheiden Wissenschaftler, welchen Zeitschritt sie verwenden?

Man muss hier einen Kompromiss finden, meint Paul Williams:

"Von der Seite der Mathematik her wäre es der richtige Ansatz, den Zeitabschnitt so lange zu verringern, bis die Simulationen konvergieren und sich die Ergebnisse nicht mehr ändern. Für Modelle mit einem so kleinen Zeitintervall fehlen uns aber normalerweise die Rechenressourcen. Daher sind wir gezwungen, einen größeren Zeitschritt in Kauf zu nehmen, als wir es idealerweise wollten."

Für die Atmosphärenkomponente von Klimamodellen erscheint ein Zeitschritt von rund 30 Minuten "ein vernünftiger Kompromiss" zwischen Genauigkeit und Prozessorzeit zu sein, sagt Williams:

"Ist das Intervall kürzer, wäre die dann höhere Genauigkeit nicht hinreichend, um den zusätzlichen Rechenaufwand zu rechtfertigen. Bei jedem längeren Intervall würde das Modell dann zwar sehr schnell laufen, aber mit Einbußen in der Qualität der Simulation."

Zusammenfassung

Wissenschafter übersetzen die grundlegenden physikalischen Gleichungen des Erdklimas in ein Computermodell, das dann, beispielsweise, die Zirkulation der Ozeane, den Zyklus der Jahreszeiten und den Kohlenstoffkreislauf zwischen Landoberflächen und Atmosphäre simulieren kann. Gavin Schmidt, Direktor des NASA Goddard Institute for Space Studies, zeigt in seinem 2014 gehaltenen TED-Vortrag auf, wie effizient heutige Klimamodelle sind: sie simulieren alles, von der Verdunstung der Feuchtigkeit auf der Erdoberfläche zur Bildung der Wolken, wohin der Wind diese trägt und wo schließlich der Regen niedergeht (siehe weiterführende Links). Dabei ist ein in 30-Minuten-Intervallen laufendes Klimamodell in der Lage eine Darstellung des gesamten Klimasystems über viele Jahrzehnte oder sogar Jahrhunderte hinweg zu erzeugen.


*Der Artikel ist der homepage von Carbon Brief: "Q&A: How do climate models work?" entnommen und ist der Anfang einer, von mehreren Autoren stammenden Serie, die am 15. Jänner 2018 online gestellt wurde: https://www.carbonbrief.org/qa-how-do-climate-models-work . Der unter einer cc-by-nc-nd 4.0 Lizenz stehende Artikel wurde im Einverständnis mit Carbon Brief möglichst wortgetreu von der Redaktion aus dem Englischen übersetzt und von Carbon Brief freigegeben.

Carbon Brief ist eine britische Website, die die neuesten Entwicklungen in den Bereichen Klimawissenschaft, Klimapolitik und Energiepolitik abdeckt. Die Seite bemüht sich um klare Daten-basierte Artikel und Illustrationen, um mitzuhelfen das Verstehen des Klimawandels von der Seite der Wissenschaft und auch der Politik zu verbessern . Im Jahr 2017 wurde Carbon Brief bei den renommierten Online Media Awards als"Best Specialist Site for Journalism" ausgezeichnet.

 


Weiterführende Links

Informationen zu Carbon Brief: https://www.carbonbrief.org/about-us

Installation of the final phase of the Met Office Supercomputer (2017). Video 1:51 min. Zeitrafferaufnahmen. Standard-YouTube-Lizenz. https://www.youtube.com/watch?time_continue=18&v=q4uKS_wcfow

Gavin Schmidt, The emergent patterns of climate change.(2014). Video 12:10 min (deutsche Untertitel) TED Talk; Standard-YouTube-Lizenz. https://www.youtube.com/watch?time_continue=66&v=JrJJxn-gCdo

Met Office Hadley Centre: https://www.metoffice.gov.uk/climate-guide/science/science-behind-climate-change/hadley

Geophysical Fluid Dynamics Laboratory: https://www.gfdl.noaa.gov/climate-modeling/

Peter Lemke: Dossier: Die Wetter- und Klimamaschine: http://www.klimafakten.de/klimawissenschaft/dossier-die-wetter-und-klima...

Eis, Meer und Klima - Mit Polar- und Meeresforschung unsere Erde verstehen. Video 7:24 min (2016). https://www.youtube.com/watch?v=tqLlmmkLa-s, Was müssen wir tun, um das Klimasystem der Erde zu verstehen? Der Film zeigt, wie das Alfred-Wegener-Institut mit Polar- und Meeresforschung das System Erde kontinuierlich entschlüsselt. Standard-YouTube-Lizenz.


Artikel im ScienceBlog

Peter Lemke, 30.10.2015: Wie Natur und Mensch das Klima beeinflussen und wie sich das auf die Energiebilanz der Erde auswirkt

Peter Lemke: 06.11.2015: Klimaschwankungen, Klimawandel – wie geht es weiter?


 

inge Thu, 19.04.2018 - 13:07

Ist ein bisschen Naturwissenschaft ein gefährlich' Ding?

Ist ein bisschen Naturwissenschaft ein gefährlich' Ding?

Do, 12.04.2018 - 09:59 — Mike Klymkowsky Mike KlymkowskyIcon Politik & Gesellschaft

Kann eine oberflächliche Darstellung naturwissenschaftlicher Inhalte zu deren Verstehen führen, ist es so leicht Naturwissenschaften zu begreifen? Der Zell- und Entwicklungsbiologe Mike Klymkowsky (University Colorado, Boulder), der sich seit mehr als einem Jahrzehnt auch mit Kommunikation und Ausbildung in den Naturwissenschaften beschäftigt, greift hier den rund dreihundert Jahre alten Ausspruch - "a little science is a dangerous thing" - des englischen Dichters Alexander Pope auf. Klymkowsky, warnt vor einer durch Übertreibung und Übersimplifizierung geprägten Popularisierung der Naturwissenschaften und vor Bildungssystemen, die unfähig machen zu unterscheiden, was gesichertes Wissen ist, was Spekulation und was zum Teil gefährlicher Unsinn.*

Ein bisschen Wissenschaft ist ein gefährliches Ding… Der Physiker Lazzaro Spallanzani hat in dem ursprünglich (1709) von Alexander Pope stammenden Vierzeiler "A little learning durch "A little science" ersetzt. "Pierian springs" sind Quellen am Fuß des Olymps und bedeuten wohl Quellen des Wissens. (L. Spallanzani, Nouvelles recherches sur les découvertes microscopiques et la …, Band 1 (1769), https://bit.ly/2J8qTxF; screen-shot von der Redaktion eingefügt)

Popularisierung der Naturwissenschaften

Grundsätzlich geht man davon aus, dass die Popularisierung der Naturwissenschaften - d.h. die Vermittlung naturwissenschaftlicher Kenntnisse an die Bevölkerung - uneingeschränkt positiv zu sehen ist und sowohl Einzelne als auch die breite Öffentlichkeit davon profitieren. (Darbietungen von Spitzenwissenschaftern finden dementsprechend seit jeher großen Anklang, wie die von der Redaktion eingefügten Abbildungen 1 und 2 zeigen).

Abbildung 1. Der griechische Mathematiker Euklid (um 300 BC) demonstriert auf einer am Boden liegenden Tafel "seine" Geometrie einer offensichtlich interessierten Jugend. Ausschnitt aus Raffaels "Schule von Athen" (um 1510) in der Stanza della Segnatura des Vatikan. (Bild von der Redaktion eingefügt; auf Grund des Alters ist es gemeinfrei.)

 

 

 

 

Abbildung 2. Der berühmte englische Naturforscher Michael Faraday hält 1855 eine öffentliche Weihnachtsvorlesung ("The distinctive properties of the common metals") an der Royal Institution, an der auch Prinz Albert und seine Söhne Alfred und Edward teilnahmen(erste Reihe Mitte). Lithografie von Alexander Blaikley (1816–1903);Quelle: https://de.wikipedia.org/wiki/Michael_Faraday#/media/File:Faraday_Michael_Christmas_lecture.jpg;das Bild ist gemeinfrei.

Viele der heutigen Darbietungen sind spannend und unterhaltsam gestaltet - häufig in Form eindrucksvoller Bilder mit raschen Schnitten zwischen markigen Sätzen, im Originalton verschiedener "Experten". Eine Reihe von Wissenschaftssendungen sind in dieser Stilart bereits besonders geübt und/oder haben sich darauf festgelegt. Als Beispiel ist hier die PBS NOVA-Serie zu nennen - die meistgesehene Wissenschaftsserie im US-amerikanischen TV, die im Hauptabendprogramm läuft und wöchentlich rund 5 Millionen Zuseher erreicht.

Solche Sendungen führen die Zuseher in die Wunder der Natur ein und geben dazu oft wissenschaftlich klingende, leider aber auch häufig oberflächliche und lückenhafte Erklärungen ab. Mit "überwältigenden" Beschreibungen, wie alt, wie groß und wie bizarr die natürliche Welt doch offenbar ist, erwecken sie unser Staunen und regen unsere Phantasie an.

Derartige Darbietungen haben aber auch Schattenseiten. Auf eine davon möchte ich nun näher eingehen, nämlich, dass sie zu der Annahme verleiten, es wäre ganz einfach zu einem gründlichen, wirklichkeitsnahen Verstehen von Naturwissenschaften und ihren Schlussfolgerungen zu gelangen.

Die Annahme, dass man Naturwissenschaften ja ganz einfach verstehen kann, führt…

zu unrealistischen Bildungsstandards und zur Unfähigkeit beurteilen zu können, wann wissenschaftliche Behauptungen unrichtig oder unbewiesen sind, ebenso wie anti-wissenschaftliche Einstellungen im Privatleben und in der Politik.

Dass präzises Denken über wissenschaftliche Inhalte leicht machbar ist, ist eine stillschweigende Annahme, die in unser Bildungssystem, die Unterhaltungsindustrie und die Forschungswelt einfließt. Diese Vorstellung findet sich auch in dem aktuellen, auf der Liste der New York Times stehenden Bestseller "Astrophysik für Menschen in Eile": der Titel ist ein Widerspruch in sich selbst. Wie können denn Menschen, wenn sie "in Eile" sind, die Beobachtungen und die Gesetzmäßigkeiten ernsthaft erfassen, auf denen die Erkenntnisse der modernen Astrophysik beruhen? Können sie verstehen, wo die Stärken und wo die Schwächen der Beweisführungen liegen? Ist eine oberflächliche Vertrautheit mit den verwendeten Ausdrücken das Gleiche wie das Verstehen ihres Sinns und ihrer möglichen Bedeutung?

Ist Akzeptanz gleichzusetzen mit Verstehen? Ermuntert eine so leichtfertige Einstellung zur Wissenschaft nicht dazu, unrealistische Schlüsse abzuleiten, wie Wissenschaft funktioniert und was gesichertes Wissen ist und was Spekulation? Sind die Erkenntnisse der modernen Naturwissenschaften tatsächlich leicht nachvollziehbar?

…zu zunehmender Geringschätzung von Fachwissen…

Die Vorstellung, dass ein Heranführen der Kinder an die Naturwissenschaften dann auch zu einem korrekten Erfassen der zugrundeliegenden Konzepte, zu deren sachgerechter Anwendung und deren Grenzen führen wird, ist nur ungenügend bestätigt - häufig weisen Schüler am Ende des normalen Bildungswegs ja nur ein kärgliches und fehlerhaftes Verständnis auf.

Das Gefühl, dass man ein Gebiet versteht, dass Wissenschaft gewissermaßen einfach ist, untergräbt in Folge die Achtung vor denjenigen, die in ihren Gebieten tatsächlich Experten sind.

Wird unterschätzt, wie schwierig es sein kann, ein wissenschaftliches Thema wirklich zu verstehen, kann dies unrealistische Wissenschaftsstandards in den Schulen zur Folge haben und häufig zur Trivialisierung des naturwissenschaftlichen Unterrichts führen - es werden dann zwar Wörter erkannt, nicht aber die Konzepte verstanden, die diese Wörter vermitteln sollten.

Tatsache ist, dass eine naturwissenschaftliche Denkweise in den meisten Gebieten schwer zu erkämpfen und auf aktuellem Stand zu halten ist. Bemüht die Untersuchungen anderer zu prüfen und zu ergänzen, ist es die Aufgabe von Herausgebern, Gutachtern und weiteren Wissenschaftlern, gemeinsam dafür zu sorgen, dass Wissenschaft echt und ehrlich bleibt. Bis eine Beobachtung reproduziert oder von anderen bestätigt wurde, kann sie bestenfalls als eine interessante Möglichkeit angesehen werden und nicht als eine wissenschaftlich erwiesene Tatsache. Bevor ein plausibler Mechanismus aufgestellt ist, der die Beobachtung erklärt, kann das ganze Phänomen wieder mehr oder weniger klanglos von der Bildfläche verschwinden (beispielsweise die kalte Fusion). Man denke an das "Power Posing" (Körperposen, die hormonelle Reaktionen und damit Verhaltensänderungen auslösen sollen), dessen physiologische Wirkungen ins Nichts zerronnen sind.

Nichtsdestoweniger kann es beträchtliche Anreize geben, selbst bereits widerlegte Ergebnisse zu unterstützen, besonders dann , wenn man damit Geld machen kann und es um das Ego geht.

…und zur Akzeptanz pseudowissenschaftlichen Betrugs

Power-Posing mag - obwohl physiologisch sinnlos - für manchen vielleicht hilfreich sein. Es gibt aber gefährlichere pseudowissenschaftliche Irrtümer, wenn beispielsweise Vertrauensselige auf sogenanntes "Rohwasser" (raw water) schwören, das Gesundheit verspricht und Durchfall liefern kann und wenn die in Teilen der Bevölkerung wachsende Bewegung der Impfgegner Kindern wirkliche Schäden zufügt. Man fragt sich, warum professionelle Wissenschaftsverbände, wie die Amerikanische Vereinigung zur Förderung der Wissenschaften (AAAS), nicht zu einem Boykott des größten Internet-Entertainment-Dienstes NETFLIX aufgerufen haben, falls NETFLIX weiterhin den anti-wissenschaftlichen Impfgegner-Film VAXXED anbietet. (Der unter der Regie des Impfgegners Andrew Wakefield 2016 gedrehte Film "VAXXED - Die schockierende Wahrheit" behauptet einen angeblichen Zusammenhang zwischen der Masern-Mumps -Röteln Impfung und Autismus, der von den Behörden vertuscht worden sei; Anm. Redn.) Und wieso machen sich die Showmasterin Oprah Winfrey und US-Präsident Donald Trump nicht lächerlich, wenn sie unsinnigen Mythen über Impfungen Glauben schenken und hart erarbeitete Fachkompetenz der biomedizinischen Gemeinschaft verunglimpfen?

Es ist die Unfähigkeit etabliertes Fachwissen zu akzeptieren, die alles erklärt.

Statt abzuwägen, was wir über die Ursachen von Autismus wissen und was nicht, gibt es verzweifelte Eltern, die eine Reihe von "Therapien" ausprobieren, die von Anti-Experten empfohlen werden. Der tragische Fall von Eltern, die Autismus zu heilen versuchen, indem sie Kinder dazu zwingen, Bleichmittel zu trinken, illustriert den Ernst der Lage.

Warum ignoriert also ein großer Teil der Bevölkerung die Kompetenz der Fachexperten?

Abgesehen davon, dass eine Reihe von Politikern und Geldleuten ( im Westen wie im Osten) Fachwissen vehement ablehnen, das ihren ideologischen oder finanziellen Positionen entgegensteht, möchte ich behaupten, dass die Geringschätzung fachlicher Kompetenz wesentlich auf die Art und Weise zurückzuführen ist, wie Naturwissenschaften unterrichtet und popularisiert werden.

Wir fokussieren häufig auf das Wissen von Fakten, nicht aber auf die zugrundeliegenden Vorgänge und Konzepte, wir ignorieren weitgehend den historischen Verlauf, der zum Aufbau von Wissen führt und die unterschiedlichen Arten kritischer Analysen, denen wissenschaftliche Schlussfolgerungen zu unterziehen sind.

Oftmals versagen unsere Bildungssysteme zu vermitteln,

wie schwer es ist, echte Fachkompetenz zu erlangen, insbesondere die Fähigkeit, klar auszudrücken, woher Ideen und Schlussfolgerungen kommen und was diese bedeuten und was nicht. Eine derartige Expertise ist mehr wert als ein Abschluss, es ist der Nachweis eines ernsthaften und fruchtbringenden Studiums, dazu erbrachter sinnvoller Beiträge und einer kritischen und objektiven Geisteshaltung.

In naturwissenschaftlichen Bewertungen wiegen Fakten oft schwer, kritisches Hinterfragen der für einen bestimmten Vorgang relevanten Ideen und Beobachtungen haben dagegen wenig Bedeutung. Abbildung 3 (von der Redaktion eingefügt). Abbildung 3. Die Sokratische Methode des Lernens: Sokrates leitet seine Schüler zu logischem Denken an, indem er sie das Untersuchungsobjekt kritisch hinterfragen und unhaltbare Annahmen verwerfen lässt. Das von der Redaktion eingefügte Bild stammt von Johann Friedrich Greuter aus dem 17.Jahrhundert und ist gemeinfrei. http://socrates.clarke.edu/aplg0014.htm

Wie der prominente Astrophysiker und Wissenschaftskommunikator Carl Sagan sagen könnte, haben wir es versäumt, die Schüler darin zu schulen, wie man Behauptungen kritisch beurteilt, wie man Unsinn (oder weniger höflich ausgedrückt: Dreck) aufspürt.

Wenn es um das Popularisieren wissenschaftlicher Konzepte geht,

haben wir es zugelassen, dass Übertreibung und übermäßige Vereinfachung das Feld erobert haben. Um aus einem Artikel des amerikanischen Schriftstellers David Berlinski zu zitieren, werden wir ständig mit einer Fülle von Meldungen über neue wissenschaftliche Beobachtungen oder Schlussfolgerungen bombardiert und es gibt oft eine "Bereitschaft zu glauben, was manche Wissenschaftler sagen, ohne zu fragen, ob das, was sie sagen, auch stimmt " oder was es eigentlich bedeutet.

Es wird nicht mehr die ausführliche Erklärung vermittelt, die oft schwierig und provisorisch ist, sondern es steht eine knallige Folgerung im Zentrum - ob diese nun plausibel ist oder nicht.

Selbsternannte Experten predigen über Themen, die oft weit über die Fächer ihrer Ausbildung und nachgewiesenen Fähigkeiten hinausgehen, - es ist der Physiker, der nicht nur über das völlig spekulative Multiversum, sondern auch über den freien Willen und ethische Anschauungen spricht. Komplexe und oft unvereinbare Gegensätze zwischen Organismen, wie zwischen Mutter und Fötus ("War in the Womb"), zwischen männlichen und weiblichen (bei sexuell dimorphen) Arten und zwischen individuellen Freiheiten und sozialer Ordnung, werden ignoriert anstatt explizit darauf einzugehen und ihre Ursachen zu verstehen.

Gleichzeitig sind aber die wissenschaftlichen Forscher (und die Institutionen, für die sie arbeiten) und die Nachrichtenproduzenten einem massiven Druck ausgesetzt, die Bedeutung und weiter reichende Implikationen ihrer "Stories" zu übertreiben, um Förderungen zu erhalten, akademisches und persönliches Prestige und zu gewinnen und vermehrt Aufrufe zu bekommen.

Solche Zerrbilder dienen dazu, die Wertschätzung wissenschaftlicher Expertise (und Objektivität) zu untergraben.

Wo sind nun die wissenschaftlichen Schiedsrichter,

Personen, die beauftragt sind, die Einhaltung der Spielregeln einzufordern, einen Spieler auszuschließen, wenn er das Spielfeld (sein Fachgebiet) verlässt oder ein Foul begeht, indem er Regeln bricht oder zurechtbiegt, d.i. Daten fabriziert, fälscht, unterdrückt oder überinterpretiert? (ein Beispiel dafür ist der Impfgegner Wakefield).

Wer ist dafür verantwortlich, dass die Integrität des Spiels erhalten bleibt? Bedenkt man das sinnlose Geschwafel, das viele Verfechter der alternativen Medizin absondern - wo sind die Schiedsrichter, die diesen Scharlatanen die "Rote Karte" zeigen und sie aus dem Spiel verjagen können?

Offenkundig gibt es keine solchen Schiedsrichter.

Stattdessen ist es notwendig, möglichst viele Menschen in der Bevölkerung so auszubilden, dass sie ihre eigenen wissenschaftlichen Gutachter sind - das heißt, dass sie verstehen, wie Wissenschaft arbeitet, und Quatsch, wenn er ihnen entgegentritt, als solchen erkennen

Wenn nun ein Popularisierer der Wissenschaft, ob aus gut gemeinten oder egoistischen Gründen, seine Fachkompetenz überschreitet, müssen wir ihn aus dem Spiel nehmen! Und wenn Wissenschaftler sich den Zwängen des wissenschaftlichen Prozedere entgegenstellen, wie es von Zeit zu Zeit bei theoretischen Physikern und gelegentlich bei Neurowissenschaftlern vorkommt, müssen wir das begangene Foul erkennen.

Wenn unser Bildungssystem den Schülern dazu verhelfen könnte, dass sie ein besseres Verständnis für die Regeln des wissenschaftlichen Spiels entwickeln, und warum diese Regeln für den wissenschaftlichen Fortschritt unerlässlich sind, wäre es vielleicht möglich, sowohl die Achtung vor echter wissenschaftlicher Kompetenz wieder aufzubauen als auch die Wertschätzung für das, was sich Wissenschafter zu tun bemühen.


* Der erstmals am 8. März 2018 unter dem Titel "Is a little science a dangerous thing?" in PLOS-Blogs erschienene Artikel ( http://blogs.plos.org/scied/2018/03/08/is-a-little-science-a-dangerous-thing/) wurde mit Einverständnis des Autors von der Redaktion ins Deutsche übersetzt. Die zahlreichen Links zu amerikanischen Berichten wurden von uns nicht übernommen und können im Original nachgesehen werden.


Weiterführende Links

Mike Klymkowsky - Labor homepage: http://klymkowskylab.colorado.edu/

Ein neuer Ansatz zur Einführung in die Naturwissenschaften

New free textbooks to effectively teach students to understand, appreciate, and make use of sciences: von National Science Foundation unterstützt hat Klymkowsky zusammen mit Melanie Cooper (Prof. Chemistry/Science Education; Michigan State Univ.) hervorragendes Lehrmaterial geschaffen:

  • biofundamentals A two semester introduction to the core concepts of evolutionary, molecular, cellular & genetical systems (Version 7.4.2018; 318 p) Lizenz:cc-by-nc-sa 4.0. http://virtuallaboratory.colorado.edu/Biofundamentals/Biofundamentals.pdf
  • CLUE- Chemistry, Life, the Universe & Everything. LibreTexts version. Lizenz: cc-by-nc-sa 3.0. https://chem.libretexts.org/Textbook_Maps/General_Chemistry_Textbook_Maps/Map%3A_CLUE_(Cooper_and_Klymkowsky)

SciEd blog PLOSBLOGS http://blogs.plos.org/scied/about/

Artikel im ScienceBlog

Redaktion, 03.08.2017: Soll man sich Sorgen machen, dass menschliche "Mini-Hirne" Bewusstsein erlangen?


 

inge Thu, 12.04.2018 - 09:59

Endosymbiose - Wie und wann Eukaryonten entstanden

Endosymbiose - Wie und wann Eukaryonten entstanden

Do, 05.04.2018 - 11:34 — Christina Beck Vorname ZunameIcon Gebiet

Als ursprüngliche, prokaryotische Lebensformen innerhalb einer Urzelle zu kooperieren begannen, entwickelten sie sich zu Organellen - zu Chloroplasten und Mitochondrien -, die Charakteristika neuer höherer Lebensformen, der Eukaryonten, sind. Diese, sogenannte Endosymbiontentheorie ist durch eine Fülle an Studien hinreichend belegt. Wann und wie die einzelnen Stufen der Endosymbiose stattgefunden haben könnten, ist eine noch offene Frage, mit der sich hier die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, beschäftigt.*

Eine neue Zeittafel der Evolution

Über das "Wann" der Übergang von Prokaryonten zu Eukaryonten stattgefunden hat, bestand lange Zeit Uneinigkeit: Die Datierungen für den gemeinsamen Vorfahren aller Eukaryonten gingen weit auseinander – sie variierten zwischen 1,5 und 2,8 Milliarden Jahren. Eine Kluft von mehr als einer Milliarden Jahre tat sich auf zwischen fossilen Funden und chemischen Spuren: Um die Entstehung höherer Lebewesen nachzuvollziehen, haben Wissenschaftler bestimmte Fettmoleküle, sogenannte Steroide, analysiert, die in den Zellwänden eukaryotischer Organismen enthalten sind (es sind Cholesterin in tierischen, Phytosterole in pflanzlichen und Ergosterol in fungalen Zellmembranen; Anmerkung Redn.). Steroid-Moleküle können in altem Sediment, also dem versteinerten Grund urzeitlicher Gewässer, als Sterane erhalten bleiben. Einige Wissenschaftler hatten solche molekularen Spuren vermehrt in Proben von 2,5 bis 2,8 Milliarden Jahre alten Sedimenten identifiziert und daraus geschlussfolgert, dass eukaryotische Algen bereits in dieser Zeit entstanden sein müssen. Andererseits finden sich die ältesten fossilen Mikroalgen, welche unumstritten als Überbleibsel von Eukaryonten gelten, bisher nur in etwa 1,5 Milliarden Jahre altem Gestein im Norden Australiens. Könnten die chemischen Proben kontaminiert gewesen sein?

2015 haben Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena zusammen mit US-amerikanischen Kollegen eine neue Methode entwickelt, um 2,7 Milliarden alte Gesteine, die als steroidhaltig eingestuft wurden, auf extrem saubere Weise zu analysieren. Die hochempfindlichen Massenspektrometer der verschiedenen Labore konnten nicht einmal Pikogramm-Mengen (d.i. 1 Milliardstel Milligramm Mengen; Anm. Redn.) eukaryotischer Steroide detektieren. „Das gesamte organische Material in diesen Proben wurde im Laufe der Jahrmillionen durch Druck und Temperatur verändert – keine Biomarker-Moleküle hätten dies überlebt“, sagt der Max-Planck-Forscher Christian Hallmann.

Somit können die vermeintlich 2,7 Milliarden Jahre alten Steroidmoleküle nicht mehr als Beweis herhalten, dass Eukaryonten bereits viel früher entstanden sind als Fossilienfunde belegen.

Ohnehin hatten die bisherigen chemischen Daten den Forschern einiges Kopfzerbrechen bereitet: Da alle Eukaryonten Sauerstoff benötigen, muss die Entwicklung der Sauerstoff-produzierenden Photosynthese dem evolutionären Übergang zu den Eukaryonten vorausgegangen sein. Diese biochemische Innovation, bekannt als „Sauerstoff-Krise“, in deren Folge sich der gesamte Planet veränderte, wird eindeutig auf 2,5 bis 2,4 Milliarden Jahre vor unserer Zeit datiert. Bislang ließ sich schwer erklären, wie die Eukaryonten schon mehrere 100 Millionen Jahre vorher entstanden sein konnten, wenn sie doch unbedingt Sauerstoff brauchten.

Spektakuläre Fossilienfunde in Indien

Inzwischen gibt es weitere Entdeckungen: So haben schwedische Forscher 2017 in Zentralindien die womöglich bisher ältesten Fossilien eukaryotischer Zellen entdeckt. Fündig wurden sie in der rund 1,6 Milliarden Jahre alten Chitrakoot-Formation. Dieses Sediment entstand einst in einem flachen Küstengewässer, in dem Kolonien von fädigen Cyanobakterien lebten. Ihre typischen, röhrenförmigen Relikte sind als Stromatolithen im Gestein erhalten geblieben. Zwischen den fossilen Cyanobakterien entdeckten die Forscher jedoch einige Röhrchen, die mit bis zu zwei Millimetern Länge deutlich größer waren und eine ungewöhnliche innere Struktur besaßen, wie Mikro-Computertomografie-Aufnahmen enthüllten (Abbildung 1).

Abbildung 1. Röntgentomografie eines der fossilen Zellröhrchen (Rafatazmia chitrakootensis), Balken 50 μm: (A) Oberfläche (B) Innenansicht mit rhombischen Strukturen, eingefärbt (C) virtueller Längsschnitt. © Bengtson et al./PLoS Biology https://doi.org/10.1371/journal.pbio.2000735

Die Forscher vermuten, dass es sich bei diesen intrazellulären Strukturen um eine frühe Form von Plastiden handelt. Sollte sich dies bestätigen, wären diese 1,6 Milliarden Jahre alten Mikrofossilien eine der ältesten, wenn nicht der älteste gesicherte Fund eukaryotischer Zellen.

Was als „lockere Wohngemeinschaft“ vor etwa anderthalb Milliarden Jahre begann, führte bei den Symbionten zu einer Co-Evolution, in deren Verlauf diese ihre Autonomie verloren und zu Organellen umgestaltet wurden. Dabei wurden Teile der Symbionten-DNA in das Kerngenom der Wirtszelle integriert (Abbildung 2). Abbildung 2. Die Vorläufer der Organellen waren freilebende Bakterien, die von einer „Urzelle“ umschlossen wurden. Auf diese Weise entstanden aus Proteobakterien Mitochondrien und aus Cyanobakterien Chloroplasten. Die Pfeile geben die Richtung und den Umfang des Gentransfers an.© Jochen Stuhrmann

Forscher nehmen an, dass die endosymbiotisch lebenden Cyanobakterien und Proteobakterien (Vorläufer der Mitochondrien) bis zu 90 Prozent ihres Genoms in den Kern der Wirtszelle transferiert haben. Ein solcher funktionaler Gentransfer setzt jedoch voraus, dass die Gene an richtiger Stelle in das Kerngenom eingebaut werden, damit sie abgelesen werden können.

Da die Übertragung Tausender Gene aus den Organellen in den Kern in riesigen evolutionären Zeiträumen ablief und demzufolge niemand jemals ein solches Ereignis beobachten konnte, entzog sich diese Frage bislang jeder Überprüfung. „Erst neue Technologien, die es erlauben, Chloroplastengenome höherer Pflanzen gentechnisch zu verändern, haben es uns in den vergangenen Jahren ermöglicht, wichtige Schritte dieses evolutionären Prozesses im Labor – quasi im Zeitraffer – nachzuvollziehen und die molekularen Grundlagen des Gentransfers zwischen Organellen- und Kerngenomen zu analysieren“, erklärt Ralph Bock, Direktor am Max-Planck-Institut für molekulare Pflanzenphysiologie.

Gentransfer im Zeitraffer

Der Max-Planck-Forscher und sein Team brachten ein zusätzliches Gen in die Chloroplasten von Tabakpflanzen ein. Dieses Gen vermittelt eine Resistenz gegen das Antibiotikum Kanamycin – allerdings nur dann, wenn es sich im Erbgut des Zellkerns befindet. Folglich konnten die gentechnisch veränderten Pflanzenzellen nur resistent gegen Kanamycin sein, wenn das Gen von den Chloroplasten in den Kern der Zellen eingewandert und dort erfolgreich ins Erbgut integriert worden war. Um das zu testen, überführten die Forscher die Pflanzenzellen in eine Gewebekultur und brachten diese auf einem mit Kanamycin versetzten Nährmedium aus. Zellen, die hier überlebten, mussten das Resistenzgen aus dem Plastidengenom in das Kerngenom transferiert haben. Aus solchen Zellen können schließlich komplette, gegen das Antibiotikum resistente Pflanzen wachsen. „Die Häufigkeit, mit der sich ein solcher Gentransfer vollzogen hat, übertraf alle unsere Erwartungen“, sagt Ralph Bock: „In etwa einer von fünf Millionen Zellen war das Gen in den Zellkern gelangt.“ Wie viel dies ist, wird deutlich, wenn man sich klarmacht, dass ein einziges Blatt aus wesentlich mehr als fünf Millionen Zellen besteht.

Nun führt der Transfer eines Gens aus den Chloroplasten in den Zellkern nicht automatisch zu einem funktionierenden Kern-Gen. Der Grund dafür ist, dass sich prokaryotische, also bakterielle Organellen-Gene und eukaryotische Kern-Gene strukturell unterscheiden. Beim oben beschriebenen Experiment umgingen die Forscher dieses Problem, indem sie das Gen, welches die Kanamycin-Resistenz vermittelt, mit eukaryotischen Steuerelementen (Promotor, Terminator) versahen. Somit war es unmittelbar nach dem Einfügen im Kerngenom auch aktiv. Beim evolutionären Gentransfer ist dies jedoch nicht der Fall: Das transferierte Gen wird zwar in den Zellkern eingebaut, kann dort aber in aller Regel zunächst nicht abgelesen werden – es sei denn, in einem zweiten Schritt wird ein eukaryotischer Promotor vor das Gen eingebaut.

Der Zufall spielt mit

Um zu prüfen, ob ein solches Ereignis ebenfalls stattfindet, haben die Forscher ein weiteres Gen – dieses Mal allerdings mit bakterieller Genstruktur – in das Chloroplastengenom eingeführt, das eine Resistenz gegen das Antibiotikum Spectinomycin vermittelt. Im Zug des Experiments entstanden somit Pflanzen, bei denen sich im Zellkern ein funktionierendes Kanamycin-Resistenzgen nebst einem inaktiven (weil bakteriellen) Spectinomycin-Resistenzgen befand. Folglich sollten diese Pflanzen resistent gegen Kanamycin, aber empfindlich gegenüber Spectinomycin sein. Tatsächlich traten in den Kultivierungsexperimenten in acht selektierten Pflanzenlinien jedoch Resistenzen auch gegen Spectinomycin auf, ergo musste das entsprechende Gen aktiv geworden sein. „Es zeigte sich, dass in jedem dieser Fälle durch die Deletion eines kleineren Stücks DNA ein aktiver Promotor vor das Gen gelangt war“, erklärt Bock. Dieser molekulare Umbau reichte aus, um das Spectinomycin-Resistenzgen zu aktivieren.

Damit konnten erstmals Vorgänge, die sonst in erdgeschichtlichen Zeiträumen ablaufen, im Zeitraffer nachvollzogen und die zugrunde liegenden Mechanismen aufgeklärt werden. Es ist somit nicht überraschend, dass es verschiedenen Endosymbionten innerhalb weniger Millionen Jahre gelang, einen guten Teil ihres Genoms in den Wirtskern auszulagern und zu aktivieren.

Und wie ging es weiter?

Nun sind Einzeller zwar klein, so klein aber auch wieder nicht. Man hat errechnet, dass eine ungebremste Vermehrung die Erde binnen weniger Tage mit Einzellern regelrecht überzogen hätte. Lückenlos! Die frühe Schöpfung wäre an sich selbst erstickt. […] War die Idee mit der Handtasche doch nicht so genial gewesen?“[1]

Und damit beginnt laut Schätzing „Miss Evolutions dritter Geniestreich“: „Ihr Plan war auf Spezialisierung ausgerichtet. […] Das große Geheimnis der Vielzeller ist, dass sie nicht einfach Zusammenballungen von Mikroben sind, sondern ihre Zellen sich die Arbeit am heranwachsenden Organismus teilen.“

Also sorgte Miss Evolution auch dafür, dass nur ganz bestimmte Zellen zur Fortpflanzung fähig waren. Und jetzt kommt die Sache mit dem Sex – aber das ist eine andere Geschichte.


[1] Frank Schätzing, Nachrichten aus einem unbekannten Universum, Verlag Kiepenheuer & Witsch, Köln, 2006. Ausschnitte, darunter die zitierten Stellen sind nachzulesen unter: https://bit.ly/2Ick0tL


* Dies ist Teil 2 des unter dem Titel: "Der Ursprung des Lebens - oder wie Einzeller zu kooperieren lernten" in BIOMAX 34 (Winter 2017/2018) der Max-Planck-Gesellschaft erschienenen Artikels (https://www.max-wissen.de/287242/BIOMAX_34-web.pdf ). Dieser wurde freundlicherweise von der Autorin ScienceBlog.at zur Verfügung gestellt und praktisch unverändert in den Blog übernommen, allerdings auf Grund seiner Länge in 2 Teilen gebracht.

Teil 1 ist am 29.März 2018 in ScienceBlog.at erschienen: http://scienceblog.at/ursprung-des-lebens-wie-einzeller-kooperieren-lern.... h


Weiterführende Links

Zellorganellen – die Endosymbiontentheorie. Video 4:52 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=9LTMDLDsL98 . Standard-YouTube-Lizenz

Dieses Video versucht die Entstehung der eukaryotischen Zelle, die u.a. durch den Besitz von Zellorganellen wie Plastiden und Mitochondrien charakterisiert ist, zu erklären. Danach sollen gärende zellwandfreie Bakterien im Verlauf der Evolution symbiontisch Cyanobakterien und aerobe Bakterien aufgenommen haben, die sich dann zu Plastiden und Mitochondrien entwickelten. Für die Endosymbiontentheorie sprechen die eigenständige Vermehrung (Autoreduplikation) der Zellorganellen, ihre hinsichtlich der "Wirtszelle" andersartige DNA und Eiweißsynthese sowie die Doppelmembran der Organellen.

Zellorganellen – Gene auf Wanderschaft. Video 7:40 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=FHt197dkNU Standard-YouTube-Lizenz

Tiefenbohrung in die Erdgeschichte, MaxPlanckForschung 3/2015, www.mpg.de/9688346/

Christian Hallmann 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern Eukaryoten: Eine neue Zeittafel der Evolution (2015) https://www.mpg.de/forschung/eukaryoten-evolution?filter_order=L&research_topic= Eukaryoten sind in der Evolution später entstanden als angenommen

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur


 

inge Thu, 05.04.2018 - 11:34

Ursprung des Lebens - Wie Einzeller kooperieren lernten

Ursprung des Lebens - Wie Einzeller kooperieren lernten

Do, 29.03.2018 - 13:14 — Christina Beck Christina BeckIcon Biologie

Die ursprünglichen "Membransäcke" - Bakterien und Archaebakterien - haben im Verlauf der Evolution Cyanobakterien und aerobe Bakterien aufgenommen, die sich im Inneren endosymbiontisch zu Plastiden und Mitochondrien entwickelten - Zellorganellen auf dem Weg zu höheren Organismen, den Eukaryonten. Die Zellbiologin Christina Beck, Leiterin der Kommunikation der Max-Planck-Gesellschaft, vermittelt einen leicht verständlichen Einblick in die sogenannte Endosymbiontentheorie.*

„Die Evolution muss außerordentlich zufrieden gewesen sein. So zufrieden, dass sie drei Milliarden Jahre weitestgehend verschlief. Vielleicht blickte sie auch einfach voller Stolz auf ihr Werk, ohne sich zu Höherem berufen zu fühlen. Sicher, dieser Membransack mit dem Supermolekül im Kern hatte sich als Husarenstück erwiesen, auf das man sich durchaus etwas einbilden konnte. Aber dreieinhalb Milliarden Jahre nichts als Einzeller?“ 

So flapsig und doch treffend zugleich steigt Frank Schätzing in seinem Buch Nachrichten aus einem unbekannten Universumin die Geschichte der Evolution ein [1].

„Eine winzige Hülle, die im offenen Wasser treiben konnte, dabei aber immer alles hübsch beieinander hatte, was zur Erhaltung einer lebensfähigen Zelle vonnöten war. […] Damit war der Grundbaustein aller komplexen Wesen erfunden. Ein kleines Säckchen voll genetischer Information, ein praktischer Beutel. Die Handtasche der Evolution.“

Mehrfach hat sich dieser „Membransack“ entwickelt,

mit unterschiedlichen Resultaten. Archaebakterien und Eubakterien, die "echten" Bakterien, entstanden. Sie bilden zusammen die Familie der Prokaryonten. Karyon ist das griechische Wort für „Kern“, ein Prokaryont ist also eine Zelle vor der Erfindung des Zellkerns. Archaebakterien und Eubakterien enthalten nämlich kein inneres Membransystem und auch ihre DNA liegt als Molekül frei im Plasma der Zelle vor. Oder wie Schätzing schreibt: „In der Handtasche rutschte immer noch alles wild hin und her.“

Die Eukaryonten umfassen die übrigen Lebewesen. Sie unterscheiden sich von den Prokaryonten vor allem darin, dass sie einen echten Zellkern sowie membranumhüllte Organellen besitzen, von denen einige eigene Erbanlagen (Gene) enthalten.

Was genau aber ist passiert, damit aus Prokaryonten Eukaryonten werden konnten

– jene Zellen, die als Urväter der drei großen Reiche gelten, der Pilze, Pflanzen und Tiere?

Bereits 1867 hatte der Schweizer Botaniker Simon Schwendener erkannt, dass Flechten quasi Doppelorganismen aus Alge und Pilz sind. Sie bestehen aus einem oder mehreren Pilzen, den sogenannten Mycobionten, und einem oder mehreren Photosynthese betreibenden Partnern, den Photobionten. Das sind in der Regel Grünalgen oder Cyanobakterien (= Prokaryonten, möglicherweise die einfachsten und ältesten Lebewesen der Erde). Der Pilz bildet fast immer den eigentlichen Vegetationskörper, ein Geflecht aus Pilzfäden (Hyphen); darin eingeschlossen befindet sich eine Population der Photobionten (Abbildung 1).

Die Vorteile der Symbiose liegen stark auf der Seite des Mycobionten: Er wird von seinem Photobionten, der Alge, mit Nährstoffen versorgt, welche diese durch Photosynthese bildet. Schwendener schrieb daher auch von einer „Versklavung“ der eingefangenen Alge durch den Pilz; heute sprechen Forscher eher von „kontrolliertem Parasitismus“.

Abbildung 1. Flechten sind eine Symbiose von Grünalgen oder Cyanobakterien und Pilzen. Hier liegt oben eine Rindenschicht aus dichtem Pilzmycel und darunter folgt eine Schicht mit den symbiontischen Trebouxia Grünalgen. Unter dieser Algenschicht folgt dann lockeres Pilzmycel und den Abschluss nach unten bildet eine braune Rindenschicht, gebildet aus dicht verfilzten Hyphen.© Dr. R. Wagner

Die Eigenschaften der Flechten unterscheiden sich deutlich von jenen der Organismen, aus denen sie sich zusammensetzen. So bilden sich erst in der Symbiose die typischen Wuchsformen der Flechten heraus, und nur in Lebensgemeinschaft mit einem Photobionten bilden die Mycobionten die charakteristischen Flechtensäuren.

Für den russischen Naturforscher Konstantin Mereschkowski lieferten Flechten daher einen ersten Hinweis darauf, dass neue Lebensformen durch Kombination von Einzelorganismen entstehen können. 1905 veröffentlichte er eine erste theoretische Arbeit, „Über Natur und Ursprung der Chromatophoren im Pflanzenreich“, die noch heute als die grundlegende Publikation zur Endosymbiontentheorie gilt. Sie sollte sich als revolutionär erweisen für das Verständnis vom Ursprung eukaryotischen Lebens.

Wohngemeinschaft mit gravierenden Folgen

Die Idee war allerdings nicht neu, andere Biologen, u.a. Andreas Schimper, hatten sich bereits in den 1880er-Jahren darüber Gedanken gemacht. Doch erst Mereschkowski legte eine schlüssige Herleitung vor, dass Chloroplasten – jene Organellen, in denen die Photosynthese, also der Aufbau von Glucose aus Kohlendioxid und Wasser im Sonnenlicht, stattfindet – auf ehemals frei lebende Prokaryonten zurückgehen: Sie waren von artfremden, eukaryotischen Wirtszellen aufgenommen, aber nicht verdaut worden, sondern hatten zunächst eine stabile Form der Partnerschaft mit den Wirtszellen gebildet. „Das war der Moment, in dem die Wohngemeinschaft erfunden wurde, wissenschaftlich Endosymbiose. Sozusagen Kommune 1“, schreibt Schätzing. (Abbildung 2)

Abbildung 2. Neue Lebensformen entstehen durch Kombination von Einzelorganismen. (Cartoon: © The Amoeba Sisters)

Ein wichtiges Indiz war für Mereschkowski die Tatsache, dass Chloroplasten immer durch Teilung aus ihresgleichen hervorgehen, und nicht, wie man es von Zellbestandteilen erwarten würde, im Zyklus der Zellteilung neu gebildet werden. Ferner besaßen die blaugrün gefärbten Plastiden auffallende physiologische und morphologische Ähnlichkeiten mit den photosynthetisch aktiven Cyanobakterien. Auch wenn die Beobachtung dieser extrem kleinen Organismen mit Mikroskopen zu dieser Zeit alles andere als einfach war – Mereschkowski war überzeugt: Cyanobakterien besaßen weder einen Kern noch Chloroplasten; das Cyanobakterium als Ganzes war ein einzelner Chloroplast.

Auch die gut bekannten Fälle von Symbiose unterstützten seine Behauptung, dass Chloroplasten in Wirklichkeit Cyanobakterien sind. Mereschkowski wies auf Algen (Zoochlorellen und Zooxanthellen) hin, die symbiotisch in Protozoen, Süßwasserschwämmen, Hydra und bestimmten Plattwürmern leben. Symbiotische Algen, so sein Argument, konnten in fast jeder Klasse von "niederen wirbellosen Tieren" gefunden werden.

Belege der Endosymbiontentheorie durch die Molekularbiologie

Was Mereschkowski noch nicht wissen konnte, haben inzwischen moderne Methoden der Molekularbiologie enthüllt:

  • Studiert man die Struktur von Plastiden (und übrigens auch von Mitochondrien) genau, fällt auf, dass sie sich durch zwei Hüllmembranen gegen das Cytoplasma - die Grundsubstanz im Innern der Zelle - abgrenzen: ein Ergebnis der sogenannten Phagocytose, also der Einverleibung einer Zelle in eine andere. Dabei ist die äußere Membran typisch eucytisch, die innere hingegen weist protocytische, also bakterielle Merkmale auf.
  • Chloroplasten besitzen eine eigene zirkuläre DNA; DNA-Vervielfältigung und Proteinherstellung ähneln dabei denen von Bakterien. So besitzt die Chloroplasten-DNA bakterienartige Promotoren, das sind jene Sequenzbereiche, welche das Ablesen eines Gens regulieren. Anders als eukaryotische Zellen besitzen Chloroplasten sogenannte 70S-Ribosomen, die auch für Bakterien charakteristisch sind. Und ihre Gene weisen eine hohe Übereinstimmung mit cyanobakteriellen Genen auf.

Es gibt somit eine Fülle von Belegen für die Endosymbiontentheorie, was aber nicht heißt, dass nicht auch noch viele Fragen offen wären, insbesondere wie beziehungsweise wie oft und wann genau die verschiedenen Stufen der Endosymbiose stattgefunden haben. Hier liegt noch vieles im Dunkeln.

Bezüglich des "Wie oft" der Chloroplasten-Bildung kann die Wissenschaft immerhin schon sagen, dass alle Chloroplasten (auch die komplexen) der (ein- und mehrzelligen) Algen und Landpflanzen monophyletischen Ursprungs sind, also auf ein einzelnes Endosymbiose-Ereignis zurückgehen. Über das "Wann" bestand allerdings lange Zeit Uneinigkeit: Die Datierungen für den gemeinsamen Vorfahren aller Eukaryonten gingen weit auseinander – sie variierten zwischen 1,5 und 2,8 Milliarden Jahren.


[1] Frank Schätzing, Nachrichten aus einem unbekannten Universum, Verlag Kiepenheuer & Witsch, Köln, 2006. Ausschnitte, darunter die zitierten Stellen sind nachzulesen unter: https://bit.ly/2Ick0tL


* Dies ist der 1. Teil des unter dem Titel: "Der Ursprung des Lebens - oder wie Einzeller zu kooperieren lernten" in BIOMAX 34 (Winter 2017/2018) der Max-Planck-Gesellschaft erschienenen Artikels (https://www.max-wissen.de/287242/BIOMAX_34-web.pdf ). Dieser wurde freundlicherweise von der Autorin ScienceBlog.at zur Verfügung gestellt und praktisch unverändert in den Blog übernommen (nur einige Absätze und Untertitel wurden eingefügt), allerdings auf Grund seiner Länge in 2 Teilen gebracht. Teil 2 erscheint in Kürze.


Weiterführende Links

Zu Teil 1: Endosymbiontentheorie

Zellorganellen – die Endosymbiontentheorie. Video 4:52 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=9LTMDLDsL98 . Standard-YouTube-Lizenz

Diese versucht die Entstehung der eukaryotischen Zelle, die u.a. durch den Besitz von Zellorganellen wie Plastiden und Mitochondrien charakterisiert ist, zu erklären. Danach sollen gärende zellwandfreie Bakterien im Verlauf der Evolution symbiontisch Cyanobakterien und aerobe Bakterien aufgenommen haben, die sich dann zu Plastiden und Mitochondrien entwickelten. Für die E. sprechen die eigenständige Vermehrung (Autoreduplikation) der Zellorganellen, ihre hinsichtlich der "Wirtszelle" andersartige DNA und Eiweißsynthese sowie die Doppelmembran der Organellen.

Zu Teil 2:

Zellorganellen – Gene auf Wanderschaft. Video 7:40 min. Max-Planck-Gesellschaft (2015) www.youtube.com/watch?v=FHt197dkNU Standard-YouTube-Lizenz

Tiefenbohrung in die Erdgeschichte, MaxPlanckForschung 3/2015, www.mpg.de/9688346/

Christian Hallmann 20.11.2015: Von Bakterien zum Menschen: Die Rekonstruktion der frühen Evolution mit fossilen Biomarkern

Eukaryoten: Eine neue Zeittafel der Evolution (2015) https://www.mpg.de/forschung/eukaryoten-evolution?filter_order=L&research_topic= Eukaryoten sind in der Evolution später entstanden als angenommen

Artikel zur Evolution von Organismen im ScienceBlog

Im Themenschwerpunkt Evolution gibt es zahlreiche Artikel zur

  • Entstehung des Lebens, primitive Lebensformen. http://scienceblog.at/entstehung-des-lebens-primitive-lebensformen
  • Evolution komplexer Lebensformen. http://scienceblog.at/evolution-komplexer-lebensformen

 

inge Thu, 29.03.2018 - 13:14

Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Schutz der Nervenenden als Strategie bei neuromuskulären Erkrankungen

Do, 22.03.2018 - 06:04 — Redaktion RedaktionIcon Gehirn

Das Ableben des weltberühmten Physikers Steve Hawking hat uns die Problematik von neurodegenerativen Erkrankungen wieder vor Augen geführt. Für die Amyotrophe Lateralsklerose, an der er litt, gibt es nach wie vor keine Therapie und viele Versuche das Absterben der Nervenzellen zu verlangsamen, haben fehlgeschlagen. Eine Studie, die eben im open access Journal eLife erschienen ist, zeigt einen neuen Ansatz, der darin besteht, dass dié initiale Degeneration der Nerven -Muskel -Verbindung (= Synapse) verhindert wird [1]. Ein erfolgreicher Schutz der Synapsen könnte auch als Therapie in anderen neurodegenerativen Erkrankungen zur Anwendung kommen. Der Neuropatholologe und ALS-Experte Jonathan D. Glass (Emory University ALS Center, Atlanta) hat die Ergebnisse dieser Studie zusammengefasst [2].*

In der Neurobiologie gilt ganz allgemein, dass die Intaktheit eines Axons - es handelt sich dabei um die kabelähnlichen Fortsätze, die Informationen zwischen Nervenzellen (Neuronen), Muskeln und sensorischen Rezeptoren übertragen - völlig davon abhängt, wie gesund der Zellkörper des Neurons ist. Diese Vorstellung war daher auch Leitprinzip in der Suche nach experimentellen Therapeutika zur Behandlung von neurodegenerativen Erkrankungen, beispielsweise von Alzheimer, Parkinson und amyotropher Lateralsklerose. Der Schutz des Zellkörpers des Neurons sollte dazu beitragen, das Voranschreiten der Neurodegeneration zu verlangsamen oder sogar zu stoppen. Wie ein Neuron aussieht, ist in Abbildung 1 schematisch dargestellt.

.Insert rechts unten: Neuromuskuläre Endplatte. 1: terminales Axon eines Motoneurons, 2: neuromuskuläre Endplatte, 3: Muskelfaser, 4: Myofibrille. (Bild von der Redaktion eingefügt; Quelle: fr:Utilisateur:Dake, https://de.wikipedia.org/wiki/Nervenzelle#/media/File:Synapse_diag3.png; Lizenz: cc-by-sa 3.0)

Aus Tierexperimenten und Beobachtungen am Menschen kommen allerdings mehr und mehr Hinweise, dass Neuronen, Axone und auch Nervenendigungen in unterschiedlicher Weise auf Schädigungen reagieren. Dies legt den Schluss nahe, dass unabhängige Mechanismen der Neurodegeneration in verschiedenen Abschnitten des Neurons eine Rolle spielen. Um eine wesentliche therapeutische Wirkung zu erzielen, müssten Behandlungen daher auf das Neuron als Ganzes abzielen.

Amyotrophe Lateralsklerose (ALS)

ist eine verheerende Erkrankung der Motoneuronen, die ohne Vorwarnung, typischerweise in der Blüte des Lebens auftritt. Menschen mit ALS werden zunehmend schwächer -es folgt ein grausamer Weg, der über Behinderung zum Verlust der Selbständigkeit und schlussendlich zum Tod führt. Therapeutische Maßnahmen sind weitgehend palliativ - Dutzende klinische Studien haben in den letzten drei Jahrzehnten erfolglos nach Mitteln gesucht, die ein Fortschreiten dieser Krankheit zumindest verlangsamen sollten.

Präklinische Experimente an ALS- Krankheitsmodellen in Tieren haben zwar vielversprechende Ergebnisse gezeitigt, konnten aber leider nicht erfolgreich auf den Menschen übertragen werden; warum diese Fehlschläge passierten,wird viel diskutiert. Besonders interessant - vor allem, weil die Ergebnisse paradox sind - waren Tierversuche, die zwar einen nahezu vollständigen Schutz der Zellkörper von Motoneuronen aufzeigten, jedoch das Voranschreiten der Krankheit nicht verzögern konnten: Es wurden dabei verschiedenartige Techniken angewandt, um die Zellkörper der Motorneuronen zu schützen; der Verlust der Verbindung (Konnektivität) zwischen den Nervenendigungen und dem Muskel (die sogenannte Denervierung) konnte damit aber nicht verhindert werden.

Der degenerative Prozess…

Experimentelle Untersuchungen an ALS- Tiermodellen haben gezeigt, dass der degenerative Prozess (als Absterben ("dying-back") bezeichnet) an den Nervenendigungen beginnt und das Axon entlang bis schließlich hin zum Zellkörper des Neurons fortschreitet. Wie bei jedem "elektrischen" System führt die Durchtrennung von Draht (Axon) und Zielobjekt (dem Muskel) dann zum Verlust der Funktion - im Fall von ALS sind Schwäche und schliesslich der Tod die Konsequenz.

Der Prozess beginnt also dort, wo das Motoneuron an den Muskel bindet, an der sogenannten neuromuskulären Endplatte (neuromuscular junction; siehe Abbildung 1), einer speziellen Synapse, an der chemische Signale (der Neurotransmitter ist Acetylcholin; Anm. Redn) zur Aktivierung der Muskelkontraktion übertragen werden.

…und eine mögliche Gegenstrategie

Im Journal eLife berichten nun Wissenschafter von der NYU Medical School und der Columbia University, dass ein Erhalt der Verbindung zwischen Nerv und Muskeln den Krankheitsverlauf verlangsamen könnte [2].

Um diese Nerv-Muskel-Verbindung aufrecht zu erhalten, sind zahlreiche Proteine involviert, u.a. ein Rezeptor-Protein namens MuSK. Dieses MuSK stimuliert während der Entwicklungsphase die Anheftung der Nervenendigung an den Muskel. Später im Leben ist MuSK notwendig, um die neuromuskuläre Endplatte stabil zu erhalten und damit zu gewährleisten, dass Signale zwischen Muskel, Nervenendigung und motorischem Axon laufen können. Tatsächlich sind Schädigungen oder Mutationen des MuSK-Gens mit neuromuskulären Erkrankungen verbunden. Abbildung 2.

Abbildung 2. Das somatische Nervensystem. (A) Eine schematische Darstellung des neuromuskulären Systems. Motoneurone (rot) im Gehirn und im Rückenmark senden elektrische Impulse entlang der Axone (die den motorischen Nerv bilden) zu den Muskelfasern, um sie zu kontrahieren. Die sensorischen Neuronen (blau dargestellt) übermitteln Informationen (in Form von elektrischen Impulsen) von verschiedenen Körperteilen an das Gehirn. Bei Erkrankungen wie der amyotrophen Lateralsklerose gibt es Hinweise darauf, dass die Degeneration an der neuromuskulären Endplatte zwischen den Enden der Axone und dem Muskel beginnt und entlang des Axons in Richtung des Zellkörpers fortschreitet. (B) Fluoreszenzmikroskopie der neuromuskulären Endplatte (neuromuscular junction - NMJ). Die Felder auf der linken Seite zeigen eine vollständig innervierte neuromuskuläre Endplatte, wobei das Axon grün (oben links) und der Muskel rot markiert ist (Mitte links). Das zusammengefügte Feld (unten links) zeigt die vollständige Überlappung des Nervenendstücks mit dem Muskel (gelb). Die Platten rechts zeigen eine denervierte neuromuskuläre Endplatte, in der das Axon nicht mehr mit dem Muskel überlappt.

Das Forscherteam hat nun ein gut charakterisiertes ALS -Modell in der Maus verwendet, um zu testen, ob ein Eingriff bei bereits geschädigten neuromuskulären Synapsen das Fortschreiten der Krankheit verlangsamen kann [2]. Dieser Eingriff bestand darin einen Antikörper zu verwenden, der als Agonist an das MuSK-Protein bindet und dessen Aktivierung stimuliert. Es zeigte sich, dass mit diesem Antikörper die neuromuskulären Synapsen über einen längeren Zeitraum intakt und funktionsfähig blieben. Außerdem trat das Absterben von Motoneuronen verzögert ein - ein Hinweis darauf, dass die Aufrechterhaltung der Innervation des Muskels für das Weiterbestehen des Zellkörpers von Motoneuronen wichtig ist.

Insgesamt überlebten die behandelten Tiere aber nur einige Tage länger als die Kontrollen. Dies könnte auf die aggressive Form der ALS-Erkrankung in diesem Tiermodell zurückzuführen sein oder vielleicht auch darauf, dass die Zellkörper der Motoneuronen nicht auch therapeutisches Ziel waren. Nichtsdestoweniger lassen diese Ergebnisse aber darauf schließen, dass der Schutz der neuromuskulären Synapse eine Möglichkeit darstellen könnte, das Fortschreiten der ALS-Krankheit zu verlangsamen und Neuronen länger am Leben zu erhalten.

Fazit

Pathogenese und Progression der Amyotrophen Lateralsklerose liegen im Dunkeln, sind ein ungelöstes neurobiologisches Problem. Laufend werden Gene und zelluläre Signalwege entdeckt, die mögliche Treiber der Krankheit darstellen und jeweils gezielt manipuliert werden könnten. Die in [2] beschriebenen Ergebnisse lassen einen neuen Ansatz als realisierbar erscheinen, der - auf Basis eines konkreten molekularen Mechanismus - die Bildung und Aufrechterhaltung der Verbindungen zwischen Nervenzellen und Muskeln zum Ziel hat. Damit könnte das Fortschreiten der amyotrophen Lateralsklerose verlangsamt werden. Da ein derartiger Mechanismus aber nicht spezifisch für ALS ist, könnte er auch in anderen neuromuskulären Erkrankungen therapeutische Anwendung finden, bei denen die Denervierung ein wichtiges pathologisches Merkmal ist.


[1] S. Cantor et al., Preserving neuromuscular synapses in ALS by stimulating MuSK with a therapeutic agonist antibody (2018), eLife 2018;7:e34375 doi: 10.7554/eLife.34375 [2] JD Glass, Neuromuscular Disease: Protecting the nerve terminals (Insight Mar 19, 2018). eLife 2018;7:e35664 doi: 10.7554/eLife.35664


*Der von Jonathan D. Glass stammende Artikel: " Neuromuscular Disease: Protecting the nerve terminals" ist am 19. März 2018 erschienen in: eLife 2018;7:e35664 doi: 10.7554/eLife.35664 als eine leicht verständliche Zusammenfassung ("Insight") der Untersuchung von S.Cantor et al. [1]. Der Artikel wurde von der Redaktion ins Deutsche übersetzt und geringfügig für ScienceBlog.at adaptiert (Untertitel, Abbildung 1 aus Wikipedia). eLife ist ein open access Journal, alle Inhalte stehen unter einer cc-by Lizenz -


Weiterführende Links

Homepage eLife: https://elifesciences.org/

Homepage von Jonathan Glass, Prof. und Direktor des Emory ALs Center http://neurology.emory.edu/faculty/neuromuscular/glass_jonathan.html

Emory ALS Center. Video 7:49 min.(englisch) https://www.youtube.com/watch?v=R7PbxcZBvi8 , Standard-YouTube-Lizenz

Infofilm Was ist ALS. Video 2:23 min. https://www.youtube.com/watch?v=IRQb4lkGeVE , Standard-YouTube-Lizenz

Stephen Hawking - Ein persönlicher Nachruf | Harald Lesch (14.3.2018). Video 6:50 min. https://www.youtube.com/watch?v=c1pQS1quRp8. Standard-YouTube-Lizenz

Artikel im ScienceBlog:

Redaktion, 2.04.2017: Wissenschaftskommunikation: das open-access Journal eLife fasst Forschungsergebnisse für die Öffentlichkeit verständlich zusammen. http://scienceblog.at/wissenschaftskommunikation-open-access-journal-elife.


 

inge Thu, 22.03.2018 - 06:04

Auf dem Weg zu einer neuartigen Impfung gegen Mykoplasmen

Auf dem Weg zu einer neuartigen Impfung gegen Mykoplasmen

Do, 15.03.2018 - 10:13 — Markus Schmidt

Markus SchmidtIcon MedizinMykoplasmen sind winzige bakterielle Krankheitserreger, die bei Mensch und Tier schwere Infektionen im Atmungs- und Urogenitaltrakt hervorrufen. Die in der Nutztierhaltung dadurch entstehenden, enormen Schäden machen eine Anwendung von Antibiotika unabdingbar; gegen diese entstehen allerdings zunehmend Resistenzen. Um Antibiotika künftig ersetzen zu können, entwickelt das von der EU geförderte Projekt MycoSynVac , an dem auch der Biologe und Biosicherheitsforscher Markus Schmidt beteiligt ist, einen neuartigen Impfstoff. Mittels Synthetischer Biologie sollen Mykoplasmen genetisch umprogrammiert werden, sodass sie sich an den Wirtszellen noch festsetzen und damit eine immunstimulierende Reaktion des Wirtes auslösen können, jedoch keine Virulenzfaktoren mehr enthalten, die ansonsten Zellschäden und Entzündungsprozesse verursachen würden.

Im Jahr 2010 veröffentlichten Forscher am J. Craig Venter Institut (JCVI) im Fachjournal Science ein sensationelles Ergebnis: Sie hatten erstmals eine Bakterienzelle erzeugt, die durch ein künstliches, durch chemische Synthese hergestelltes, Genom völlig kontrolliert wurde und sich kontinuierlich vermehren konnte [1]. Bei dieser "synthetischen" Zelle handelte es sich um die modifizierte Version eines ungewöhnlichen Bakteriums, eines Mykoplasmas.

Was sind Mykoplasmen?

Mykoplasmen unterscheiden sich wesentlich von anderen Bakterien. Sie sind vor allem viel kleiner als andere Bakterien und besitzen ein außergewöhnlich kleines Genom, das aus weniger als 1 Million Basenpaaren besteht - das entspricht nur 500 - 1000 Genen (zum Vergleich: das bekannte Bakterium Escherichia coli enthält 4288 Gene) und demgemäß einer Minimalausstattung an Genprodukten, d.i. Proteinen und RNAs. Abbildung 1 gibt einen Überblick über wesentliche Komponenten einer Mykoplasmenzelle.

Abbildung 1. Querschnitt durch eine Mykoplasma mycoides Zelle. Der Durchmesser beträgt nur rund 300 Nanometer (0.0003 mm). An die Lipide der Zellmembran (hellgrün )sind nach außen lange Kohlehydratketten (dunkelgrün) geknüpft. Viele Transportproteine (grün) sind in die Zellmembran eingebettet. Im Innern der Zelle sieht man die DNA (gelbe Fäden) mit der Maschinerie für Replikation und Transkription (orange), Ribosomen (lila) und Enzyme (blau). (Quelle: Kolorierte Zeichnung von David S. Goodsell, RCSB Protein Data Bank. Wellcome Images.Lizenz: cc-by 4.0.https://www.flickr.com/photos/wellcomeimages/25714823042)

Ungewöhnlich ist auch, dass Mykoplasmen keine Zellwand besitzen; d.h. sie sind nur von der - normalerweise unter einer Zellwand liegenden - Zellmembran umgeben. Antibiotika wie beispielsweise Penicilline oder Cephalosporine, die sich gegen Komponenten der bakteriellen Zellwände richten, sind daher gegen Mykoplasmen unwirksam.

Für die Grundlagenforschung stellen Mykoplasmen faszinierende Modellsysteme dar. Auf Grund ihres kleinen Genoms - an der Grenze der Lebensfähigkeit - reduziert sich die ansonsten ungeheuer hohe Komplexität von Regulierungsvorgängen und man hofft durch Reduktion weiterer Komponenten und Prozesse (durch die Herstellung eines "Minimalgenoms") herausfinden zu können, welche davon unabdingbar sind, in anderen Worten: wie Leben funktioniert.

An Mykoplasmen erworbene Kenntnisse bieten aber auch eine Basis, um mittels Verfahren der Synthetischen Biologie neue, für spezifische Bedürfnisse zurechtgeschneiderte Anwendungen zu finden. Solche Grundlagen hat Luis Serrano, Leiter des Centre for Genomic Regulation (CRG) in Barcelona geschaffen, indem er Organisation, Regulation und Stoffwechsel der Mykoplasmenzelle in quantitativer Weise charakterisiert hat.

Mykoplasmen als Pathogene

Bei einem derart reduziertem Genom fehlen zahlreiche essentielle Stoffwechselwege - dementsprechend sind Mykoplasmen auf Wirtsorganismen angewiesen und nehmen von diesen Bausteine des Stoffwechsels auf, die sie selbst nicht synthetisieren können (Abbildung 2). Mehr als 200 dieser parasitär lebenden Mykoplasmen-Spezies sind in der Tier-und Pflanzenwelt bekannt. Eine Reihe davon befallen Menschen und Tiere, setzen sich an den Oberflächen von Schleimhäuten -vor allem im respiratorischen Trakt und im Urogenitaltrakt - und auch in Gelenken fest und können infolge ihres Stoffwechsels die Gewebe schädigen und viele, oftmals chronische Krankheiten auslösen. Abbildung 2. Um Stoffwechselprodukte von Wirtszellen aufnehmen zu können, müssen Mykoplasmen an diesen andocken. Dies geschieht über eine polare Zellausstülpung, die sogenannte Attachment Organelle. Elektronenmikroskopische Aufnahmen: Links: Mycoplasma genitalium G37 (J.M. Hatchel and the Miami University Center for Advanced Microscopy and Imaging; in: Blogpost by Mitchell F. Balish. https://www.usomycoplasmology.org/single-post/2015/09/04/How-to-See-Mycoplasma). Rechts: Mycoplasma pneumoniae, das mit der rechten Ausstülpung an ein Kohlenstoffgitter bindet. (Bild aus: Daisuke Nakane et al.,2015; Systematic Structural Analyses of Attachment Organelle in Mycoplasma pneumoniae; Lizenz: cc-by. http://journals.plos.org/plospathogens/article?id=10.1371/journal.ppat.1005299)

Damit, wie man Infektionen mit Mykoplasmen - vorerst im Tiergebiet - in den Griff bekommen will, befasst sich der folgende Text.

Infektionen mit Mykoplasmen bei Nutztieren

Wesentliche Mykoplasmen-Arten, die bei Nutztieren Erkrankungen auslösen, sind in Tabelle 1 aufgelistet. Abgesehen vom Leiden und Sterben der Tiere verursachen Mykoplasmen-Infektionen auch Epidemien, deren ökonomischen Folgen dann Verzögerungen in der Produktion, schlechtere Futterverwertung und insgesamt sinkende Effizienz und Einnahmen für die Bauern nach sich ziehen. Die jährlichen Verluste durch Mykoplasmeninfektionen von Rindern, Schweinen und Geflügel belaufen sich in Europa und den USA auf Hunderte Millionen Euro.

Tabelle 1. Mykoplasmen-Arten, die Infektionen bei Nutztieren auslösen

 

 

 

 

Um die Produktionsausfälle möglichst gering zu halten, werden in der konventionellen Nutztierzucht Antibiotika eingesetzt - beispielsweise in der Hühnermast ist dies in mindestens 90 % der Großbetriebe der Fall. Die Palette der gegen Mykoplasmen wirksamen Antibiotika ist kleiner als bei anderen Bakterien (u.a. fällt die große Zahl der Zellwand-aktiven Verbindungen aus) und deren massiver Einsatz führt in zunehmendem Maße zur Resistenzentstehung - ein enormes Problem für Tier und Mensch.

Eine Möglichkeit von den Antibiotika wegzukommen ist die Anwendung effizienter Impfstoffe (Vakzinen), für die eine derartige Resistenzentstehung nicht zu befürchten ist. Üblicherweise werden antibakterielle Impfstoffe aus einfach inaktivierten oder abgeschwächten Krankheitserregern hergestellt und dienen dazu, das Immunsystem zu "trainieren". Solche Vakzinen gibt es auch gegen eine Reihe von Mykoplasmen-Arten (Tabelle 1). Sie sind jedoch in der Herstellung teuer (das Wachstum der parasitären Keime ist ja nur in kostspieligen Kulturmedien möglich) und funktionieren vielfach nicht so wie sie sollten. Der Grund dafür ist, dass die inaktivierten Pathogene nicht mehr an die Wirtszellen andocken können und damit nicht in der Lage sind eine ausreichende Immunantwort auszulösen.

MycoSynVac - Entwicklung einer neuartigen Vakzine

MycoSynVac ist ein von der EU-gefördertes H2020 Projekt, das von 2015 bis 2020 läuft. Das Ziel ist mit den Methoden der Synthetischen Biologie eine neuen Impfstoff-Typ gegen Mykoplasmen zu designen, der (vorerst) in der Nutztierhaltung Anwendung finden soll. Daran beteiligt sind acht Partner von Universitäten und Firmen aus ganz Europa, die ihre Expertise in Mikrobiologie, Synthetischer Biologie, Veterinärmedizin, Tierethik, Entwicklung von Vakzinen, aber auch in allen Fragen der Biosicherheit einbringen und Ergebnisse und deren Bedeutung transparent für die EU-Bürger kommunizieren. Partner sind u.a . das bereits erwähnte Centre for Genomic Regulation (CRG, Barcelona), das Französische Nationalinstitut für Landwirtschaftliche Forschung (INRA, Bordeaux - hier arbeitet Carole Lartigue, eine Koautorin des eingangs erwähnten Artikels [1] aus dem Craig Venter Institut), ein global führendes Unternehmen MSD Animal Health - in Holland und auch Tierethiker von der Universität Kopenhagen.

MycoSynVac plant nun nicht bloß einen abgeschwächten Keim herzustellen, sondern einen umprogrammierten Organismus, der sozusagen semi-infektiös sein wird. Dies bedeutet: das umprogrammierte Bakterium soll fähig sein sich im Wirtsorganismus festzusetzen, d.h. an den Wirtszellen anzudocken. Da die Virulenzfaktoren aber beseitigt wurden, soll es dort keine Zellschädigungen und Entzündungsprozesse auslösen können.

Auf diesem Konzept basierend soll damit ein universelles Chassis - eine Art Unterbau - geschaffen werden, das als Einfach-oder Mehrfachvakzine einsetzbar ist. Um die gewünschten Eigenschaften umprogrammieren zu können, braucht es nicht nur ein vertieftes Verständnis, wie der Lebenszyklus des pathogenen Keims auf der Genebene abläuft, sondern auch verlässliche bioinformatische Modelle und präzise molekularbiologische Methoden zur zielgerichteten Veränderung der DNA (Genom-Editierung). Abbildung 3. Abbildung 3. Der Weg zum marktreifen Impfstoff - ein universelles bakterielles Chassis auf der Basis des umprogrammierten Mykoplasma pneumoniae. Ausgehend von der Sequenz (2) der Mykoplasmen DNA (1) werden bioinformatische Modelle für die gewünschten Eigenschaften erstellt (3) und diese dann mit molekularbiologischen Methoden umgesetzt (4). Die so modifizierten Pathogene durchlaufen viele Labortests (5) und führen schlussendlich zu einem "semiinfektiösen" Pathogen (6), das als Vakzine eingesetzt werden kann (7). Bild: Birgit Schmidt, Lizenz cc-by.

Zusätzlich zu Forschung und Entwicklung zukünftiger Anti-Mykoplasmen Vakzinen schafft MycoSynVac auch eine Reihe von Biosicherheitssystemen die in die umprogrammierten Bakterien eingebaut sind. Diese und andere Herausforderungen lassen die Vakzine nicht gerade als einfaches Unterfangen erscheinen. Bedenkt man aber, welche Auswirkungen und Tragweite ein erfolgreiches Produkt erzielen wird, erscheint das Vorhaben dennoch lohnend.

Warum MycoSynVac wichtig ist

Dafür gibt es viele Gründe:

  • Der Markt für Produkte im Tiergebiet und für Impfstoffe ist sehr groß. Allein für Impfstoffe gegen M. hyopneumoniae liegt er derzeit bei ca. 150 Millionen US Dollar.
  • Gegen viele pathogene Keime gibt es derzeit entweder keine Vakzinen, oder diese funktionieren nicht richtig - es besteht also dringender Bedarf für neue Anwendungen.
  • Die neuen Vakzinen werden auf einem standardisiertem Chassis basieren, in das mehrere unterschiedliche Typen pathogener Epitope - das sind Moleküle an der Oberfläche, die für eine schützende Immunantwort benötigt werden - eingebaut werden können. Damit wird die Entwicklung weiterer Vakzinen einfacher und schneller.
  • Diese neuen Vakzinen werden mithelfen Antibiotika in der Landwirtschaft systematisch zu reduzieren und zu ersetzen. Resistenzen gegen Antibiotika nehmen zu und sogenannte Super-Keime (multi-resistente Pathogene) können Tier und Mensch in gleicher Weise befallen. In den Diskussionen zur antimikrobiellen Resistenz haben Vakzinen bis jetzt kaum eine Rolle gespielt, obwohl ihre Wirksamkeit in der Eindämmung der Erkrankungen und der Resistenzentwicklung ausführlich dokumentiert ist.
  • Schlussendlich, sobald eine derartige Vakzine für die Nutztierhaltung zugelassen ist, wird es das nächste Ziel sein, diese Art von synthetischen Impfstoffen auch für den Menschen zu entwickeln - ein Vorhaben mit einem noch größeren Markt und höherer gesellschaftlicher Tragweite.

Das Ganze in Form eines kurzen einprägsamen, lustigen Videos: MYCOSYNVAC feat. MC Grease (da disease). Video 2:44 min. (produced by Biofaction.); Standard YouTube License. https://www.youtube.com/watch?time_continue=62&v=uY60ijZZX1o


[1] Gibson, D. G.et al.,( 2010). "Creation of a Bacterial Cell Controlled by a Chemically Synthesized Genome". Science. 329 (5987): 52–56. doi:10.1126/science.1190719. PMID 20488990.


Weiterführende Links

Das Projekt MycoSynVac http://www.mycosynvac.eu/content/about

Zum Autor: • Markus Schmidt: Synthetic Vaccines (2018). http://blogs.nature.com/tradesecrets/2018/01/18/synthetic-vaccines

• Biofaction: Research and Science Communication Company. http://www.biofaction.com/

• Gesellschaftliche Konsequenzen neuer Biotechnologien. http://www.markusschmidt.eu/

• Markus Schmidt: Neue Impfstoffe in der Nutztierhaltung: Fluch oder Segen? Kepler Cafe Mycosynvac (2017); Video: 1:27:39: https://dorftv.at/video/27311


 

inge Thu, 15.03.2018 - 10:13

Der Zustand der österreichischen Chemie im Vormärz

Der Zustand der österreichischen Chemie im Vormärz

Do, 08.03.2018 - 09:54 — Robert W. Rosner Robert W. RosnerIcon Wissenschaftsgeschichte

Vor 170 Jahren beendete die bürgerliche Revolution den Vormärz, eine von Zensur geprägte Zeit der Restauration, die im Rückzug ins Privatleben und in der kulturellen Blütezeit des Biedermeier ihren Niederschlag fand. Die Chemie hatte damals, wie eigentlich von jeher, in Österreich einen nur sehr niedrigen Stellenwert. Über lange Zeit Anhängsel der Medizin, wurde die Chemie von inkompetenten Vertretern dieses Fachs repräsentiert und ein Versuch im Vormärz den damals bereits berühmten Chemiker Justus Liebig nach Wien zu holen, schlug fehl. Der Chemiker und Wissenschaftshistoriker Robert Rosner gibt einen Einblick in diese Epoche.

»Der Grundsatz der Nützlichkeit, der nach Zwecken fragt, ist der offene Feind ·der Wissenschaft, die nach Gründen sucht«. Justus Liebig

Am Anfang des 19. Jahrhunderts

wurde die Chemie als Hilfswissenschaft der Medizin betrachtet und an der Universität ausschließlich an der medizinAC ischen Fakultät unterrichtet, wobei es einen gemeinsamen Lehrstuhl für Chemie und Botanik gab und eine einsemestrige Pflichtvorlesung in Chemie. Jeder, der ein Doktorat anstrebte, musste ein vollständiges Medizinstudium absolvieren und Professoren der Medizin nahmen die Prüfungen ab.

Unter dem Eindruck der raschen Entwicklung von Chemie und chemischer Industrie entstanden dann auch im Habsburgerreich neue Einrichtungen.

Abbildung 1. Freiherr Andreas Joseph von Stifft (1760 - 1836), Leibarzt des Kaisers und sehr einflussreicher konservativer Politiker, aber auch naturwissenschaftlicher Reformator und über viele Jahre Rektor der Universität Wien. Eine Büste Stiffts steht im Arkadenhof der Wiener Universität. (Bild: Lithographie von Andreas Staub (1806 - 1839; gemeinfrei).

Andreas von Stifft (Abbildung 1) - Leibarzt des Kaisers und damit einer seiner engsten Vertrauten und ein sehr einflussreicher konservativer Politiker - hatte die Bedeutung der Chemie für die Medizin und das Gewerbe erkannt. In einem Vortrag vor dem Kaiser sagte er:

"Die Chemie hat in der neuesten Zeit größere Fortschritte als irgend eine andere Wissenschaft gemacht und solche Erweiterungen erlangt, dass es unmöglich ist einen entsprechenden Unterricht in nur einem Semester zu erteilen. Es muss bei dem Vortrag der Chemie, die auf alle Kunst- und Gewerbezweige so einen Einfluss hat und daher auch von Menschen aller Klassen besucht wird, dafür gesorgt werden, damit nicht nur der ärztlichen Bildung sondern auch den Bedürfnissen der übrigen Zuhörer nach Möglichkeit genüge geleistet werde."

Tatsächlich wurden dann der Chemieunterricht und der Unterricht an den medizinischen Universitäten erweitert und auch an den kleinen chirurgischen Schulen und an der Artillerieschule eingeführt. An den neu gegründeten Polytechnischen Instituten in Wien, Graz und Prag wurden Lehrkanzeln für Chemie eingerichtet. Das Wiener Polytechnische Institut wurde großzügig ausgestattet; allerdings hieß es im Programm:

"Es soll nicht die Pflege der Wissenschaft an und für sich zum Gegenstand haben, sondern die Methode kann nur eine solche sein, bei welcher der wissenschaftliche Unterricht nur als das notwendige Mittel zur sicheren Ausübung der hier gehörigen Geschäfte des bürgerlichen Lebens erscheint."

Geistige Strömungen wurden damals aus Furcht vor revolutionären Ideen unterdrückt. Forschung - sofern diese überhaupt stattfand - blieb ausschließlich auf die Lösung praktischer Probleme beschränkt und fand keinen Anschluss an die rasche Entwicklung der organischen Chemie in Frankreich und Deutschland. Wie der Naturforscher Karl von Reichenbach berichtete, soll Kaiser Franz I. ja gesagt haben "Wir brauchen keine Gelehrten".

Ein Artikel von Justus Liebig

Nach dem Tod von Kaiser Franz I (1835) begann sich die Situation langsam zu bessern. Auslösende Momente dazu waren ein Artikel von Justus Liebig (Abbildung 2), einem der führenden Chemiker dieser Zeit und Bemühungen des Finanzministers, Graf Kolowrat, junge Wissenschafter zu fördern.

Abbildung 2. Justus von Liebig (1803 - 1873) um 1846. (Ausschnitt aus einem Gemälde von Wilhelm Trautschold um 1846. Das Bild ist gemeinfrei; https://en.wikipedia.org/wiki/Justus_von_Liebig#/media/File:Justus_von_Liebig_by_Trautschold.jpg)

"Der Zustand der Chemie in Österreich" - unter diesem Titel hatte der deutsche Chemiker Justus Liebig (1803 - 1873) im Jahr 1838 einen Artikel veröffentlicht [1], der mit den Worten beginnt:

"Man wird es gewiss als eine der auffallendsten Erscheinungen unserer Zeit betrachten müssen, dass ein großes reiches Land, in welchem die Industrie und alle Wissenschaften, die mit ihr zusammenhängen, von einer erleuchteten Regierung gepflegt und gestützt werden, dass dieses Land an allen Fortschritten, welche die Chemie, die wahre Mutter aller Industrie, seit 20 Jahren und länger gemacht hat, nicht den allergeringsten Anteil nahm; es hat keinen Mann hervorgebracht, welcher sie mit einer einzigen Tatsache bereicherte, die nützlich gewesen wäre für unsere Forschungen oder für unsere Anwendungen. Diese Erscheinung scheint um so unbegreiflicher, insofern man sieht, dass gediegene Mathematiker und treffliche Physiker, dass ausgezeichnete Naturforscher jeder Art, nur keine Chemiker sich dort gebildet haben. "

Liebig war damals schon weithin berühmt

- im Alter von 21 Jahren bereits Professor für Chemie an der Universität Gießen, spielte er eine prominente Rolle in der Entwicklung der organischen Chemie. Liebig hatte die analytischen Methoden wesentlich vereinfacht und verbessert und auch ein neues Studiensystem eingeführt, bei dem die Studenten praktische Erfahrungen sammelten. (Abbildung 3). Der österreichische Chemiker Anton von Schrötter beschreibt die Bedeutung dieser Einrichtung in seiner 1873 gehaltenen Denkrede [2]:

"Das kleine Gießen wurde bald das Mekka Aller, die sich der Chemie widmen wollten, und Viele, die bereits eine Stellung in diesem Fach innehatten, pilgerten dahin, um vom Meister zu lernen, Das neue, an einem gut gelegenen Orte erbaute Laboratorium wurde bald ein Tempel der Wissenschaft, in welchem das Experiment an Stelle des Glaubens trat."

Abbildung 3. Das Mekka der Chemie - Laboratorium von Justus Liebig um 1840. Illustration von Wilhelm Trautschold (1815 - 1877). Das Bild ist gemeinfrei.

"Es sind die Lehrer der Chemie schuld,

welche keine Chemiker sind." so lautete Liebigs Erklärung, warum es in Österreich keine guten Chemiker gäbe [1]. Zu diesen schlechten Lehrern zählte er vor allem Paul Meissner und Adolf Pleischl. Diese beiden Chemieprofessoren waren von Freiherr von Stifft protegiert worden. Abbildung 4

Abbildung 4. Paul Meissner und Adolf Pleischl haben nach Ansicht von Justus Liebig unserem Land sehr geschadet. Lithographien: links von Josef Kriehuber 1845 ; rechts von August Prinzhofer 1846 (beide Bilder sind gemeinfrei).

Über Meissner schreibt Liebig [1]:

"…an dem wichtigsten und einflussreichsten Institute sehen wir einen Mann, von dem man mit Wahrheit sagen kann, dass er seinem Land unendlich geschadet hat... Er zeigt uns nicht den Stand der Wissenschaft, was sie leistet und geleistet hat...alle herrlichen Entdeckungen verkrüppeln in seiner Darstellung. Man nehme einen jungen Mann, der sich unter Meissner gebildet hat ..Von der eigentlichen Chemie hat er nichts erfahren, denn die Zeit wurde verschwendet um ihm Meissner'sche Meinungen beizubringen."

Wer war Paul Meissner?

Paul Traugott Meissner (1778 - 1864) war Pharmazeut und chemischer Autodidakt. Auf Empfehlung von Andreas von Stifft, erhielt Meissner bald nach der Gründung des Polytechnischen Instituts im Jahr 1815 eine Stelle als Professor für Spezielle Technische Chemie und später für Allgemeine Chemie. Das Polytechnische Institut war der Vorläufer der Wiener Technischen Universität, der Meissner'sche Lehrstuhl war der Lehre praktischer Gegenstände wie z.B. Gärungslehre, Seifensiederei, Färberei etc. gewidmet

Meissner war bei seinen Studenten beliebt und verlangte von diesen, dass sie sich streng an seine Ideen hielten. Er war ein äußerst fleißiger Mann, verfasste u.a. ein zehnbändiges Handbuch der Allgemeinen und Technischen Chemie, Bücher über Dichtemessungen, über Zentralheizungen, über pharmazeutische Apparate und über Operationen und nahm zu medizinischen Problemen Stellung. In vielen Fällen vertrat er aber Auffassungen, die in krassem Widerspruch zu den damals bereits bekannten Tatsachen standen. So veröffentlichte er in einem dreibändigen Werk, "Neues System der Chemie", seine Vorstellungen von der stofflichen Natur der "Imponderabilien" d.h von der Wärme, dem Licht, der Elektrizität und dem Magnetismus. Der Wärmestoff - Aräon - war demnach ein gewichtsloses Element, das in allen anderen Stoffen in chemischen Verbindungen und auch den Elementen vorhanden war und von der Menge Aräon in einem Stoff sollte dessen Aggregatzustand abhängen:

"So sind alle thermischen Erscheinungen, also das Schmelzen, das Verdampfen, das Kondensieren oder Kristallisieren, die Wärmeleitung, Mischungswärme etc. ein Ergebnis von Zunahme, Abnahmen, Verdichtung oder Entweichen von Aräon. Magnetismus ist ein Sauerstoff aräoid, ebenso die Elektrizität aber mit einem höheren Aräongehalt und auch das Licht ein Sauerstoffaräoid mit einem noch viel höheren Gehalt an Aräon."

Ein anderes Beispiel war seine Vorstellung von der Salzsäure: von ihm mit dem alten Ausdruck Muriumsäure bezeichnet, setzte sich diese aus 41.63 % Murium und 58.37 % Sauerstoff zusammen und das elementare Chlor wäre eine sechsfach oxidierte Muriumsäure.

Es ist klar, daß Liebig einen Chemiker, der derartige Theorien vertrat als keinen ernst zu nehmenden Wissenschaftler betrachtete. Meissner reagierte erst 1844 auf die - wie er sagte -"unerhörten und unaufhörlich sich wiederholenden Misshandlungen seiner Ehre" mit einer 165 Seiten langen Schmähschriift "Justus Liebig, Dr. der Medicin und Philosophie analysirt von P.T. Meißner" [3]. Abbildung 5.

Abbildung 5. Meissner wehrt sich in einer 165 Seiten langen Schmähschrift:"weil Liebig nicht jene Geistesgaben und wissenschaftlichen Einsichten besitzt, die ihn auf irgendeine Weise zum kompetenten Beurtheiler der wissenschaftlichen Leistungen Anderer befähigen und berechtigen könnten". Meissners Argumente, mit denen er Liebig zu widerlegen versuchte, stehen in krassem Widerspruch zu den damals bereits bekannten Tatsachen und bestätigen damit Liebigs Meinung über den traurigen Zustand der österreichischen Chemie (Quelle: Justus Liebig, Dr. der Medicin und Philosophie analysirt von P.T. Meißner; [3].)

Aber auch über andere österreichische Chemieprofessoren, wie beispielsweise Adolf Pleischl (Abbildung 4), der zu der Zeit noch in Prag unterrichtete aber bereits eine Berufung nach Wien hatte, oder über Franz Hlubek, den Professor für Landwirtschaft am Joanneum in Graz, hatte Liebig keine schmeichelhafte Meinung (Hlubek nahm an, dass der Kohlenstoff der Pflanzen aus dem Boden aufgenommen würde).

Adolf Pleischl,

war ebenfalls ein Protegé des Freiherrn von Stifft. Er hatte sich viel mit Wasseranalysen und Lebensmitteluntersuchungen beschäftigt und besonders Untersuchungen über die Beschaffenheit des Brotmehls gemacht. Seine Geisteshaltung zu Fragen der organischen Chemie zeigt sich in seiner Antwort auf Liebig: Da wies er darauf hin, dass er gezeigt hatte wie man aus schlechtem, verdorbenen Mehl ein gutes Brot machen kann und sagte, dass er damit dem Menschengeschlechte einen bleibenderen Wert gegeben habe, als so manche Abhandlung über eine -al, -yl,-am,-in,-oder -on Verbindung. In Verteidigung von Meissner wies Pleischl auf dessen Leistung bei der Einrichtung einer Zentralheizung in der Hofburg hin und sagte dass dort die ergrauten und treuen Diener und Ratgeber des Staates in Bequemlichkeit herumwandeln können und dass das viel bedeutender sei, als wenn er in irgend einem fetten Öle 1 % mehr oder weniger Wasserstoff gefunden hätte.

Auswirkungen von Liebigs Kritik

Liebig war in seinen Polemiken immer sehr aggressiv. Aber da war doch die Frage ob es nicht doch einen wahren Kern bei dieser Darstellung der Zustände der Chemie in Österreich gäbe - diese Auffassung wurde auch von einigen österreichischen Naturwissenschaftlern geteilt.

So kam es zu Bemühungen, Liebig für Wien zu gewinnen. Daran waren der Finanzminister Graf Franz A. Kolowrat und der Physiker Andreas von Ettinghausen beteiligt. Adolf Kohut (1848 -1917), der Biograph Justus Liebigs schreibt [4]:

"Der Artikel über Österreich bewirkte, dass Liebig unter äußerst günstigen Bedingungen einen Ruf als Ordinarius der Chemie in Wien erhielt. Dieser Einladung der österreichischen Regierung folgend reiste er behufs mündlicher Besprechung nach der österreichischen Kaiserstadt und zwar mit seinem Intimus Wöhler (Friedrich Wöhler war ein bekannter Chemiker, Professor in Göttingen; Anm. Redn.) ...doch lehnte er den so ehrenvollen Antrag ab, obschon Wöhler diesen Schritt bedauerte und es sehr beklagte, dass Liebig die großen Mittel verschmähte, die ihm zur glorreichen Förderung der Wissenschaften geboten wurden. Mit ihm würde ja eine neue Epoche der Chemie beginnen."

Liebig lehnte also ab nach Wien zu kommen. Seine Kritik hatte aber noch weitere Auswirkungen und im Jahre 1845 wurde Meissner nahe gelegt in die Frühpension zu gehen als Vorwand, wurde die oben genannte Schmähschrift [3] genannt, die er an der Zensur vorbei veröffentlicht hatte) .

Graf Franz A. Kolowrat, Präsident der Böhmischen Gesellschaft der Wissenschaften und ab 1836 Finanzminister, hat dann eine wichtige Weichenstellung für die Entwicklung der österreichischen Chemie geleistet: der junge Chemiker Josef Redtenbacher erhielt 1840 die Möglichkeit auf 18 Monate zu Liebig nach Gießen zu fahren, dann den Lehrstuhl für Chemie in Prag zu übernehmen und 1849 die Lehrkanzel für Chemie in Wien einzurichten, nachdem Pleischl nach 1848 in die Frühpension geschickt wurde.

Mit Redtenbacher begann erstmals eine systematische Beschäftigung mit der organischen Chemie in Österreich, einer Disziplin, die in den folgenden 100 Jahren das meiste Interesse erweckte und wirtschaftlich große Bedeutung erlangte.

Allerdings: gegenüber den Entwicklungen in Deutschland, England und Frankreich hatte Österreich den Anschluss an eine moderne Chemie erst mit einer Verspätung von 20-30 Jahren gefunden.


[1] Justus Liebig: Der Zustand der Chemie in Oestreich. Ann. Pharmacie, 25 (1838) 339 - 34  http://bit.ly/2Fn2rGd 

[2] Anton von Schrötter: Justus von Liebig Eine Denkredegehalten bei der feierlichen Sitzung der k. Akademie der Wissenschaften am 30. Mai 1873. http://reader.digitale-sammlungen.de/de/fs1/object/display/bsb11157686_0...

[3] Meissner, P. T: Justus Liebig, Dr. der Medicin und Philosophie, analysirt von P. T. Meissner Autor / Hrsg.: Meissner, P. T. (Frankfurt a. M., 1844, Sauerländer Verlag). http://reader.digitale-sammlungen.de/de/fs1/object/display/bsb10073402_0... 

[4] Adolf Kohut (1847 - 1917): Justus von Liebig : sein Leben und Wirken auf Grund der besten und zuverlässigsten Quellen geschildert (1904). https://ia800607.us.archive.org/27/items/b2898304x/b2898304x.pdf


Weiterführende Links:

Robert W. Rosner: Chemie in Österreich 1740-1914 Lehre, Forschung, Industrie (2004) 359 S. Böhlau Verlag (Leseproben: http://bit.ly/2Ai05FX)

Justus Liebig's und Friedrich Wöhler's Briefwechsel in den Jahren 1829-1873 https://archive.org/details/ausjustusliebig00whgoog (frei zugänglich)

Historische Stätten der Chemie: Justus von Liebig , GDCH (Gießen, 2003): https://www.gdch.de/fileadmin/downloads/GDCh/historische_staetten/liebig... (frei zugänglich)

Inge Schuster, 22.06.2017: Der naturwissenschaftliche Unterricht an unseren Schulen. http://scienceblog.at/der-naturwissenschaftliche-unterricht-unseren-schulen.


 

inge Thu, 08.03.2018 - 09:54

Grundlagenforschung bildet das feste Fundament für die Biomedizin

Grundlagenforschung bildet das feste Fundament für die Biomedizin

Do, 01.03.2018 - 11:33 — Francis Collins

Francis CollinsIcon MedizinDie Entwicklung erfolgversprechender neuer Medikamente basiert heute auf der Aufklärung der molekularen Krankheitsursachen und der therapeutischen Modulierung dieser Ziele (Targets). Derartige Kenntnisse werden durch Grundlagenforschung geschaffen, die - zum großen Teil durch die öffentliche Hand finanziert- in akademischen Institutionen oder staatlichen Labors stattfindet. Dagegen erfolgt die sehr kostenaufwändige präklinische und klinische Entwicklung im privaten Sektor, in Pharmafirmen. Der von der Öffentlichkeit geleistete Beitrag zur Grundlagenforschung wurde bis jetzt unterschätzt. Eine erste sorgfältige Analyse hat eben ein US-amerikanisches Forscherteam veröffentlicht [1]: demnach haben die National Institutes of Health (NIH) die Grundlagenforschung der zwischen 2010 und 2016 neu zugelassenen 210 Medikamente mit mehr als 100 Milliarden US Dollar gefördert. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", fasst diese Untersuchung zusammen.*

Zu den wesentlichen Aufgaben der NIH gehört die Förderung der Grundlagenforschung, die fundamentale Erkenntnisse über die Natur und das Verhalten lebender Systeme erbringt. Derartige Kenntnisse sind die Basis von biomedizinischen Fortschritten, die wir zum Schutz und zur Besserung unserer Gesundheit und der unserer Nachkommen benötigen.

Natürlich ist es oft schwer vorhersagbar, wie und ob diese Art von Grundlagenforschung der Bevölkerung überhaupt einen Nutzen bringen kann. Dazu kommt, dass der Zeitraum, der zwischen einer Entdeckung und ihrer medizinischen Anwendung (sofern es überhaupt dazu kommt) verstreicht, sehr lange sein kann. Es mag daher der Einwand kommen, dass Aufwendungen für Grundlagenforschung keine sinnvolle Nutzung von Fördermitteln darstellen und, dass man die gesamten Mittel der NIH besser für konkrete Krankheitsziele einsetzen sollte.

Um einer derartigen Meinung entgegen zu treten, möchte ich einige neue Ergebnisse aufzeigen, welche die Wichtigkeit einer öffentlich geförderten Grundlagenforschung unterstreichen.

NIH-geförderte Forschung der zwischen 2010 und 2016 neu zugelassenen Arzneimittel

Ein Forscherteam hat mehr als 28 Millionen Veröffentlichungen in der PubMed.gov database analysiert und zeigt nun, dass NIH-Förderungen in die publizierten Arbeiten jedes der 210 neuen, von der FDA zwischen 2010 und 2016 zugelassenen Arzneimittel geflossen sind [1]. Mehr als 90 % dieser Forschungen betrafen Grundlagen, das bedeutet sie wurden für die Entdeckung fundamentaler biologischer Mechanismen aufgewandt und kaum auf die Entwicklung von Arzneimitteln.

In der Vergangenheit hatte man versucht den Beitrag der öffentlichen Förderungen zur Entwicklung neuer Medikamente primär an der Zahl von Patenten zu definieren. Zumeist hatte man sich auf Patente bezogen, die Pharmafirmen von akademischen Einrichtungen einlizensierten, an denen ja der bei weitem überwiegende Teil der amerikanischen - größtenteils NIH-geförderten - biologischen Grundlagenforschung stattfindet. Derartige Untersuchungen hatten den Eindruck erweckt , das bloß 10 % oder sogar noch weniger der neu zugelassenen Arzneimittel sich auf Patente akademischer Einrichtungen zurückführen ließen. Dies ist zwar interessant, diese Studien übersehen dabei aber den weitreichenden Einfluss von Ergebnissen der Grundlagenforschung, die typischerweise publiziert aber nicht patentiert werden.

Um zu einer breiteren Sichtweise zu kommen, hat ein Forscherteam der Bentley University die PubMed .gov Datenbank (US National Library of Medicine; Anm. Redn.) herangezogen. Unter der Leitung von Ekaterina Galkina Cleary, Jennifer Beierlein und Fred Ledley machte sich das Team daran, den Gesamtumfang der NIH-Förderungen bei den aktuell zugelassenen Medikamenten zu untersuchen. Die Ergebnisse wurden eben im Fachjournal Proceedings of the National Academy of Sciences (PNAS) publiziert [1]. (Das Team selbst ist kein Empfänger von NIH-Grants.)

Die Forscher begannen damit,

dass sie alle neuen Verbindungen - new molecular entities (NMEs) -identifizierten, die zwischen 2010 und 2016 von der FDA zugelassen worden waren. (NMEs bedeutet dabei, dass es sich um Verbindungen handelt, die zuvor noch nie Bestandteil eines zugelassenen Medikament waren.)

Diese Suche ergab 210 neue Medikamente. 197 dieser Medikamenten waren auf 151 spezifische Targets (biologische Zielmoleküle) ausgerichtet; für die restlichen 13 Medikamente waren die Targets unbekannt. 84 der 210 neuen Medikamente hatten von der FDA die Bezeichnung "first in class" erhalten, das heißt, ihr Design zielte auf völlig neue biologische Targets ab.

Im nächsten Schritt

wurde eine sehr umfangreiche Liste themenverwandter Arbeiten zusammen getragen. Es war dies eine Liste aller Artikel in PubMed, die sich mit einer der 210 NMEs oder einem der 151 Zielmoleküle der NMEs befassten. Dies führte schließlich zu rund 130 000 Publikationen über jeweils eine der neuen NMEs und zu nahezu 2 Millionen Arbeiten über deren biologische Zielmoleküle. Abbildung 1 A.

Abbildung 1. A) Publikationen in PubMed, die sich mit einer der 210 NMEs befassen (Drug Search), die zwischen 2010 und 2016 zugelassen wurden (insgesamt 131 000 Arbeiten), oder einem der 151 molekularen Targets (Target Search) dieser NMEs (insgesamt 1,97 Millionen Arbeiten). B) Die NIH-geförderten Arbeiten in PubMed (NMEs: 22 700; Target: 588 000). Anm. Redn.: An einzelnen Targets wurde schon mehr als 30 Jahre lang gearbeitet, bevor dafür geeignete Wirkstoffe gefunden wurden. (Bild stammt aus [1] und steht unter cc-by-nc-nd Lizenz)

Im letzten Schritt

wurde diese lange, aus der PubMed Datenbank erhaltene Liste mit den Publikationen in der "NIH RePORTER database" verglichen, d.i. mit einer elektronischen Datenbank , die alle NIH-geförderten Forschungsprojekte der letzten 25 Jahren enthält. Das Ergebnis zeigte, dass Publikationen über 198 der 210 neuen Medikamente und über alle 151 neuen biologischen Targets NIH-Förderungen erhalten hatten. In anderen Worten: NIH-Förderung spielte bei praktisch jedem der neu zugelassenen Präparate direkt oder indirekt eine Rolle.

Von den zwei Millionen Publikationen, die das Forscherteam identifiziert hatte (Abbildung 1 A), hatten rund 30 % NIH-Förderung erhalten. Abbildung 1 B. Wenn man die Zahl der Projekte mit der geförderten Laufdauer multiplizierte, ergab dies mehr als 200 000 fiskalische Jahre der Unterstützung, die sich auf Kosten von insgesamt mehr als 100 Milliarden US Dollar beliefen. Abbildung 2. Das bedeutet etwa 20 % des NIH-Budgets. Bezogen auf die 84 zwischen 2010 und 2016 eingeführten first-in class Präparate, betrug die NIH-Förderung mehr als 64 Milliarden US Dollar.

Abbildung 2. Kosten der NIH-Förderungen. Von den insgesamt 115, 3 Milliarden US $, gingen mehr als 90 % in die Förderung der Targetforschung. (Bild stammt aus [1] und steht unter cc-by-nc-nd Lizenz; Information aus Tale 3 in [1]: Die NIH-Förderung jedes der first-in-class NMEs belief sich im Mittel auf 0,84 Milliarden US $.)

Alles in allem betrachtet,

zeigen die Ergebnisse, dass die öffentlich geförderte Grundlagenforschung einen größeren Beitrag zur Entwicklung der vielversprechendsten therapeutischen Fortschritte geleistet hat, als man bisher vermutet hatte. (Anm. Redn.: Pharmafirmen haben 2015 die Forschungs-und Entwicklungskosten eines NME mit bis zu 2 Milliarden US $ - und auch darüber - beziffert.) Wenn wir in die Zukunft blicken, so werden auch weiterhin Schutz und Erhaltung unserer und unserer Nachkommen Gesundheit von solidem, auf Grundlagenforschung aufbauendem Wissen abhängen.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel: "Basic Research: Building a Firm Foundation for Biomedicine" zuerst (am 27. Feber 2018) im NIH Director’s Blog. https://directorsblog.nih.gov/2018/02/27/basic-research-building-a-firm-foundation-for-biomedicine/#more-9770.

Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Abbildungen au [1]) für den Blog adaptiert. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


[1] Contribution of NIH funding to new drug approvals 2010-2016. Galkina Cleary E, Beierlein JM, Khanuja NS, McNamee LM, Ledley FD. Proc Natl Acad Sci U S A. 2018 Feb 12. pii: 201715368. Der Artikel ist open access.

Anmerkung zu "Target": Unter Target versteht man zelluläre oder extrazelluläre Strukturen, die i) mit einem Pharmakon wechselwirken, ii) deren Aktivität durch ein Pharmakon moduliert werden kann und iii) von denen man annimmt, dass sie die ursächlich mit einer Krankheit verbunden sind.


Links: National Institutes of Health (NIH) in Bethesda (Maryland)

PubMed.gov (National Library of Medicine/NIH)

NIH RePORTER (NIH) Research Portfolio Online Reporting Tools. Datenbank für NIH-geförderte Projekte


 

inge Thu, 01.03.2018 - 11:33

Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren

Genussmittel und bedeutender Wirtschaftsfaktor - der Tabak vor 150 Jahren

Do, 22.02.2018 - 06:36 — Redaktion

RedaktionIcon Politik und GesellschaftMit der Entdeckung Amerikas kam der Tabak nach Europa und fand hier - trotz anfänglicher Gegnerschaft von Kirche und Staaten - als Genussmittel sehr rasch weite Verbreitung. Tabakanbau und Verarbeitung gewannen in Folge immense wirtschaftliche Bedeutung, beschäftigten Millionen von Menschen und erzielten " ein Erträgnis, so gross, wie es durch andere Culturen gar nicht zu erzielen ist, bedeutender als der Thee, wichtiger als der Kaffee". So berichtete vor 150 Jahren der berühmte Pflanzenphysiologe Julius Wiesner im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse" . Damals begann man gerade die chemischen Eigenschaften und physiologischen Wirkungen des Tabaks zu erforschen, von gesundheitlichen Gefahren des Rauchens, wusste man noch nichts.

Tabak - Bezeichnung für eine Pflanzengattung aus der Familie der Nachtschattengewächse und auch für das, aus deren Blättern gewonnene, Produkt -, gehört zu den vieluntersuchten Forschungsgebieten der Biomedizin. Unter dem Stichwort "tobacco" listet die Datenbank "PubMed" bereits 113 741 Artikel in Fachzeitschriften auf und in der letzten Zeit kommen jährlich mehr als 6 000 neue Artikel dazu (abgerufen am 21.2.2018). Es sind dies Untersuchungen über die Tausenden Inhaltstoffe des Tabak(rauch)s (insbesondere über das Nicotin), über deren physiologische Wirkmechanismen und toxikologische Eigenschaften und vor allem über die mit dem Rauchen verbundenen Risiken für ein weites Spektrum an Krebserkrankungen, Herz-Kreislauferkrankungen und viele andere Krankheiten bis hin zur vorzeitigen Hautalterung. Dass derartige Risiken bestehen, wurde man sich erst ab der Mitte des 20. Jahrhunderts mehr und mehr bewußt - die Folge war ein enormer Anstieg diesbezüglicher wissenschaftlicher Untersuchungen: 93% aller oben angeführten Artikel in PubMed stammen erst aus der Zeit nach 1980.

Viele Jahrzehnte und auch Jahrhunderte zuvor war Tabak ein in weitesten Kreisen der Bevölkerung geschätztes Genussmittel, und geraucht wurde überall, im privaten Umkreis und an öffentlichen Orten. Über das Genussmittel hinaus stellte Tabak aber auch sehr lange einen bedeutenden Wirtschaftsfaktor dar. Darüber hat der Pflanzenphysiologe Julius Ritter von Wiesner (1838-1916) vor 150 Jahren in einem öffentlichen Vortrag im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" berichtet.

Wiesner (Abbildung 1)war ein hochrenommierter Wissenschafter. Er hatte in Brünn und in Wien studiert, wurde bereits 1868 a.o. Professor am Polytechnischen Institut in Wien. Er war dann von 1873 bis 1909 Professor an der von ihm gegründeten neuen Einrichtung, dem Institut für Pflanzenphysiologie, und schließlich Rektor der Wiener Universität. Seine Forschungen liessen ihn quer über den Erdball reisen; er befasste sich mit Licht-und Vegetationsprozessen und mit Chlorophyll, damit wie Zellwände von Pflanzen organisiert sind und ein spezieller Fokus lag auch auf den globalen pflanzlichen Rohstoffen. Seine Ergebnisse hat Wiesner in mehr als 200 Publikationen und Büchern niedergelegt.

Abbildung 1. Julius Wiesner (1838- 1916), etwa zur Zeit des Vortrags.. Lithographie von Josef Kriehuber, 1870 (das Bild ist gemeinfrei)

Im Folgenden findet sich der Vortrag, den Wiesner am 3. Feber 1868 im "Verein zur Verbreitung naturwissenschaftlicher Kenntnisse in Wien" gehalten hat, in stark gekürzter Form. Die ursprüngliche Schreibweise wurde beibehalten.

Abbildungen und Untertitel wurden von der Redaktion eingefügt. Der komplette Vortrag ist unter [1] frei zugänglich.

Julius Wiesner: Ueber den Tabak

Es ist eine höchst merkwürdige Thatsache, dass alle Völker der Erde, wie hoch oder wie tief dieselben auf der Stufe" der Civilisation stehen mögen, gewisse Genussnittel zu sich nehmen, welche nicht für alimentäre Zwecke bestimmt sind, weder zur Bildung von Fleisch und Blut beitragen, noch zur Unterhaltung des AthmungsVorganges dienen, vielmehr bestimmt sind, einen Einfluss auf das Nervenleben auszuüben, entweder die Nerventhätigkeit zu steigern oder sie herabzusetzen.

Die Zahl der für nicht alimentäre Zwecke dienenden Genussmittel ist eine sehr grosse und es existirt wohl kein Stück bewohnter Erde, auf welchem nicht ein oder das andere ähnliche Genussmittel gebraucht würde. Selbst die isolirtesten Völkerstämme haben sich derartige Genussmittel erfunden also ist gewissermassen ein in der menschlichen Natur begründetes Bedürfniss vorhanden, derartige, das Nervenleben beeinflussende Genussmittel zu sich zu nehmen. Ich werde mir erlauben, über das verbreitetste derselben, den Tabak, zu sprechen, der von allen diesen Substanzen auch die grösste wirthschaftliche Bedeutung hat (Abbildung 2). Die Zahl der Personen, welche vom Tabak leben, indem sie denselben bauen, verarbeiten oder verkaufen, beträgt gewiss Millionen und Hunderte Millionen zählen die Personen, die ihn gebrauchen. Man mag dieses aus der Thatsache entnehmen, dass auf der Erde nach einer beiläufigen Berechnung etwa 5000 Millionen Pfund Tabak jährlich geerntet werden (2010: 7,1 Mio t; Wikipedia). Abbildung 2. Eine Tabakpflanze (Nicotiana tabacum), darunter ihre Samen und Szenen, welche die Herstellung und den Konsum duch den Menschen zeigen. Im Bild rechts,Mitte: ein Diener versucht den aus dem Mund von Sir Walter Raleigh austretenden Qualm zu löschen. Kolorierte Lithographie um 1840 (Quelle: http://wellcomeimages.org/indexplus/image/V0044754.html)

Vom "Werk des Teufels" zur bedeutenden Industrie

Seit den drei Jahrhunderten, als der Tabak in Europa bekannt geworden ist, hat sich eine sehr grosse Literatur über denselben angehäuft. Anfänglich zogen Kirche und Staat strenge gegen den Gebrauch des Tabakes zu Felde. Papst Urban VIII. (1623 - 1644 im Amt; Red.) erliess eine Bulle, derzufolge Jeder mit dem Banne belegt werden sollte, der Tabak gebrauche. Der seiner Zeit bekannte Prediger Caspar Hofmann zu Quedlinburg donnerte von der Kanzel gegen den Genuss des Tabakes, „der die Seele verderbe, und ein unmittelbares "Werk des Teufels sei". Papst Benedict XIII. (1724 - 1730 im Amt; Red.) hob das Kirchenverbot wieder auf, gewiss nur einer besseren Einsicht und dem Drange seiner Zeit folgend; wenn auch die Geschichte von ihm erzählt, dass er selbst ein grosser Freund und Verehrer des Tabakes gewesen ist.

Mit furchtbarer Strenge bestraften die russischen Machthaber die Tabakraucher. Im 17. Jahrhundert wurde ein Ukas erlassen, dem zufolge Jedem die Nase abgeschnitten werden sollte, der zum ersten Male beim Gebrauche einer Pfeife betreten wurde und wer zum zweiten Male dieses Verbrechen begangen, sollte mit dem Tode bestraft werden. Es kam jedoch selbst für Russland eine bessere Zeit: Czar Michael Feodorowitsch (1613 - 1645; Redn.) liess in der Milde seines Herzens die Tabakraucher bloss nach Sibirien transportiren. Peter der Grosse (Zar von 1672 - 1721; Redn.) hob endlich diese schrecklichen Strafen völlig auf.

Die Geschichte des Tabakes lehrt uns auch, dass das, was man Mode nennt, sehr veränderlich ist. König Franz II. von Frankreich (1559 - 1560; Redn) gebrauchte den Tabak als Mittel gegen heftigen Kopfschmerz, an dem er öfters litt. Es ist nicht bekannt geworden, ob alle Hofleute am französischen Hofe damals an Kopfschmerz litten; soviel ist aber gewiss, dass das Beispiel des Königs viel Nachahmung fand: nicht nur die Herren, sondern auch die Damen des Hofes schnupften.#

Geht man die neuere Literatur über den Tabak durch, so muss man erfreut sein, zu sehen, dass die wissenschaftliche Forschung sich des Tabakes bemächtiget hat. Man trachtet heute ruhig und besonnen, die Naturgeschichte und die Chemie des Tabakes kennen zu lernen, seine physikalischen und chemischen Eigenschaften und seine physiologischen Wirkungen zu erforschen und die Bereitung des Tabakes auf rationelle Basis zu stellen. Und in der That, im Laufe unseres Jahrhundertes hat sich die Bereitung des Tabakes vom einfachen Gewerbe zu einem sehr bedeutenden Industriezweige, zu einem hoch entwickelten Zweige der chemischen und man darf hinzufügen, der mechanischen Industrie emporgeschwungen, indem ein grosser Theil der dabei erforderlichen mechanischen Arbeit nunmehr von den Armen und Fingern der Maschinen vollzogen wird.

Die Naturgeschichte des Tabaks

ist ziemlich genügend schon im ersten Drittel unseres Jahrhundertes erforscht worden. Linnè kannte nur vier Arten des Tabakes; wir kennen gegenwärtig mehr als 20 verschiedene Typen, von diesen sind es jedoch nur drei, welche sich zur Bereitung des Gebrauch-Tabakes eignen: Der gemeine Tabak, der sogenannte Maryland- und der Bauern- oder Veilchentabak.

Die Heimat des Tabakes sind die wärmeren Länder. Nur wenige Pflanzen konnten durch Acclimatisation so weit nach Norden und Süden gebracht werden, als der Tabak. Ueberall, wo er cultivirt wird, ist es nothwendig, dieses mit der grössten Sorgfalt zu thun, selbst im Tropenklima. So wie bei uns, muss auch in den Tropen das Tabakfeld gedüngt werden, so wie bei uns kann man auch dort den Samen nicht direct auf das Feld bringen, sondern muss ihn zuerst im Mistbeete säen.

Zur Chemie des Tabakes

Es finden sich im Tabake einige Substanzen, welche nicht immer in den Blutenpflanzen auftreten, aber häufig in denselben zu beobachten sind. Vor Allem das Blattgrün oder Chlorophyll, ferner Fett, Harz, Wachs, einige Säuren, namentlich Citronensäure, Oxalsäure , Aepfelsäure und, wenn das Blatt älter ist, auch eine Huminsäure.

Zwei Substanzen finden sich aber im Tabake, die man sonst in keiner Pflanze findet: das Nicotin (Abbildung 3), eine farblose Flüssigkeit, und das Nicotianin oder der Tabakkampfer, eine weisse krystallinische Substanz, welche übrigens nicht im natürlichen Tabakblatte auftritt, sondern erst während des Lagerns des Tabakes sich nach und nach bildet. Abbildung 3: Ein englischer Raucher-Club: die angenehme, beruhigende Wirkung des Nicotins (chemische Strukturformel rechts). Illustration von Frederick William Fairholt in "Tobacco, its History and Association", 1859 (digitalcollections.nypl.org, ID 1107895; gemeinfrei)

Diese beiden Substanzen wirken im concentrirten Zustande als Gifte, besonders das Nicotin; in den kleinen Quantitäten aber, in welchen diese Substanzen in einer guten, trockenen Cigarre, in einem guten, leichten Tabake sich vorfinden, sind sie nichts weniger als schädlich; es bringt nämlich das Nicotin die angenehme , beruhigende Wirkung, das Nicotianin den angenehmen Geruch des Tabakes hervor und das beim Rauchen aus dem Tabaksblatte sich erzeugende empyreumatische Oel, das im concentrirten Zustande sich ebenfalls dem menschlichen Organismus gegenüber als Gift erwies, bedingt die bessere Brennbarkeit des Blattes.

Das Nicotin hat viel mit den Alkalien gemein, dem Kali, Natron, Ammoniak, namentlich das Vermögen, sich mit Säuren zu Salzen zu verbinden und kommt auch dieser Körper mit den früher genannten Säuren als Salz gebunden in der Pflanze vor; man stellte deshalb das Nicotin unter die vegetabilischen Alkaloide. Es ist erwiesen, dass sich das Nicotin im Tabake aus Ammoniak bildet, welches bekanntlich ein wichtiges Nahrungsmittel der Pflanzen ist. Das Ammoniak hat bekanntlich die Zusammensetzung: 1 Atom Stickstoff und 3 Atome Wasserstoff. Denken wir uns die Formel NH3 verdoppelt, und statt des Wasserstoffes einen bestimmten gleichwertigen Kohlenwasserstoff in das Ammoniak hineingebracht, so haben wir Nicotin vor uns. Dieser Kohlenwasserstoff, der das Nicotin bildet, wird in der Pflanze aus Kohlensäure und Wasser gebildet, so dass also die drei wichtigsten Nahrungsmittel der Pflanzen :Kohlensäure, Wasser und Ammoniak an dem Aufbaue des Nicotin participiren.

Das Nicotin ist in ganz reinem Zustande eine farblose Flüssigkeit und zeigt einen höchst unangenehmen stechenden Geruch; ein einziger Tropfen kann die Atmosphäre eines grossen geschlossenen Raumes verpesten. Furchtbar sind seine Wirkungen auf den thierischen und menschlichen Organismus. Ein einziger Tropfen dieses Giftes, einem Kaninchen auf die Zunge gebracht, verursacht, dass es in wenigen Minuten verendet, namentlich in Folge der Lähmung der Athmungsmuskeln.

Man hat sich auch mit der chemischen Zusammensetzung des Tabakrauches beschäftigt und gefunden, dass darin Substanzen auftreten, die schon im Blatte vorhanden sind, z. B. Nicotin und Nicotianin, aber auch Substanzen, welche in Folge der unvollkommenen und später der vollkommenen Verbrennung des Tabakes erst entstanden sind, so Paraffin, Buttersäure, kleine Mengen von Anilin, Kohlensäure, Wasser und Ammoniak, Producte der vollständigen Verbrennung.

Die Wirkung des Nicotins ist eine schwach narkotisirende, die anderen Substanzen wirken hauptsächlich auf den Geschmack, vorzugsweise diejenigen, welche von den Flüssigkeiten der Mundhöhle absorbirt werden und da ist in erster Linie das Ammoniak zu. nennen. Man kann sich auf eine sehr einfache Weise davon überzeugen, dass das Ammoniak des Tabakrauches vollständig von den Flüssigkeiten der Mundhöhle absorbirt wird.

Zum Schlusse sei es gestattet, zwei Fragen ganz kurz zu berühren, nämlich die, welche Vortheile und welche Nachtheile der Tabakgebrauch der Menschheit gebracht hat.

Was vorerst die Vortheile anbelangt,

so ist hervorzuheben, dass der Tabak Millionen von Menschen den Lebensunterhalt gibt. In den österreichischen Tabakfabriken arbeiten gegenwärtig 25.000 Menschen, vorzugsweise Frauen. In den Bremer Tabakfabriken sind Jahr aus Jahr ein 6000 Arbeiter beschäftigt, auf der Insel Cuba sind nicht weniger als 600 Cigarrenfabriken im Gange. Bedenkt man ferner, dass die Tabakcultur für einzelne Länder ein Erträgniss abwirft, so gross, wie es durch andere Culturen gar nicht zu erzielen ist, dass der Tabak ein Colonialproduct ist, bedeutender als der Thee, wichtiger als der Kaffee und in Bezug auf Wichtigkeit nur von einem Producte, der Baumwolle, überboten wird, so wird man anerkennen, welche immense wirtschaftliche Bedeutung der Tabak habe. Das näher auszuführen ist nicht Sache der Naturwissenschaft, sondern der National-Oekonomie.

Ob der Tabak der Menschheit Schaden gebracht hat?

Diese Frage wird heute Niemand mit Bestimmtheit bejahen können. Wir kennen genau die Wirkung des Nicotins und können mit Bestimmtheit sagen, dass ein starker Gebrauch des Tabakes, namentlich für junge oder kränkliche Personen ganz gewiss schädlich ist. Wir werden es gewiss deshalb als eine sehr verwerfliche Sitte der Brumesen betrachten, dass ihre Kinder vom 3. Jahre angefangen Cigarren rauchen.

Blicken wir aber nach den civilisirten Staaten, nach Europa und den Nordstaaten Amerika's, wo überall der Tabak mässig gebraucht wird, so finden wir nicht eine Thatsache, welche mit Sicherheit die Schädlichkeit des Tabakes beweisen würde. Ja selbst wenn wir dort hinblicken, wo der Tabak am stärksten gebraucht wird, wo sein Gebrauch geradezu unschöne Formen annimmt, in den Süd- und Weststaaten Nordamerikas, so werden wir auch dort eine mit Sicherheit die Schädlichkeit des Tabakes begründende Thatsache vergebens suchen. Hingegen ist mit Sicherheit für einige Länder Europa's und des Orientes constatirt, dass mit der Einführung des Tabakes der übermässige Gebrauch geistiger Getränke abgenommen hat; eine Thatsache, welche aus der physiologischen Beziehung, die zwischen der Wirkungsweise der narkotischen Genussmittel und der geistigen Getränke besteht, erklärlich wird.

Es wird behauptet, der Tabak verkürze das Leben; bildlich genommen wird dieses jeder Raucher für wahr halten, sachlich ist es nicht sichergestellt. Statistische Angaben sprechen nicht dafür.

Man hat mit Hinblick auf die Völker des Orientes behauptet, dass der Tabak auch den menschlichen Geist untergrabe; die Antwort darauf aber geben die Werke der deutschen Gelehrten, der deutschen Forscher, welche bekanntlich grosse Freunde und Verehrer des Tabakes sind und darauf antwortet zufälliger Weise aber merkwürdig genug die grösste Errungenschaft des menschlichen Geistes, die Auffindung des Gravitations-Gesetzes; denn auch Newton war ein Freund des Tabakes.

----------------------------------------------------------------------------------------

[1] Julius Wiesner, Üeber den Tabak  http://www.zobodat.at/pdf/SVVNWK_8_0287-0312.pdf


Weiterführende Links

Verein zur Verbreitung naturwissenschaftlicher Kenntnisse: http://www.univie.ac.at/Verbreitung-naturwiss-Kenntnisse/index.html

Julius Wiesner: "Jan Ingen-Housz. Sein Leben und sein Wirken als Naturforscher und Arzt". (Auf Ingenhousz gehen wesentliche Entdeckungen zur Photosynthese zurück; s.u.) Das Buch hat das Urheberrecht überdauert und ist nun öffentlich zugänglich: https://archive.org/details/janingenhouszsei00wiesuoft

Robert W. Rosner, 24.08.2017: Jan Ingenhousz, Leibarzt Maria Theresias und Entdecker der Photosynthese


 

inge Thu, 22.02.2018 - 06:36

Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken

Coenzym Q10 kann der Entwicklung von Insulinresistenz und damit Typ-2-Diabetes entgegenwirken

Do, 15.02.2018 - 13:07 — Inge Schuster

Inge SchusterIcon MedizinVon der Presse praktisch unbeachtet, wirft eine eben im Journal eLife erschienene Studie ein neues Licht auf die Entstehung von Insulinresistenz und in Folge von Typ2 Diabetes [1]. An Hand aussagekräftiger Modelle zeigen die Forscher, dass Insulinresistenz mit einer reduzierten Biosynthese und einem daraus resultierendem Mangel an Coenzym Q10 einhergeht. Coenzym Q10 , eine essentielle Komponente in der Energieproduktion der Mitochondrien, macht - sofern ausreichend vorhanden /supplementiert- die in diesem Prozess entstehenden reaktiven Sauerstoffspezies unschädlich und kann damit die Entwicklung von Insulinresistenz verhindern. Diese Befunde bieten auch eine mögliche Erklärung für das offensichtliche Diabetes- Risiko, das mit der Anwendung von Statinen zur Senkung des Cholesterinspiegels einhergeht: Statine können Coenzym Q10 Mangel erzeugen, da sie den ersten Schritt in einem Vielstufenprozess blockieren, der zu Cholesterin und einige Schritte zuvor auch zu Coenzym Q10 führt.

Glukose ist in unserem Organismus zentraler Energielieferant und Baustein für die Biosynthese physiologisch wichtiger Verbindungen. Seine Konzentration im Blut - der sogenannte Blutzuckerspiegel - wird durch ein Zusammenspiel von Hormonen in einem engen Bereich konstant gehalten. Wenn nach dem Essen, vor allem nach kohlehydratreicher Nahrung, der Blutzuckerspiegel ansteigt, schüttet das Pankreas Insulin aus, ein Hormon, welches den Spiegel senkt, indem es die Aufnahme der Glukose aus dem Blut in Körperzellen (von Muskel, Fett, und Leber) und seine Überführung in eine Speicherform initiiert. Bestimmte Voraussetzungen, beispielsweise das Vorliegen einer Adipositas, können zu Störungen in diesem Prozess führen, zur sogenannten Insulinresistenz. Die Insulinresistenz erhöht das Risiko für eine Reihe von Erkrankungen, darunter Diabetes Typ II.

Diabetes, eine globale Epidemie

Diabetes ist Folge zu hoher Blutzuckerspiegel, weil ungenügend oder gar kein Insulin ausgeschüttet wird - Typ- 1-Diabetes -, oder weil die Körperzellen auf Insulin nicht in der richtigen Weise reagieren - Typ-2-Diabetes. Bestehen zu hohe Blutzuckerspiegel aber über längere Zeit, so können Schäden an Organen auftreten und diverse lebensgefährdende Komplikationen hervorrufen, beispielsweise Nierenschäden, Herz/Kreislauferkrankungen, Neuropathien oder auch Retinopathien bis hin zur Erblindung.

Diabetes ist eines der größten Gesundheitsprobleme unseres Jahrhunderts, von dem alle Länder betroffen sind. In der 2017-Ausgabe ihres Diabetes Atlas schätzt die International Diabetes Federation (IDF) die Zahl Erkrankten im Erwachsenenalter (20 - 79 Jahre) auf 425 Millionen, wobei es sich bei mehr als 90 % um Typ-2- Diabetes handelt, und auf rund 4 Millionen Personen, die an den Folgen der Erkrankung starben [2]. Abgesehen von dem Leid der Betroffenen beliefen sich die Kosten der Behandlungen von Diabetes und seinen Folgeschäden laut IDF auf 727 Milliarden US $ [2].

Diese Zahlen werden aber noch weiter steigen: nach Schätzungen des IDF werden im Jahr 2045 bereits 629 Millionen Erwachsene erkrankt sein. Eine besonders hohe Zunahme - z.T auf mehr als das Doppelte- wird dabei für Länder in Afrika und Südostasien erwartet. Abbildung 1. Der Grund dafür liegt im Bevölkerungswachstum und der steigenden Lebenserwartung. Von Typ II Diabetes werden ja Menschen mit steigendem Alter in zunehmendem Maß betroffen: ist im globalen Durchschnitt nur rund 1 % der 20 - 24-Jährigen an Diabetes II erkrankt, so sind es bei 40 - 44 Jährigen bereits rund 8 % und bei Personen um und plus 65 rund 19 %. [2]

Abbildung 1. Diabetes ist eines der größten globalen Gesundheitsprobleme. Schätzungen der International Diabetes Federation für Personen im Erwachsenenalter (20 - 79 Jahre) in 221 Ländern. Die zugrundeliegenden Daten wurden von den einzelnen Ländern zur Verfügung gestellt; bei Ländern mit unzureichender Qualitätskontrolle wurden Daten aus Regionen mit vergleichbarem ethnischen, sozialen und geographischen Hintergrund herangezogen. Die Angaben für Europa (57 Länder) schließen die russische Föderation, Türkei und Grönland mit ein, die Region Südostasien besteht neben einigen kleinen Staaten im wesentlichen aus Indien, der westpazifische Raum (39 Staaten) ist die populationsreichste Region (enthält vor allem China, Indonesien Philippinen, Japan, Australien). (Grafik basiert auf Daten von [2]).

Wie entsteht Insulinresistenz?

Mitochondrien, die Kraftwerke unserer Zellen, spielen offensichtlich eine Schlüsselrolle in der Entwicklung der Insulinresistenz. Mitochondrien erzeugen aus Nährstoffen - Fetten und Zuckern - über die sogenannte Atmungskette das energiereiche Molekül ATP (Adenosintriphosphat), das als universeller Energieträger für die essentiellen energieverbrauchenden Prozesse in unseren Zellen dient. Im Zuge der ATP-Produktion können aber auch potentiell schädliche Produkte erzeugt werden, die unter "reaktive Sauerstoffspezies" (reactive oxygen species - ROS: das sind Sauerstoff-enthaltende instabile radikalische und stabile Oxydantien) subsummiert werden. Bereits frühere Studien hatten darauf hingewiesen, dass ein Zuviel an diesen Oxydantien in Mitochondrien die Insulinresistenz verursachen könnte.

Wodurch entsteht aber das Zuviel an reaktiven Sauerstoffspezies?

Dies analysierte eine neue Studie von australischen Wissenschaftern [1]. Die Forscher haben dazu in insulinresistentem Fett- und Muskelgewebe von Maus und Mensch und in diversen robusten Zellmodellen für Insulinresistenz die Konzentration aller Proteine (auf der Basis des Proteoms und Transkriptoms) und Oxydantien bestimmt. Dabei zeigte sich, dass in allen insulinresistenten Geweben/Modellen die Konzentration des sogenannten Coenzym Q10 deutlich erniedrigt war. Coenzym Q10 ist eine körpereigene, in allen Zellen vorkommende Substanz (Biosynthese und Struktur in Abbildung 2), die essentieller Bestandteil in der Atmungskette der Mitochondrien ist. Wie bereits erwähnt dient diese zur ATP-Gewinnung. Coenzym Q10 fungiert dabei als mobiler Elektronen- und Protonenüberträger zwischen den membrangebundenen Proteinkomplexen I , II und III. Darüber hinaus ist Coenzym Q10 auch in die Entstehung von reaktiven Sauerstoffspezies involviert und kann bei ausreichender Konzentration ein Zuviel davon "abfangen" und unschädlich machen.

Dies bestätigten Versuche, in denen Coenzym Q10 in den insulinresistenten Mäusen und in den Zellmodellen supplementiert und seine Konzentration auf normale Werte angehoben wurde: es normalisierten sich die Spiegel der Oxydantien und in Folge wurde die Entwicklung der Insulinresistenz verhindert [1].

Coenzym Q10 Mangel und Statine

Wie die Versuche zeigten, war der Mangel an Coenzym Q10 in allen untersuchten Modellen auf seine deutlich reduzierte Biosynthese zurückzuführen. Wurden einzelne Schritte in diesem Syntheseweg spezifisch blockiert, so reichte das aus, um verstärkt Oxydantien zu bilden und Insulinresistenz zu erzeugen.

Der Zusammenhang zwischen Mangel an Coenzym Q10 und Insulinresistenz erscheint in Hinblick auf die sogenannten Statine von besonderem Interesse. Statine(beispielsweise Simvastatin, Atorvastatin, Rosuvastatin, etc.) werden weltweit von Millionen Menschen geschluckt, um Cholesterinspiegel und das Risiko für kardiovaskuläre Probleme zu senken. Zu den Nebenwirkungen dieser Verbindungsgruppe zählt u.a. allerdings ein erhöhtes Risiko an Diabetes zu erkranken. Betrachtet man den Wirkungsmechanismus der Statine, so findet man eine plausible Erklärung: Die Cholesterinsynthese ist ein Vielstufenprozess, den Statine bereits in einem frühen Schritt (auf der Stufe der Mevalonsäure) blockieren. Damit blockieren sie aber auch das Ausgangsmaterial für alle Zwischenprodukte, die auf dem Weg zum Cholesterin gebildet werden. Aus einem dieser Zwischenprodukte - dem Farnesyl-pyrophosphat - wird in mehreren Schritten Coenzym Q10 erzeugt. Abbildung 2.

Abbildung 2. Die Synthese von Cholesterin und Coenzym Q10 verlaufen über viele Stufen auf einem gemeinsamen Weg, den Statine in einem frühen Schritt blockieren. Vom Lanosterol, dem ersten cyclisierten 4-Ring-Molekül zum Cholesterin sind 19 Schritte. Stark vereinfachte Darstellung.

Versuche an Kulturen von Fettzellen bestätigten die Hypothese: wurden die Zellen mit Statinen (Simvastatin oder Atorvastatin) behandelt, so führte dies in den Zellen zu reduzierten Coenzym Q10 Spiegeln (natürlich auch zu reduziertem Cholesterin) und in Folge zur Insulinresistenz, die durch Zugabe von Coenzym Q (oder auch des Vorläufers Mevalonsäure) wieder aufgehoben wurde [1].

Ausblick

Coenzym Q10 scheint eine zentrale Rolle in der Prävention und Rückbildung von Insulinresistenz und damit von Typ2 Diabetes zu spielen. Strategien, die zur Erhöhung des Coenzym Q10 Spiegels in Mitochondrien führen, könnten daher wünschenswerte Behandlungsmethoden darstellen. Prinzipiell steht dem nichts entgegen - Coenzym Q ist ein populäres Nahrungsergänzungsmittel und findet sich in Form verschiedenster Kapseln und Tabletten auf den Regalen von Apotheken und Drogeriemärkten. Allerdings wird die Substanz nach oraler Gabe in nur sehr geringem und dazu stark schwankendem Ausmaß in unseren Organismus aufgenommen. Der Grund für die mangelnde Aufnahme aus dem Darm ist das hohe Molekulargewicht (M : 863 D) und der enorm lipophile (fettlösliche) Charakter, der die Substanz in wässrigem Milieu - mit 0.00019 mg/ml - praktisch unlöslich macht ( https://www.drugbank.ca/drugs/DB09270). Hinsichtlich geeigneter Formulierungen zur Verbesserung der Resorption, sind also noch wesentliche Aufgaben zu lösen.


[1] Daniel D. Fazakerley et al., Mitochondrial CoQ deficiency is a common driver of mitochondrial oxidants and insulin resistance. eLife 2018;7:e32111 doi: 10.7554/eLife.32111. https://doi.org/10.7554/eLife.32111.002. (open access, cc-by) [2] IDF Diabetes Atlas 2017 (8th edition) : http://www.diabetesatlas.org (open access)


Weiterführende Links

Coenzym Q10, Video 3,27 min. https://www.youtube.com/watch?v=XR-UutorZeM, Standard-YouTube-Lizenz

Was ist Coenzym Q10? Ubiquinol oder Coenzym Q10 und seine Wirkung. Video 2,05 min. https://www.youtube.com/watch?v=7dO1mXQEBRs

Artikel zu Diabetes/Adipositas im ScienceBlog:


 

inge Thu, 15.02.2018 - 13:07

Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

Kann der Subventionsabbau für fossile Brennstoffe die CO₂ Emissionen im erhofften Maß absenken?

Do, 08.02.2018 - 09:45 — IIASA IIASAIcon Politik & Gesellschaft

Der überwiegende Teil der globalen CO2-Emissionen stammt aus der Verbrennung fossiler Energieträger, die von den Staaten subventioniert werden. Laut einer neuen, vom Internationalen Institut für Angewandte Systemanalyse (IIASA; Laxenburg bei Wien) geleiteten Untersuchung, würde eine Streichung dieser Förderungen - selbst, wenn sie weltweit durchgesetzt werden könnte - aber einen nur überraschend geringen Einfluss auf die globalen CO2-Emissionen haben und bis 2030 auch zu keinem Boom im Ausbau erneuerbarer Energien führen. Die größten Effekte des Subventionsabbaus hätten dabei Erdöl-und Gas-exportierende Länder, in welchen weniger unter der Armutsgrenze lebende Menschen betroffen wären.*

Subventionen für fossile Brennstoffe summieren sich weltweit auf ein jährliches Volumen von Hunderten Milliarden Dollar; die Streichung dieser Förderungen hat man daher als ein wesentliches Instrument zur Abschwächung des Klimawandels gesehen. Es ist dies aber leider nicht die von Vielen erhoffte Wunderwaffe, wie eine heute im Fachjournal Nature erscheinende Analyse aufzeigt, die unter der Leitung des IIASA durchgeführt wurde [1].

Die Studie§

Dieser, vom 7. Forschungsrahmenprogramm der EU unterstützten Studie liegen neue Modelle - sogenannte Integrated Assessment Models (IAM s) - zugrunde, die wesentliche Faktoren, vor allem hinsichtlich des zu erwartenden Energiebedarfs, berücksichtigen. Abbildung 1. Mit diesen Modellen wurden länderweise Prognosen für Brennstoffverbrauch und CO2-Emissionen unter Beibehaltung und bei Abschaffung der Subventionen erstellt und verglichen. Als wesentliche, den Brennstoffverbrauch bestimmende Faktoren, wurden dabei das voraussichtliche Wachstum der Bevölkerung und der Wirtschaft, die Zunahme des Transports, die Steigerung von Effizienz, der Übergang zu reineren Brennstoffen und die Elektrifizierung mit einbezogen.

Abbildung 1. Zur Abschätzung des künftigen Angebots und Bedarfs an Brennstoffen und den dadurch verursachten CO2-Emissionen. Während die künftige Versorgung mit Brennstoffen bereits im Detail durch Modelle beschrieben werden konnte, war dies für Bedarf an Brennstoffen nicht der Fall. Im Rahmen des FP7-Programms Advance wurden dafür neue Modelle - Integrated Assessment Models (IAMs) - erstellt, die wesentliche, den zu erwartenden Bedarf bestimmende Faktoren berücksichtigen (Abbildung von der Redaktion eingefügt. Quelle: Project No 308329 ADVANCE "Advanced Model Development and Validation for Improved Analysis of Costs and Impacts of Mitigation Policies",DELIVERABLE No 7.13 , Report on Final Conference. http://www.fp7-advance.eu/)

Die Prognosen

Der Abbau der Unterstützungen würde den Anstieg der CO2-Emissionen nur wenig verlangsamen: demnach würden um das Jahr 2030 die Emissionen nur 1 - 5 % niedriger ausfallen, als bei Beibehalt der Subventionen und das unabhängig davon ob die Ölpreise nun hoch oder niedrig wären. Dies würde im Jahr 2030 dann einer Reduktion um 0,5 - 2,0 Gigatonnen CO2 (Gt/Jahr) entsprechen - das sind wesentlich niedrigere Einsparungen als im Pariser Klimaabkommen freiwillig zugegesagt wurden, nämlich insgesamt 4 - 8 Gt/Jahr. Allerdings würden auch diese Reduktionen nicht ausreichen, um die Klimaerwärmung auf 2° C zu begrenzen.

"Dafür, dass der Gesamteffekt so gering ausfällt, gibt es zwei Gründe ", sagt die IIASA-Forscherin Jessica Jewell, die Erstautorin der Studie [1] ist. "Zum ersten gelten die Subventionen generell nur für Öl, Gas und Elektrizität. Das bedeutet, dass ein Wegfall der Subventionen in einigen Fällen ein Ausweichen auf die emissionsreichere Kohle mit sich bringen würde. Der zweite Grund: wenn die Fördermittel sich insgesamt auch auf enorme Geldsummen belaufen, so ist deren Anteil am Preis einer Energieeinheit nicht hoch genug, um eine nennenswerte Auswirkung auf den globalen Energiebedarf zu haben. Bei Wegfall der Subventionen würde dieser nur um 1 -7% zurückgehen. " Des weiteren würde der Subventionsabbau nicht zu einem Boom in der Anwendung erneuerbarer Energie führen: Im allgemeinen kommt es ja billiger den Energieverbrauch zu drosseln, als die geförderten Brennstoffe durch erneuerbare Energie zu ersetzen.

Obwohl der Subventionsabbau - weltweit betrachtet - nur wenig Einfluss auf die Emissionen hat, gibt es regionale Unterschiede. Die größten Auswirkungen würden in Erdöl - und Gas exportierenden Regionen auftreten, wie in Russland, Lateinamerika, im mittleren Osten und in Nordafrika. In diesen Gegenden würden die durch Wegfall der Subventionen entstehenden Emissionseinsparungen den Zielen der Klimaschutz-Zusagen nahekommen oder diese sogar übertreffen.

In Entwicklungsländern, die nicht zu den wichtigen Öl- und Gasausfuhrländern zählen, würde der Wegfall der Subventionen generell wesentlich schwächere Auswirkungen haben. Einige der angewandten Modelle deuten sogar auf einen Anstieg der Emissionen in gewissen Regionen hin - beispielsweise in Afrika und Indien -, da man dort vom nicht mehr geförderten Öl und Gas auf Kohle ausweichen würde.

Subventionsabbau und in Armut lebende Menschen

Die regionalen Unterschiede weisen auf einen sehr wichtigen Aspekt hin: man muss überlegen, welche Auswirkungen der Wegfall der Subventionen auf die Armen haben würde. Vielfach wurden ja Subventionen fossiler Brennstoffe eingerichtet, um den Menschen mit niedrigem Einkommen zu helfen. Obwohl der Großteil dieses Geldes an die Wohlhabenden geht, setzt sich ein Haushaltsbudget umso mehr aus solchen Unterstützungen zusammen, je ärmer jemand ist - deren Streichung würde daher massive Auswirkungen auf das tägliche Leben haben.

Beispielsweise würde der Wegfall der Förderungen bedeuten, dass ein Umstieg auf moderne Brennstoffe für viele arme Menschen außerhalb ihrer Möglichkeiten läge. Als Folge würden diese dann Brennholz und Holzkohle verwenden, die beide Treibhausgase emittieren.

Glücklicherweise ist die Mehrheit der ärmsten Bevölkerungsschichten in Regionen zu finden, in denen der Wegfall von Subventionen kaum Einfluss auf die CO2 Emissionen hätte. In den reicheren Öl- und Gas-exportierenden Ländern hingegen würde der Subventionsabbau bedeutend höhere Emissionseinsparungen bringen und weniger nachteilige Auswirkungen auf die Armen haben. Der Ölpreis ist zu Zeit ja niedrig.

"Die Regierungen der Erdöl und Gas produzierenden Länder sind bereits unter Druck die Ausgaben für die Subventionen zu kürzen, da die Einnahmen sinken. Dies bietet eine einmalige politische Gelegenheit die Subventionen in Ländern abzuschaffen, in denen damit der stärkste Einfluss auf die Emissionen erzeugt wird und der geringste Schaden für die Armen", sagt Jewell.

Schlussendlich zeigen die Ergebnisse der Studie, dass eine Abschaffung der Subventionen für fossile Brennstoffe, insbesondere in gewissen Regionen, Vorteile bringt. Allerdings muss dabei mit Augenmaß vorgegangen werden. Der IIASA Energy Program Direktor Keywan Riahi, der auch Koautor der Studie ist, meint dazu: "Wir sagen nicht: Streicht die Subventionen nicht. Wir sagen aber, dass es uns bewusst sein muss, dass der Subventionsabbau geringere Auswirkungen haben kann, als wir erhoffen und die in Armut lebende Bevölkerung unverhältnismäßig stark beeinträchtigen könnte. Eine gut geplante Vorgangsweise kann dagegen die Förderungen abschaffen ohne den Armen zu schaden. Ein Programm, das nun in Indien getestet wird, hat beispielweise die Förderung auf das Gas zum Kochen generell abgeschafft, unterstützt aber die ärmsten Haushalte durch Rabatte."


[1] Jewell J, McCollum, D Emmerling J, Bertram C, Gernaat DEHJ, Krey V, Paroussos L, Berger L, Fragkiadakis K, Keppo I, Saadi, N, Tavoni M, van Vuuren D, Vinichenko V, Riahi K (2018) Limited emission reductions from fuel subsidy removal except in energy exporting regions. Nature 554, 229–233 (08 February 2018), doi:10.1038/nature25467 Diese internationale Studie wurde vom European Union’s Seventh Programme FP7/2007- 2013 No 308329 (ADVANCE) unterstützt.


* Der von der Redaktion aus dem Englischen übersetzte, für den Blog adaptierte Text stammt von der IIASA-Presseaussendung am 5. Feber 2018 “Removing fossil fuel subsidies will not reduce CO2 emissions as much as hoped" (embargoed until 7.2.2018, 19:00 h). IIASA hat freundlicherweise der Veröffentlichung von Inhalten seiner Website und Presseaussendungen in unserem Blog zugestimmt. Der mit § markierte Absatz und Abbildung 1 wurden von der Redaktion eingefügt.


Weiterführende Links

IIASA Website: http://www.iiasa.ac.at/ 

Project No 308329 ADVANCE "Advanced Model Development and Validation for Improved Analysis of Costs and Impacts of Mitigation Policies" http://www.fp7-advance.eu/ 

Zur Höhe der Subventionen für fossile Brennstoffe: How great are fossil fuel subsidies? (Frank Aaskov (REA), 2016). https://www.r-e-a.net/blog/how-great-are-fossil-fuel-subsidies-13-01-2016 

Zu den globalen CO2-Emisionen von fossilen Brennstoffen (Interaktive Landkarten: statplanet world bank) https://www.statsilk.com/maps/statplanet-world-bank-app-open-data/?y=199...

Statistical Review of World Energy https://www.bp.com/en/global/corporate/energy-economics/statistical-revi... 


 

inge Thu, 08.02.2018 - 09:45

Das Quagga - eine mögliche Rückzüchtung und die genetischen Grundlagen

Das Quagga - eine mögliche Rückzüchtung und die genetischen Grundlagen

Do, 01.02.2018 - 04:51 — Ricki Lewis Ricki LewisIcon BiologieRücksichtsloses Jagen hat vor 135 Jahren zur Ausrottung des Quaggas geführt, von diesen Tieren existieren nur mehr Beschreibungen und einige ausgestopfte Museumsexemplare. Neue genetische Analysen derartiger Proben zeigen, dass das Quagga keine eigene Art, sondern eine Untergruppe des Steppenzebras war und, dass Gene des Quaggas im Genpool der jetzt lebenden Zebras noch vorhanden sein könnten. Ein Herauszüchten Quagga-ähnlicher Tiere aus heute lebenden Zebras erscheint damit nicht unmöglich. Dies ist das Ziel eines seit rund 30 Jahren in Südafrika laufenden, faszinierenden Versuchs: des Quagga-Projekts. Die Genetikerin Ricki Lewis fasst die neuesten Ergebnisse zusammen.*

Wie der Vogel Dodo, das Heidehuhn oder das Wollhaarmammut verschwand auch das Quagga erst vor kurzer Zeit - seine DNA ist in Museumsexemplaren noch vorhanden und moderne Verwandte lassen sich züchten, aus denen Tiere mit alten Merkmalen selektiert werden können. Benannt und beschrieben im Jahr 1788, sieht das Quagga gerade so aus als ob jemand die typischen Streifen am Hinterende und an den Hinterbeinen eines Zebras ausradiert hätte. Abbildung 1.

Abbildung 1. Das Quagga in der Darstellung von Samuel Daniell (aus der Serie: African Scenery and animals, 1804; Smithsonian Institution Libraries; gemeinfrei)

Charles Darwin hat das Quagga für eine eigene Spezies gehalten. Heute aber wird das Equus quagga quagga aber als eine ausgestorbene Unterart des Steppenzebras angesehen. Die fünf existierenden Unterarten durchstreifen den Süden und Osten Afrikas, während die anderen Zebra-Arten - Grevy- und Bergzebra -einen engeren Lebensraum haben.

2014 wurden die sequenzierten Genome von 6 lebenden Arten von Zebras und Eseln veröffentlicht; diese zeigten nicht nur hohe genetische Vielfalt, sondern auch, dass Mitglieder der Pferde-Familie mit unterschiedlicher Chromosomenzahl fähig waren Nachkommen zu produzieren. Die heutigen Equidae - also Pferde, Esel und Zebras - leiten sich von einem gemeinsamen Vorfahren ab, der vor 4 - 4,5 Millionen Jahren in der Neuen Welt lebte und haben sich dann vor 2,1 bis 3,4 in der alten Welt ausgebreitet.

Vor wenigen Tagen haben Forscher der Universität Kopenhagen die Genom-weite Analyse von bis zu 168 000 Polymorphismen (Variationen einzelner Basenpaare -SNPs) in den DNAs von 59 Steppenzebras, 6 anderen Zebras und einem Quagga (Material von einem Museumsexemplar) veröffentlicht [1]. Aus den DNA-Daten geht hervor, dass das Quagga ein Steppenzebra ist und, dass die Steppenzebras in neun genetisch definierte Gruppen - evolutionäre Einheiten - eingeteilt werden können. Diese Einteilung hat allerdings nichts mit der Klassifizierung zu tun, die auf Grund unterschiedlicher Merkmale - Muster der Streifen, Körpergröße und Kopfform - zur Unterscheidung der Unterarten angewandt worden war.

Das Quagga Projekt

Das letzte Quagga war ein weibliches Tier und starb 1883 im Amsterdamer Zoo. Charles Darwin könnte ein lebendes Quagga im Londoner Zoo noch gesehen haben - das letzte dieser Tiere verendete dort 1870. Im Freiland waren Quaggas bis zur Ausrottung gejagt worden, um Grünflächen für Ziegen und Schafe zu erhalten.

Das Quagga Projekt wurde von dem Präparator Reinhold Rau initiiert, einem deutschen Experten für Naturgeschichte, der an Hand der insgesamt existierenden 23 Museumsexemplare das Quagga auf's Genaueste beschrieben hatte. Um dem Quagga gleichende Tiere hervorzubringen, startete 1987 eine kontrollierte Züchtung, ausgehend von Steppenzebras aus der West-Kap Region in Südafrika, die nach zwei Kriterien - fehlenden Streifen an Hinterbeinen und Hinterende und dunklerer Grundfarbe - selektiert wurden. Die Züchtungen erfolgen seitdem an frei-laufenden Herden auf bis zu 4Êf;000 Hektar großen Flächen. Jede neue Generation entstammt dabei den am wenigsten gestreiften Tieren der vorhergehenden Generation. (Das Streifenmuster wird dabei stabiler vererbt als die dunklere Grundfarbe.) Abbildung 2. Manchmal gibt es dabei auch eine Rückentwicklung - ein sorgfältig selektiertes Tier, das wieder Streifen an den Hinterbeinen aufweist.

Abbildung 2. Quagga-ähnliche Steppenzebras ("Rau-Quaggas"). Das im Vorjahr geborene Fohlen FD 17 hat bereits die Streifen an den Hinterbeinen verloren, die seine Mutter noch trägt.

Bis jetzt hat das Projekt etwa ein Dutzend nach dem Initiator benannte "Rau Quaggas" hervorgebracht. Es sind dies Tiere, die dem Quagga im Aussehen sehr ähneln. Ein Quagga ließe sich auch klonen - dazu bedarf es aber lebender Zellen.

Eine Pionier-Spezies

Die neuen genomweiten DNA-Analysen[1] stützen - wie Rasmus Heller, einer der Koautoren der Studie erläutert - die Schlussfolgerung aus dem Quagga-Projekt, "dass nämlich das Streifenmuster nicht von einmaligen Mutationen im Quagga herrührt, sondern von ständiger genetischer Variation in den Steppenzebras. In anderen Worten: es bedarf keiner neuen Mutation, um zumindest eine ganz deutlich sichtbare Veränderung im Phänotyp des Quagga zu erklären."

Was bedeutete der Verlust der Streifen für die Quaggas? Es ist verlockend darüber zu spekulieren, aber unmöglich eine Aussage aus dem bis jetzt einzigen analysierten Exemplar zu treffen. "Wir wissen nicht, ob und welche spezifische Adaptionen das Quagga zusätzlich zum fehlenden Streifenmuster aufwies. Dazu brauchen wir wahrscheinlich populationsweite Analysen von Quaggas auf der Ebene ihrer Genome", sagt Heller.

Weitere Daten von den Quaggas-Präparaten sind zu erwarten.

Zurück zu den genetisch definierten, neun Untergruppen des Steppenzebras, deren Entstehung ungewöhnliche Aspekte aufzeigt: es gibt weder graduelle Änderungen in der Häufigkeit von Genvarianten (sogenannte Klinen), noch einen Anhaltspunkt dafür, dass einige wenige Individuen genetisch unterschiedliche Populationen hervorgebracht hätten (sogenannte Gründer-Effekte). Stattdessen könnte die Entstehung der Untergruppen eine Folge davon sein, dass Steppenzebras eine Rolle als Pioniere spielen: die Tiere durchstreifen ganz Afrika, weil sie hinsichtlich ihres Futters nicht zu wählerisch sind und zu den ersten gehören, die desolate/kaputte Graslandschaften besiedeln. Zebras sind robuste, anpassungsfähige Tiere. Die genetischen Untergruppen könnten so auf die Folgen von Klimaveränderungen vergangener Epochen hinweisen, in denen kleine Populationen vorübergehend isoliert wurden und später wieder zusammenkamen; in dem wiederhergestellten Genfluss waren dann die Variationen der Populationen enthalten.

Die genetisch definierten Untergruppen haben nicht viel mit der Phänotyp-definierten, klassischen Einteilung der Steppenzbras zu tun. Beispielsweise enthalten Populationen des kleinwüchsigen Grant's Zebra (Abbildung 3) Individuen aus 2, 3 oder 4 genetisch definierten Gruppen.

Abbildung 3. Grant's Zebras sind kleiner als die anderen Untergruppen der Zebras.

Über den Ursprung der Steppenzebras

Laut den neuen genetischen Analysen stammen die Zebras aus dem Gebiet des Sambesi-Becken - Okavango-Delta in Sambia und Botswana. Sie könnten dort gemeinsam mit Antilopen, Impalas und Gnus einen Ort geteilt haben, der sie vor Umweltveränderungen schützte.

Die Forscher verfolgten die Populationen der Steppenzebras etwa 800 000 bis 900 000 Jahre zurück und kamen zu dem Schluss, dass die Quaggas - gemeinsam mit anderen südlichen Zebrapopulationen - sich vor rund 340 000 Jahren abspalteten. Wann immer dies geschah - die Quaggas kamen wahrscheinlich aus Namibia (dies meint zumindest C-E.T.Pedersen, der Erstautor der Studie). Sie mischten sich mit anderen Steppenzebras im Einzugsgebiet des Orange River, das sich von Südafrika nach Namibia und Botswana im Norden erstreckt. Abbildung 4.

Abbildung 4. Gebiete, in denen Steppenzebras leben.

Die heutigen Steppenzebras erscheinen als eine sanfte Gemeinschaft. Ihre Genome sind variabel; jedoch sind viele Mutationen neutral , d.i. ohne Einfluss auf die natürliche Selektion. Vielleicht bedeutet das auch, dass die Zebras eine bedrohlichen Umwelt verlassen und neue Weideländer gesucht haben, anstatt dort zu verharren und zu warten bis die natürliche Selektion nur diejenigen überließ, die zufällig überlebensfähige Eigenschaften hatten. Das würde durchaus Sinn machen!


[1] C-E T.Pedersen et al., A southern African origin and cryptic structure in the highly mobile plains zebra. Nature Ecology & Evolution (2018) doi:10.1038/s41559-017-0453-7


*Der Artikel ist erstmals am 25. Jänner 2018 in PLOS Blogs - DNA Science Blog unter dem Titel " A Closer Genetic Look at the Quagga, an Extinct Zebra" erschienen ( (http://blogs.plos.org/dnascience/2018/01/25/a-closer-genetic-look-at-the... ) und steht unter einer cc-by Lizenz . Die Autorin hat sich freundlicherweise mit der Übersetzung ihrer Artikel durch ScienceBlog.at einverstanden erklärt, welche so genau wie möglich der englischen Fassung folgt. Abbildungen 2 - 4 hat die Autorin aus dem Quagga-Projekt bezogen.


Weiterführende Links

Das Quagga Projekt: https://quaggaproject.org/

Quagga - Most Beautiful Zebra Ever - Facts & Photos (1.2018), Video (englische Untertitel) 6:11 min. https://www.youtube.com/watch?v=N-IliWQXpSo. Standard-YouTube-Lizenz

Animals That Have Gone Extinct| Amazing Extinct Animal. Video (05.2017; Englisch), 12:07 min. https://www.youtube.com/watch?v=lSi4ctJBWXU.  Standard-YouTube-Lizenz


 

inge Thu, 01.02.2018 - 04:51

Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Primäre Zilien auf Nervenzellen- mögliche Schlüssel zum Verständnis der Adipositas

Do, 25.01.2018 - 07:13 — Francis S. Collins Francis S. CollinsIcon Gehirn

 

Die meisten Säugetierzellen besitzen sogenannte primäre Zilien, antennenartige Ausstülpungen der Zellmembran, die als Sensoren der Umgebung dienen. Eine neue Untersuchung [1] zeigt, dass derartige subzelluläre Strukturen auf bestimmten Nervenzellen eine Schlüsselrolle in der Regulierung des Essverhaltens und damit der Entstehung der Adipositas spielen. Francis Collins, NIH-Direktor und ehem. Leiter des "Human Genome Project", fasst die faszinierenden Befunde zusammen.*

Der Adipositas (Fettleibigkeit) liegt ein komplexes Zusammenspiel von Ernährung, Lebensweise und Genetik zugrunde und sogar die im Verdauungstrakt angesiedelten Bakterien tragen dazu bei. Es gibt aber auch andere, eher unterschätzte Faktoren, die offensichtlich eine Rolle spielen. Eine neue NIH-geförderte Untersuchung lässt auf Faktoren schließen, an die man nicht einmal im Traum gedacht hätte: es sind dies Antennen-artige sensorische Fortsätze (Ausstülpungen der Zellmembran) auf Nervenzellen, sogenannte primäre Zilien. Abbildung 1.

Abbildung 1. Primäre Zilien (grün) auf den Nervenzellen (rot-violett) einer Maus. Die Zellkerne sind blau gefärbt. (Credit: Yi Wang, Vaisse Lab, UCSF)

Die genannte Studie erfolgte an Mäusen und wurde vor wenigen Tagen im Journal Nature Genetics veröffentlicht [1]. Die Schlußfolgerung daraus: primäre Zilien haben eine Schlüsselrolle in dem bereits bekannten "Hunger-Schaltkreis" inne. Dieser Schaltkreis kontrolliert den Appetit auf Basis von Signalen, die er aus anderen Körperregionen empfängt. Im Mausmodell zeigen die Forscher, dass Änderungen an den Zilien einen "Kurzschluss" erzeugen können; in Folge ist die Fähigkeit des Gehirns den Appetit zu kontrollieren gestört und es kommt zu Überernährung und Fettsucht der Tiere.

Wesentliche Proteine im "Hunger-Schaltkreis"

Die neuen Befunde stammen aus der Zusammenarbeit zweier NIH-unterstützter Teams an der Universität von San Francisco, Californien (UCSF). Das eine, von Christian Vaisse geleitete Team suchte möglichst viele genetische Faktoren zu identifizieren, die zur Adipositas beitragen können . Dies hat die Forscher zu einem wesentlichen Abschnitt des "Hunger-Schaltkreises" geführt, der im Hypothalamus des Gehirns verdrahtet vorliegt. Spezifische Neuronen detektieren hier permanent die Konzentration von Leptin, einem Hormon, das von Fettzellen produziert wird und ein Maß für die Menge des im Organismus gespeicherten Fettes darstellt.

Die Leptin-sensitiven Neuronen geben ihre Informationen dann an einen anderen Abschnitt des Schaltkreises weiter, wo eine zweite Gruppe von Nervenzellen das übrige Gehirn informiert ob der Appetit nun gesteigert oder gedrosselt werden soll. Erst kürzlich hat das Team um Vaisse festgestellt, dass an der Oberfläche dieser zweiten Gruppe von Neuronen ein Rezeptor - der Melanocortin-4-Rezeptor (MC4R) - eine ganz wesentliche Funktion in der Weiterleitung des Signals zur Appetit -Regulierung hat. Abbildung 2. Ist der Rezeptor defekt, so kann das übermittelte Signal nicht korrekt weitergegeben werden - der Appetit verbleibt "eingeschaltet" in der on-Position. Tatsächlich sind Mutationen im MC4R-Gen die häufigsten genetischen Ursachen für extreme Fettsucht im kindlichen Alter.

Abbildung 2.Das Herz des Hungers. Eine stilisierte Darstellung der Neuronen (rot), die den Melanocortin-4 Rezeptor (MC4R) exprimieren. Es ist dies eine Untergruppe der Neuronen im sogenannten Paraventriculären Nukleus des Hypothalamus, einer Gehirnregion, die für ihre regulierende Rolle im Energie-Gleichwicht und im Hunger bekannt ist. (Quelle: https://directorsblog.nih.gov/2015/05/05/tracing-the-neural-circuitry-of... Credit: Michael Krashes, NIDDK, NIH)

Die Rolle der primären Zilien

Das andere Team am UCSF, unter der Leitung von Jeremy Reiter, hat sich der Untersuchung der primären Zilien gewidmet. Interessanterweise wurden diese unbeweglichen "Antennen" im Gehirn ursprünglich als unnötige Zellorganellen angesehen, als reine biologische Relikte, die keinerlei Zweck erfüllten. Dass dies falsch ist, hat sich inzwischen herausgestellt. Schäden an primären Zilien tragen zu einem weiten Spektrum genetischer Syndrome bei, die kollektiv als Ziliopathien bezeichnet werden. Ziliopathien weisen dabei häufig eine Vielfalt von Merkmalen auf, beispielweise Polydaktylie - d.i. das Vorhandensein von zusätzlichen Fingern und Zehen -, Schädigungen der Retina, Lungenerkrankungen und Nierendefekte. Hier gab es allerdings ein Faktum, das erst jetzt verstanden wird, nämlich warum Menschen mit bestimmten Ziliopathien praktisch immer extrem adipös sind (das Bardet-Biedl Syndrom mit Polydaktylie und Nierendysplasie und das Alström Syndrom mit Sehstörungen und Störungen des Stoffwechsels und des Hormonsystems miteingeschlossen).

Mit der neuen Studie lassen sich nun alle diese Teile zu einem Ganzen zusammensetzen. Die Forscher haben das MC4R Protein mit Fluoreszenzmarkern gekennzeichnet und erstmals seine Verteilung im Gehirn der Maus untersucht. Dabei stellten sie fest, dass MC4R auf den primären Zilien lokalisiert ist und zwar spezifisch auf den Zilien jener Neuronen, die zur Regulierung des Appetits mit dem übrigen Hirn kommunizieren.

Auch ein weiteres Protein, die sogenannte Adenylat-Cyclase 3 (ADCY3) wurde von den Forschern untersucht. (Adenylat-Cyclase katalysiert die Bildung von zyklischem Adenosinmonophosphat -cAMP- , einem der wichtigsten Botenstoffe zur Signalübertragung innerhalb von Zellen; Anm. Red.) Von diesem Protein war bereits bekannt , dass es spezifisch auf den Zilien von Neuronen lokalisiert ist und auch, dass es mit Adipositas in Verbindung steht. Neue Untersuchungen von Teams aus den US, Pakistan und Grönland - publiziert in derselben Ausgabe von Nature Genetics wie [1] - zeigen nun, dass Mutationen im ACDY3-Gen zu Adipositas und Diabetes führen.

Das Team um Vaisse vermutete nun, dass der Melanocortin-4-Rezezeptor und die Adenylatcyclase ihre Funktion auf den primären Zielien gemeinsam ausüben könnten. Um dies herauszufinden, blockierten sie bei Mäusen die Funktion von ADCY3 auf den Zilien der MC4R exprimierenden Neuronen in spezifischer Weise. Wie angenommen begannen die Tiere mehr zu fressen und an Gewicht zuzunehmen.

Fazit

Die Ergebnisse der neuen Untersuchungen weisen darauf hin, dass die beiden, auf den primären Zilien von Neuronen lokalisierten Proteine MC4R und ADCY3 zusammenwirken , um den "Hunger-Schaltkreis" im Gehirns zu regulieren. Während Mutationen im MC4R Gen für 3 -5 % aller Fälle von schwerer Adipositas verantwortlich sind, gibt es häufigere Mutationen in Dutzenden, wenn nicht Hunderten weiteren Genen, die das Risiko für Adipositas erhöhen. Christian Vaisse hält es für möglich, dass viele dieser Gene auch in den primären Zilien des Gehirns eine Rolle spielen. Sollte dies der Fall sein, so könnte daraus eine wichtige "vereinheitlichte Theorie" der Genetik von Adipositas entstehen.


[1] Subcellular localization of MC4R with ADCY3 at neuronal primary cilia underlies a common pathway for genetic predisposition to obesity. Siljee JE, Wang Y, Bernard AA, Ersoy BA, Zhang S, Marley A, Von Zastrow M, Reiter JF, Vaisse C. Nat Genet. 2018 Jan 8.


* Dieser Artikel von NIH Director Francis Collins, M.D., Ph.D. erschien unter dem Titel:"Unraveling the Biocircuitry of Obesity" zuerst (am 17. Jänner 2018) im NIH Director’s Blog. Der Artikel wurde von der Redaktion aus dem Englischen übersetzt und geringfügig (mit Untertiteln und zwei Kommentaren) für den Blog adaptiert. Abbildung 2 wurde von einem früheren Blogartikel des Autors übernommen (https://directorsblog.nih.gov/2015/05/05/tracing-the-neural-circuitry-of... ) Eine Reihe von Literaturangaben (nicht frei zugänglich) finden sich im Original. Reprinted (and translated by ScienceBlog) with kind permission from the National Institutes of Health (NIH).


Weiterführende Links

National Institutes of Health (NIH) in Bethesda (Maryland)

Obesity (National Institute of Diabetes and Digestive and Kidney Diseases/NIH)

Christian Vaisse (University of California San Francisco)

Reiter Lab (UCSF)


 

inge Thu, 25.01.2018 - 19:17

Die bedeutendsten Entdeckungen am CERN

Die bedeutendsten Entdeckungen am CERN

Do, 18.01.2018 - 11:57 — Claudia-Elisabeth Wulz

Claudia-Elisabeth WulzIcon PhysikDer Aufbau der Materie aus Elementarteilchen und die Kräfte, die zwischen diesen wirken, werden im sogenannten Standardmodell der Teilchenphysik zusammengefasst. Wissenschafter am Forschungszentrum für Teilchenphysik CERN (der Europäischen Organisation für Kernforschung) haben hierzu fundamentale Erkenntnisse beigetragen. Mit Hilfe der weltstärksten Teilchenbeschleuniger und -Detektoren testen sie die Gültigkeit der Voraussagen des Standardmodells und dessen Grenzen. Die Teilchenphysikerin Claudia-Elisabeth Wulz (Institut für Hochenergiephysik der OEAW- HEPHY), seit knapp 25 Jahren Leiterin der österreichischen Gruppe des CMS-Experiments - CMS-Trigger - am Large Hadron Collider des CERN, gibt hier einen kurzen Überblick über die bedeutendsten Entdeckungen am CERN.*

Bausteine der Materie und Wechselwirkungen

Vorweg eine kurze Darstellung eines der erfolgreichsten Modelle in der Physik, des sogenannten Standardmodells der Teilchenphysik. Dieses gibt uns Auskunft über die Zusammensetzung der Materie, wie wir sie kennen und auch über die Wechselwirkungen zwischen den Bestandteilen der Materie. Die grundlegenden Bestandteile des Standardmodells sind in Abbildung 1 dargestellt. Es sind

  • die sogenannten Quarks, die sich unter anderem in den Protonen und Neutronen befinden, welche die Atomkerne bilden,
  • weitere Teilchen, sogenannte Leptonen. Zu ihnen gehört das allgemein bekannte Elektron, das zusammen mit dem Atomkern das Atom bildet,
  • Kraftteilchen ("Eichbosonen"; siehe unten) und
  • das berühmte Higgs-Teilchen, das im Zentrum steht und dem Universum Substanz gibt. Wenn Elementarteilchen das alles durchdringende Higgsfeld durchfliegen, wechselwirken sie mit dem Feld und erhalten daraus ihre Masse.

Abbildung 1. Das Standardmodell der Teilchenphysik. Materie besteht aus Quarks (rot) und Leptonen (grün) und wird durch Kraftteilchen (blau) zusammengehalten. Durch die Wechselwirkung mit dem Higgsfeld (H) erhalten Elementarteilchen Masse.

Was kann man sich unter Kraftteilchen vorstellen?

Diese auch Austauschteilchen oder Eichbosonen genannten Teilchen vermitteln die Wechselwirkungen - Kräfte - zwischen den Materieteilchen Quarks und Leptonen. Bildlich kann man sich das etwa so vorstellen (Abbildung 2):

Zwei Personen sitzen in einem Boot und werfen sich gegenseitig einen Ball ("Kraftteilchen") zu. Als Folge bewegt der von dem Werfenden ausgehende Impuls dessen Boot nach hinten, ebenso wird das Boot des Fängers nach hinten getrieben. Mit dem Ball werden hier also Abstoßungskräfte übermittelt. Werfen sich die beiden Personen den Ball aber über rückstoßende Wände zu, so kommt es zu einem Heranrücken der Boote - zu einer Anziehungskraft.

Abbildung 2. Wie man sich die Wechselwirkungen zwischen den Materie-Teilchen - Quarks und Leptonen - durch den Austausch von Kräften via Kraftteilchen – Eichbosonen γ, g, W und Z – vorstellen kann.

Mit diesen Austauschteilchen sind fundamentale Kräfte verknüpft:

  • Elektromagnetische Wechselwirkung – Austauschteilchen sind Photonen (γ), aus denen auch das Licht - eine elektromagnetische Schwingung - besteht; Photonen sind masselose Trägerteilchen mit unendlicher Reichweite.
  • Starke Wechselwirkung – Gluonen (g; Gluon bedeutet so viel wie Kleber) sind verantwortlich für die stärkste Kraft, welche die Bindung der Quarks innerhalb des Protons oder des Neutrons und damit die Stabilität der Atome bewirkt. Die Reichweite ist auf den Atomkern beschränkt.
  • Schwache Wechselwirkung – wirkt auf geladene und ungeladene Elementarteilchen, wird durch W- und Z-Bosonen vermittelt und hat nur sehr, sehr kurze Reichweite. Diese Wechselwirkung ist verantwortlich für Kernfusionsprozesse (zum Beispiel die Fusion von Wasserstoff zu Helium im Inneren unserer Sonne) und auch für den natürlichen radioaktiven Zerfall.
  • Schwerkraft (Gravitation) ist die schwächste Kraft. Gravitation – Massenanziehung – ist uns aus dem täglichen Leben und auch aus der Himmelsmechanik vertraut und mit der allgemeinen Relativitätstheorie gut verstanden, spielt aber in der Mikrowelt der Elementarteilchen praktisch keine Rolle. Ein postuliertes, mit dieser Kraft verknüpftes Teilchen ("Graviton") konnte - auf Grund der Schwäche dieser Kraft - experimentell bis jetzt noch nicht aufgefunden werden. Auch der Versuch, diese Kraft in das durch Quantenfeldtheorie die Mikrowelt beschreibende Standardmodell einzubauen - also die Theorie der größten Dimensionen mit der Theorie für die kleinsten Dimensionen zu vereinigen - war bis jetzt nicht erfolgreich.

Pionierleistungen am CERN

Zur Erforschung der elementaren Bausteine der Materie und ihrer Wechselwirkungen nützt man am CERN riesige Teilchenbeschleuniger und gigantische Detektoren. Das zugrunde liegende Prinzip: es werden auf nahezu Lichtgeschwindigkeit beschleunigte Teilchen mit enormer Wucht zur Kollision gebracht. Entsprechend der Äquivalenz von Energie und Masse (E = m×c2) können sich Energie in Masse und Masse in Energie umwandeln und dabei neue, noch unbekannte Teilchen entstehen. Deren Spuren werden mittels der Detektoren aufgezeigt und exakt vermessen. Zahlreiche Durchbrüche in der Teilchenphysik sind auf derartige Untersuchungen am CERN zurückzuführen, die drei bedeutendsten - die Entdeckung i) der neutralen Ströme, ii) der W- und Z-Bosonen und iii) des Higgs-Teilchens - sollen hier kurz angeführt werden.

Zur elektroschwachen Wechselwirkung: Entdeckung der neutralen Ströme

Vor 50 Jahren hatten die Physiker Steve Weinberg, Abdus Salam und Sheldon Glashow postuliert, dass elektromagnetische und schwache Wechselwirkung zwei Facetten ein und derselben Kraft - der elektroschwachen Kraft - sind (gerade so wie Elektrizität und Magnetismus - Blitzstrahl und Magnetfeld - als unterschiedliche Aspekte der grundlegenden elektromagnetischen Wechselwirkung zusammengefasst sind). Noch bevor diese Theorie experimentell bestätigt wurde, erhielten die drei Forscher 1979 den Nobelpreis "Für ihren Beitrag zur Theorie der Vereinigung schwacher und elektromagnetischer Wechselwirkung zwischen Elementarteilchen, einschließlich unter anderem der Voraussage der schwachen neutralen Ströme“.

Die schwache Wechselwirkung wirkt auf alle Materieteilchen und wird durch elektrisch neutrale Teilchen (Z-Bosonen) oder positiv oder negativ geladene Teilchen (W-Bosonen) übermittelt. Ein bedeutender Schritt auf dem Weg zur Vereinigung von schwachen und elektromagnetischen Kräften war der experimentelle Nachweis der sogenannten neutralen Ströme am CERN mit der Blasenkammer Gargamelle im Jahr 1973. Abbildung 3.

Die Forscher hatten einen im Proton-Synchrotron erzeugten Strahl spezieller hochenergetischer Neutrinos (Myon-Neutrinos) in die Blasenkammer geschossen. Neutrinos - praktisch masselose, ungeladene Leptonen, die nur sehr, sehr schwach mit Materie reagieren - bleiben in der Blasenkammer unsichtbar. Die Kollision mit einem der in der Kammerflüssigkeit ubiquitären Elektronen führte zur Übertragung von Impuls und Energie auf dieses Teilchen, aber zu keiner Änderung seiner Ladung. Auf seiner Bahn brachte das Elektron durch Ionisation die Flüssigkeit zum Verdampfen und hinterließ so eine sichtbare Spur; dabei erzeugten vom Elektron ausgehende Photonen auch Elektron-Positron Paare (Abbildung 3, rechts).

Abbildung 3. In der Blasenkammer Gargamelle (links) wurde 1973 erstmals der schwache neutrale Strom nachgewiesen (rechts). Die mit überhitzter Flüssigkeit (Freon) gefüllte Blasenkammer ist in einen Magneten eingebettet, durch welchen geladene Teilchen kurvenförmig abgelenkt werden. Infolge Ionisierung verdampft die Flüssigkeit entlang ihrer Bahn und macht diese durch Bläschen sichtbar. Neutrinos - elektrisch neutrale Leptonen - interagieren nur sehr, sehr schwach mit Materie. Ein typischer neutraler Strom entsteht, wenn ein spezielles Neutrino (das Myon-Neutrino νμ) in die Kammer tritt und auf ein Elektron trifft (rechts: "Collision point").

Vermittler der elektroschwachen Wechselwirkung: Entdeckung der W-und Z-Bosonen

Nun begann die Suche nach den Kraftteilchen, welche die elektroschwachen Kräfte vermitteln. Der direkte Nachweis gelang 1983 in zwei großen Experimenten (UA1, UA2) mit Hilfe des damals größten Beschleunigers, dem sogenannten Super-Proton Collider, in welchem Antiprotonen mit Protonen zur Kollision gebracht werden konnten. Die dabei erzeugten sogenannten W- und Z-Bosonen wurden anhand ihrer Zerfallsprodukte detektiert, die vom Standardmodell vorhergesagt worden waren. Abbildung 4.

Bereits 1984, im Jahr nach dieser Entdeckung, wurden Carlo Rubbia und Simon van der Meer "Für ihre maßgeblichen Beiträge in dem Großprojekt, das zur Entdeckung der W- und Z-Kraftteilchen, den Vermittlern der schwachen Wechselwirkung, führte" mit dem Nobelpreis ausgezeichnet.

Abbildung 4. Die Entdeckung des Z-Bosons im UA1-Experiment. Links: Nachweis des Z-Bosons anhand seines Zerfalls in ein Elektron-Positron-Paar (weiße Bahnen). Rechts: Aufbau des riesigen Underground Area 1 (UA1) Experiments. Darunter: Carlo Rubbia und Claudia-Elisabeth Wulz. Die Autorin hat im Zuge ihrer Diplomarbeit am CERN beim UA1-Experiment mitgearbeitet.

Die Entdeckung des Higgs-Teilchens

Das Standardmodell beschreibt die Materieteilchen und ihre Wechselwirkungen, konnte aber lange nicht erklären, woher die Teilchen ihre Masse bekommen. In den 1960er Jahren wurde von mehreren Physikern - dem Briten Peter Higgs und den Belgiern François Englert und Robert Brout - die Existenz des sogenannten Higgs-Mechanismus vorausgesagt. Dieser Mechanismus führt ein Feld - das Higgsfeld - ein, welches das gesamte Universum durchdringt und in der Wechselwirkung mit Teilchen diese "abbremst" und ihnen so Masse verleiht. Schwingungen (lokale Verdichtungen) dieses Higgsfeldes sollten dann als diskretes Teilchen - Higgs-Teilchen (H) - aufscheinen.

Die Suche nach einem derartigen Teilchen gelang am Large Hadron Collider (LHC), in welchem Protonen mit enorm hohen Energien bis zu 7 Tera-Elektronenvolt zur Kollision gebracht und die dabei entstehenden Partikel mit den Detektoren ATLAS und CMS untersucht wurden. Ein zwiebelschalenartiger Aufbau der Detektoren aus unterschiedlichen Detektionskammern/-schichten ermöglicht die Identifizierung von Teilchen und Bestimmung ihrer Eigenschaften. Da für das postulierte Higgs-Teilchen eine nur extrem kurze Lebendauer vorhergesagt wurde, war es klar, dass man es im Detektor nicht direkt, sondern nur an Hand seiner Zerfallsprodukte - bekannter Teilchen wie Photonen (γ), Z- und W-Bosonen, b-Quarks, Taus (τ), etc. - detektieren würde. Die Untersuchung der Zerfallskanäle erbrachte dann im Juli 2012 die Meldung, dass ein neues Teilchen entdeckt worden war, das die Eigenschaften des vorausgesagten Higgs-Bosons aufwies und relativ leicht war (etwa 125 mal schwerer als das Proton). Abbildung 5.

Abbildung 5. Die Entdeckung des Higgs-Teilchens mit einer Masse von 125 GeV (entsprechend der 125 fachen Masse des Protons).Links ist das CMS Experiment skizziert, in welchem der Zerfallskanal Higgs-Teilchen (H) in 2 Photonen (γγ) untersucht wurde (grüne Bahnen im oberen Bild). Rechts: das ATLAS Experiment, der Zerfallskanal von H in zwei Z-Bosonen, die weiter in 4 Leptonen (oben: grüne Bahnen: Elektronen, rote Bahnen: Myonen) zerfielen. Die Wahrscheinlichkeit, dass andere Teilchen im Detektor (Untergrund) das Higgs-Boson-Signal vortäuschen könnten, lag bei 1 : 600 Millionen.

Wie im Falle der W- und Z-Bosonen wurde auch diese fundamentale Entdeckung bereits im folgenden Jahr mit dem Nobelpreis ausgezeichnet. François Englert und Peter Higgs erhielten den Preis "Für die Entdeckung des theoretischen Mechanismus, der zu unserem Verständnis des Ursprungs der Masse von fundamentalen Bausteine der Materie beiträgt und der jüngst durch die Entdeckung des vorhergesagten Elementarteilchens in den Experimenten ATLAS und CMS am Large Hadron Collider des CERN bestätigt wurde."

Beiträge des österreichischen HEPHY-Teams am CERN

Das Institut für Hochenergiephysik (HEPHY) der Österreichischen Akademie der Wissenschaften war eines der Mitglieder der UA1 Kollaboration (siehe Entdeckung der W- und Z-Bosonen) und hat wichtige Beiträge zum Kalorimeter des Detektors, zum Datenaufzeichnungssystem und zur Datenanalyse geleistet.

HEPHY ist auch eines der Gründungsmitglieder der seit 25 Jahren bestehenden Zusammenarbeit am CMS-Detektor des Large Hadron Collider, wobei es Beiträge zur Konzeption, zur Hardware, Software und zum Betrieb des CMS-Experiments geleistet hat. Insbesondere hat das HEPHY-Team wesentliche Komponenten eines sogenannten Triggersystems entwickelt, das es erlaubt aus den Milliarden Protonenkollisionen diejenigen herauszufiltern, welche die interessantesten Ergebnisse versprechen (wie das funktioniert, erklärt Manfred Jeitler in: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC).

Wie geht es weiter?

Mit dem Higgs-Teilchen wurde das Standardmodell der Teilchenphysik vervollständigt, welche die uns umgebende Materie ausgezeichnet erklärt. Das ganze Universum lässt sich damit aber nicht beschreiben: Wir kennen nur rund 5 % davon , der Rest ist Dunkle Materie und Dunkle Energie, die unser Universum beschleunigt expandieren lässt. Zur Natur dieses "Rests" wissen wir derzeit keine Antwort - dieser ist ja, ebenso wie die Gravitation, nicht Bestandteil des Standardmodells. Wie kann nun das Standardmodell erweitert werden?

Die Hypothese der Supersymmetrie (SUSY) ist heute ein wichtiger Ansatz, um solche Fragen zu beantworten und auch alle Wechselwirkungen zu einer einzigen übergeordneten Wechselwirkung vereinigen zu können. SUSY sagt dazu eine Art von Duplikation der bekannten Partikel voraus. Diese hätten dann nicht die exakt gleiche Masse und daher auch unterschiedliche Eigenschaften, beispielsweise hätte ein up-Quark dann seine Entsprechung in einem supersymmetrischen up-Quark, ein Gluon in einem sogenannten Gluino. Das Standardmodell wird demnach in eine Art übergeordnetes Modell eingebettet, das in Zukunft unser ganzes Universum beschreiben können soll. Die Suche nach derartigen supersymmetrischen Teilchen am LHC ist im Gange.

Die herausforderndste Rolle des CERN wird wohl darin bestehen, gemeinsam mit experimentellen Astrophysikern und Kosmologen den Weg zu einer Physik der Zukunft zu weisen.


* Eine ausführlichere Darstellung des Themas findet sich in dem Vortrag "Discoveries at CERN", den die Autorin am 18. Oktober 2017 anlässlich des Wilhelm-Exner Symposiums gehalten hat. Video (englisch) 30:48 min. Details zu CERN, Standardmodell, Elementarteilchen, Teilchenbeschleuniger, Detektoren: Artikel unter weiterführende Links


Weiterführende Links

CERN: Europäische Organisation für Kernforschung (Conseil Européen pour la Recherche Nucléaire). Am CERN wird der Aufbau der Materie aus Elementarteichen erforscht und wie diese miteinander wechselwirken - also woraus das Universum besteht und wie es funktioniert.

Auf der Webseite des CERN findet sich u.a. eine Fülle hervorragender Darstellungen der Teilchenphysik (Powerpoint-Präsentationen)

Publikumsseiten des CERN: http://home.cern/about

Large Hadron Collider (LHC) http://home.cern/topics/large-hadron-collider

HEPHY (Institut für Hochenergiephysik der Österreichischen Akademie der Wissenschaften) http://www.hephy.at/  HEPHY liefert signifikante Beiträge zum LHC Experiment CMS am CERN, Genf, sowie zum BELLE Experiment am KEK in Japan und zum CRESST Experiment im Gran Sasso in Italien.

Artikel im ScienceBlog zum CERN und Beiträge aus dem HEPHY

Über Elementarteilchen:

Manfred Jeitler, 07.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 1: Ein Zoo aus Teilchen

Manfred Jeitler, 21.02.2013: Woraus unsere Welt besteht und was sie zusammenhält — Teil 2: Was ist das Higgs-Teilchen?

Josef Pradler, 17.06.2016: Der Dunklen Materie auf der Spur.

Über die Teilchenbeschleuniger Manfred Jeitler, 23.08.2012: CERN: Ein Beschleunigerzentrum — Wozu beschleunigen?

Manfred Jeitler, 06.09.2013: CERN: Ein Beschleunigerzentrum — Experimente, Ergebnisse und wozu man das braucht.

Über das vom HEPHY entwickelte Triggersystem

Manfred Jeitler, 13.11.2015: Big Data - Kleine Teilchen. Triggersysteme zur Untersuchung von Teilchenkollisionen im LHC

Besuch des ScienceBlog am CERN Inge Schuster, 26.09.2014: Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 1

Inge Schuster, 10.10.2014: Woraus besteht alle Materie? ScienceBlog besuchte das CERN — Tag 2


 

inge Thu, 18.01.2018 - 11:57

Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Wie real ist das, was wir wahrnehmen? Optische Täuschungen

Do, 11.01.2018 - 05:59 — Susanne Donner

Susanne DonnerIcon Gehirn

Optische Täuschungen lassen gerade Striche schief, gleiche Objekte unterschiedlich groß, verschieden gefärbt und von unterschiedlicher Helligkeit und starre Bilder scheinbar bewegt erscheinen. Die Chemikerin und Wissenschaftsjournalistin Susanne Donner gibt einen Einblick in diese faszinierenden Phänomene, die entstehen, weil unser Gehirn - auf Basis seiner Erfahrungen - laufend die in der Netzhaut empfangenen Informationen korrigiert. Die Erklärung optischer Täuschungen gibt somit wertvolle Hinweise, wie das menschliche Sehsystem funktioniert.*

Manchmal ist die Welt nicht, was sie zu sein scheint: Optische Täuschungen hinterlassen bei uns Eindrücke, die mit der Wirklichkeit oft nichts zu tun haben. Ihre Erforschung ist in vollem Gange – und lehrt uns viel über die Art, wie wir sehen.

Einige werden sich an Vollmondabenden schon verwundert die Augen gerieben haben: Wenn der Mond am Horizont aufgeht, wirkt er aufgebläht wie ein Heißluftballon. Dagegen sieht er oben am Firmament klein wie ein Fußball aus. Geht das noch mit rechten Dingen zu? Alles nur ein Trugbild, weiß die Wissenschaft. Für sie sind optische Illusionen wie die Mondtäuschung „ein Fenster in die Welt des Sehens“. So formulierte es der berühmte Wahrnehmungsforscher David Eagleman vom Bayor College of Medicine in Houston. Denn die visuellen Ausrutscher stellen die wissenschaftlichen Theorien über den Sehsinn auf den Prüfstand.

Die Natur trügt selten

Auch wenn der Mond eine Ausnahme bildet: “In Feld, Wald und Wiese funktioniert unser Sehen meistens verblüffend gut”, stellt der Sehforscher Michael Bach von der Universitätsaugenklinik Freiburg klar. Fast alle optischen Täuschungen beruhen auf künstlichen Abbildungen.

Zu den ältesten Täuschbildern überhaupt gehören geometrische Schwarz-Weiß-Gebilde wie das Hermann-Gitter, benannt nach dem Physiologen Ludimar Hermann (1838-1914), der sie im Jahr 1870 als einer der ersten erwähnte: Beim Betrachten eines weißen Gitters auf schwarzem Grund erscheint auf jeder weißen Kreuzung ein verwaschener Fleck, nur nicht in der Mitte des Sehfeldes (Abbildung 1). Da der Kontrast zwischen Schwarz und Weiß nicht richtig erfasst wird, sprechen Forscher von einer Kontrasttäuschung.

Abbildung 1. Das sogenannte Hermanngitter. Wenn man es betrachtet sieht man an den Kreuzungspunkten verschwommene schwarze Flecken. Die Ursache der Täuschung ist noch nicht genau bekannt, bislang gültige Theorien wurden vor kurzem wiederlegt. Grafik: Dana Zymalkovski.

Von der Katze zum Fleck

Nach Hermanns Erfindung verstrich fast ein Jahrhundert, bis Wissenschaftler eine erste überzeugende Theorie zur Erklärung des Phänomens vorlegen konnten. Der Neurophysiologe Günther Baumgartner (1924 bis 1991) setzte Katzen Mikroelektroden in den Sehnerv und zeichnete die elektrischen Ströme auf. Er erkannte: Die Informationen von mehreren Lichtsinneszellen auf der Netzhaut laufen in nur einer Ganglienzelle zusammen, die sie verrechnet und das Ergebnis über den Sehnerv weitergibt. Die Fülle der Signale der Fotorezeptoren ist somit schon im Sehnerv verdichtet. Der kreisrunde Einzugsbereich einer Ganglienzelle auf der Netzhaut ging als “rezeptives Feld” in die Lehrbücher ein.

In der Netzhaut gibt es nun zwei Typen von Ganglienzellen:

  • ON-Zentrum-Ganglienzellen reagieren besonders stark, wenn der innere Bereich im rezeptiven Feld stimuliert wird, der äußere jedoch nicht.
  • Bei OFF-Zentrum-Ganglienzellen ist es umgekehrt. Dass Signale von den Rändern des rezeptiven Feldes die Information in der Mitte beeinflussen können, wird als laterale Hemmung bezeichnet.

Mit diesem Wissen, so schien es, konnte Baumgartner die Hermann-Gitter-Täuschung erklären: Erfasse eine ON-Zentrum-Ganglienzelle eine weiße Kreuzung, werde sie stärker gereizt als an anderen Stellen des Gitters. Dies führe zu einer unterschiedlichen Verrechnung der Seheindrücke und so zu den verwaschenen Flecken. Sogar für das Fehlen derselben in der Blickmitte hatte er eine Erklärung: In der Mitte der Netzhaut werden weniger Fotorezeptoren-Impulse in einer Ganglienzelle gebündelt. Das rezeptive Feld im Zentrum unseres Blicks sei darum so klein, dass es die schwarzen Quadrate nicht berühre.

Rätselhaftes Gitter

Vier Jahrzehnte wurde Baumgartners Erklärung in die Lehrbücher gedruckt. Doch 2004 bereitete der Ungar János Geier dem ein jähes Ende – und verblüffte so die Forscherwelt. Er wandelte das Hermann-Gitter leicht ab, indem er die weißen Linien sinusförmig verzerrte (Abbildung 2).

Abbildung 2. Variation des Hermanngitters. Die Illusion tritt hier nicht auf, was die bis dahin akzeptierten Erklärungssätze in Frage stellte. copyright: Michael Bach.

Prompt verschwanden die Flecken; und das, obwohl die rezeptiven Felder noch immer dieselbe Schwarzinformation erhalten und somit Baumgartner zufolge eine Täuschung hervorrufen müssten. „Ich fand schon immer, dass das Baumgartner-Modell zu kurz greift“, quittiert Sehforscher Bach. „Ich habe meinen schwarzen Schlüsselbund hier vor mir liegen und müsste doch Flecken an der Kante sehen, wenn es richtig wäre. Ich sehe ihn aber gestochen scharf. Das Gehirn ist also in der Lage, die laterale Hemmung herauszurechnen, bloß beim Hermann-Gitter nicht.“ Nur, warum? Die Frage ist bis heute ungeklärt.

Bach hält die verwaschenen Flecken im Hermann-Gitte für einen Nebeneffekt der Helligkeitskonstanz. Helligkeitskonstanz ist die Fähigkeit, die hellsten Bereiche im Sehfeld auszumachen. “Dafür muss unser Sehsystem nicht absolut messen, wie hell das Gesehene ist, sondern die verschiedenen Helligkeiten abgleichen”, erklärt Bach. Dass diese Gabe als Nebenwirkung die Hermann-Gitter-Illusion produzieren könne, haben die Forscher David Corney, heute an der City University of London, und Beau Lotto, heute Direktor des „Lab of Misfits“ am University College in London 2007 auf eindrucksvolle Weise vorgeführt: Sie brachten einem künstlichen neuronalen Netz Helligkeitskonstanz bei. Das selbstlernende Computerprogramm erkannte in einer Darstellung mit buntem Laub zuverlässig die hellsten Stellen. Dasselbe Programm generierte aus einem Hermann-Gitter jedoch auch exakt das Täuschungsbild mit verwaschenen grauen Punkten an den Kreuzungen.

Gleich groß oder nicht?

Die immer neuen Versuche, die Hermann-Gitter-Täuschung zu erklären, sind kein Einzelfall. Ähnlich lebhaft ist die Kontroverse bei anderen Täuschungsphänomenen, etwa bei der Ebbinghaus-Täuschung (Abbildung 3). Sie zeigt zwei gleich große Kreise, wovon einer von kleineren Kreisen umringt ist, der andere von größeren. Letzterer erscheint dadurch deutlich kleiner als sein Zwilling.

Abbildung 3. Die Kreis- oder Ebbinghaus-Illusion suggeriert unterschiedliche Größen. Grafik: dasGehirn.info.

In den achtziger Jahren postulierten die amerikanischen Neurophysiologen Margret Livingstone und David Hubel, dass die Ebbinghaus-Täuschung wie auch andere Gestalttäuschungen vom starken Helligkeitsunterschied zwischen Schwarz (Kreis) und Weiß (Umgebung und Füllung) herrührt. Diese These knöpfte sich der Neuropsychologe Kai Hamburger von der Universität Giessen 2007 vor und präsentierte zwanzig Studenten farbige Illusionen. Die führten diese jedoch genauso in die Irre wie die Schwarz-Weiß-Zeichnungen. “Die Annahme von Livingstone und Hubel ist nicht haltbar”, so Hamburgers Fazit.

Ich sehe was, was du nicht siehst

Hinweise für einen neuen Erklärungsansatz kommen nun aus unerwarteter Richtung – aus der Kulturpsychologie: So fanden Forscher 2007 heraus, dass die indigene Bevölkerung der Himba, die im Norden Namibias und im Süden Angolas zu Hause ist, die Ebbinghaus-Täuschung wesentlich schwächer erlebt als Europäer. Die Himba haben in ihrer Sprache kein Wort für Kreis. Runde Objekte spielen in ihrem Alltag kaum eine Rolle. Visuelle Erfahrungen scheinen also optische Täuschungen zu beeinflussen. Was wir im Leben schon sahen, bestimmt, was wir sehen.

Dabei kommt es offensichtlich auch auf die Dauer unserer Erfahrungen an: Kinder unter sieben Jahren nämlich erkennen die Größe der Ebbinghausschen Kreise fast richtig. Sie lassen sich weniger täuschen als Erwachsene. “Der Irrtum in der Wahrnehmung ist eine Folge der späten Gehirnentwicklung”, kommentiert der Psychologe Martin Doherty, heute an der University of East Anglia. 2010 entdeckte er erstmals das Sehtalent der Kinder. Mit zunehmender Reifung des Gehirns beziehen Europäer offenbar immer stärker den Bildkontext, also die umliegenden Kreise, ein und verschmelzen das zu einem “synthetischen Bild”. Erwachsene sehen deshalb die Kreise unweigerlich immer im Verhältnis zueinander. Kinder betrachten sie nahezu isoliert.

Das Bild kommt aus dem Kopf

Wie stark der Bildkontext die Wahrnehmung beeinflusst, machen neuere Publikationen zur Ebbinghaus-Täuschung eindrucksvoll deutlich. Der Verhaltensneurobiologe Farshad Nemati zeigte 2009 an der kanadischen University of Lethbridge, dass die Täuschung umso drastischer ausfällt, je größer der Weißraum um die Ebbinghausschen Kreise ist. Wenn die Kreise mit Bildern gefüllt sind, verändert das abermals das Trugbild, fand der niederländische Psychologe Niek van Ulzen heraus, der gegenwärtig an der Universität Verona forscht. Wenn der innere Kreis ein negatives Motiv, etwa eine Waffe, eine Toilette oder eine Spinne, enthält und die äußeren Kreise etwas Erfreuliches, etwa einen Hasen oder eine Sonnenblume, zeigen, dann fällt die Täuschung schwächer aus. Ulzen erklärt: “Negative Reize verlangen besonders viel Aufmerksamkeit. Die Informationen ringsum werden stärker ausgeblendet. Im Nebeneffekt wird die Größe des Kreises dadurch korrekter eingeschätzt.”

Der irreführende Kontext täuscht uns auch über die tatsächliche Größe des Mondes hinweg: Nahe am Horizont erscheint er groß wie ein Heißluftballon, weil das Gehirn das Gestirn unwillkürlich mit Bäumen und Bergen in Relation setzt. Im Zenit ist der Mond klein und einsam, in ein Meer aus Sternen eingebettet.

Fazit

  • Optische Täuschungen eigenen sich perfekt, um die Theorien über das Sehen zu prüfen. Stimmt die Theorie, muss sie das Zerrbild exakt erklären können.
  • Viele der bisherigen Vorstellungen über das menschliche Sehsystem hielten den weit über einhundert verschiedenen Täuschbildern nicht Stand.
  • Besonders schwierig erwies sich die Erklärung des Hermann-Gitters. Eine lange geltende Theorie wurde 2004 widerlegt, seitdem gibt es mehrere Erklärungsansätze, die noch nicht final erhärtet wurden.
  • Die Ebbinghaus-Illusion zeigt: Im Gehirn werden verschiedene Bildobjekte miteinander in Beziehung gesetzt. Aus einem Größenvergleich wird auf die tatsächliche Größe geschlossen.
  • Eine wesentliche Rolle spielt das Sehgedächtnis: Was man im bisherigen Leben zu Gesicht bekommen hat, beeinflusst die Wahrnehmung der Wirklichkeit maßgeblich.

Zum Weiterlesen:

  • Michael Bach: Visual Phenomena & Optical Illusions - 132 of them; http://www.michaelbach.de/ot/  Sammlung optischer Täuschungen und visueller Phänomene, die kleine Experimente erlaubt und Erklärungen gibt, soweit von der aktuellen Sehforschung verstanden
  • Best Illusion of the Year Contest; http://​illu​sionoftheyear​.com/ [Stand: 2018]

*Der Artikel ist der Webseite www.dasgehirn.info entnommen: Er ist dort unter dem Titel "Wenn der Eindruck täuscht" in einer aktualisierten Form am 12.12.2017 erschienen und steht unter einer cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/truegerische-wahrnehmung/wenn-der-eindruck-taeuscht. (Literaturangaben, die nur als Abstract frei eingesehen werden können, wurden im ScienceBlog nicht übernommen.) www.dasGehirn.info ist ein Projekt der Gemeinnützigen Hertie-Stiftung und der neurowissenschaftlichen Gesellschaft e.V. in Zusammenarbeit mit dem ZKM/Zentrum für Kunst und Medien, Karlsruhe.


Weiterführende Links

  • Einführung Sehen. Video 1:32 min. cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/sehen/video-einfuehrung-sehen Der Sehsinn ist für die meisten Menschen das wichtigste Sinnessystem und liefert das Gros der Informationen über die Welt. Doch Sehen ist ein hochkomplexes Geschehen mit vielen Facetten, die unterschiedliche Anforderung an Auge und Gehirn stellen.
  • Formen Sehen. Video 1:19 min. cc-by-nc-Lizenz. https://www.dasgehirn.info/wahrnehmen/sehen/video-formen-sehen. Im primären visuellen Cortex sind 200 Millionen Nervenzellen damit beschäftigt, Ordnung in das Chaos der eingehenden Signale zu bringen. Eine wichtige Rolle dabei spielen Ecken und Kanten. Und Zellen, die auf ganz bestimmte Winkel reagieren.
  • Prof. Michael Bach: Sehphänomene im Netz| SWR1 Leute (am 25.12.2015 veröffentlicht). Video 25:08 min, Standard-YouTube-Lizenz. https://www.youtube.com/watch?v=w9ssHJn7Q7Y Bach ist Physiker, Hirnforscher und ein international anerkannter Seh- und Augenforscher. Seit zehn Jahren betreibt er eine stark frequentierte Internetseite, auf der er optische Täuschungen sammelt, aufbereitet und erklärt.
  • M.Bach & CM Poloschek (2006). Optical Illusions. ACNR 6 (2), 20-21. http://www.acnr.co.uk/pdfs/volume6issue2/v6i2visual.pdf

 

inge Thu, 11.01.2018 - 05:59

Charles Darwin - gestern und heute

Charles Darwin - gestern und heute

Do, 04.01.2018 - 07:58 — Peter Schuster Peter SchusterIcon Biologie

Von der Vermehrung von Populationen in einer Welt mit endlichen Ressourcen zu Darwins Prinzip der natürlichen Auslese und über die Vereinigung dieses Selektionsprinzips mit der Mendelschen Genetik zu einer biologischen Evolutionstheorie spannt sich ein weiter Bogen bis hin zu den heutigen Vorstellungen über die Mechanismen, die den Evolutionsprozessen zugrundeliegen. Der theoretische Chemiker Peter Schuster beschäftigt sich seit mehr als vierzig Jahren mit fundamentalen Fragen zu diesen Mechanismen und hat wesentlich zum Modell des "Hyperzyklus" und der "Quasispezies" beigetragen.*

Vermehrung in einer endlichen Welt

Spätestens seit Fibonaccis Hasenmodell (um ca. 1227) ist allen Naturalisten, Ökonomen und Philosophen geläufig, dass bei unbegrenzten Nahrungsvorräten die Populationsgrößen von Tieren von Generation zu Generation wie geometrische Reihen zunehmen (Abbildung 1). Der englische Nationalökonom Thomas Robert Malthus hat im Jahre 1798 diese Überlegungen auf die menschliche Population und die ökonomischen Konsequenzen unbeschränkten Bevölkerungswachstums angewendet. Gemäß einer geometrischen Reihe (einem ihr entsprechenden exponentiellen Wachstum), konsumiert eine derart wachsende Population alle Ressourcen eines endlichen Ökosystems bis Hungerkatastrophen drohen. Es gibt auch andere Auswirkungen einer Überbevölkerung - ein aktuelles Beispiel ist der anthropogene Anteil am Klimawandel.

Die von Malthus angesprochenen, durch Verknappung von Ressourcen entstehenden Probleme haben Wissenschaftler - darunter Charles Darwin und der belgische Mathematiker Pierre-François Verhulst - entscheidend beeinflusst. Verhulst kam auf die Idee, in die Gleichung für exponentielles Wachstum eine Beschränkung in Form einer endlichen Tragfähigkeit (C: Capacity) des Ökosystems einzuführen (Abbildung 1).

Abbildung 1. Vermehrung in einer Welt mit endlichen Ressourcen. (N = Zahl der Individuen, die im betrachteten Ökosystem leben.)

Darwin und das Selektionsprinzip

Vom logistischen Wachstum zu einer Selektion, die zur natürlichen Auslese führt, ist nur ein kleiner Schritt: wie bei Verhulst besteht die Population zwar aus einer einzigen Spezies, aber diese ist nicht homogen, sondern in Subspezies/Varianten aufgespalten, die sich in ihren Fitnesswerten (s.u.) unterscheiden. Davon bleibt die Kapazität eines Ökosystems unberührt- d.i. alle Subspezies zusammen können im Maximum nicht mehr Individuen umfassen als eine einzige. Aber es kommt zur Konkurrenz zwischen den einzelnen Subspezies und jene Subspezies mit im Mittel den meisten Nachkommen wird schließlich als Einzige überbleiben - die natürliche Auslese (Englisch: „Natural selection“ oder "Survival of the fittest"). Fitness bezieht sich hier ausschließlich auf die Zahl der fruchtbaren Nachkommen in den Folgegenerationen und hat nichts mit allgemeinem Erfolg im Leben, körperlicher Tüchtigkeit oder Durchsetzungsvermögen zu tun. Während des Selektionsprozesses nimmt die mittlere Fitness der Population laufend zu, präzise ausgedrückt niemals ab, wie durch elementare Mathematik bewiesen werden kann.

Einem mathematischen Modell wäre Darwin (1809 - 1882) sicher skeptisch bis ablehnend gegenübergestanden.

Was war aber dann seine geniale Leistung?

Versetzen wir uns dazu in die Welt eines Naturalisten des 19. Jahrhunderts, der für seine Beobachtungen bloß seine Augen und das Lichtmikroskop zur Verfügung hatte. Was dieser sah, war ein unwahrscheinlicher Reichtum an verschiedenen Formen und Funktionen der Lebewesen - Mikroben, Pilze, Pflanzen und Tiere. Für Darwin war seine Weltreise auf der HMS Beagle entscheidend, die ihn unter anderem zu den Galapagosinseln führte, wo er „Evolution in action“ beobachten konnte. Auch Alfred Russel Wallace, ein Zeitgenosse Darwins, muss hier erwähnt werden, der - basierend auf beobachteten Anpassungen von Tierarten im Amazonasgebiet und im Malaiischen Archipel und völlig unabhängig von Darwin - eine äquivalente Theorie der natürlichen Auslese entwickelt hat. Darwin und Wallace sammelten In akribischer Art und Weise Material über nahe verwandte biologische Arten und kamen zu dem Schluss, dass diese ihr heutiges Aussehen durch denselben, auf drei Säulen beruhenden Mechanismus erhalten hatten, durch:

  1. Vermehrung und Vererbung – die Kinder ähneln ihren Eltern,
  2. Variation – die Kinder sehen nicht genauso wie ihre Eltern aus – und
  3. Beschränktheit aller Ressourcen.

Die Bedingungen (i) und (iii) führen zwanglos zum Prinzip der natürlichen Auslese. Über Vererbung, die Mechanismen der Variation von Erscheinungsbild und Eigenschaften von Organismen, existierten damals aber nur hochspekulative Vorstellungen.

Für eine natürliche Auslese- im Sinne einer Optimierung der mittleren Fitness einer Population - müssen einige Voraussetzungen erfüllt sein. Im Allgemeinen dauert der Selektionsprozess in kleinen Populationen weniger lang, weshalb diese von Vorteil sind. Andrerseits benötigt man auch hinreichend große Subpopulationen: Ist die Subpopulation, zu der die Variante mit größter Fitness gehört, sehr klein, spielen mehr oder minder zufällige Prozesse oder unkontrollierte Schwankungen eine wichtige Rolle. Allerdings ist es für den Evolutionsprozess als Ganzes bedeutungslos, ob sich die beste, die zweitbeste oder die drittbeste, etc., Variante durchsetzt, solange echte Verbesserungen eintreten.

Mendel und die Variation durch Vererbung

Ein Grundpfeiler der Evolution wurde bisher noch nicht behandelt: Variation durch Vererbung. Darwins Vorstellungen von Vererbung waren schlichtweg falsch; entweder kannte er Gregor Mendels Arbeiten nicht oder hielt sie irrelevant für die Vorstellungen der biologischen Evolution.

Mendel (1822 - 1884) konnte durch die Interpretation sorgfältiger Versuche und die Anwendung von Mathematik, insbesondere von Statistik, seine Regeln für die Vererbung herleiten (Abbildung 2). Vererbung erfolgt in einzelnen Merkmalen und für jedes dieser Merkmale besitzt jedes Individuum zwei Träger. Sind die Träger gleich, spricht man von Reinerbigkeit andernfalls ist das Individuum mischerbig:

  1. Uniformitätsregel: In der ersten Generation (F1) sind alle Nachkommen von zwei verschieden, reinerbigen Elternteilen (P) gleich und mischerbig.
  2. Segregationsregel: Werden zwei Individuen der ersten Generation miteinander gekreuzt, so treten in der zweiten Generation (F2) alle Kombinationen auf und zwar je ein Enkel mit den beiden reinerbigen Formen (P) sowie die beiden mischerbigen Formen (F1)
  3. Unabhängigkeitsregel: Zwei oder mehrere Merkmale werden unabhängig voneinander vererbt.

Wie sich bald herausstellte, hat die Regel (iii) nur eingeschränkte Gültigkeit und ist nur dann erfüllt, wenn die Träger auf dem Genom sehr weit voneinander entfernt situiert sind.

Abbildung 2. Rekombination und Mendels Vererbungsgesetze. Bei der Bildung von Ei- und Samenzellen durch Reduktionsteilung (Meiose) wird das diploide Erbgut, in welchem jedes Gen in zwei Exemplaren enthalten ist, in je zwei haploide Genome aufgeteilt, wobei die Auswahl, welche der beiden Genkopien der Mutter oder des Vaters in die das Genom der haploide Zelle aufgenommen wird, zufällig erfolgt. Bei der Befruchtung der Eizelle durch eine Samenzelle werden die beiden haploiden Genome zu einem diploiden Genom zusammengeführt.

Mendel hat viele Tausende von Einzelbefruchtungen durchgeführt, um seine Regeln abzuleiten - alle zahlenmäßigen Aussagen gelten im Mittel großer Zahlen, haben daher mit statistischer Analyse zu tun, die für die Naturwissenschaft in der Mitte des 19. Jahrhunderts durchaus noch ungewöhnlich war.

Obwohl die Menschen seit dem Beginn ihrer Sesshaftigkeit in der Jungsteinzeit – etwa vor 12000 Jahren – begannen, Tiere und Pflanzen für ihre Zwecke zu verändern, gibt es systematische Verfahren erst seit der zweiten Hälfte des 19. Jahrhunderts. Ohne die Kenntnis genetischer Aspekte wurden Tiere nur nach äußeren Merkmalen für die Paarung ausgewählt und die Erzeugung verbesserter oder neuer Pflanzensorten erfolgte durch künstliche Selektion gewünschter Formen und blinde Kreuzung mit anderen Sorten. Erst an der Schwelle zum 20. Jahrhundert wurde die Tragweite von Mendels Arbeiten als Grundlage der Vererbung erkannt.

Der dänische Botaniker Wilhelm Johannsen prägte 1909 den Begriff des Gens, in welchem er allerdings eine abstrakte Vererbungseinheit ohne jegliche physische Realität sah. In der Folge entstand die Genetik als ein eigener Wissenschaftszweig der Biologie und ihre Anwendung stellte die Pflanzen- und Tierzüchtung auf eine wissenschaftliche Basis. Das abstrakte Bild wurde durch die Molekularbiologie korrigiert als es gelang den Träger der genetischen Merkmale in Form eines Desoxyribonukleinsäuremoleküls (DNA) mit einer wohl definierten physikalischen Struktur zu identifizieren.

Die synthetische Evolutionstheorie

Evolutionstheorie und Genetik standen lange Zeit im Clinch und es waren die Populationsgenetiker, Ronald Fisher, J.B.S. Haldane und Sewall Wright, denen um etwa 1930 die Synthese von Mendelscher Genetik und Darwinscher natürlicher Selektion in Form einer mathematischen Theorie gelang. In der Biologie beendete die sogenannte synthetische Evolutionstheorie erst mehr als zehn Jahre später den Streit. Berühmte Vertreter waren Theodosius Dobzhansky und Ernst Mayr.

Trotz unleugbarer Erfolge dieser synthetischen Theorie blieben grundlegende Probleme offen. Vor allem fehlte ein zufriedenstellender Mechanismus für die Entstehung echter Neuerungen durch den Evolutionsprozess. Rekombination (Abbildung 2) kann zwar eine gewaltige Vielzahl von Varianten bestehender Organismen erzeugen aber keine echten Innovationen. Auch evolvieren Organismen, die sich asexuell - ohne obligate Rekombination - vermehren, ebenso perfekt wie sexuell reproduzierende höhere Lebewesen. Die Mutation – in der ersten Hälfte des 20. Jahrhunderts noch vollkommen unverstanden hinsichtlich des Mechanismus ihrer Entstehung – konnte zwar für kleine Innovationsschritte und eine Optimierung von Eigenschaften verantwortlich gemacht werden, die Artenbildung erschien den Biologen aber stets als großer Sprung in den Eigenschaften der Organismen. Die meisten Evolutionsbiologen lehnten große Sprünge ab, da sie an die kreationistisch geprägten "Saltationstheorien" des 19. Jahrhunderts vor Darwin erinnerten.

Die Diskussion über die Geschwindigkeit der Evolution – langsam und graduell in kleinen Schritten oder sprunghaft, plötzlich und in großen Schritten – ging weiter. Geblieben von dieser Debatte ist die Einsicht, dass Evolution auf der makroskopischen und direkt beobachtbaren Ebene mit sehr unterschiedlichen Geschwindigkeiten stattfinden kann. In Evolutionsexperimenten mit Bakterien konnten solche Ungleichmäßigkeiten in den Prozessgeschwindigkeiten unmittelbar beobachtet werden. Computersimulationen der Evolution von RNA-Molekülen zeigten ebensolche Sprünge, die in diesem besonders einfachen Fall auch molekular interpretiert werden konnten.

Die Brücke von der Chemie zur Biologie

Bereits im 19. Jahrhundert begannen Chemiker biologische Prozesse mit physikalisch-chemischen Methoden zu studieren; Chemie und Biologie begannen als Biochemie miteinander zu verschmelzen. Anfangs galt das Interesse der Biochemiker den „Fermenten“ (Enzymen), hochspezifischen und überaus effizienten biologischen Katalysatoren, Proteinmolekülen, deren Wirkungsweise wir heute auf der Ebene ihrer molekularen Strukturen verstehen.

Als Meilenstein im Verstehen der evolutionsbiologischen Prozesse wird zurecht der auf Röntgenstrukturanalyse aufbauende Vorschlag einer molekularen Struktur für das DNA-Molekül (in der B-Konformation) durch James D. Watson und Francis H.C. Crick angesehen. Die doppelhelikale Struktur mit den nach innen gerichteten Nukleotiden, die sich eindeutig zu komplementären Basenpaaren zusammenfinden (Abbildung 3), klärte mehrere offene Fragen der Evolutionsbiologie mit einem Schlag:

  1. DNA-Moleküle sind Kettenpolymere wie auch viele andere Polymere, beispielsweise die Proteine. Das besondere an der DNA-Struktur ist eine Geometrie, die es gestattet die Reihenfolge der Substituenten an der Kette {A,T,G,C} abzulesen, wodurch das Molekül zur Kodierung von Nachrichten in der Art eines Informationsträgers geeignet ist.
  2. Die Paarungslogik, A=T und G≡C, verbindet jede lineare Folge von Buchstaben mit einer eindeutig definierten Komplementärsequenz; und man kann daher von einer geeigneten Struktur zur Kodierung von im Nukleotidalphabet {A,T,G,C} digitalisierten Nachrichten sprechen.
  3. Das DNA-Molekül besteht aus zwei Strängen; jeder für sich enthält die volle Information für das zweisträngige Gesamtmolekül und kann unzweideutig zu einem kompletten DNA-Molekül ergänzt werden. Dieser Sachverhalt suggeriert unmittelbar einen Kopiermechanismus (wie dies Watson und Crick in ihrer berühmten Publikation in Nature auch erkannten)
  4. Die DNA-Doppelhelix lässt ebenso unmittelbar eine möglichen Mechanismus für Mutationen erkennen, der in dem Fehleinbau eines einzigen Nukleotids besteht und der sich später auch tatsächlich in Form der Punktmutation als einfachste Veränderung der Nukleotidsequenz herausgestellt hat.

 

Abbildung 3. Struktur der Desoxyribonukleinsäure (DNA) und Kopieren von Molekülen. Die DNA ist ein unverzweigtes Kettenmolekül, an das vier verschiedene Nukleotidbasen A, T, G und C, angehängt sind. Die DNA-Doppelhelix (zweites Bild von oben) besteht aus zwei in verschiedene Richtungen laufenden Einzelsträngen mit den Seitenketten im Inneren der Helix. Die beiden Stränge sind über ihre Seitenketten durch spezifische zwischenmolekulare Bindungen aneinander geknüpft, wobei nur zwei komplementäre Paarungen, A=T und G≡C, auftreten. Die Komplementarität der Nukleotidbasenpaare gestattet es, einen Einzelstrang eindeutig zu einem Doppelstrang zu ergänzen; damit ist ein Weg zur Vervielfältigung von DNA-Molekülen vorgezeichnet (zweites Bild von unten). Mutationen kommen beispielsweise durch den zeitweise vorkommenden Fehleinbau von Nukleotidbasen zustande (unterstes Bild).

Weitere grundlegende Entdeckungen betrafen die Biochemie der Übersetzung der genetischen Information von Nukleinsäuren in Proteine, die vorerst als die einzigen wesentlichen Funktionsträger in den Zellen angesehen wurden. Gene waren nun keine abstrakten Einheiten mehr sondern konnten mit Sequenzabschnitten auf der DNA identifiziert werden. Die Entwicklung effizienter und preisgünstiger Verfahren der DNA-Sequenzanalyse ermöglicht es, vollständige DNA-Sequenzen einzelner Gene und ganzer Organismen zu bestimmen und zu vergleichen und eröffnet ungeahnte Möglichkeiten von der Biologie und Medizin bis zur Forensik.

Für die Evolutionstheorie besonders bedeutsam war die (an Hand von Aminosäuresequenzen in Proteinen) erfolgte Entdeckung der neutralen Evolution durch den Japaner Motoo Kimura. Mit Hilfe eines theoretischen Modells sowie Sequenz- und Funktionsvergleichen von Proteinen konnte er zeigen, dass Selektion auch in Abwesenheit von Fitnessdifferenzen eintritt. Selektion ist dann das Ergebnis eines stochastischen Prozesses: Welche Variante selektiert wird, kann nicht vorhergesagt werden und wir haben es dann nicht mit „Survival of the fittest“, den es ja nicht gibt, sondern mit der Tautologie „Survival of the survivor“ zu tun.

Evolutionsexperimente

Wie natürliche Auslese erfolgt, kann durch einfache Experimente mit RNA-Viren oder RNA-Molekülen untersucht werden. Die ersten einfach interpretierbaren Studien gehen auf den US-amerikanischen Biochemiker Sol Spiegelman zurück. Gleichzeitig entwickelte Manfred Eigen eine molekulare Theorie der Kinetik von Evolutionsvorgängen - zwei Ergebnisse hatten weitreichenden Einfluss auf das Verstehen der Evolution:

  1. Stationäre Populationen bestehen - insbesondere bei hinreichend hohen Mutationsraten - nicht nur aus einem einzigen Genotyp sondern aus einer Familie von nahe verwandten Genotypen, die Quasispezies genannt werden und aus der selektierten Sequenz sowie ihren häufigsten Mutanten bestehen, und
  2. In den meisten Fällen gibt es eine Fehlerschranke, welche darin zum Ausdruck kommt, dass Systeme mit Mutationsraten über einem kritischen Wert keine stabilen Zustände ausbilden können, sondern in der Art eines Diffusionsprozesses durch den Sequenzraum wandern. Die Fehlerschranke liegt etwa beim reziproken Wert der Genomlänge und dies ergibt bei Viren eine Fehlerrate von 1:10 000 und beim menschlichen Genom einen Wert von 1: 3 Milliarden.

Quasispezies bilden sich u.a auch bei Virus-Infektionen aus; die so entstehenden Viruspopulationen sind spezifisch für das Virus und für den infizierten Wirt. Dementsprechend wurde die Quasispeziestheorie auch zur Entwicklung von neuen Strategien gegen Virusinfektionen eingesetzt. Der Grundgedanke ist, durch eine Erhöhung der Mutationsrate mittels Gaben geeigneter Pharmaka die Viruspopulation zum Aussterben zu bringen und dies entweder durch Erhöhen des Anteils an letalen Varianten oder durch Überschreiten der Fehlerschranke.

Selektion in vitro wird heute auch zur „Züchtung“ von Molekülen mit vorgegebenen Eigenschaften angewandt: erfolgreiche Beispiele sind Proteine und RNA- oder DNA Moleküle.

Molekulare Genetik des 21. Jahrhunderts

Fast bis zum Beginn des 21. Jahrhunderts wurde das molekularbiologische Wissen um die Genetik von der Viren- und Bakteriengenetik bestimmt. Dass diese für höhere Organismen nicht zutrifft, diese keine "Riesenbakterien" sind, wird inzwischen klar gezeigt: es gibt grundlegende Unterschiede in den Regulationsmechanismen der Genexpression, und die RNA spielt darin eine fundamentale Rolle. Nach Meinung des Australischen Biologen John Mattick eignen sich die gut erforschten bakteriellen Mechanismen der Genregulation eben nur für kleine Gennetzwerke von bis zu einigen Tausend Genen - d.i. etwa die Länge der Bakteriengenome. Noch ungeklärt ist, ob der Großteil der nicht-translatierten DNA auch funktionslos - "junk-DNA" -ist, oder ob alle Genomabschnitte für die Regulation der komplexen Funktionen des Vielzellerorganismus gebraucht werden.

Was ist Epigenetik?

Genauere Untersuchungen zur Vererbung von Genexpression und Genregulation in einer Vielzahl von Organismen haben große Unterschiede aufgezeigt. Viele der schwer oder gar nicht erklärbaren Phänomene, die früher als Epigenetik abgetan wurden, beginnen wir nun auf der molekularen Ebene zu verstehen. Genaktivitäten sind abhängig von „Markern“ die, ohne die DNA-Sequenzen zu verändern, angebracht und abgenommen werden können. Solche Marker können von mehr oder weniger weit zurückliegenden Vorfahren und auch durch Umwelteinflüsse angebracht worden sein, haben typischerweise eine Lebensdauer von einigen Generationen und gehen dann wieder verloren. Eine andere, häufige Form des Abschaltens von Genen bedient sich teilweise sequenzgleicher RNA-Moleküle. Eine dem heutigen Wissensstand entsprechende Definition von Epigenetik wäre: „Die Erforschung von Phänomenen und Mechanismen, die erbliche Veränderungen an den Chromosomen hervorrufen und die Aktivität von Genen beeinflussen, ohne die Sequenz der DNA zu verändern.“

Sicherlich haben die künftigen Forschungen auf dem Gebiet der Molekulargenetik noch viele Überraschungen für uns bereit.

Was von Darwin 158 Jahre nach der „Origin of Species“ geblieben ist

Darwin hat mit seinem „Baum des Lebens“, der als einzige Zeichnung in der „Origin of Species“ vorkommt, als erster klar zum Ausdruck gebracht, dass alle heutigen irdischen Lebewesen von einem einzigen Urahn, einer Urzelle abstammen. Diese Vorstellung Darwins hat die Grundlage für die Erstellung von Stammbäumen (Phylogenie) - auf der Basis von DNA-Sequenzvergleichen - gelegt, ohne die eine moderne Evolutionsbiologie nicht mehr auskommen könnte.

Hinsichtlich der Bedeutung Darwins für die heutige Evolutionsdynamik, können wir uns auf das Selektionsprinzip - die natürliche Auslese - und seine universelle Gültigkeit beschränken: die Fitness zählt ja nur Individuen und ist daher unabhängig vom komplexen inneren Aufbau der Organismen. Hinsichtlich der Vorstellungen von Variation und Vererbung hatte Darwin kein derzeit vertretbares Modell vor Augen.

Die Komplexität der Lebewesen nimmt während der biologischen Evolution nicht graduell, sondern sprunghaft in großen Übergängen, den „Major transitions“ zu. Zurzeit sind diese nur soweit verstanden sind, als man plausibel machen kann, dass neben dem Darwinschen Prinzip auch andere Mechanismen wirksam sind. Dabei finden sich kleinere Einheiten zu regulierten größeren Verbänden zusammen, und vormals selbständige Elemente verlieren zumindest teilweise ihre Unabhängigkeit. Beispiele sind Übergänge von:

  1. RNA-Welt zu DNA & Protein-Welt,
  2. Gen zum Genom,
  3. Einzeller zum Vielzeller,
  4. solitären Tieren zu Tiergesellschaften,
  5. Primatengesellschaften zu menschlichen Kulturen.

Zusätzlich zur Evolution durch Variation und Selektion kommt Kooperation zwischen Konkurrenten als neues Prinzip zum Tragen. Ein einfaches dynamisches Modell, der sogenannte „Hyperzyklus“ wurde vor vierzig Jahren entwickelt, um eine „Major Transition“, den Übergang von einer RNA-Welt zu einer DNA&Protein-Welt, plausibel machen zu können. Die einzelnen Elemente eines Hyperzyklus haben jeweils zwei Funktionen: sie sind i) als Vorlagen zu ihrer eigenen Kopierung aktiv und ii) in der Lage diese Kopierprozesse zu katalysieren. Für eine stabile Organisationsform werden die genetischen Informationsträger – in der Regel RNA-Moleküle – zu einer ringförmigen Funktionskette, dem Hyperzyklus, zusammengeschlossen.

In der makroskopischen Biologie treten solche multifunktionellen Systeme vor allem in Form der verschiedenartigen Symbiosen auf. Systematische Untersuchungen mit RNA-Molekülen haben gezeigt, dass es oft einfacher ist an Stelle von einfachen Zyklen kooperative Netzwerke zu bilden.

Um die in der Natur beobachteten Phänomene beschreiben zu können, muss Darwins Evolutionsmodell von Variation und Selektion durch die Einbeziehung von Kooperation zwischen Konkurrenten erweitert werden, und dies ist zumindest auf der Ebene der Theorie ohne große Probleme möglich.

Schlussbemerkung

Die biologische Evolution ist ebenso ein wissenschaftliches Faktum wie die Bewegung der Erde um die Sonne (vergessen wir der Einfachheit halber Einsteins Korrekturen). So wie das Ptolemäische Weltbild durch die Raumfahrt endgültig zur Fiktion wurde, so widerlegen Evolutionsexperimente das Leugnen von Evolutionsvorgängen. Zwei Unterschiede zwischen Physik und Biologie gibt es aber dennoch:

  1. In der Himmelsmechanik können wir Newtons Gesetze frei von Störungen durch den Luftwiderstand und anderen Komplikationen unmittelbar in Aktion beobachten, es gibt aber keine entsprechende „Himmelsbiologie“ , und
  2. die biologischen Studienobjekte sind ungleich komplizierter als die physikalischen.

* Kurzfassung des Schlussvortrags "Charles Darwin - gestern und heute", den Peter Schuster anlässlich des Ignaz-Lieben-Symposiums "Darwin in Zentraleuropa" (9. - 10. November 2017, Wien) gehalten hat. Die komplette Fassung (incl. 46 Fußnoten) ist auf der Homepage des Autors abrufbar https://www.tbi.univie.ac.at/~pks/Presentation/wien-lieben17text.pdf  und soll 2018 auf der homepage der Lieben-Gesellschaft http://www.i-l-g.at erscheinen.


Details zu Inhalten von "Charles Darwin - gestern und heute"

Darwin Publications: Books (American Museum of History, Darwin Manuscripts Project). open access.

Robert Malthus: Eine Abhandlung über das Bevölkerungsgesetz oder eine Untersuchung seiner Bedeutung für die menschliche Wohlfahrt in Vergangenheit und Zukunft, nebst einer Prüfung unserer Aussichten auf eine künftige Beseitigung oder Linderung der Übel, die es verursacht (6. Auflage, aus dem Englischen übersetzt und frei abrufbar; Digitale Texte der Bibliothek des Seminars für Wirtschafts- und Sozialgeschichte, Uni Köln) http://www.digitalis.uni-koeln.de/Malthus/malthus_index.html

M. Eigen, P. Schuster (1979).The Hypercycle - A Principle of Natural Self-Organization. Springer-Verlag, Berlin 1979.

Artikel im ScienceBlog:

Peter Schuster (chronologisch gelistet):

 

inge Mon, 01.01.2018 - 07:58